#python #artificial-intelligence #object-detection #opencv3.0 #yolo
#python #искусственный интеллект #обнаружение объекта #opencv3.0 #yolo
Вопрос:
Привет, я новичок в Python для этого уровня, но я изо всех сил стараюсь это делать. Я обнаружил объект в видеокадрах и пометил его, а также подсчитал общее количество объектов в кадре, но мой вопрос в том, как я могу посчитать объект после прохождения строки, как показано на рисунке. а также с категорией объекта.
Вот мой код, пожалуйста, ответьте подробно и попробуйте также добавить код.
На изображении я подсчитал все объекты во фрейме, но я хочу посчитать их, когда они пересекут линию
Заранее спасибо 🙂
import cv2
import numpy as np
net = cv2.dnn.readNet('yolov3.weights','yolov3.cfg')
classes = []
with open('coco.names','r') as f:
classes = f.read().splitlines()
# printing the data which is loaded from the names file
#print(classes)
cap = cv2.VideoCapture('video.mp4')
while True:
_,img = cap.read()
height, width, _ = img.shape
blob = cv2.dnn.blobFromImage(img, 1/255, (416 , 416), (0,0,0) ,swapRB=True,crop=False)
net.setInput(blob)
output_layer_names = net.getUnconnectedOutLayersNames()
layerOutput = net.forward(output_layer_names)
boxes = []
person =0
truck =0
car = 0
confidences = []
class_ids =[]
for output in layerOutput:
for detection in output:
scores = detection[5:]
class_id = np.argmax(scores)
confidence = scores[class_id]
if confidence > 0.5:
center_x = int(detection[0]*width)
center_y = int(detection[1]*height)
w = int(detection[2]*width)
h = int(detection[3]*height)
x = int(center_x - w/2)
y = int(center_y - h/2)
boxes.append([x,y,w,h])
confidences.append((float(confidence)))
class_ids.append(class_id)
indexes = cv2.dnn.NMSBoxes(boxes,confidences,0.5,0.4)
font = cv2.QT_FONT_NORMAL
colors = np.random.uniform(0,255,size=(len(boxes),3))
for i in indexes.flatten():
labelsss = str(classes[class_ids[i]])
if(labelsss == 'person'):
person =1
if(labelsss == 'car'):
car =1
if(labelsss == 'truck'):
truck =1
for i in indexes.flatten():
x,y,w,h = boxes[i]
label =str(classes[class_ids[i]])
confidence = str(round(confidences[i],1))
color = colors[i]
cv2.rectangle(img,(x,y),(x w , y h), color, 2)
cv2.line(img,(1000,250),(5,250),(0,0,0),2)
cv2.putText(img, label " ", (x, y 20), font, 0.5, (255,255,255),2)
cv2.putText(img, 'Car' ":" str(car), (20, 20), font, 0.8, (0,0,0),2)
cv2.putText(img, 'Person' ":" str(person), (20, 50), font, 0.8, (0,0,0),2)
cv2.putText(img, 'Truck' ":" str(truck), (20, 80), font, 0.8, (0,0,0),2)
cv2.imshow('Image',img)
key = cv2.waitKey(1)
if key == 10:
break
cap.release()
cv2.destroyAllWindows()
Ответ №1:
Я делал точно такой проект во время своей стажировки. Вы можете ознакомиться с кодом здесь:https://github.com/sarimmehdi/nanonets_object_tracking/blob/master/test_on_video.py
В двух словах: вместо этого вы должны нарисовать прямоугольник (узкий) и посчитать отслеживаемый идентификатор, когда он проходит через прямоугольник. Если прямоугольник достаточно узкий, вы также можете избежать проблемы повторной идентификации.
Комментарии:
1. Можете ли вы объяснить технику, как вы отслеживали объект!!!! я хочу получить логику….
2. Я видел треклеты на вашей картинке. Итак, я предполагаю, что вы уже знаете, как отслеживать объект (я использовал глубокую сортировку в своем подходе). В любом случае, замените вашу линию на рисунке прямоугольником. Пусть (x1, y1) — координаты верхнего левого угла, а (x2, y2) — координаты нижнего правого угла. Пусть (x, y) будет центром тяжести вашего треклета. Если x1 <= x <= x2 и y1 <= y <= y2, то подсчитайте этот идентификатор и добавьте единицу к вашему количеству объектов. Сделайте это для любого другого объекта.