小编给大家分享一下Opencv基于CamShift算法如何实现目标跟踪,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!
创新互联是一家专业提供南川企业网站建设,专注与成都网站设计、成都网站建设、HTML5、小程序制作等业务。10年已为南川众多企业、政府机构等服务。创新互联专业网络公司优惠进行中。
CamShift算法全称是“Continuously Adaptive Mean-Shift”(连续的自适应MeanShift算法),是对MeanShift算法的改进算法,可以在跟踪的过程中随着目标大小的变化实时调整搜索窗口大小,对于视频序列中的每一帧还是采用MeanShift来寻找最优迭代结果,至于如何实现自动调整窗口大小的,可以查到的论述较少,我的理解是通过对MeanShift算法中零阶矩的判断实现的。
在MeanShift算法中寻找搜索窗口的质心用到窗口的零阶矩M00和一阶矩M10,M01:
零阶矩是搜索窗口内所有像素的积分,即所有像素值之和,物理上的意义是计算搜索窗口的尺寸。经过目标的H分量直方图反向投影后,目标区域的搜索窗口大部分像素值归一化后应该是最大值255,如果计算出来零阶矩大于某一阈值,可以认为此时目标铺满了整个搜索窗口,有理由认为在搜索窗口之外的区域还存在目标区域,需要增大搜索窗口的尺寸;相应的,如果零阶矩小于某一阈值,则需要缩小搜索窗口的尺寸,如此一来,当目标的大小发生变化的时候,CamShift算法就可以自适应的调整目标区域进行跟踪。
以上过程中涉及到一个关键的概念——反向投影,CamShift和MeanShift的运算都是在反向投影图像上进行的,反向投影的实现过程如下:计算并生成目标区域的H分量的直方图,反向投影其实就是把目标图像上每一个像素点的像素值替换为当前像素值所在bin对应的直方图bin的数值。
Opencv中CamShfit在使用上跟MeanShift一致:
CamShift( InputArray probImage, CV_OUT CV_IN_OUT Rect& window, TermCriteria criteria );
第一个参数probImage是反向投影图像
第二个参数window是输入和输出的搜索窗口/目标窗口,window的尺寸会自动调整
第三个参数criteria是迭代收敛终止条件
#include "core/core.hpp" #include "highgui/highgui.hpp" #include "imgproc/imgproc.hpp" #include "video/tracking.hpp" #include<iostream> using namespace cv; using namespace std; Mat image; Mat rectImage; Mat imageCopy; //绘制矩形框时用来拷贝原图的图像 bool leftButtonDownFlag=false; //左键单击后视频暂停播放的标志位 Point originalPoint; //矩形框起点 Point processPoint; //矩形框终点 Mat targetImageHSV; int histSize=200; float histR[]={0,255}; const float *histRange=histR; int channels[]={0,1}; Mat dstHist; Rect rect; vector<Point> pt; //保存目标轨迹 void onMouse(int event,int x,int y,int flags ,void* ustc); //鼠标回调函数 int main(int argc,char*argv[]) { VideoCapture video(argv[1]); double fps=video.get(CV_CAP_PROP_FPS); //获取视频帧率 double pauseTime=1000/fps; //两幅画面中间间隔 namedWindow("跟踪木头人",0); setMouseCallback("跟踪木头人",onMouse); while(true) { if(!leftButtonDownFlag) //判定鼠标左键没有按下,采取播放视频,否则暂停 { video>>image; } if(!image.data||waitKey(pauseTime)==27) //图像为空或Esc键按下退出播放 { break; } if(originalPoint!=processPoint&&!leftButtonDownFlag) { Mat imageHSV; Mat calcBackImage; cvtColor(image,imageHSV,CV_RGB2HSV); calcBackProject(&imageHSV,2,channels,dstHist,calcBackImage,&histRange); //反向投影 TermCriteria criteria(TermCriteria::MAX_ITER + TermCriteria::EPS, 1000, 0.001); CamShift(calcBackImage, rect, criteria); Mat imageROI=imageHSV(rect); //更新模板 targetImageHSV=imageHSV(rect); calcHist(&imageROI, 2, channels, Mat(), dstHist, 1, &histSize, &histRange); normalize(dstHist, dstHist, 0.0, 1.0, NORM_MINMAX); //归一化 rectangle(image, rect, Scalar(255, 0, 0),3); //目标绘制 pt.push_back(Point(rect.x+rect.width/2,rect.y+rect.height/2)); for(int i=0;i<pt.size()-1;i++) { line(image,pt[i],pt[i+1],Scalar(0,255,0),2.5); } } imshow("跟踪木头人",image); waitKey(100); } return 0; } //*******************************************************************// //鼠标回调函数 void onMouse(int event,int x,int y,int flags,void *ustc) { if(event==CV_EVENT_LBUTTONDOWN) { leftButtonDownFlag=true; //标志位 originalPoint=Point(x,y); //设置左键按下点的矩形起点 processPoint=originalPoint; } if(event==CV_EVENT_MOUSEMOVE&&leftButtonDownFlag) { imageCopy=image.clone(); processPoint=Point(x,y); if(originalPoint!=processPoint) { //在复制的图像上绘制矩形 rectangle(imageCopy,originalPoint,processPoint,Scalar(255,0,0),2); } imshow("跟踪木头人",imageCopy); } if(event==CV_EVENT_LBUTTONUP) { leftButtonDownFlag=false; rect=Rect(originalPoint,processPoint); rectImage=image(rect); //子图像显示 imshow("Sub Image",rectImage); cvtColor(rectImage,targetImageHSV,CV_RGB2HSV); imshow("targetImageHSV",targetImageHSV); calcHist(&targetImageHSV,2,channels,Mat(),dstHist,1,&histSize,&histRange,true,false); normalize(dstHist,dstHist,0,255,CV_MINMAX); imshow("dstHist",dstHist); } }
蓝色窗口是跟踪的目标,绿色线条是目标走过的轨迹。
看完了这篇文章,相信你对“Opencv基于CamShift算法如何实现目标跟踪”有了一定的了解,如果想了解更多相关知识,欢迎关注创新互联行业资讯频道,感谢各位的阅读!
网站名称:Opencv基于CamShift算法如何实现目标跟踪
标题链接:https://www.cdcxhl.com/article42/jeddec.html
成都网站建设公司_创新互联,为您提供动态网站、网站策划、品牌网站建设、、网站维护、移动网站建设
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联