文章编号:1008-1402(2009)02-0203-03
Vol.27No.2
Mar. 2009
一种改进的移动机器人视觉跟踪算法研究
①
李志成, 谢 娟, 周先国
122
(1.南京航空航天大学航天学院,江苏南京210016;2.南京航空航天大学自动化学院,江苏南京210016)
摘 要: 运动物体的实时跟踪是移动机器人视觉的关键技术之一.为了实现对目标快速有效的跟踪,本文提出了一种改进的移动机器人视觉跟踪算法,该算法在meanshift算法的基础上,利用
颜色特征作为视觉跟踪依据,并且引入Kalman滤波进行迭代窗口的预测.实验仿真结果表明,本文算法一定程度上消除了光照条件的影响,而且很好的解决了当目标被遮挡时发生目标跟踪偏差或丢失的问题,具有实用价值.关键词: 移动机器人;视觉跟踪;meanshift算法;Kalman滤波中图分类号: TP242.62 文献标识码:A
迭代窗口的预测.实验结果表明,本文算法一定程
度上消除了光照条件的影响,而且很好的解决了当目标被遮挡时发生目标跟踪偏差或丢失的问题,具有很好的鲁棒性和实时性.
+0 引 言
移动机器人的智能性在于其与外部对象-环境和人的相互协调的能力,在这方面,视觉系统起了重要的作用.机器视觉是在上世纪六十年代末出现的,将视觉信息用于机械手定位的研究可以追溯到七十年代.上世纪八十年代后期,出现了专门的图像处理硬件,机器人视觉控制开始了系统性的研究.九十年代,随着微电子技术迅速发展,大容量、高速、高性能计算机迅速的普及,图像处理硬件的快速发展和快速CCD摄像机的出现,机器人视觉技术出现了飞速的发展和进步.
视觉跟踪融合图像、控制、模式识别、人工智能与计算机等相关领域的先进技术,在视频监控、军事、工业和科研教学等方面有着重要的意义.跟踪算法一般可分为两类:基于“目标模式搜索匹配”的跟踪算法和基于“目标状态估计、滤波”的跟踪算
[1-3]
法.Meanshift跟踪算法是以模板匹配为基本思想的跟踪算法,采用颜色直方图对目标建模,具有很好的实时性,但在遮挡情况下鲁棒性得不到保
[4]
证.而粒子滤波是典型的“目标状态估计、滤波”的跟踪算法,采用自顶向下的方法对目标进行状态估计、对场景进行学习,大量样本的采用有效的表达了跟踪的不确定性,但计算量太大,实时性差.因此本文提出了一种改进的移动机器人视觉跟踪算法,该算法在meanshift算法的基础上,利用颜色特征作为视觉跟踪依据,并且引入Kalman滤波进行
1 视觉跟踪的meanshift迭代
首先,建立被跟踪目标的概率模型,其中,x0
为内核中心坐标,xi为采样点坐标,h为内核窗口的带宽,δ是Kroneckerdelta函数,u=1,2,…,m,m是将颜色空间等矩划成的子空间个数,k(x)为内核函数,根据内核密度估计表示为:
n
qu=C
^
i=1
∑
k‖
xi-x02
‖δ[b(xi)-u]h
(1)
为候选目标在当前帧对应位置依据上式建立相同的模型,有:
n
pu(y)=Ch
^
i=1
∑k
‖
xi-y2
‖δ[b(xi)-u](2)h
因此目标跟踪的过程可以简化为,寻找最优的^^^^
y使得pu(y)与qu相似度最大.pu(y)与qu的相似性用Bhattacharrya系数来度量,即:
m
ρ(y)=ρ[p(y),q]=
^
u=1
∑
pu(y)qu
^
(3)
将上式在y0点按泰勒公式展开,并将式(2)带入,可得:ρ[p(y),q]≈12
mu=1
∑
p(y0)qu
①收稿日期:2008-12-11
作者简介:李志成(1984-),男,山东潍坊人,南京航空航天大学航天学院,硕士.
204+
Chn
佳木斯大学学报(自然科学版)2009年
2
i=1
∑wk
imu=1
‖
y-xi2
‖h
(4)
qu称为权重系
pu(y0)
2.2 Kalman滤波的引入
式中,wi=
δ[b(xi)-u]∑
数.然后使用meanshift寻找临域内该密度估计的
最大值,通过以上模式,内核位置中心由y0移向
y1,即:
n
y1=
i=1n
∑
i=1
g(‖
xi-y02
‖)wixi
h
∑
xi-y02
g(‖‖)wi
h
(5)
应用第1节中的meanshift跟踪方法,当目标被大面积遮挡或完全遮挡发生时,由于内核窗口中感兴趣目标信息的丢失,以及meanshift只是重复前一帧的迭代,因此很容易发生跟踪偏差或目标丢失,此部分在第3节得到了证明.本文引入Kalman滤波进行迭代窗口的预测,设系统的状态方程和观测方程为:
(7)状态方程: Xk=FXk-1+Wk
观测方程: Zk=HXk+Vk
(8)
yi-1
重复以上步骤,则目标的跟踪实质上简化为由
向yi的迭代过程.
式中,Xk表示系统状态,F为n×n的系统状态转移矩阵,用于描述目标的运动,Wk为系统噪声,Zk代表测量数据,H为m×n的线性函数矩阵,Vk为测量噪声,其中Wk,Vk为两两独立且服从均值为零高斯分布的白噪声.
COV[WiWk]=COV[VjVk]=
2 本文改进的算法针对meanshift算法存在因光照不稳定容易造成跟踪偏差的问题,以及在目标跟踪过程中meanshift没有利用目标的运动方向和速度信息,目标被遮挡跟踪失败的问题,本文对机器人视觉系统的颜色建模模块以及算法模块进行了研究.
Qk i=k 0 i≠k Rk j=k
(9)
(10)
0 j≠k
T
定义状态Xk={xk xk yk yk},其中(xk,yk)
为内核中心的位置分量,(xk,yk)为内核中心的速度分量,由状态方程与观测方程得
1T000100F=
001T0001T为相邻两帧图像的间隔时间,取Zk=
图1 机器人视觉系统结构框架
{xk xk yk yk},H=I.
Kalman滤波用于本文目标跟踪迭代窗口预测
T
2.1 颜色空间建模
传统的meanshift算法采用RGB颜色空间,RGB空间R,G,B都包含亮度信息,在本文第3节
的步骤如下:
TT-1
Kk=Pk|k-1H(HPk|k-1H+R)
Pk=(I-KkH)Pk|
Xk+1|
k
k-1
(11)(12)(13)(14)
证明了光照的变化对视觉跟踪系统的影响很大.YUV空间的亮度信号Y与色度信号U,V分离,考
=FXk|k-1+FKk(Zk-HXk|k-1)
Pk+1|
k
=FPkF+Q
T
虑到硬件对颜色空间的支持性,需进行颜色空间转换,转换公式如下:
YU=V0.299-0.1480.615
0.587-0.289-0.515
0.1140.437-0.100RGB(6)
RGB-YUV的空间转换比含有反三角运算的RGB-HSI,RGB-HSV的空间转换的计算量要低,
应用以上迭代步骤,将第k帧的内核窗口中心
位置作为kalman滤波器的观测值输入,预测第k+1帧内核窗口中心位置.将所得到的窗口预测值作为meanshift搜索迭代的起始值,在此基础上寻找最优窗口.
以上kalman预测迭代的过程嵌入到meanshift算法的过程,是在预测最优的基础上去寻找最优,更利于系统的实时性.
更利于实时性,因此本文选择YUV空间模型建模.
第2期李志成,等:一种改进的移动机器人视觉跟踪算法研究
205
未变化时的25帧以前一直有较好的跟踪效果,第28帧光照变暗后,跟踪发生很大偏差;对相同的图像应用本文改进方法,由图3第28帧知,光照变化后仍然有很好的跟踪效果.图4为常规meanshift算法的第7帧与第14帧的跟踪结果,当目标被遮挡时,目标完全丢失;采用本文Kalman滤波预测迭代的方法,应用于相同的图像得到图5,结果显示,本文采用的Kalman滤波与meanshift算法相结合的方法,可以有效的解决目标在被遮挡时的丢失问题,实现准确的跟踪.
4 结束语本文提出了一种基于meanshift的改进算法,算法有效地解决了meanshift跟踪方法存在的光照不稳定问题,通过引入Kalman滤波对meanshift迭代窗口进行预测,很好的解决了目标被遮挡的情况下跟踪丢失的问题,实验表明,本文算法具有很好的鲁棒性.参考文献:
[1] ChengY.MeanShift,ModeSeekingandClustering[J].IEEE
Trans.OnPatternAnalysisandMachineIntelligence,1995,17(8):790-799.
[2] AherneF,ThackerN,RockettP.TheBhattacharyyametricasAnAb2
soluteSimilarityMeasureforFrequencyCodedData[J].StatisticalTechniqutsinPatternRecognition1998,34(4):363-368.[3] ComaniciuD,RameshV,MeerP.Real-timeTrackingofNon-rig2
idobjectsusingMeanShift[J].IEEEComputerVisionandPatternRecognition,2000,11:142-149.
[4] SMaskell,SArulampalam,fCIapp.ATutorialonParticleFiltersfor
On-lineNon-linearNon-GaussianBayesianTracking[J].IEEETran.SignalProcessing,2002,55(2):174-188.
[5] ComaniciuD,RameshV,MeerP.Kernel-BasedObjectTracking
[J].IEEETransonPatternAnalysisandMachineIntelligence,2003,25(5):564-575.
[6] ShahriarNEgahdaripour.RevisedDefinitionofOpticalFlow:Inte2
grationofRadiometricandGeometricCuesforDynamicSceneAnaly2sis[J].IEEETransactionsonPatternAnalysisandMachineIntelli2gence,1998,20(9):961-979.
3 仿真结果及性能分析
本文算法基于MATLAB7.6编程环境实现,采
用两组视频截图进行对比,图像尺寸为320×240,跟踪算法采用Epanechnikov内核.图2显示了常规meanshift算法第25帧和第28帧的跟踪结果,光照
1
ResearchonanImprovedAlgorithmforVisualTrackingonMobileRobot
LIZhi-cheng, XIEJuan, ZHOUXian-guo
Engineering,NanjingUniversityofAeronauticsandAstronautics,Nanjing210016,China)
2
2
(1.DepartmentofAstronautics,NanjingUniversityofAeronauticsandAstronautics,Nanjing210016,China;2.DepartmentofAutomation
Abstract: Trackingatargetinreal-timeisoneofthekeyvisualtechniquesonmobilerobot.Inordertotrackamovingobjectfastandeffectively,animprovedalgorithmisproposedinthispaper.Thisnewmethodusescolorfea2turesasthebasisforthetarget’strackingbasedonmeanshiftalgorithm,andthencombinedwithKalmanfilterforite2rativewindowforecast.Simulationresultsshowthatthisnewalgorithmnotonlyeliminatestheimpactoflightingcondi2tionstosomeextent,butalsoisagoodsolutionfortrackingbiasormissingwhenthetargetwasblocked.
Keywords: mobilerobot;visualtracking;meanshiftalgorithm;Kalmanfilte
因篇幅问题不能全部显示,请点此查看更多更全内容