您的当前位置:首页正文

一种改进的移动机器人视觉跟踪算法研究

来源:画鸵萌宠网
 第27卷第2期     佳木斯大学学报(自然科学版)   2009 年03月     JournalofJiamusiUniversity(NaturalScienceEdition)  

文章编号:1008-1402(2009)02-0203-03

Vol.27No.2

Mar. 2009

一种改进的移动机器人视觉跟踪算法研究

李志成, 谢 娟, 周先国

122

(1.南京航空航天大学航天学院,江苏南京210016;2.南京航空航天大学自动化学院,江苏南京210016)

摘 要: 运动物体的实时跟踪是移动机器人视觉的关键技术之一.为了实现对目标快速有效的跟踪,本文提出了一种改进的移动机器人视觉跟踪算法,该算法在meanshift算法的基础上,利用

颜色特征作为视觉跟踪依据,并且引入Kalman滤波进行迭代窗口的预测.实验仿真结果表明,本文算法一定程度上消除了光照条件的影响,而且很好的解决了当目标被遮挡时发生目标跟踪偏差或丢失的问题,具有实用价值.关键词: 移动机器人;视觉跟踪;meanshift算法;Kalman滤波中图分类号: TP242.62    文献标识码:A

迭代窗口的预测.实验结果表明,本文算法一定程

度上消除了光照条件的影响,而且很好的解决了当目标被遮挡时发生目标跟踪偏差或丢失的问题,具有很好的鲁棒性和实时性.

+0 引 言

移动机器人的智能性在于其与外部对象-环境和人的相互协调的能力,在这方面,视觉系统起了重要的作用.机器视觉是在上世纪六十年代末出现的,将视觉信息用于机械手定位的研究可以追溯到七十年代.上世纪八十年代后期,出现了专门的图像处理硬件,机器人视觉控制开始了系统性的研究.九十年代,随着微电子技术迅速发展,大容量、高速、高性能计算机迅速的普及,图像处理硬件的快速发展和快速CCD摄像机的出现,机器人视觉技术出现了飞速的发展和进步.

视觉跟踪融合图像、控制、模式识别、人工智能与计算机等相关领域的先进技术,在视频监控、军事、工业和科研教学等方面有着重要的意义.跟踪算法一般可分为两类:基于“目标模式搜索匹配”的跟踪算法和基于“目标状态估计、滤波”的跟踪算

[1-3]

法.Meanshift跟踪算法是以模板匹配为基本思想的跟踪算法,采用颜色直方图对目标建模,具有很好的实时性,但在遮挡情况下鲁棒性得不到保

[4]

证.而粒子滤波是典型的“目标状态估计、滤波”的跟踪算法,采用自顶向下的方法对目标进行状态估计、对场景进行学习,大量样本的采用有效的表达了跟踪的不确定性,但计算量太大,实时性差.因此本文提出了一种改进的移动机器人视觉跟踪算法,该算法在meanshift算法的基础上,利用颜色特征作为视觉跟踪依据,并且引入Kalman滤波进行

1 视觉跟踪的meanshift迭代

首先,建立被跟踪目标的概率模型,其中,x0

为内核中心坐标,xi为采样点坐标,h为内核窗口的带宽,δ是Kroneckerdelta函数,u=1,2,…,m,m是将颜色空间等矩划成的子空间个数,k(x)为内核函数,根据内核密度估计表示为:

n

qu=C

^

i=1

k‖

xi-x02

‖δ[b(xi)-u]h

(1)

为候选目标在当前帧对应位置依据上式建立相同的模型,有:

n

pu(y)=Ch

^

i=1

∑k

xi-y2

‖δ[b(xi)-u](2)h

因此目标跟踪的过程可以简化为,寻找最优的^^^^

y使得pu(y)与qu相似度最大.pu(y)与qu的相似性用Bhattacharrya系数来度量,即:

m

ρ(y)=ρ[p(y),q]=

^

u=1

pu(y)qu

^

(3)

将上式在y0点按泰勒公式展开,并将式(2)带入,可得:ρ[p(y),q]≈12

mu=1

p(y0)qu

①收稿日期:2008-12-11

作者简介:李志成(1984-),男,山东潍坊人,南京航空航天大学航天学院,硕士.

204+

Chn

佳木斯大学学报(自然科学版)2009年

2

i=1

∑wk

imu=1

y-xi2

‖h

(4)

qu称为权重系

pu(y0)

2.2 Kalman滤波的引入

式中,wi=

δ[b(xi)-u]∑

数.然后使用meanshift寻找临域内该密度估计的

最大值,通过以上模式,内核位置中心由y0移向

y1,即:

n

y1=

i=1n

i=1

g(‖

xi-y02

‖)wixi

h

xi-y02

g(‖‖)wi

h

(5)

应用第1节中的meanshift跟踪方法,当目标被大面积遮挡或完全遮挡发生时,由于内核窗口中感兴趣目标信息的丢失,以及meanshift只是重复前一帧的迭代,因此很容易发生跟踪偏差或目标丢失,此部分在第3节得到了证明.本文引入Kalman滤波进行迭代窗口的预测,设系统的状态方程和观测方程为:

(7)状态方程: Xk=FXk-1+Wk

观测方程: Zk=HXk+Vk

(8)

yi-1

重复以上步骤,则目标的跟踪实质上简化为由

向yi的迭代过程.

式中,Xk表示系统状态,F为n×n的系统状态转移矩阵,用于描述目标的运动,Wk为系统噪声,Zk代表测量数据,H为m×n的线性函数矩阵,Vk为测量噪声,其中Wk,Vk为两两独立且服从均值为零高斯分布的白噪声.

COV[WiWk]=COV[VjVk]=

2 本文改进的算法针对meanshift算法存在因光照不稳定容易造成跟踪偏差的问题,以及在目标跟踪过程中meanshift没有利用目标的运动方向和速度信息,目标被遮挡跟踪失败的问题,本文对机器人视觉系统的颜色建模模块以及算法模块进行了研究.

 Qk  i=k 0   i≠k Rk  j=k

(9)

(10)

 0   j≠k

T

定义状态Xk={xk 󰂻xk yk 󰂻yk},其中(xk,yk)

为内核中心的位置分量,(󰂻xk,󰂻yk)为内核中心的速度分量,由状态方程与观测方程得

1T000100F=

001T0001T为相邻两帧图像的间隔时间,取Zk=

图1 机器人视觉系统结构框架

{xk 󰂻xk yk 󰂻yk},H=I.

Kalman滤波用于本文目标跟踪迭代窗口预测

T

2.1 颜色空间建模

传统的meanshift算法采用RGB颜色空间,RGB空间R,G,B都包含亮度信息,在本文第3节

的步骤如下:

TT-1

Kk=Pk|k-1H(HPk|k-1H+R)

Pk=(I-KkH)Pk|

Xk+1|

k

k-1

(11)(12)(13)(14)

证明了光照的变化对视觉跟踪系统的影响很大.YUV空间的亮度信号Y与色度信号U,V分离,考

=FXk|k-1+FKk(Zk-HXk|k-1)

Pk+1|

k

=FPkF+Q

T

虑到硬件对颜色空间的支持性,需进行颜色空间转换,转换公式如下:

YU=V0.299-0.1480.615

0.587-0.289-0.515

0.1140.437-0.100RGB(6)

RGB-YUV的空间转换比含有反三角运算的RGB-HSI,RGB-HSV的空间转换的计算量要低,

应用以上迭代步骤,将第k帧的内核窗口中心

位置作为kalman滤波器的观测值输入,预测第k+1帧内核窗口中心位置.将所得到的窗口预测值作为meanshift搜索迭代的起始值,在此基础上寻找最优窗口.

以上kalman预测迭代的过程嵌入到meanshift算法的过程,是在预测最优的基础上去寻找最优,更利于系统的实时性.

更利于实时性,因此本文选择YUV空间模型建模.

第2期李志成,等:一种改进的移动机器人视觉跟踪算法研究

205

未变化时的25帧以前一直有较好的跟踪效果,第28帧光照变暗后,跟踪发生很大偏差;对相同的图像应用本文改进方法,由图3第28帧知,光照变化后仍然有很好的跟踪效果.图4为常规meanshift算法的第7帧与第14帧的跟踪结果,当目标被遮挡时,目标完全丢失;采用本文Kalman滤波预测迭代的方法,应用于相同的图像得到图5,结果显示,本文采用的Kalman滤波与meanshift算法相结合的方法,可以有效的解决目标在被遮挡时的丢失问题,实现准确的跟踪.

4 结束语本文提出了一种基于meanshift的改进算法,算法有效地解决了meanshift跟踪方法存在的光照不稳定问题,通过引入Kalman滤波对meanshift迭代窗口进行预测,很好的解决了目标被遮挡的情况下跟踪丢失的问题,实验表明,本文算法具有很好的鲁棒性.参考文献:

[1] ChengY.MeanShift,ModeSeekingandClustering[J].IEEE

Trans.OnPatternAnalysisandMachineIntelligence,1995,17(8):790-799.

[2] AherneF,ThackerN,RockettP.TheBhattacharyyametricasAnAb2

soluteSimilarityMeasureforFrequencyCodedData[J].StatisticalTechniqutsinPatternRecognition1998,34(4):363-368.[3] ComaniciuD,RameshV,MeerP.Real-timeTrackingofNon-rig2

idobjectsusingMeanShift[J].IEEEComputerVisionandPatternRecognition,2000,11:142-149.

[4] SMaskell,SArulampalam,fCIapp.ATutorialonParticleFiltersfor

On-lineNon-linearNon-GaussianBayesianTracking[J].IEEETran.SignalProcessing,2002,55(2):174-188.

[5] ComaniciuD,RameshV,MeerP.Kernel-BasedObjectTracking

[J].IEEETransonPatternAnalysisandMachineIntelligence,2003,25(5):564-575.

[6] ShahriarNEgahdaripour.RevisedDefinitionofOpticalFlow:Inte2

grationofRadiometricandGeometricCuesforDynamicSceneAnaly2sis[J].IEEETransactionsonPatternAnalysisandMachineIntelli2gence,1998,20(9):961-979.

3 仿真结果及性能分析

本文算法基于MATLAB7.6编程环境实现,采

用两组视频截图进行对比,图像尺寸为320×240,跟踪算法采用Epanechnikov内核.图2显示了常规meanshift算法第25帧和第28帧的跟踪结果,光照

1

ResearchonanImprovedAlgorithmforVisualTrackingonMobileRobot

LIZhi-cheng, XIEJuan, ZHOUXian-guo

Engineering,NanjingUniversityofAeronauticsandAstronautics,Nanjing210016,China)

2

2

(1.DepartmentofAstronautics,NanjingUniversityofAeronauticsandAstronautics,Nanjing210016,China;2.DepartmentofAutomation

Abstract: Trackingatargetinreal-timeisoneofthekeyvisualtechniquesonmobilerobot.Inordertotrackamovingobjectfastandeffectively,animprovedalgorithmisproposedinthispaper.Thisnewmethodusescolorfea2turesasthebasisforthetarget’strackingbasedonmeanshiftalgorithm,andthencombinedwithKalmanfilterforite2rativewindowforecast.Simulationresultsshowthatthisnewalgorithmnotonlyeliminatestheimpactoflightingcondi2tionstosomeextent,butalsoisagoodsolutionfortrackingbiasormissingwhenthetargetwasblocked.

Keywords: mobilerobot;visualtracking;meanshiftalgorithm;Kalmanfilte

因篇幅问题不能全部显示,请点此查看更多更全内容

Top