📄 2006-0062.tex
字号:
\vbox{\centerline{\psfig{figure=fig6.eps,width=7cm}}{\small图6\quad 输出变量的隶属度函数\\Fig.\,6\quad Membership function of output variable}}}\vskip6mm理论上,模糊规则数为$5^8$条,但实际存在的模糊规则并不多,例如不可能出现8个麦克风接收的信号同时为小、中或者大的情况,即 \{L L L L L L L L\}, \{M M M M M M M M \}, \{H H H H H H H H \}这些组合要舍弃,因此不会出现模糊规则组合爆炸的情况.最后建立模糊规则表,如表1所示(在实验中共用了16条推理规则,产生较好的模糊推理结果,在此仅列出其中的8条规则).\vbox{\centering{\small表1\quad 模糊规则表\\Table 1\quad Fuzzy controlrules}\vskip2mm\renewcommand{\baselinestretch}{1.25}{\footnotesize\centerline{\tabcolsep=2.5pt\begin{tabular}{cccccccccc}\toprule序号 &mic1 & mic2 &mic3 &mic4&mic5 &mic6&mic7&mic8&angle \\\hline1&H&MH&M&ML&L&ML&M&MH&N \\2&MH&H&MH&M&ML&L&ML&M&SL2 \\3&M&MH&H&MH&M&ML&M&ML&SL4 \\4&ML&MH&H&H&MH&ML&L&L&SL5 \\5&L&ML&M&MH&H&MH&M&ML&S \\6&ML&L&ML&M&MH&H&MH&M&SR6 \\7&M&ML&L&ML&M&MH&H&MH&SR4 \\8&MH&M&ML&L&ML&M&MH&H&SR2 \\\bottomrule \end{tabular}}}}\subsection{基于二次模糊推理的定位精度提高方法}如图7所示,$a$向代表第一次模糊推理时,相对于机器人前进方向的实际声源方向.此时,机器人按照模糊推理应转到$A$向,定位偏差$\Delta$$\theta$=$|A-a|$,max($|\Delta$$\theta|$)=11.25${^\circ}$.使机器人向左实际转动11.25${^\circ}$,这相当于机器人不动,声源方向由$a$向右转11.25${^\circ}$到了$a*$向.这时机器人对声源进行第二次模糊推理,此时有两种可能:1)如果此时推理结果由$A$向改变为$C$向,则机器人向左再转动5.625${^\circ}$,然后机器人将$C$向作为实际前进方向;2)如果第二次推理结果不变,仍为$A$向,则机器人向右转动5.625${^\circ}$,然后机器人将$A$向作为前进方向.这种二次模糊决策的实质是:当机器人前进方向与声源方向夹角处于出现模糊推理最大偏差处(即$B$处)时,通过第二次模糊推理与第一次模糊推理结果的比较,使机器人转动,错开最大偏差处5.625${^\circ}$,这样可以使最大偏差减小5.625${^\circ}$,虽然该方法有时会导致定位偏差加大(例如$\Delta$$\theta$=$|A-a|$=0${^\circ}$时,通过二次模糊推理,定位偏差反倒变为5.625${^\circ}$),但是从控制最大偏差角度来说,这种方法是有效和有益的.图8所示为基于模糊推理的声音定向流程图.\vskip3mm{\centering\vbox{\centerline{\psfig{figure=fig7.eps,width=7.5cm}}{\small图7\quad 定向精度提高方法示意图\\Fig.\,7\quad Method of direction estimation precision improvement}}}\vskip8mm{\centering\vbox{\centerline{\psfig{figure=fig8.eps,width=8cm}}{\small图8\quad 基于模糊推理的声音定向流程图\\Fig.\,8\quad Flow chart of sound-based collaborative direction estimation}}}\end{multicols}%开始通栏显示\vskip3mm\vbox{\centering{\small表2\quad 机器人实际转角与声源方位角比较表\\Table 2\quad Contrast of sound localization angle and robot rotation angle}\vskip2mm\renewcommand{\baselinestretch}{1.35}{\footnotesize\centerline{\tabcolsep=13pt\begin{tabular}{ccccc}\toprule归一化声强(8个声音传感器) & 声源方向(${^\circ}$) & FIS计算值(${^\circ}$) & 机器人转角(${^\circ}$) & 偏差(${^\circ}$) \\ \hline$[\,1.000 \,\,0.986\,\, 0.763\,\, 0.236\,\, 0.069\,\, 0.041\,\,0.236\,\, 0.716\,]$ & 22.6 & 22.6 & 22.5 & 0.1 \\$[\,0.743 \,\,1.000 \,\,0.736\,\, 0.513\,\, 0.263\,\, 0.097\,\, 0.263\,\, 0.500\,]$ & 45 & 45 & 45 & 0 \\$[\,0.932\,\, 1.000 \,\,0.597\,\, 0.375 \,\,0.263\,\, 0.152 \,\,0.236\,\, 0.689\,]$ & 35 & 45 & 45 & 10 \\$[\,0.824 \,\,1.000\,\, 0.930\,\, 0.791 \,\,0.263\,\, 0.152 \,\,0.208 \,\,0.256\,]$ & 63 & 67.3 & 67.5 & 4.5 \\$[\,0.500 \,\,0.743\,\, 1.000 \,\,0.791 \,\,0.500\,\, 0.291 \,\,0.097 \,\,0.283\,]$ & 92 & 90 & 90 & 2 \\\bottomrule \end{tabular}}}}\begin{multicols}{2}%开始双栏显示\section{实验}\subsection{模糊推理系统}声音传感器阵列应用的平台是六足机器人,为了简化机器人转弯步态控制,规划其能够转动的角度为$\pm n\times22.5^\circ$(其中$n = 0--8$)的离散角度,并且能够转动$\pm11.25^\circ$和$\pm 5.625^\circ$,在此,正号代表向左转弯,负号代表向右转弯.上页下方表2列出了模糊推理结果与实际声源方向以及机器人实际转角的对比数据,表中偏差值是机器人实际转角相对于声源方向的偏差,采用上述的模糊推理系统,声音传感器阵列的最大定向偏差为$11.25{^\circ}$.声源与机器人相距5\,m,两者中心连线与机器人头部朝向的夹角为$60^\circ$.在两者之间有障碍(长$\times$宽$\times$高=1\,m$\times$1\,m$\times$1\,m)和无障碍的情况下,分别对不同单一频率下机器人定向角度偏差$\Delta\theta$进行50次实验,求均值得到$\overline{\Delta\theta}$,以频率为$x$轴,以$\overline{\Delta\theta}$为$y$轴作曲线如图9所示.由实验数据可见障碍物对定向偏差影响较大,且该影响随着声音频率的提高而增加,分析其原因主要是由于声音受障碍物的遮挡产生了衍射和反射.对于降低衍射和反射对定向影响这一问题,很多文献提出了自己的理论和方法\!\,$^{[13-14]}$,这也是我们今后需要深入研究的方面.\vskip3mm {\centering\vbox{\centerline{\psfig{figure=fig9.eps,width=7.5cm}}{\small图9\quad 有障碍物和无障碍物情况下平均定向偏差曲线\\Fig.\,9\quad Mean direction estimation bias with or without obstacle}}}\section{结论}本文提出的声音协作定向方法,既是一种定向方式也是一种隐式通信方式(Implicit communication),群智能机器人可以用这种方式通知队友发现目标的方向信息,这充分体现了群智能机器人系统主要通过隐式通信方式进行协作的特点.采用本文方法,能够满足群智能机器人系统的定向要求.在本文基础上,我们今后将在以下方面进一步进行研究:1)利用声音传播的时间差估算两个机器人之间的距离,这样就可以实现既有方向信息又有距离信息的群智能多机器人系统声音协作定位;2)采用空间排布的声音传感器阵列可以测得两个机器人连线与水平面之间的俯仰角信息,这样可以实现3维空间的声音协作定位\,\!$^{[15]}$;3)文献[13]证明了采用数据融合技术将视觉定位信息和声音定位信息相结合可以有效地降低由于噪声和衍射等对声音定位精度的影响,是一种很有前景的研究方向.\begin{thebibliography}{99}\zihao{6} \addtolength{\itemsep}{-0.6em} \urlstyle{rm}\bibitem{1}Payton D, Estkowski R, Howard M. Compound behaviors in pheromone robotics.{\sl Robotics and Autonomous Systems}, 2003, {\bf 44}(3-4): 229--240\bibitem{2} Mataric M J. Reinforcement learning in the multi-robot domain.{\sl Autonomous Robots}, 1997, {\bf 4}(1): 73--83\bibitem{3} Kube C R, Zhang H. The use of perceptual cues in multi-robotbox-pushing. In: Proceedings of IEEE Internation Conference onRobotics and Automation. IEEE, 1996. 2085--2090\bibitem{4} Dorigo M. SWARM-BOT: an experiment in swarm. In: Proceedings of IEEERobotics Swarm Intelligence Symposium. IEEE, 2005. 192--200\bibitem{5} Kurazume R, Hirose S. Study on cooperative positioning system.In: Proceedings of IEEE Internation Conference on Robotics andAutomation. IEEE, 1998. 2896--2903\bibitem{6} Montesano L, Gaspar J, Antos-Victor J, Montano L. Cooperativelocalization by fusing vision-based bearing measurements and motion.In: Proceedings of IEEE International Conference on IntelligentRobots and Systems. IEEE, 2005. 2333--2338\bibitem{7} Grabowski R, Khosla P. Localization techniques for a team of smallrobots. In: Proceedings of IEEE International Conference onIntelligent Robots and Systems. Hawaii, USA, IEEE, 2001. 1067--1072\bibitem{8} Valin J M, Michaud F, Hadjou B, Rouat J. Localization ofsimultaneous moving sound sources for mobile robot using afrequency-domain steered beamformer approach. In: Proceedings ofIEEE Internation Conference on Robotics and Automation. IEEE, 2004.1033--1038\bibitem{9} FaIk J, Handel P, Jansson M. Estimation of receiver frequency errorin a TDOA-based direction-finding system. In: Proceedings of IEEERecord of the 38th Asilomar Conference on Signals, Systems andComputers. IEEE, 2004. 2079--2083\bibitem{10} Gross H M, Boehme H J. PERSES --- a vision-based interactive mobileshopping assistant. In: Proceedings of IEEE International Conferenceon Systems, Man and Cybernetics, Systems and Computers. IEEE, 2000.80--85\bibitem{11} Aarabi P, Zaky S. Robust sound localization using multi-source audiovisual information fusion. {\sl Information Fusion},2001, {\bf 3}(2): 209--223\bibitem{12} Shell D A, Mataric M J. Directional audio beacon deployment: anassistive multi-robot application. In: Proceedings of IEEEInternational Conference on Robotics and Automation. IEEE, 2004.2588--2594\bibitem{13} Arabi P, Zaky S. Integrated vision and sound localization. In:Proceedings of the 3rd International Conference on InformationFusion. IEEE, 2000. 21--26\bibitem{14} Handzel A A. High acuity sound-source localization by means of atriangular spherical array. In: Proceedings of IEEE InternationalConference on Acoustics, Speech, and Signal Processing. IEEE, 2005.1057--1060\bibitem{15} Tamai Y, Sasaki Y, Kagami S, Mizdguchi H. Three ring microphone arrayfor 3D sound localization and separation for mobile robot audition.In: Proceedings of IEEE International Conference on IntelligentRobots and Systems. IEEE, 2005. 4172--4177\end{thebibliography}\renewcommand{\baselinestretch}{1.23}\begin{biography}[jiang.eps]\noindent{\hei 姜\ 健}\quad 哈尔滨工业大学机器人研究所博士研究生.主要研究方向为多机器人协作控制技术.本文通信作者. \\E-mail:jiangjianhit@sina.com.cn\noindent({\bf JIANG Jian}\quad Ph.\,D. candidate in Harbin Institueof Technology. His research interest covers multi-robot coordinationcontrol. Corresponding author of this paper.)\end{biography}\renewcommand{\baselinestretch}{1.23}\begin{biography}[zhao.eps]\noindent{\hei 赵\ 杰}\quad 哈尔滨工业大学博士生导师,教授,研究领域为机器人多传感器及控制,多机器人协作控制技术.\noindent({\bf ZHAO Jie}\quad Professor. Ph.\,D. in HarbinInstitue of Technology. His research interest covers multiplesensors control and multi-robot coordination control.)\end{biography}\renewcommand{\baselinestretch}{1.23}\begin{biography}[lilikun.eps]\noindent{\hei 李力坤}\quad硕士研究生,研究领域为多机器人协作控制技术.\noindent({\bf LI Li-Kun}\quad Master student in Harbin Institue ofTechnology. His research interest covers multi-robot coordinationcontrol.)\end{biography}\end{multicols}\end{document}
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -