分布式强化学习理论及在多机器人中的应用研究

被引:0
作者
仲宇
机构
[1] 哈尔滨工程大学
关键词
分布式强化学习; 多机器人; 结构信度分配; 加速算法;
D O I
暂无
年度学位
2003
学位类型
博士
导师
摘要
强化学习是近年发展起来的一种新的人工智能方法。由于人类对脑的真实结构了解甚少,至今无法清楚地解释智能的本质,只能依靠对人类智能系统的观察和猜测来定义人工智能系统的结构和外部特性,这种传统的基于逻辑规则的人工智能方法有诸多缺陷,所以人们转向了让人工智能系统通过自我学习来逐渐地获得智能的研究方向。强化学习就是这样一种机器学习方法,它模拟动物学习过程,通过试探的方法修正从状态到动作的映射策略,最终学会在各种环境状态下采取最好的反应行为,从而提高智能系统的自适应性和鲁棒性。 机器人是对人类个体的仿生,而多机器人系统是对人类社会的仿生。由于学习、交流和协作是人类的本质特征,所以对多机器人系统中的分布式强化学习问题的研究具有重要意义。现有的分布式强化学习方法还存在着结构信度分配困难、学习速度慢等缺陷,这些缺陷大大限制了分布式强化学习方法的应用范围。本文对分布式强化学习理论进行了系统地研究,并对其存在的部分问题提出了初步的解决办法。 系统地介绍了强化学习的基本原理、体系结构和主要算法,研究了各种强化学习算法的特点和适用范围。 研究了分布式强化学习系统的体系结构和主要算法,并根据体系结构的差异将其分为四类。介绍了这四类分布式强化学习系统的体系结构,形式化定义了它们的结构框架,描述了它们的主要组成部分的相互关系,讨论了它们的特点和适用范围等。 研究了分布式强化学习系统的结构信度分配方法。针对目前仅有的两种结构信度分配方法显失公平、不能真正体现智能体贡献大小的现象,提出了一种通过比较智能体动作的变化来分配信度的非线形规划方案,并通过对计算过程的分解获得了可行的结构信度分配算法,然后根据强化学习是一种增量式学习的特点将此算法修订为增量式的结构信度分配算法。 研究了独立强化学习系统内的信息共享方式,规范化了几种主要信息共享方式的算法流程,并比较了这几种主要信息共享方式的特点和适用范围。提出了基于有色轨道理论和基于状态分量重要性的两种状态空间划分方法,这两种方法可以压缩独立强化学习系统的学习空间,加快学习速度。 针对群体强化学习系统的学习空间随着智能体个数的增加而指数级膨胀的问题,提出了一种基于预测的群体强化学习算法。这种方法可以削减学习 哈尔滨工程大学博士学位论文 单元的冗余状态信息,降低学习空间的组合强度,加快群体强化学习算法的 学习速度。 以多水下机器人的编队任务为例探讨了分布式强化学习在多机器人系统 中的应用模式。仿真实验系统实现了多机器人的编队学习功能和避碰学习功 能,实验结果表明机器人能够形成规整的队形,并能在通过障碍物或队形被 打乱后迅速重新回到编队位置。
引用
收藏
页数:136
共 44 条
[1]
A fuzzy constraint based model for bilateral, multi-issue negotiations in semi-competitive environments [J].
Luo, XD ;
Jennings, NR ;
Shadbolt, N ;
Leung, HF ;
Lee, JHM .
ARTIFICIAL INTELLIGENCE, 2003, 148 (1-2) :53-102
[2]
Distributed algorithms for multi-robot observation of multiple moving targets [J].
Parker, LE .
AUTONOMOUS ROBOTS, 2002, 12 (03) :231-255
[3]
Choosing social laws for multi-agent systems: Minimality and simplicity.[J].David Fitoussi;Moshe Tennenholtz.Artificial Intelligence.2000, 1
[4]
Approaches to winner determination in combinatorial auctions.[J].Tuomas Sandholm.Decision Support Systems.2000, 1
[5]
Robot awareness in cooperative mobile robot learning [J].
Touzet, CF .
AUTONOMOUS ROBOTS, 2000, 8 (01) :87-97
[6]
Convergence results for single-step on-policy reinforcement-learning algorithms [J].
Singh, S ;
Jaakkola, T ;
Littman, ML ;
Szepesvári, C .
MACHINE LEARNING, 2000, 38 (03) :287-308
[7]
Learning to perceive objects for autonomous navigation [J].
Peng, J ;
Bhanu, B .
AUTONOMOUS ROBOTS, 1999, 6 (02) :187-201
[8]
Embedding a Priori Knowledge in Reinforcement Learning.[J].Carlos H. C. Ribeiro.Journal of Intelligent and Robotic Systems.1998, 1
[9]
Elevator Group Control Using Multiple Reinforcement Learning Agents.[J].Robert H. Crites;Andrew G. Barto.Machine Learning.1998, 2
[10]
Colearning in Differential Games.[J].John W. Sheppard.Machine Learning.1998, 2