首页 >> 科学研究 >> 科研进展 >> 正文

人工智能研究院杨耀东助理教授及合作者在多机器人安全协同控制研究中取得进展

信息来源:     发布时间:2023-04-17     浏览量:

近日,人工智能研究院杨耀东助理教授及合作者在Artificial Intellgence Journal发表了题为《 Safe multi-agent reinforcement learning for multi-robot control 》的论文,提出了基于多智能体强化学习的多机器人决策安全性问题和相关算法以及Benchmarks,旨在解决多机器人协同控制中的安全问题。该研究为多机器人系统的安全控制提供了一种全新的解决方案,并为相关领域的发展做出了重要的贡献。

目前,多机器人系统已经广泛应用于各种领域,包括工业自动化、物流配送、救援任务等。然而,多机器人系统的控制仍存在一些困难和挑战,如机器人之间的相互作用、动态环境变化等,这些都给多机器人系统的安全控制带来了很大的难度。安全一直是机器人系统开发中的长期追求。在本研究中,我们采用安全强化学习解决机器人安全控制问题。在安全强化学习中,约束马尔可夫决策过程通常用于描述安全控制问题。在每个决策步骤中,环境都会产生决策的回报和成本,每个机器人需要在最大限度地提高奖励性能的同时,避免违反安全约束。然而,在现实世界中安全地协同控制多个机器人是一个具有挑战性的问题。更具体地说,需要确保每个机器人在非稳定的环境中尽可能好地完成任务(比如,奖励值越大越好),并且保证每个机器人的安全。例如,在图1中,多个工业机器人如何安全地协作完成焊接任务;在图2中,多个自动驾驶汽车如何安全地协作完成自动驾驶避让。

   

                                                            图 1  多机器人协作完成焊接任务                               图 2 多车协作完成自动驾驶避让


针对上述问题,我们研究了多机器人协同控制的安全问题,并采用了基于多智能体强化学习的方法来解决。在这个问题重,每个机器人需要满足自己的安全约束,同时最大化其奖励,还必须考虑其他机器人的安全约束以保证整个机器人集群的安全性。

为实现上述目标,我们首先将问题描述为带安全约束的马尔可夫博弈(图3),并采用策略优化理论来实现带安全约束的策略更新。在这个方法中,所有智能体都需要协作以最大化奖励值,并同时考虑安全约束。通过带安全约束的策略优化,我们所提出的方法能够保证在每次算法迭代时满足安全约束,同时实现奖励值的单调上升。根据我们提出的安全引理表明,当所有智能体的策略变化都足够小时,每个智能体都可以通过只考虑其自身的代理回报和代理成本来学习更好的策略。

图3 带安全约束的马尔可夫博弈过程示意图


其次,基于我们提出的安全引理、多智能体强化学习优势函数分解理论和顺序更新范式(图4),作为理论解的近似,我们提出了两种安全的多智能体策略优化算法:多智能体的约束策略优化算法多智能体近似策略优化的拉格朗日算法。我们利用神经网络来参数化智能体的策略,并分别基于线性搜索和拉格朗日优化算法来搜索安全策略,以此作为理论解的近似。

图4 多智能体优势分解引理以及顺序更新范式示意图


第三,为了实现基于强化学习的多机器人安全协同控制,我们开发了三个多智能体强化学习基准测试(benchmarks,它们都考虑了安全要素。这三个基准测试分别是:

safe Multi-Agent MuJoCo(如图5,图6和图7所示),每一种颜色代表一个智能体,它们需要协作完成任务,例如向前移动,并且确保安全,即不碰撞到图中的红色墙壁;

safe Multi-Agent Robosuite(图8,图9所示),多个机器人需要完成抓取或插入等任务,同时不能碰到图中的红色障碍物;

safe Multi-Agent Isaac Gym(图10和图11所示),机器手需要将物体从一个手中抛到另外一个手中,并满足安全约束,如手指自由度约束等。

最后,我们在以上三个考虑安全性的基准测试上进行实验,结果表明,与目前前沿的算法相比,我们的方法可以在提高奖励和满足安全约束之间取得很好的性能。

  

图 5 Safe 4x2-Ant task

图 6 Safe 2x3-Manyagent

Ant task

图 7 Safe p1p-couple HalfCheetah task


 

图 8  Safe 14x1-TwoArmPegInHole task

图 9  Safe 4x2-Lift task


 

图 10    Safe 2x6-ShadowHandOver tasks            图11     Safe 2x6-ShadowHandOver2Uderarm task

综上所述,本研究通过引入安全性约束条件和多智能体强化学习技术,提出了一种新的解决方案。该方法不仅可以帮助每个机器人在与其他机器人协同工作的同时,保持自身的安全性,而且可以提高多机器人系统的安全生产效率和应用范围。

本研究为多机器人系统提供了一种全新的安全控制技术,使机器人之间可以更加协同高效地工作。此外,该工作也为人工智能领域的研究提供了更多的思路和启示。未来,我们将继续深入研究多机器人系统的安全控制技术,为智能制造和智慧物流等领域的发展做出更大的贡献。