前言
强化学习理论是人类在人工智能领域多年来研究的成果,它体现了人工智能技术细分领域的发展与应用。强化学习是一种利用试错机制与环境交互,通过最大化累积奖励的方式来优化策略的机器学习方法,强化学习中基于价值或基于策略的迭代方法,在解决无模型的控制和决策问题上具有较大的优势。近年来,随着计算机技术和深度学习理论的快速发展,许多研究人员将深度神经网络强大的特征提取和表达能力与强化学习的决策和控制能力相结合,提出了深度强化学习理论。深度强化学习理论的提出为机器人控制中的动力学模型建立、环境状态信息感知等问题提供了丰富的解决思路。当利用深度强化学习理论设计控制方法时,不需要建立被控机器人的精确数学模型,只需要在与机器人不断交互的过程中根据控制目标对控制策略进行优化。对环境状态信息的感知,若采用深度神经网络,则能够从高维的传感器采集数据中提取到关键的状态特征信息。将特征信息结合强化学习的控制和决策能力,最终可以实现从传感器数据输入到机器人动作执行的端对端控制。尽管利用强化学习理论设计控制方法在理论上具有上述优势,但是在实际的机器人控制中则会面临各种问题。例如,在学习过程中如何设计奖励函数来引导机器人学习控制经验;如何提升机器人最终学习的控制模型的控制效果;如何提升机器人在学习过程的学习效率,等等。本书在现有的深度强化学习算法基础上,针对机器人控制中的机器人姿态平衡控制、机器人持物平衡控制、机器人抓取控制3个方面的问题展开研究,为基于深度强化学习的机器人控制问题提供一定的理论指导和技术支撑。本书的内容安排如下。
(1)本书对现有的基于强化学习理论的智能控制方法在机器人姿态平衡控制、持物平衡控制和抓取控制中存在的问题进行分析,并提出了解决方法。机器人的姿态平衡控制和持物平衡控制,在自适应动态规划中,其效用函数的设计绝大多数采用二次型的数学描述,函数中Q和R参数难以界定,函数的设计缺乏对系统控制细节的完整性描述;强化学习中稀疏奖励函数的设计容易使机器人学习过程中在某些状态下出现“兜圈子”现象,导致学习效率低下。针对这些问题,本书提出了一种细节奖励机制,用于强化学习中智能体与环境的交互。该机制对系统的状态空间进行分类,形成不同的“空间视角”,也就是状态空间的不同角度,从不同的角度分解物理模型,构建细节奖励函数,将其作为效用函数的映射,相应地完成了从自适应动态规划中性能指标函数的最小化问题到强化学习中奖励函数的最大化问题的转换,同时完成了强化学习中的稀疏奖励函数到细节奖励函数的替换。本书证明了细节奖励函数的可控性和合理性,分析了机器人抓取控制系统中经常存在的技术性问题,主要体现在深度强化学习过程中学习次数较多、学习效率较低等情况,针对这些问题,本书提出了一种对深度强化学习算法中网络预训练的方法,该方法通过建立低成本数据集对网络预先进行训练,从而使网络参数具有较好的适应性,有利于在正式训练阶段提升网络的学习效率。
(2)本书提出了一种结合细节奖励机制和模型线性化的平衡控制方法,解决了倒立摆轮式机器人基础模型(倒立摆小车)在精确动力学模型未知情况下的摆杆平衡问题。针对倒立摆小车非线性、自然不稳定、强耦合、难以建立精确动力学模型的特性,以及现有的基于强化学习理论的控制方法存在的问题,本书基于深度Q网络和深度确定性策略梯度算法,使用深度神经网络构建从倒立摆小车状态变量参数到电机控制量之间的映射,并根据设计的细节奖励函数对网络参数进行更新。首先,分析控制系统的动力学模型和物理模型,观察系统状态空间的角度和控制规律的函数关系,结合状态转换和能量转换等物理模型设计测评函数,多个测评函数组成细节奖励机制的细节奖励函数,正确的奖励函数可以在智能体的训练过程中引导智能体在试错机制下不断积累学习经验,争取最大化奖励值,得到最优化的控制模型。其次,本书提出了一种在平衡点附近模型线性化的方法,用于解决动力学环境下离线训练学习产生的控制模型在真实平台控制效果不理想的问题。该方法通过观察和分析控制模型在真实平台平衡点附近的控制效果和数据输出的情况,在线性趋势存在的情况下,对模型进行线性化处理。最后,在动力学环境和真实平台下设计实验验证所提方法的有效性。实验结果表明,本书提出的深度强化学习方法在没有精确的倒立摆实物平台动力学模型的情况下,通过细节奖励机制和模型线性化方法能够获得具有快速调节能力与良好稳健性的倒立摆小车控制模型。以上方法在倒立摆小车中的有效实施能够为倒立摆轮式机器人姿态平衡控制的研究提供理论上和实践中的解决方案。
(3)本书提出了一种结合细节奖励机制和图像处理的平衡控制方法,解决了机器人球杆系统在建模不确定和定位球体位置信息受限情况下的持物平衡问题。针对机器人球杆系统多变量、非线性、建模不确定等特性,以及现有的基于强化学习理论的控制方法存在的问题,本书基于深度确定性策略梯度算法,借助网络的特征提取能力、算法的决策控制能力和细节奖励函数的引导能力来建立系统的控制模型。先在机器人球杆系统的物理模型下,分解系统的状态空间,设计细节奖励函数,并分析细节奖励函数和经典稀疏奖励函数的训练效果,分析两种函数在智能体学习过程中的特点,总结细节奖励函数的设计规律。随之提出了一种基于视觉的定位方法,用于对真实平台下移动球体的位置进行定位。该方法考虑真实平台下采用接触式传感器定位移动球体位置存在的局限性,借助“农民种植庄稼→农民收割庄稼→农民统计庄稼”的物理现象和滑窗技术实现对图像中球体质心像素坐标的定位,定位误差小于3个像素。在确定球体质心像素坐标后,推导图像位置到物理位置的几何转换模型,利用转换模型实现从图像像素坐标到真实平台物理坐标的转换。细节奖励函数和稀疏奖励函数在实验阶段的结果表明,前者能够提升系统的学习效率和网络收敛速度,生成的控制模型稳定性较好。将基于深度强化学习、比例—积分—微分(PID)和模糊控制等方法设计的控制模型进行实验对比,结果表明,基于深度强化学习设计的控制模型具有较好的调节能力和快速响应特性。
(4)本书提出了一种结合深度强化学习和网络预训练的机器人抓取控制方法,解决了常规抓取方法依赖环境信息及现有强化学习方法学习效率低的问题,实现了对非结构化环境下目标物体的智能抓取。针对常规抓取方法和基于强化学习的抓取方法在机器人抓取控制中存在的问题,使用近端策略优化算法作为设计抓取控制模型的算法载体,通过算法中的网络实现从环境图像观测到机器人抓取动作的映射。结合网络结构及强化学习训练方法,对近端策略优化算法中的Actor网络和Critic网络进行预训练,能够让网络参数在正式训练阶段具有较好的适应性,有利于提高网络学习效率。为了验证预训练方法的有效性,对近端策略优化算法中的Actor网络和Critic网络设计多种不同结构,并将其作为实验对比对象,通过实验验证网络预训练方法对提升网络的学习效率和模型的抓取成功率的影响。
(5)本书对移动机器人的自主控制问题进行了案例分析,并用细节奖励机制解决了“小车爬山”问题,给出了循序渐进的奖励函数的训练和控制数据,并分析奖励函数对智能体训练的引导作用,为机器人智能体训练学习提供了奖励机制改进的方法。尤其是针对有限条件下,或者无法建立精确模型的情况下的训练方法,细节奖励机制巧妙地完成了智能体的最优化控制策略的训练目标,这对机器人的越障问题、自主控制问题同样适用。
(6)本书研究了强化学习在机器人逆解问题中的应用。基于深度强化学习理论,分析并联机器人的机械结构,并对机器人逆向运动学问题进行分析建模,构建逆向运动学问题的马尔可夫决策模型,分析机器人的关节和状态空间,在强化学习过程中引入动态参数,然后设计由连续函数和稀疏函数构成的奖励函数,从而引导机器人训练学习。本书还提出了一种优先采样方法,即在经验池中为样本数据添加优先权,并在TD3算法模型中进行实践。
本书所涉及的实验设备得到了大连理工大学仲崇权教授,以及大连爱智控制系统有限公司孙红涛工程师的大力支持,我们深表谢意。感谢与我一起进行研发的刘小臣博士,感谢崔泽博士在前期实验中的重要贡献。另外,感谢电子工业出版社朱雨萌老师及一起参与此书编辑审稿老师的帮助和支持。书中的理论模型在完善过程中曾得到许多专家和学者的中肯建议,在此向他们表示诚挚的谢意。
本书中可能还有疏漏或不足之处,希望广大读者和同行专家不吝赐教。谢谢!
作者
2023年9月