阻抗相关
记录部分内容
人机协作
协作定义:协作参与方具备共同目标、具备感知交流能力、协同能力
标准:安全、协作、智能
交互控制-力控制
直接力控
直接设定数值,通过反馈进行精确设定控制
1.成本高、精度差、存在噪声、干扰难以判断
2.无法确定具体所需控制数值
间接控制
柔顺控制
被动柔顺:通过含有弹性元件的机械设备在接触过程中体现柔顺
主动柔顺:通过控制的方式实现,越位设置,在接触过程中产生作用
阻抗/导纳控制:
关节空间
笛卡尔空间:常用
力/位混合控制
关节空间阻抗控制
阻尼:抵消机械震荡
弹性元件:柔顺性调整
控制理论
阻抗控制主要是控制运动与力之间的动态关系控制
实现理想阻抗控制需要满足:
1.机器人动态模型及相关参数
2.机器人关节角、关节角速度的实时反馈(传感器)
3.机器人关节力矩实时反馈(转矩传感器获得/测量驱动电机电流,通过电流关系进行计算分析)
4.机器人转矩控制
设定k值
k大—抵抗性较强
k小—柔顺性较高
k=0,随外力改变位置
笛卡尔关节控制
1.求解雅克比(伪)逆矩阵,以及雅克比矩阵导数矩阵
2.精确测量机器人执行器末端所受外力
3.精确的机器人运动学以及动力学模型
4.机器人关节位置及转速的测量
5.机器人关节转矩控制
姿态不要过度接近奇异点
控制机器人运动与外力之间的动态关系,使其等效为弹簧-阻尼-质量组成的二阶系统
需要条件
1.机器人动力学及运动学模型
2.关节角及角速度反馈
3.关节转矩控制
4.外力(矩)的测量(非必要)
导纳控制与阻抗控制区别
1.计算出力,控制器输入位置输出力
2.控制器输入力输出位置,机器人输入位移输出力
当外界环境阻抗系数高,采用阻抗控制
当外界环境阻抗系数低,采用导纳控制??
导纳控制有点像变刚度控制,区分并进行理解。
自适应阻抗控制
自主调整阻抗,满足环境要求
1.自主目标 阻抗系数或者运动设定
2.如何实现参数修改
基准:保证机器人稳定性
一些例子
1.根据外力反馈调整阻尼系数,预测运动意图
2.稳定性分析
3.估算人的阻抗系数
力增大-意图为该方向加速-机器人减小阻抗系数以顺应需求-减小接触力,反之亦然
思路可以换一下,外力作为负反馈进行相应调节
阻抗模型
水的阻抗模型???
参数辨识法
通过速度反馈调节参数进行示教学习
提高舒适跟随
根据实验进行确定稳定区域模型而非理论推导—不严谨但是更贴近实际
1.基于可操作性
2.基于阻抗控制误差
三.
1.多传感器融合,建立手臂运动中 姿态以及肌肉信号实时反馈
2.基于机电信息,建立手臂阻抗模型,并调整机器的阻抗系数
3.力/阻抗混合控制
肌肉电信号EMG使用方法
optitrack 视觉信息使用
该方案中捕捉手臂姿态的变化,根据姿态变化调整机器人阻抗系数在空间上的分布
力传感器
机械臂末端
四
1.基于视觉信息,利用高斯过程回归,在线预测人运动轨迹,评估预测不确定性
2.基于预测结果,调整机器人运动
3.利用阻抗控制跟随设定轨迹,同时改变参数大小,保证safe
强化学习
阻抗控制引入强化学习
学习力场????学习一下
强化学习是机器学习的一个领域,强调如何基于换将反馈而行动,已取得最大化的预期利益。
寻找最优策略,使得价值函数最大
1.基于模型的强化学习
需要建立模型
2.基于价值函数的强化学习
根据价值调整策略
3.基于策略函数的强化学习
不依赖于模型
缺点 :收敛慢、可能会到达危险状态、
原因:
1.建模较为困难
2.机器人可以不断优化自身行为,理论上可以得到最优解
核心;
求解问题:
1.基于价值函数
2.基于神经网络的Actor-critic算法
3.策略迭代
策略 —-如何保障安全性
基于价值函数的强化学习
1.定义人机协作最优控制问题,基于Q-leaning设计自适应阻抗
2.利用人和机器人的阻抗模型及线性回归的方法估测人的示教轨迹
自适应阻抗学习时间最小,同时保证了一定时间
基于策略函数的强化学习
价值
理论完整,可以达到全局最优
实现简单,收敛较快
缺点:维数灾难,控制策略会受到函数近似误差影响
策略
不存在维数灾难
理论上只能局部最优,收敛较慢
案例分析
1.基于策略函数的强化学习算法
2.运用于机器人的自适应阻抗中,并在不同平台测试
机器人仅在任务需要时候保证高阻抗,其余保证低阻抗
目前问题:有些不可达到的点集成于学习过程中,进行处理
强化学习应用于控制理论阶段
1.机器人动力学参数辨识
2.关节摩擦力的建模和补偿
3.基于电流环或关节转矩测量外力估算
4.阻抗系数矩阵非对角元素设计
方向
1.基于多传感器多信息融合的自适应阻抗控制
2.与人工智能相关技术结合
3.基于强化学习的阻抗控制
- 与基于模型的最优控制结合(发挥各自有点)
- 状态约束和稳定性分析
- 基于策略搜索的强化学习