impedance_control

阻抗相关

记录部分内容

人机协作

协作定义:协作参与方具备共同目标、具备感知交流能力、协同能力

标准:安全、协作、智能

交互控制-力控制

直接力控

直接设定数值,通过反馈进行精确设定控制

1.成本高、精度差、存在噪声、干扰难以判断

2.无法确定具体所需控制数值

间接控制

柔顺控制

被动柔顺:通过含有弹性元件的机械设备在接触过程中体现柔顺

主动柔顺:通过控制的方式实现,越位设置,在接触过程中产生作用

阻抗/导纳控制:

关节空间

笛卡尔空间:常用

力/位混合控制

关节空间阻抗控制

阻尼:抵消机械震荡

弹性元件:柔顺性调整

控制理论

阻抗控制主要是控制运动与力之间的动态关系控制

实现理想阻抗控制需要满足:

1.机器人动态模型及相关参数

2.机器人关节角、关节角速度的实时反馈(传感器)

3.机器人关节力矩实时反馈(转矩传感器获得/测量驱动电机电流,通过电流关系进行计算分析)

4.机器人转矩控制

设定k值

k大—抵抗性较强

k小—柔顺性较高

k=0,随外力改变位置

笛卡尔关节控制

1.求解雅克比(伪)逆矩阵,以及雅克比矩阵导数矩阵

2.精确测量机器人执行器末端所受外力

3.精确的机器人运动学以及动力学模型

4.机器人关节位置及转速的测量

5.机器人关节转矩控制

姿态不要过度接近奇异点

控制机器人运动与外力之间的动态关系,使其等效为弹簧-阻尼-质量组成的二阶系统

需要条件

1.机器人动力学及运动学模型

2.关节角及角速度反馈

3.关节转矩控制

4.外力(矩)的测量(非必要)

导纳控制与阻抗控制区别

1.计算出力,控制器输入位置输出力

2.控制器输入力输出位置,机器人输入位移输出力

当外界环境阻抗系数高,采用阻抗控制

当外界环境阻抗系数低,采用导纳控制??

导纳控制有点像变刚度控制,区分并进行理解。

自适应阻抗控制

自主调整阻抗,满足环境要求

1.自主目标 阻抗系数或者运动设定

2.如何实现参数修改

基准:保证机器人稳定性

一些例子

1.根据外力反馈调整阻尼系数,预测运动意图

2.稳定性分析

3.估算人的阻抗系数

力增大-意图为该方向加速-机器人减小阻抗系数以顺应需求-减小接触力,反之亦然

思路可以换一下,外力作为负反馈进行相应调节

阻抗模型

水的阻抗模型???

参数辨识法

通过速度反馈调节参数进行示教学习

提高舒适跟随

根据实验进行确定稳定区域模型而非理论推导—不严谨但是更贴近实际

1.基于可操作性

2.基于阻抗控制误差

三.

1.多传感器融合,建立手臂运动中 姿态以及肌肉信号实时反馈

2.基于机电信息,建立手臂阻抗模型,并调整机器的阻抗系数

3.力/阻抗混合控制

肌肉电信号EMG使用方法

optitrack 视觉信息使用

该方案中捕捉手臂姿态的变化,根据姿态变化调整机器人阻抗系数在空间上的分布

力传感器

机械臂末端

1.基于视觉信息,利用高斯过程回归,在线预测人运动轨迹,评估预测不确定性

2.基于预测结果,调整机器人运动

3.利用阻抗控制跟随设定轨迹,同时改变参数大小,保证safe

强化学习

阻抗控制引入强化学习

学习力场????学习一下

强化学习是机器学习的一个领域,强调如何基于换将反馈而行动,已取得最大化的预期利益。

寻找最优策略,使得价值函数最大

1.基于模型的强化学习

需要建立模型

2.基于价值函数的强化学习

根据价值调整策略

3.基于策略函数的强化学习

不依赖于模型

缺点 :收敛慢、可能会到达危险状态、

原因:

1.建模较为困难

2.机器人可以不断优化自身行为,理论上可以得到最优解

核心;

求解问题:

1.基于价值函数

2.基于神经网络的Actor-critic算法

3.策略迭代

策略 —-如何保障安全性

基于价值函数的强化学习

1.定义人机协作最优控制问题,基于Q-leaning设计自适应阻抗

2.利用人和机器人的阻抗模型及线性回归的方法估测人的示教轨迹

自适应阻抗学习时间最小,同时保证了一定时间

基于策略函数的强化学习

价值

理论完整,可以达到全局最优

实现简单,收敛较快

缺点:维数灾难,控制策略会受到函数近似误差影响

策略

不存在维数灾难

理论上只能局部最优,收敛较慢

案例分析

1.基于策略函数的强化学习算法

2.运用于机器人的自适应阻抗中,并在不同平台测试

机器人仅在任务需要时候保证高阻抗,其余保证低阻抗

目前问题:有些不可达到的点集成于学习过程中,进行处理

强化学习应用于控制理论阶段

1.机器人动力学参数辨识

2.关节摩擦力的建模和补偿

3.基于电流环或关节转矩测量外力估算

4.阻抗系数矩阵非对角元素设计

方向

1.基于多传感器多信息融合的自适应阻抗控制

2.与人工智能相关技术结合

3.基于强化学习的阻抗控制

  1. 与基于模型的最优控制结合(发挥各自有点)
  2. 状态约束和稳定性分析
  3. 基于策略搜索的强化学习