Skip to content

复旦创智OpenMOSS实验室具身智能入门练习 The Embodied Intelligence Introductory Practice of OpenMOSS Lab (Fudan&SII)

Notifications You must be signed in to change notification settings

humanoidintelligence/EI-Beginner

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

6 Commits
 
 
 
 
 
 

Repository files navigation

EI-Beginner 具身智能入门练习

中文版本 | English Version

有意报考/参与OpenMOSS实验室具身智能/人形机器人智能团队的同学,均需先完成下列入门练习(任务一至三必做,任务四至六选做)。 我们共享出来这个入门练习供广大具身智能/人形机器人智能爱好者作入门参考。

作者:李鹏王思尹
指导老师:邱锡鹏教授
转载请注明出处。

入门基础

任务一:基于传统运动学的机械臂物体抓取

描述

学习传统机器人学中的基础知识,比如基础坐标变换、正逆运动学、动力学、控制理论等,在PyBullet/Mujoco仿真与实验室机械臂真机(可选, 同时学习机器人操作系统ROS)实现基于传统机器人运动控制的机械臂物体抓取;

备注:

任务二:基于强化学习的机械臂物体抓取

描述

  1. 学习强化学习基础知识,并在OpenAI Gym环境中选择几个感兴趣的tasks使用强化学习方法训练并测试成功率;
  2. 在PyBullet/Mujoco中训练机械臂的物体抓取策略,并尝试在真机部署,体会Sim2Real的过程;

备注:

  • 参考书目
    • 《神经网络与深度学习》相关章节
    • Introduction to Reinforcement Learning, 2nd & David Silver's UCL Course
    • UCB 285 Deep Reinforcement Learning
  • OpenAI Gym链接:https://gymnasium.farama.org/index.html

任务三:基于模仿学习的机械臂物体抓取

描述

  1. 复现模仿学习经典baseline方法Diffusion Policy
  2. 同时学习Huggingface机器人学习框架LeRobot

任务四:基于VLA大模型的机械臂物体抓取

描述

学习并利用现有的VLA大模型如OpenVLA/Pi/GR00t等, 探索利用现有的机械臂数据集如Open-X Embodiment训练专门的VLA机械臂模型

备注:

任务五:基于LLM/VLM大模型的任务规划

描述

  • 桌面级任务规划
    • 参考论文 “Code as Policies: Language Model Programs for Embodied Control” (ICRA 2023 Outstanding Paper,https://code-as-policies.github.io/) 在PyBullet仿真与实验室机械臂真机(可选)实现基于视觉模块和大语言模型的机械臂物体抓取;
    • Prompt现有的LLM/VLM来完成这个任务;
    • Finetune现有的LLM/VLM来完成这个任务;

描述

任务六:基于强化学习的人形机器人运动控制

描述

复现OmniH2O: Universal and Dexterous Human-to-Humanoid Whole-Body Teleoperation and Learning (https://omni.human2humanoid.com/) 的人形机器人运动控制方法, 学习人形机器人基础知识, 仿真训练+Sim2Real的过程

  1. 全身遥操作
  2. 全身模仿学习

参考:

前沿研究

感谢上述相关work开源其代码!

About

复旦创智OpenMOSS实验室具身智能入门练习 The Embodied Intelligence Introductory Practice of OpenMOSS Lab (Fudan&SII)

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published