安克创新强化学习算法工程师-具身智能
任职要求
1.计算机相关专业硕士以上学历,具备2年以上相关领域经验; 2.深入掌握深度学习理论,在强化学习、模仿学习、控制理论等方向有深入研究经验,具有大模型多模态等相关领域知识; 3.有机器人场景端到端研发以及项目落地经、先进机器人控制技术、仿真平台使用经验、大模型多模态领域研究经验者优先; 4.能够熟练使用tensorflow/pytorch中的一种或多种深度学习框架, 熟练掌握C/C++/Python等常用编程语言。 5.有相关竞赛经验或者在CV领域全球顶会发表过相关论文者优先。
工作职责
1.负责机器人端到端操作方向的强化学习算法研发,解决机器人复杂任务操作问题; 2.对学界及业界前研技术的持续跟进; 3.围绕机器人场景落地先进算法技术。
1. 负责开发和优化灵巧手grasp相关的强化学习方法。 2. 设计和实施强化学习策略,分析实验数据,评估算法表现,解决机器人操作的sim2real问题 3. 跟进最新的灵巧操作研究趋势,为团队带来新的思路和解决方案。
1. 路径规划 ‒ 开发适用于多种场景(如机器人导航、自动驾驶、无人机等)的路径规划算法; ‒ 实现经典和前沿的全局及局部路径规划方法(如 A*、Dijkstra、RRT、DWA 等),优化路径规划的效率和鲁棒性; ‒ 处理动态环境中的路径生成和调整,解决复杂场景下的避障问题。 2. 行动决策 ‒ 研究并实现具身智能体的行动决策算法,设计任务分解和行为选择的逻辑; ‒ 基于行为树(Behavior Tree)、有限状态机(FSM)等方法,构建模块化的决策框架; ‒ 开发多智能体协作与竞争的行动决策模型,支持复杂交互任务的执行。 3. 强化学习(Reinforcement Learning,RL) ‒ 针对具身智能场景(如机械臂控制、机器人动态避障、导航等),设计强化学习的 reward 函数和训练策略; ‒ 实现主流深度强化学习算法(如 DQN、DDPG、PPO、SAC 等),解决高维连续控制与探索问题; ‒ 优化强化学习模型的收敛速度和鲁棒性,提升算法在实际场景中的表现。 4. 模仿学习(Imitation Learning,IL) ‒ 通过专家示范数据(如轨迹、动作序列)训练智能体,实现模仿人类/智能体行为; ‒ 应用行为克隆(Behavior Cloning, BC)、逆强化学习(Inverse Reinforcement Learning, IRL)等技术解决稀疏奖励问题; ‒ 结合模仿学习与强化学习,提升智能体在复杂任务中的学习和泛化能力。 5. 算法优化与工程实现 ‒ 优化算法的计算效率和资源占用,适配实时性要求 ;‒ 在仿真环境(如 Gazebo、PyBullet、Mujoco 等)和真实设备中验证算法性能; ‒ 配合嵌入式团队完成算法在终端设备上的部署与优化。 6. 技术研究与创新 ‒ 跟踪具身智能领域的前沿算法进展,探索新技术的实际应用; ‒ 研究多模态感知与决策(如视觉、语音、触觉)的融合方法,提升智能体的环境理解与行动能力; ‒ 参与长期自主学习、在线学习和自适应学习系统的设计与开发。