
同花顺具身智能机械工程师
任职要求
-
工作职责
算法工程师(视觉大模型): 1、 协调上层应用需求到机器视觉算法的整体架构; 2、 实现机器人基于3D视觉的双臂抓取方案,落地在照片、水杯等常规物体的视觉抓取任务中; 3、带领算法团队进行传统机器人视觉到端到端视觉大模型的技术演进,并落地在双臂协同抓取任务 算法工程师(导航定位): 1、 负责机器人基于LIDAR的导航与定位算法研究与实现,并支持机器人业务中导航的需求; 2、负责单线和多线LIDAR的开发,SLAM 算法、多传感器融合算法、3D点云、3D场景重建等; 3、负责无地图导航算法研究、自主实时建图方案研究; 4、实现高精度的地图更新 算法工程师(机器人操作系统): 1、从事移动机器人系统的设计和研发,不限于底盘、四足、双足等形态;设计机械结构,硬件结构、并具备-定嵌入式开发经验; 2、具备机器人硬件开发经验,实现对关节电机的控制、实现与相机和雷达的通信; 3、熟悉运动控制算法,利用动捕收集步态数据,并通过强化学习和模仿学习实现机器人运动控制 算法工程师(双臂): 1、复现开源的双臂机器人扩散大模型RDT,并完成数据采集、模型训练、优化等功能; 2、设计触觉反馈传感器,并用于灵巧手,实习灵巧手的触党反馈:3参与机器人架构设计、零部件选型、算法方案设计 算法工程师(运动控制): 1.设计、 开发、实现和优化智能机械管的控制算法, 提高机械臂的智能性和学习能力; 2、研究机器人的智能控制模型,理解机器人的知、推理、学习和行为规划等机制; 3、在等机器人软件平台上开发机器人的控制和规划程序,并在Linux系统下进行软件开发和调试; 4、与其他团队成员合作,集成机器人和其他智能设备的功能,实现智能化的生产流程
1、负责机器人本体结构设计,包括但不限于关节、肢体、躯干等关键部件的设计,保证机械机构合理性和可靠性 2、对机器人机械零部件进行硬件规格设计,包括材料选择、尺寸确定、公差控制等。 3、优化机器人结构构型,提高机器人的运动稳定性、操作精度 4、负责设计图纸输出、跟进和组装,负责对供应链制造工艺的调研和评估
1. 负责具身智能系统的伺服控制算法设计与开发,包括位置、速度、力矩控制等; 2. 结合动力学建模与传感器反馈,优化高精度、低延迟的实时控制算法; 3. 研究并实现自适应控制、鲁棒控制、模型预测控制(MPC)等先进算法,提升系统动态响应与抗干扰能力; 4. 与硬件团队协作,完成控制算法在嵌入式平台(如DSP、FPGA、ROS等)的部署与性能调优; 5. 设计仿真与实验验证方案,分析系统性能并持续优化算法; 6. 跟踪前沿技术(如强化学习、仿生控制、多模态感知融合等),探索其在伺服控制中的应用。
1. 基于 NVIDIA Isaac 的仿真平台开发 ‒ 搭建和维护基于 NVIDIA Isaac Sim 的机器人仿真系统,支持多种机器人类型(例如移动机器人、机械臂、无人车等)。 ‒ 利用 NVIDIA Omniverse 技术,构建高保真的虚拟环境,模拟物理特性(如动力学、传感器特性、碰撞检测等)。 ‒ 开发和优化 Isaac Sim 中的自定义扩展模块,满足项目需求。 2. 环境建模与场景构建 ‒ 使用 NVIDIA Omniverse 和其他建模工具(如 Blender、Maya)创建逼真的仿真环境和场景。 ‒ 配置和调试虚拟传感器(如激光雷达、摄像头、IMU)以模拟真实硬件行为。 ‒ 构建动态交互场景,用于测试机器人在复杂环境中的性能。 3. 机器人控制与算法验证 ‒ 在仿真环境中集成和测试机器人算法(如SLAM、路径规划、运动控制)。 ‒ 验证和优化机器人感知算法(如视觉检测、环境感知)在高保真模拟环境中的效果。 ‒ 通过仿真结果分析算法性能,为实际机器人实施提供支持。 4. 系统集成与工具链开发 ‒ 与机器人硬件和软件团队合作,将仿真结果与实际机器人验证无缝对接。 ‒ 开发自动化测试工具和数据可视化分析工具,提高开发效率和数据洞察能力。 ‒ 集成 Isaac 与其他机器人框架(如 ROS/ROS 2)以支持全栈开发。 5. 研究与创新 ‒ 研究 NVIDIA Isaac 平台的最新功能和应用场景,将新技术引入仿真系统开发。 ‒ 跟踪机器人仿真领域的前沿技术(如物理引擎优化、AI 模型仿真、数字孪生技术),并应用于项目中。
1. 路径规划 ‒ 开发适用于多种场景(如机器人导航、自动驾驶、无人机等)的路径规划算法; ‒ 实现经典和前沿的全局及局部路径规划方法(如 A*、Dijkstra、RRT、DWA 等),优化路径规划的效率和鲁棒性; ‒ 处理动态环境中的路径生成和调整,解决复杂场景下的避障问题。 2. 行动决策 ‒ 研究并实现具身智能体的行动决策算法,设计任务分解和行为选择的逻辑; ‒ 基于行为树(Behavior Tree)、有限状态机(FSM)等方法,构建模块化的决策框架; ‒ 开发多智能体协作与竞争的行动决策模型,支持复杂交互任务的执行。 3. 强化学习(Reinforcement Learning,RL) ‒ 针对具身智能场景(如机械臂控制、机器人动态避障、导航等),设计强化学习的 reward 函数和训练策略; ‒ 实现主流深度强化学习算法(如 DQN、DDPG、PPO、SAC 等),解决高维连续控制与探索问题; ‒ 优化强化学习模型的收敛速度和鲁棒性,提升算法在实际场景中的表现。 4. 模仿学习(Imitation Learning,IL) ‒ 通过专家示范数据(如轨迹、动作序列)训练智能体,实现模仿人类/智能体行为; ‒ 应用行为克隆(Behavior Cloning, BC)、逆强化学习(Inverse Reinforcement Learning, IRL)等技术解决稀疏奖励问题; ‒ 结合模仿学习与强化学习,提升智能体在复杂任务中的学习和泛化能力。 5. 算法优化与工程实现 ‒ 优化算法的计算效率和资源占用,适配实时性要求 ;‒ 在仿真环境(如 Gazebo、PyBullet、Mujoco 等)和真实设备中验证算法性能; ‒ 配合嵌入式团队完成算法在终端设备上的部署与优化。 6. 技术研究与创新 ‒ 跟踪具身智能领域的前沿算法进展,探索新技术的实际应用; ‒ 研究多模态感知与决策(如视觉、语音、触觉)的融合方法,提升智能体的环境理解与行动能力; ‒ 参与长期自主学习、在线学习和自适应学习系统的设计与开发。