高德地图高德-具身传感器集成工程师(视觉方向)-具身业务部
任职要求
1. 5年以上视觉传感器集成/相机模组/机器人或智能硬件相关经验;有量产项目经验优先。
2. 熟悉至少一种相机链路:MIPI-CSI/USB/UVC/GMSL/以太网相机等;理解ISP/曝光/增益/白平衡等成像管线基本原理。
3. 有相机标定经验:内参/外参、双目校正、畸变模型(pinhole/fi…工作职责
1. 视觉传感器集成与接口落地
负责相机/深度相机/双目等视觉类传感器的系统集成:选型导入、接口适配(MIPI/USB/以太网等)、驱动与SDK集成、带宽/延迟评估。
输出并维护视觉相关接口文档(ICD):数据格式、时间戳规范、曝光/增益控制接口、同步方式、诊断与故障码。
2. 光学/结构安装与成像质量保障
与本体/ID/结构团队协作,完成相机安装位置、FOV、遮挡、透光件(罩壳/玻璃/膜材)设计约束与评审。
建立成像质量评估与验收标准:清晰度、畸变、噪声、HDR/逆光、弱光、动态模糊、滚快门影响等。
3. 标定与量产工艺协同
负责相机内参、畸变模型、外参(相机-机身/相机-IMU/相机-雷达等)标定流程设计与工具落地。
与NPI/ODM定义产线可执行的标定SOP、工装需求、验收门禁与追溯字段(SN绑定标定参数与版本)。
4. 稳定性与问题定位闭环
支持算法/系统软件/测试团队进行问题定位:帧率抖动、丢帧、时延、花屏、曝光异常、温漂/雾气/眩光导致的退化等。
建立视觉传感器健康监测指标与在线诊断:帧率、亮度分布、模糊度、坏点/遮挡检测、温度与异常事件上报。
5. 供应链与质量协同(视觉器件一致性)
协同SQE/供应链建立来料与一致性标准:镜头/模组批次差异、ISP参数、透光件良率与污染控制。
参与供应商联调与问题整改(FAE对接),推动第二供应源评估(如适用)。
视觉大模型方向: 1、 协调上层应用需求到机器视觉算法的整体架构; 2、 实现机器人基于3D视觉的双臂抓取方案,落地在照片、水杯等常规物体的视觉抓取任务中: 3、带领算法团队进行传统机器人视觉到端到端视觉大模型的技术演进,并落地在双臂协同抓取任务; 导航定位方向: 1、 负责机器人基于LIDAR的导航与定位算法研究与实现,并支持机器人业务中导航的需求; 2、负责单线和多线LIDAR的开发,SLAM 算法、多传感器融合算法、3D点云、3D场景重建等 3、负责无地图导航算法研究、自主实时建图方案研究; 4、实现高精度的地图更新; 机器人操作系统方向: 1、从事移动机器人系统的设计和研发,不限于底盘、四足、双足等形态;设计机械结构,硬件结构、并具备-定嵌入式开发经验: 2、具备机器人硬件开发经验,实现对关节电机的控制、实现与相机和雷达的通信: 3、熟悉运动控制算法,利用动捕收集步态数据,并通过强化学习和模仿学习实现机器人运动控制: 双臂方向 1、复现开源的双臂机器人扩散大模型RDT,并完成数据采集、模型训练、优化等功能: 2、设计触觉反馈传感器,并用于灵巧手,实习灵巧手的触党反馈: 3参与机器人架构设计、零部件选型、算法方案设计: 运动控制方向: 1.设计、 开发、实现和优化智能机械管的控制算法, 提高机械臂的智能性和学习能力。 2、研究机器人的智能控制模型,理解机器人的知、推理、学习和行为规划等机制。 3、在等机器人软件平台上开发机器人的控制和规划程序,并在Linux系统下进行软件开发和调试。 4、与其他团队成员合作,集成机器人和其他智能设备的功能,实现智能化的生产流程。
1. 遥操作系统开发: ‒ 设计并实现机器人遥操作系统的核心功能,包括实时控制、低延迟通信和人机交互模块; ‒ 开发和优化远程控制算法,确保系统的响应速度和精确性。 2. 通讯与数据传输: ‒ 实现高效的远程通信协议(如TCP/IP、UDP、WebRTC),优化数据传输的低延迟和高可靠性; ‒ 处理远程视频流传输、传感器数据融合以及控制信号反馈。 3. 系统集成: ‒ 集成机器人硬件(如机械臂、移动平台、无人机)与遥操作软件模块; ‒ 实现机器人与远程操作终端之间的无缝交互。 4. 人机交互开发: ‒ 开发直观的遥操作界面(GUI)或VR/AR交互系统,提升用户的操作体验; ‒ 设计力反馈、触觉反馈等增强操控感知的功能。 5. 仿真与测试: ‒ 基于仿真工具(如Gazebo、V-REP、Unity)设计并测试遥操作系统; ‒ 在实际场景中测试系统性能,确保其稳定性和可靠性。 6. 系统优化与迭代: ‒ 分析遥操作过程中出现的问题,优化系统性能; ‒ 实现智能化辅助功能(如路径规划、碰撞检测、自动校准等)。 7. 技术文档撰写: ‒ 编写清晰的技术文档,包括设计方案、开发流程和操作手册; ‒ 为团队成员提供技术支持与培训。
1. 基于 NVIDIA Isaac 的仿真平台开发 ‒ 搭建和维护基于 NVIDIA Isaac Sim 的机器人仿真系统,支持多种机器人类型(例如移动机器人、机械臂、无人车等)。 ‒ 利用 NVIDIA Omniverse 技术,构建高保真的虚拟环境,模拟物理特性(如动力学、传感器特性、碰撞检测等)。 ‒ 开发和优化 Isaac Sim 中的自定义扩展模块,满足项目需求。 2. 环境建模与场景构建 ‒ 使用 NVIDIA Omniverse 和其他建模工具(如 Blender、Maya)创建逼真的仿真环境和场景。 ‒ 配置和调试虚拟传感器(如激光雷达、摄像头、IMU)以模拟真实硬件行为。 ‒ 构建动态交互场景,用于测试机器人在复杂环境中的性能。 3. 机器人控制与算法验证 ‒ 在仿真环境中集成和测试机器人算法(如SLAM、路径规划、运动控制)。 ‒ 验证和优化机器人感知算法(如视觉检测、环境感知)在高保真模拟环境中的效果。 ‒ 通过仿真结果分析算法性能,为实际机器人实施提供支持。 4. 系统集成与工具链开发 ‒ 与机器人硬件和软件团队合作,将仿真结果与实际机器人验证无缝对接。 ‒ 开发自动化测试工具和数据可视化分析工具,提高开发效率和数据洞察能力。 ‒ 集成 Isaac 与其他机器人框架(如 ROS/ROS 2)以支持全栈开发。 5. 研究与创新 ‒ 研究 NVIDIA Isaac 平台的最新功能和应用场景,将新技术引入仿真系统开发。 ‒ 跟踪机器人仿真领域的前沿技术(如物理引擎优化、AI 模型仿真、数字孪生技术),并应用于项目中。