安克创新具身智能数据与VLA 实习生
任职要求
1.硕士及以上学历在读,计算机、人工智能、机器人、自动化等相关专业,2026 年及以后毕业优先 2.熟悉 Python 编程,具备良好的工程能力与代码规范意识 3.熟悉 PyTorch 等深度学习框架,了解基础模型训练与数据处理流程 4.了解以下至少一个方向的核心技术:…
工作职责
岗位职责 参与具身智能 VLA(Vision-Language-Action)模型的数据体系建设,包括机器人操作数据采集、标注、清洗、质检与管理 负责多模态数据处理流程开发与维护,涵盖视觉、语言、动作、触觉等数据的组织与对齐 搭建和优化大规模机器人数据 pipeline,包括数据上传、存储、版本管理、预处理与训练集构建 参与 VLA 模型训练与迭代,包括数据格式设计、训练配置、效果评估与 benchmark 分析 安克实习生项目是面向正式校招岗位的人才培养与选拔通道。实习期间将按照校招标准进行系统的培养与综合评估,表现优秀者可直接获得校招转正机会,提前锁定正式校招席位。我们以严肃、长期的视角对待每一位实习生,也期待与你共同成长。 【你将参与】 1.跟踪前沿 VLA 与具身智能方向论文(如 RT-2、OpenVLA、Pi0、Diffusion Policy、ACT 等),完成数据流程或模型方案复现与实验对比 2.协助机器人数据平台与工程化系统建设,提升数据采集效率、数据一致性与训练稳定性 3.与算法、数据采集、机器人控制团队协作,推动具身智能数据闭环与模型迭代

1.参与具身智能操作基座模型的研发,通过设计创新的VLA、WA等算法,构建行业领先的通用操作能力。 2.跟踪具身智能、机器人通用操作领域国际顶会顶刊最新研究动态,挖掘创新技术方向与落地场景,提出可落地的技术解决方案,持续优化算法性能与模型泛化能力

1.参与具身智能操作基座模型的研发,通过设计创新的VLA、WA等算法,构建行业领先的通用操作能力。 2.跟踪具身智能、机器人通用操作领域国际顶会顶刊最新研究动态,挖掘创新技术方向与落地场景,提出可落地的技术解决方案,持续优化算法性能与模型泛化能力
1. VLA/VLN算法开发:研究并实现Vision-Language-Action (VLA) / Vision-Language Navigation(VLN)算法,使机器人能够根据自然语言指令以及当前场景进行自主移动; 2. 多模态融合:开发视觉、语言、地图等多模态信息融合模块,提升导航决策的准确性; 3. 场景理解:实现基于视觉和语言的场景语义理解,支持复杂环境下的目标定位与路径规划; 4. 模型训练与优化:负责VLA/VLN模型的训练、调优及推理性能优化; 5. 数据与评测:参与导航数据集构建、评测指标设计及Benchmark开发。
关于我们 我们正在打造下一代具身智能人形机器人,致力于让机器人通过视觉-语言-动作大模型(VLA)理解物理世界并执行复杂操作。在这里,你将深度参与最前沿的VLA算法从研发到真机部署的全流程,见证算法在真实硬件上的每一次“进化”。 你将作为算法团队与数据、测试团队之间的“粘合剂”,负责VLA操作算法迭代过程中的全链路项目管理,具体包括: 数据需求与闭环管理:负责VLA算法训练的数据需求分析,统筹数据采集的排期与执行,跟进数据标注质量,确保高质量数据按时交付,支撑模型迭代效率。 测试与版本排期:协同算法研发与测试团队,制定算法回归测试与真机实测计划,跟踪Bug修复进度,管理算法版本的发布节奏。 研发流程推进:组织技术评审会、日站会及复盘会,维护项目看板(如Jira、Notion、飞书),识别关键路径上的风险与卡点,并推动问题解决。 跨职能协同:作为信息枢纽,对齐算法研发、硬件集成与运维团队的信息差,确保算法迭代在真实机器人硬件上的顺利部署与验证。