京东智能体/具身/全模态RL Infra大模型算法工程师/架构师
任职要求
1.硕士及以上学历,计算机、具身智能、高性能物理、数学、人工智能及STEM等相关专业; 2.拥有扎实的计算机科学功底和编程能力,熟悉VLM/Omini/VLA/World Model/Flow Matching等理解及生成式模型效能优化,具有AI Infra全栈优化经验; 3.掌握智能体/具身/全模态大模型结合强化学习算法及veRL/ROLL/S…
工作职责
团队介绍 我们是京东科技云事业部AI Infra团队,致力于大模型核心技术的前沿创新与应用。我们专注于业界领先的大模型创新算法及框架研发,构建极致高效的基础大模型训练、推理与渲染一体化平台,提供高吞吐高可用、低成本低延迟的大模型服务。我们的核心使命是高效支持京东自研和业界主流开源基础模型的训练、推理与渲染服务,驱动京东集团内外部的智能体/具身/全模态等大模型业务生态及应用。我们团队秉承技术驱动、创新为本的理念,为每一位成员提供广阔的成长空间和富有挑战性的项目。 工作内容 1.研发智能体/具身/全模态大模型算法,结合RL Infra后训练基座Scale-Law优化,提高大模型训练、生成和仿真渲染效能; 2.基于MoE/DiT大模型架构,融合样本均衡/多P并行/压缩/量化/剪枝/算子融合等技术,进行算法与系统Co-Design优化,并推动业务落地; 3.追踪业界最新技术进展,开展大模型算法与RL Infra训练、生成和仿真渲染相关创新,发表高影响力论文,打造业界一流的大模型RL Infra服务能力。
团队介绍: 我们是京东科技云事业部基础云业务部AI Infra团队,致力于大模型核心技术的前沿创新与应用。我们专注于业界领先的大模型创新算法及框架研发,构建极致高效的基础大模型训练、推理与渲染一体化平台,提供高吞吐高可用、低成本低延迟的大模型服务。我们的核心使命是高效支持京东自研和业界主流开源基础模型的训练、推理与渲染服务,驱动京东集团内外部的智能体/具身/全模态等大模型业务生态及应用。我们团队秉承技术驱动、创新为本的理念,为每一位成员提供广阔的成长空间和富有挑战性的项目。 岗位职责: 1. 大语言模型/多模态大模型SFT微调、指令跟随、后训练RLHF精调与偏好对齐; 2. 大语言模型/多模态大模型强化学习Reasoning模型算法、Reward模型、Verifier等算法研发; 3. 大语言模型/多模态强化Reasoning大模型长CoTs效率效果优化与RL Scaling-law研究; 4. 大语言/多模态大模型Agent算法研发; 5. 大语言/多模态大模型强化学习Test-time Compute在线推理算法研发。
通义千问(Qwen)是由通义实验室自主研发的超大规模语言模型,具备多模态、多语言、跨任务的理解与生成能力。Qwen系列模型,涵盖参数量从亿级到万亿级的基座大语言模型,并相继推出Qwen-VL、Qwen-Audio、Qwen-Omni、Qwen-Coder、Qwen-Image等系列模型。从多轮对话到代码生成,从逻辑推理到内容创作,从单一多模态到全模态统一理解生成,Qwen 正在打造全球领先的全模态模型技术体系,推动AI在企业服务、开发者生态、个人用户等领域的深度应用,引领下一代人工智能的发展。 若你对以下一个或者多个方向感兴趣均欢迎投递: 1)多模态基础模型的研发,包括融合视觉语言的跨模态理解模型设计,提升视觉基础模型在图像/视频中的视觉知识、空间感知、Omni Parsing 等核心能力,并同时优化多模态大模型的AI infra。 2)通过强化学习(RL)持续提升多模态模型推理能力和执行任务能力,构建支持网络世界(PC/Mobile/Web/游戏)交互的通用智能体,将相关能力拓展到GUI agent,VLA,以及具身智能场景中。 3)研究理解与生成统一的模型架构,实现跨模态生成与推理的协同优化。 工作职责: 1. 多模态 pre-training:开展研究及进行实验,研究内容包括:数据清洗筛选、数据配比优化、课程学习、视觉语言模型结构设计与优化、训练策略优化、预训练数据合成、scaling law 预测、词表优化、模型蒸馏与压缩、长上下文能力优化等。 2. 多模态 post-training:迭代 post-training 训练策略(SFT/RLHF),专项能力数据迭代,参与模型能力评测及评测数据和评估标准的迭代。 3. 多模态推理和通用 agent:通过强化学习(RL)持续提升多模态模型推理能力和执行任务能力,打造多模态的 test scaling laws,并推动模型对网络和虚拟世界的交互和任务完成能力。 4. 统一理解生成:构建视觉统一理解生成大模型,推进多模态统一生成与理解的推理和交互新范式。
通义千问(Qwen)是由通义实验室自主研发的超大规模语言模型,具备跨语言、跨任务的理解与生成能力。Qwen系列模型,涵盖参数量从几百 M 到 T 级的基座大语言模型,并相继推出Qwen-VL、Qwen-Audio、Qwen-Omni、Qwen-Coder等系列模型。从多轮对话到代码生成,从逻辑推理到内容创作,从单一多模态到全模态统一理解生成,Qwen 正在打造全球领先的全模态模型技术体系,推动AI在企业服务、开发者生态、个人用户等领域的深度应用,引领下一代人工智能的发展。 视觉语言理解能力是Qwen最重要的能力之一,围绕 LLM 建设出具有视觉深度理解与推理能力的基座模型是团队的必经之路。结合视觉理解和推理能力的基础模型,将拓展到视频理解,GUI Agent,以及VLA 和机器人等场景中。团队负责:1)多模态基础模型的研发,包括融合视觉语言的跨模态理解模型设计,提升视觉基础模型在图像/视频中的视觉知识、空间感知、Omni Parsing等核心能力,并优化多模态大模型AI infra;2)探索多模态Agent和推理能力,构建支持网络世界(PC/Mobile/Web/游戏)交互的通用智能体;3)研究生成与理解统一的模型架构,实现跨模态生成与推理的协同优化。 工作职责 1. 多模态Pre-training:开展研究及进行实验。研究内容包括:数据清洗与筛选、数据配比优化、课程学习、视觉语言模型结构设计与优化、训练策略优化、预训练数据合成、scaling law预测、词表优化、模型蒸馏与压缩、长上下文能力优化等。 2. 多模态Post-training:迭代Post-training训练策略(SFT/RLHF),专项能力数据迭代,参与模型能力评测及评测数据和评估标准的迭代。 3. 多模态推理和通用Agent:通过强化学习(RL)持续提升多模态模型推理能力和执行任务能力,打造多模态的Test Scaling Laws,并推动模型对网络和虚拟世界的交互和任务完成能力。 4. 统一理解生成:构建视觉统一理解生成大模型,推进多模态统一生成与理解的推理和交互新范式。
预训练 探索下一代大模型预训练范式,从模型结构、训练策略、数据策略、算力利用率等角度切入,打造具有更强能力和更高潜力的基座模型。 1.设计更高效的模型结构,提高给定数据量、计算量、参数量、序列长度等约束下的模型能力,如长序列能力、记忆能力、推理能力等; 2.探索更科学的训练策略,对影响training dynamic的关键变量(如学习率、batchsize、初始化等)形成更科学的认知,探索更适合大模型的optimizer等; 3.研究模型结构和数据的耦合关系;探索预训练与上下游环节的联合优化;改进分阶段训练范式; 4.结合MLsys解决大规模训练和推理中遇到的卡点问题,实现算法和工程联合设计。 原生多模态 1.负责面向真实世界数据(尤其是大规模视频序列、图文交错数据等)的原生多模态大模型的架构设计与预训练技术探索。攻坚多模态信息(视觉、语言、音频、触觉等)的深度融合、统一表征与跨模态生成。借助更大规模自监督学习范式,驱动模型学习多模态序列分布,致力于让模型从海量数据中学习世界运行的规律、物理交互知识与通用技能; 2.设计并优化适用于原生多模态架构的表征构建与学习方案,以增强模型对多模态Token的深层理解、采样与复杂推理能力。结合SFT/RL等后训练探索,激发模型采样多模token,解决物理世界问题能力; 3.负责将原生多模态大模型学到的丰富先验知识高效迁移并赋能具身智能体。主导或参与强化学习(RL)、模仿学习(IL)、规划与控制算法的设计与优化,显著提升智能体在模拟及真实机器人上的学习效率、任务成功率与自主决策能力; 4.负责设计并与工程团队紧密协作搭建高逼真度、可扩展的具身智能模拟环境,产出多样化、高质量的合成交互数据,为强化学习算法的训练、测试以及Sim-to-Real研究提供坚实的数据与环境基础。 智能体系统 1.研发端到端训练、能够自主处理问题、具备完整工具使用能力的智能体(Agent)系统,在Agentic Coding、DeepResearch等各类端到端任务上取得突破。 2.探索能够自主与环境交互,自适应学习并持续提升的智能体(Agent)系统,提升大模型解决现实问题的能力。