美团【北斗】基座大模型视觉生成算法研究员
任职要求
1.熟练掌握模式识别和计算机视觉领域的基础理论和方法,在以下一个或多个领域有深入研究:图像/视频/3D生成、图像/视频指令编辑、多模态大模型、多模态Agent、强化学习等; 2.在机器学习和深度学习方面具备扎实的理论基础和工程能力,熟练掌握Pytorch等主流框架; 3.具有行业影响力高质量论文、顶尖竞赛经历者,或在知名开源项目中做出过核心贡献优先; 4.优秀的分析和解决问题的能力,项目推动力和团队协作能力。 岗位亮点: 1.可深度参与前沿技术路线下的全流程建设,鼓励技术创新,有海量跨场景数据和充足的计算资源。 2.具备成熟的技术转化链路,直接触达实际业务场景的技术难题,应用空间广泛且价值明确。
工作职责
研究方向一:图像生成大模型技术研究 1.负责下一代图像生成模型架构建设,包括但不限于AR-Diffusion、生成编辑统一架构构建; 2.负责生图专项能力升级,包括Reward model设计、多语言文字生成能力。 研究方向二:视频生成大模型技术研究 1.负责下一代视频生成模型架构建设,以及高效率、低精度损失、高压缩比的视频VAE和tokenizer建设; 2.负责视频生成下游功能拓展,包括多概念注入生成、交互式生成、长视频生成等。 研发方向三:视觉内容创作Agent 1.负责对话式创作助手核心能力攻坚,包括图像视频创作场景的CoT能力、交互式编辑能力提升。 2.负责图文海报、剧情化成片等典型应用场景的模型微调、Agent能力建设。 研究方向四:拟人化多模交互前沿路线研究 1.构建多模输入的人物视频生成模型,具备高度拟人化的面部驱动、人体动作生成。 2.构建基于多模态大模型的端到端交互模型,实现智能双工交互和人-物-场景的交互。
预训练 探索下一代大模型预训练范式,从模型结构、训练策略、数据策略、算力利用率等角度切入,打造具有更强能力和更高潜力的基座模型。 1.设计更高效的模型结构,提高给定数据量、计算量、参数量、序列长度等约束下的模型能力,如长序列能力、记忆能力、推理能力等; 2.探索更科学的训练策略,对影响training dynamic的关键变量(如学习率、batchsize、初始化等)形成更科学的认知,探索更适合大模型的optimizer等; 3.研究模型结构和数据的耦合关系;探索预训练与上下游环节的联合优化;改进分阶段训练范式; 4.结合MLsys解决大规模训练和推理中遇到的卡点问题,实现算法和工程联合设计。 原生多模态 1.负责面向真实世界数据(尤其是大规模视频序列、图文交错数据等)的原生多模态大模型的架构设计与预训练技术探索。攻坚多模态信息(视觉、语言、音频、触觉等)的深度融合、统一表征与跨模态生成。借助更大规模自监督学习范式,驱动模型学习多模态序列分布,致力于让模型从海量数据中学习世界运行的规律、物理交互知识与通用技能; 2.设计并优化适用于原生多模态架构的表征构建与学习方案,以增强模型对多模态Token的深层理解、采样与复杂推理能力。结合SFT/RL等后训练探索,激发模型采样多模token,解决物理世界问题能力; 3.负责将原生多模态大模型学到的丰富先验知识高效迁移并赋能具身智能体。主导或参与强化学习(RL)、模仿学习(IL)、规划与控制算法的设计与优化,显著提升智能体在模拟及真实机器人上的学习效率、任务成功率与自主决策能力; 4.负责设计并与工程团队紧密协作搭建高逼真度、可扩展的具身智能模拟环境,产出多样化、高质量的合成交互数据,为强化学习算法的训练、测试以及Sim-to-Real研究提供坚实的数据与环境基础。 智能体系统 1.研发端到端训练、能够自主处理问题、具备完整工具使用能力的智能体(Agent)系统,在Agentic Coding、DeepResearch等各类端到端任务上取得突破。 2.探索能够自主与环境交互,自适应学习并持续提升的智能体(Agent)系统,提升大模型解决现实问题的能力。
视觉方向 1.探索大规模/超大规模多模态视觉大模型,并进行极致系统优化,数据建设、指令微调、偏好对齐、模型优化。 2.探索统一的多模态大模型架构,打通理解与生成之间的壁垒,研究如何在单一模型框架下实现对多模态信息的深度理解与高质量生成。 3.探索多模态推理模型(Reasoning)架构、提升多模态在学科、通用视觉任务上的思考和推理能力。 4.探索视觉GUI Agent模型构建,提升GUI场景下的理解、规划和决策能力,进而提升人机交互的性能。 5.探索具身智能大模型的构建,提升机器人在物理场景中的模仿学习和强化学习算法,提升具身智能的多模态处理能力以及与开放世界的物理交互能力。 6.探索多模态视觉大模型后训练方法,探索指令微调、强化学习等后训练策略,提升模型的性能。 语音方向 1.语音表征学习:探索同时适用于理解和生成任务、兼顾学习效率和效果的语音表征。 2.模型结构与预训练方法:研究可大规模扩展的模型结构,高效学习语音和文本知识,提升模型的理解和生成能力。 3.音频理解:在语音(Speech)之外,探索更广泛的音频(Audio,如音乐、环境声)理解能力。 4.音频生成:探索高质量音频生成能力,具备强表现力、多风格、多语种、多音色等。 5.后训练方法:探索基于 SFT 和 RL 的后训练策略,进一步提升模型能力上限,。 6.智能交互技术研究,探索高效的智能交互技术,增强系统交互过程中的智能能力、拟人度、自然度和主动性。 全模态融合 大语言模型最近取得的突破,加速了多模态大模型的发展。全模态大模型(Omni-MLLM)通过融入如视觉、语音等模态,拓展了多模态大语言模型的能力,有助于更全面、多维度地理解与生成各种模态,提供更强的智能以及更智能的交互模式。 1.多模态表征对齐:研究在统一模型架构下提取并共享视觉、语音、语言等模态的特征;基于对比学习、自监督学习,优化多模态对齐过程;针对视频、音频等数据,研究时间序列信息的对齐技巧。 2.多模态统一模型架构:探索统一全模态大模型架构,研究高效全模态预训练技术,使之能够高效处理文本、图像、视频和语音数据,并生成涵盖文本、音频和图像等多种模态的输出 3.多模态知识迁移与能力增强:研究在不同模态间的能力迁移,激发模型在跨模态任务中的涌现能力。
多模态理解与生成能力是大模型实现通用人工智能的核心基石之一,涵盖了跨视觉、语言等多种模态的信息处理与创造。本课题致力于探索统一的多模态大模型架构,打通理解与生成之间的壁垒,研究如何在单一模型框架下实现对多模态信息的深度理解与高质量生成,从而构建具备更强泛化能力和创造性的通用人工智能大模型。 研究内容: 1)视觉表征研究:不同规模和训练范式的视觉基座预训练,模型结构探索和选型,开发更适合于多模态大模型的视觉基座。 2)理解生成统一:面向不同的多模态架构和训练范式,从视觉基座的角度深入探索视觉连续表征和离散表征的联系和区别,探索更具通用性的多模态特征。 3)视频多模态能力提升:探索短视频、长视频、视频流等不同形态的视频多模态方案,探究图像、视频统一的多模态解决方案。 4)高效和轻量化模型构建:探索适合轻量化多模态任务的模型架构,通过参数共享、模块化设计等手段,在不显著降低性能的前提下减少模型参数量和计算复杂度。