美团【大模型北斗实习】多模态智能体算法研究与自主规划
任职要求
1)在CV、NLP、多模态等相关领域有其中一个或多个方向有深入的研究经历。 2)熟悉TensorFlow、PyTorch等深度学习框架。 3)熟练使用Python、C++等至少一门…
工作职责
自主任务执行的计算智能体是AI应用的重要场景之一,具备充分的技术深度(如浅层环境感知能力和深层规划决策能力)和广泛的应用价值(如智能助手、具身智能等)。本课题旨在构建业界前沿的多模态智能体,包括2D数字世界的Computer Use和Browser Use,以及3D物理世界的具身智能等能力。探索优化智能体在视觉理解、决策反思、强化学习等方向的技术挑战。 研究内容包括: 1)智能体算法优化:提升智能体视觉定位和决策反思水平,探索强化学习在智能体决策的应用价值,构建2D数字和3D物理环境的环境感知能力。 2)Compute & Brower Use:探索多模态大模型自主规划完成计算机、手机、互联网网页的操作能力。 3)具身智能:探索多模态大模型的空间理解和自主规划能力,能够完成物理世界操作能力。
随着大模型与生成式 AI 技术的快速发展,在多模态和复杂场景下让 Agent 具备更强大的决策和执行能力成为未来的重要趋势。OpenAI Operator 通过结合强化学习的多步决策机制与大模型的理解、推理优势,可在多种任务场景(如 Computer Use、网页浏览等)中实现高效且灵活的自动化决策和任务执行。本课题将聚焦多样化业务场景和复杂环境下的自适应策略设计、规划与推理,进一步提升 Agent 在真实应用中的表现。 主要研究内容包括但不限于: 1) 多模态与多步决策:设计并构建包含多模态信息、计算机交互、网络搜索、函数调用等多维度的复杂环境,研究如何利用端到端强化学习来进行多步决策,从而完成更具挑战的任务。 2) 策略学习与优化:在多种强化学习算法(如 PPO、GRPO 等)的框架下,探索高效的策略优化方法,为 Operator Agent 提供强大的决策和执行能力。 3) 规划与推理:借助大模型的知识与推理能力,设计可解释的多步规划算法;研究如何与外部工具或知识库交互,以扩展 Agent 的能力边界并提升其在真实环境中的自动化决策表现。
随着大语言模型从通用问答走向复杂任务执行,Agent能力正成为模型演进的关键方向。传统大模型虽具备海量知识,但面对复杂任务的自主规划、工具调用及长期记忆管理时,往往难以应对。本课题旨在探索Midtrain这一关键阶段,推动通用基座模型向原生Agentic Foundation Model演进,为构建下一代自主智能体提供坚实的底座支持。 1. 大规模高质量数据体系与合成数据建设 数据体系构建:建设 Trillion 级别的大规模跨模态数据处理与合成链路。负责从训练数据获取到配比建模的全流程优化 合成方法演进:探索大规模合成数据 (Synthetic Data) 与自蒸馏 (Self-distillation) 技术,制定合成数据应用策略 理论探索:研究Data Scaling Laws,解决数据扩展中的模型坍塌(Model Collapse)与多样性瓶颈问题,通过课程学习(Curriculum Learning)等训练策略,显著优化Token/FLOPs转化效率 2. 长上下文 (Long Context) 与高效架构演进 长窗口突破: 持续Scaling Up模型的Context Length,优化超长上下文机制,重点提升LongCat基座模型在长上下文上的表现 架构优化: 探索并验证MoE(混合专家)、稀疏注意力(Sparse Attention)、线性注意力等模型结构;结合剪枝与稀疏化技术,协同优化训练与推理效率,提升超长上下文场景下的效率 上下文管理: 探索逐轮次和跨多轮次的上下文管理方法,并建立对应评测体系,从而减少冗余信息堆叠,实现高效思考和性能提升 3. 多模态能力融合与 Agent 赋能 模态融合:探索多模态预训练新范式,突破模态融合瓶颈。利用多模态扩展定律指导数据与训练方案,提升模型在多模态交互场景下的原生能力 复杂场景落地:面向 Agent、具身智能等前沿场景,提升模型的多模态指令遵循与复杂任务规划能力 4. 下一代训练范式与前沿技术探索 自进化机制:协同上下游团队,探索模型自进化(Self-evolution)机制,研究RL在Mid-training阶段的应用 能力扩展:研究推理阶段扩展(Test-time Scaling)及全模态链式思维(Omni-modal CoT),推动模型从单纯的“知识记忆”向“深度推理与问题解决”演进
【课题说明】 传统的向量召回和深度学习推荐范式在深度交互、冷启动、长尾商品发现、多场景适配等方面仍存在诸多挑战。生成式推荐系统以大模型为核心,具备强大的内容理解、知识推理和个性化内容生成能力。通过将用户历史行为、上下文信息、多模态内容等深度融合,生成式推荐系统能够实现用户意图的主动理解、候选内容的生成与多场景下的精准推荐,极大提升用户体验和平台生态活力。 【建议研究方向】 1.生成式召回:研究基于大模型的生成式召回方法,实现以模型参数为载体的候选内容记忆与生成,突破传统召回技术的局限。 2.多轮交互推荐技术:探索多轮用户引导与深度交互机制,实时理解用户意图变化,满足“千人千面”的个性化需求。 3.推荐系统的可解释性与安全性:研究大模型驱动的推荐逻辑可解释性方法,提升用户对推荐决策的理解和信任。同时探索生成式推荐中的内容安全,保障推荐系统的合规性与用户体验。 4.推荐智能体与复杂任务规划:构建具备推理、规划和自主决策能力的推荐智能体,支持跨领域、跨步骤的复杂任务推荐。
简介:下一代智能体系统的构建作为 2026 年进一步实现 AGI 的发展重点,claw 的火爆也揭示了这里的丰富潜力。我们认为,训练智能体系统的核心在于训练对任意复杂的环境进行合理交互、并在复合guidance 信号下充分进行系统级长程任务解决的能力。对于启发下一代智能体系统构建的任务,我们主要拆解如下特点: 1、长程性 :模型需要具备可靠地进行长周期任务执行的能力,让人不需要频繁 check,i.e.,模型可以自主稳定、目标导向地无人类监管运行 x 小时,且运行时间和任务完成度 / 任务完成量正相关。 2、系统性:模型需要能够原生地对高抽象层级的任务进行执行和拆解,不然模型只是终端工具,依然依赖大量的 human work 制订 workflow / pipeline,i.e.,模型可以通过单次运行解决人类需要工作 y 小时的任务。 3、探索性 & 成长性:可以预期模型具备在合适的时机自发进行有意义的探索,并以恰当的可掌握、高信息密度的形态进行增量信息的提取、构建与维护的能力,并充分利用这样的反复、多次的自监督探索所带来的自进化 / 自迭代 / 持续学习潜力。 4、多样性 & 鲁棒性:模型需要可以在复杂、多样、跨模态的任务域内做功,在高度分化的真实、可能带噪声的全模态环境下处理高度分化的任务。 具体的,我们关注如下研究目标: 1、通过 Large Scale RL Scaling 等手段,训练智能体系统能够在多样化、有噪声的真实、全模态环境下,支持多样化的 Tools、Skills、Subagents 的稳定、正确、综合、可插拔式灵活使用,并能在一定限度内进行环境的修复与可靠改造。 2、探索在易于模型理解使用的前提下,训练智能体系统以更高信息密度的形态构建、维护和利用 memory,使模型能主动在重复性任务或封闭任务域中总结、提炼认知与经验,并进行有效复用,达到不断自进化 / 自迭代 / 持续学习的效果。 3、训练智能体系统的系统性长程任务高效处理能力,可以自主进行合理的任务拆解、分工;探索通过 agent swarm 或其他先进的 multi-agent system 进行系统性长程任务的并行执行和提效。 4、探索多模态推理和多模态环境交互的范式,并基于此进行增强智能体系统在复杂全模态环境下的任务完成能力。