美团【北斗】大模型基础算法/应用算法工程师
任职要求
1.对NLP、大模型相关领域一个或多个方向有深入的研究经历,且有相关实际项目经验。 2.熟练使用深度学习框架(比如PyTorch),熟悉和实操 Megatron、DeepSpeed 等开源训练框架。 加分项: 1.在知名开源大模型,或大模型应用项目中有核心贡献者优先。 2.有过预训练经验、深度推理、强化学习等方向的经验。 3.发表过高水平论文,或在算法竞赛、基准榜单中获得优异成绩。 岗位亮点: 1.真实场景驱动的核心技术突破与高价值创造: 深度参与到美团亿级用户体量、业务场景横跨生活服务全域的独特生态中,将最前沿的大模型技术应用于智能客服/销售、数据诊断与商业分析、智能办公助手等多个战略级、高价值场景,亲身驱动在此种复杂业务逻辑下,服务体验的革命性提升。 2.前沿技术探索与落地: 将深入研究并实践最新的算法(如强化学习、多智能体协同、模型反思机制、大模型可解释性研究等),并将其应用于构建真正具备自主性与适应性的智能系统。 3.顶尖团队与成长环境: 与行业顶尖的大模型研发团队并肩作战,获得充分的指导与资源支持,在解决行业Top级难题的过程中快速成长,为你的学术和职业生涯奠定坚实基础。
工作职责
基础算法研究 一、推理思考 1.开发链式思考、思维树等推理增强技术,优化模型对复杂业务逻辑推理、策略规划等任务的深度理解。 2.探索通过大规模强化学习持续提升模型推理能力。 3. 构建业务逻辑推理评测基准,推动模型思维链的可解释性研究。 二、多模态端到端 1.研发语音-文本跨模态对齐与联合表示学习算法,解决语义鸿沟问题,提升模型对语音指令理解、语音到文本生成的鲁棒性。 2.探索语音交互场景下的多模态增强技术(如语音情感分析、端到端语音对话生成),推动模型在智能客服、语音助手的应用落地。 三、生活服务领域增强 1.大模型基座知识能力增强,打造生活服务领域基座,赋能美团各类大模型应用场景; 2.探索预训练增强阶段的大规模高质量数据自动合成、Scaling Law、长链条复杂推理反思能力增强; 3.建设生活服务chat模型与智能体,通过强化学习等方式增强模型推理反思、复杂指令遵循、高情商交互等能力。 应用算法研究 一、深度推理、规划与决策能力强化 1.优化大模型在逻辑推理、多步规划、复杂决策、多轮多步工具调用等任务上的表现,探索如RL scaling、Test-time scaling等前沿技术。 2.构建能够处理模糊与不完全信息、进行自主假设与验证的推理框架。赋能大模型实现精准的工具调用与智能体协同。 二、高度拟人化交互与专业沟通能力构建 1.赋予模型深度理解与分析专业领域问题的能力,包括隐性需求挖掘和复杂语境下的语义理解。 2.探索多轮对话中的上下文记忆、情绪感知、共情表达与高情商交互技巧,实现稳定人设、知识遵循与高度自然的对话风格。 3.研究模型主动感知用户全面信息、进行预判性服务与信息推送的策略,而非被动响应,打造能真正吸引用户持续对话的自主交互。 三、多智能体协作研发范式与前沿技术应用 1.设计和研究多智能体间的动态协调、知识/记忆共享与冲突解决机制,实现“1+1>>2”的协同效应。 2.推动面向智能体的大模型研发新范式,探索大模型智能体在环境感知、记忆与知识库管理、复杂指令遵循等基础能力的统一建模与提升路径。 四、基于强化学习的智能体优化方法研究 1.研究和改进现有的强化学习算法,实现端到端Agent性能优化,提升Agent鲁棒性与泛化能力。 2.构建面向领域任务的DeepResearch能力,提升Agent在多步骤信息检索、工具调用、推理规划等任务中的表现。
负责金融场景的大模型的研发和应用,研究相关技术在AI营销、AI风控、AI客服、AI催收领域的落地价值和解决方案,通过AI赋能业务,满足业务迅速增长的智能交互、智能决策需求。 研究方向一:基于大模型的多轮对话理解与生成 1.深入参与对话机器人在数据建设、指令微调、偏好对齐、强化学习、推理优化等环节的建设; 2.研究和解决大模型落地的关键问题,如检索增强、长文本理解、模型小型化技术等,并提升训练-评测的迭代效率。 研究方向二:大模型智能体算法研究 1.负责基于大模型的智能体架构构建,实现复杂问题的理解规划、工具执行以及感知反思能力; 2.探索最前沿技术,设计算法迭代飞轮,优化大模型基础模型,高效提升模型效果; 3.负责多智能体架构设计与落地,在多个金融业务场景中应用。
研究方向一:大模型智能体Agent技术研究 1.研究多轮长对话中的上下文管理技术,提高模型的连贯性和一致性,并探索基于用户特征和历史交互的定制对话策略,设计针对特定业务场景的微调和适应技术,提升模型在实际应用中的表现。 2.探索智能体调用和使用多个外部工具的方法,通过端到端后训练的方式增强其解决实际问题的能力。深度研究智能体的自我评估和学习机制,实现智能体的持续优化和能力提升。 3.优化LLM长链路的多轮工具调用能力,提升工具调用时的精确性及用户的实际交互体验。 4.设计并完善针对特定任务场景的Auto-Eval能力,指导模型迭代方向。 研究方向二:深度搜索(Deep Search/Research)技术研究 1.研究面向深度搜索场景的工具学习方法,基于SFT/RLHF后训练算法赋予搜索智能体高效的工具调用能力。 2.对齐行业最前沿的研究进展,深入研究不同工具调用环境下的大模型后训练能力边界,并基于实际业务场景进行迭代优化。 研究方向三:多模态基础模型能力建设 1.研究多模态数据(文本、语音、图像等)的语义融合与表示方法,提升模型对复杂内容的理解能力。 2.探索多模态模型在推理任务中的表现,研究如何通过工具调用增强模型的推理能力。 3.设计高效的多模态模型架构,优化模型的参数规模、训练效率和推理性能,提升基础模型的通用性与适应性。 研究方向四:大模型分布式后训练及推理加速技术 1.后训练方向:样本IO吞吐优化:使用多线程读取、数据管道流水线编排、数据压缩等技术,实现分布式环境下高性能的样本IO pipeline;计算图编译与高效执行:通过图编译、Kernel优化、算子融合等手段,提升计算图的执行效率;高性能并行训练:包括DP/TP/PP/SP/CP/EP等并行策略及其他训练超参数的自动寻优,故障自动恢复,弹性计算等;强化学习训练效率优化:通过rollout速度优化、多模型多阶段流水线编排、负载均衡等手段优化RL训练效率。 2.推理加速方向:负责实现和优化大模型在线推理系统,提升推理性能,包括不限于:架构设计、算子开发、通信优化等; 研究并实现各种模型推理加速手段如并行策略、混合精度、MOE、FP8等技术,加速模型推理速度; 设计和开发高效的离线、在线推理系统,优化SGLang、vLLM等推理框架,加速整体推理性能。
模型推理是大模型应用的核心能力,是影响大模型应用成本和效率的关键因素。本课题专注于大模型推理加速与分布式系统优化的前沿技术探索,通过软硬件协同设计和算法工程联合优化,降低大模型推理的应用成本,提高推理性能。 研究内容包括但不限于: 1.投机推理(Speculative Decoding),研究基于预测性执行的动态推理优化方法,参与设计低延迟推理框架,通过概率模型预生成候选序列以降低解码计算开销。 2.分布式系统优化,探索多节点协同推理中的通信-计算负载均衡策略,提出基于异构硬件的混合并行调度方案,实现吞吐量提升。 3.稀疏Transformer优化与模型压缩,通过稀疏Transformer优化以及模型压缩技术提升模型的计算效率。 4.算子优化,熟悉最新硬件架构的算子优化方法,通过更高效的算子优化模型的吞吐和延时。
研究方向一:大模型分布式后训练技术 1.样本IO吞吐优化:使用多线程读取、数据管道流水线编排、数据压缩等技术,实现分布式环境下高性能的样本IO pipeline; 2.计算图编译与高效执行:通过图编译、Kernel优化、算子融合等手段,提升计算图的执行效率; 3.高性能并行训练:包括DP/TP/PP/SP/CP/EP等并行策略及其他训练超参数的自动寻优,故障自动恢复,弹性计算等; 4.强化学习训练效率优化:通过rollout速度优化、多模型多阶段流水线编排、负载均衡等手段优化RL训练效率。 研究方向二:大模型推理加速技术 1.负责实现和优化大模型在线推理系统,提升推理性能,包括不限于:架构设计、算子开发、通信优化等; 2.研究并实现各种模型推理加速手段如并行策略(DP/TP/PP/EP/CP)、混合精度、MOE、FP8等技术,加速模型推理速度; 3.设计和开发高效的离线、在线推理系统,优化SGLang、vLLM等推理框架,加速整体推理性能; 4.关注跟进最新的AI Infra进展,并高效的将最新的技术应用到实际业务中。