阿里巴巴大语言模型对齐能力研究
任职要求
1.自然语言处理、机器学习、数据挖掘、人工智能等相关专业的硕士生/博士生; 2.熟练掌握Tensorflow、Pytorch等深度学习框架,扎实的编程基础,具备独立的算法实现能力; 3.有L…
工作职责
1. 跟进和研发大规模语言模型(LLM)的SFT、RLHF等技术; 2. 跟进和研发大规模语言模型的数据治理与筛选、指令合成与指令跟随等技术; 3. 研发基于大模型的淘宝问问助手、ChatBot、检索增强、Code、Longchain等下游应用; 4. 结合以上方向的探索和研究,撰写发表论文,和业界、学术界保持良好的交流。
大模型具备很强的泛化及理解世界能力,在小红书内的众多生产场景遍地开花,大模型的训练和部署已成为许多算法工程师的日常。在多团队、多业务频繁使用的大规模GPU集群上,如何能够通过高效的GPU调度策略,使大家不仅能丝滑地完成训练及部署任务,同时也能充分激发大规模GPU集群的效能,是行业公认的关键挑战。在这里,你可以聚焦LLM场景,接触到超大规模GPU集群,并使用真实负载数据进行深入分析及技术探索。欢迎加入我们,一起探索领先技术改变世界! 工作职责: 1、负责万卡规模GPU集群效能分析及优化,通过调度策略优化、在离线混部、集群调度、GPU虚拟化、故障快速恢复、存储&网络加速等手段,提升大规模GPU集群的整体使用效率。 2、负责构建面向大模型训练、微调、推理、部署全流程LLMOps,与下游云原生平台深度融合,支撑大模型在公司内各业务生产链路稳定高效地落地。 3、持续关注业界最新的GPU资源调度相关技术动态,探索建设业界领先的资源调度策略及方法,构建下一代大规模AI资源调度系统。
-角色和剧本模型训练:优化角色和剧本类大模型的行为策略、长期记忆管理和多模态交互能力,突破角色行为一致性、情感表达合理性等技术瓶颈 -前沿探索:研究人格化模型在情感计算、社会常识推理等方向的突破,定义 AI 角色从「功能执行」到「人格化陪伴」的技术范式 -极致性能优化:大规模模型的分布式训练优化,提升角色类模型的推理效率与资源利用率,指令微调、偏好对齐、数据增强等技术的场景化创新 -规模增长:通过传统搜索、信息流等途径结合用户分析进行产品用户规模增长
1、深入探索LLM在搜索场景中的推理能力与深度研究(Deep Research)模式,优化信息整合与总结效果,打造高效、精准的智能搜索产品,推动AI技术在实际应用中的突破; 2、AI搜索总结Agent研发: 1)设计并实现基于LLM的搜索总结Agent,提升搜索结果的理解、推理与结构化总结能力; 2)探索LLM Reasoning技术(如思维链、多步推理),优化复杂查询的Deep Research模式,实现长文本理解与跨文档信息融合; 3)构建端到端系统,涵盖意图识别、知识检索、结果生成与偏好对齐,提升用户体验; 3、模型优化及应用: 1)通过指令微调(Instruction Tuning)、偏好对齐(RLHF/DPO)等技术优化模型在搜索场景的适应性; 2)探索多模态信息(文本、代码、结构化数据)融合的搜索与生成技术; 3)研究未来生活中的创新应用场景(如个性化知识助手、自动化研究工具),探索技术边界。