蚂蚁金服研究型实习生-搜广推领域CTR模型多模态联合建模
任职要求
研究领域: -目前正在攻读计算机科学或相关STEM领域的学士,硕士或博士学位 -具有一种或多种通用编程语言的经验,包括但不限于: Java,C/C ++ 、Python、JavaScript或Go -具有上述研究领域的…
工作职责
研究领域: 人工智能 项目简介: 大语言模型(LLM)和多模态大模型(MMLM)的发展为推荐系统带来了新的生机。相较于传统推荐模型依赖协同过滤信息进行建模,大语言模型因其强大的泛化和推理能力,可以更好地对物品、内容进行关联、分析用户行为和偏好,从而具备处理复杂场景中复杂用户行为的潜力。但同时,虽然大语言模型在理解和生成自然语言方面表现出色,但它们在处理推荐系统中数据稀疏、特征异构、训练和部署效率等方面仍存在众多挑战。本项目旨在对传统推荐模型、大语言模型甚至多模态大模型进行联合建模,以期取长补短,更有效地利用多模态异构信息,从而进一步提升推荐模型表现。 主要的挑战包括但不限于: 1. 大语言模型的编码效率问题:LLM的训练及推理成本随编码的信息量增加而快速膨胀,如何高效地对长用户行为序列进行多模态编码是联合建模相关探索的基础问题。 2. 多模态信息融合问题:物品、内容存在大量不同模态且异构的信息,如何有效地对多模态信息进行融合,是保障联合建模效果的重要问题。 3. 联合建模的模态差异化优化问题:不同模态在拟合速度、信息权重等方面存在天然差异,如何在联合建模过程中平衡和调节不同模块的优化是联合建模的难点。
职位描述(Job Description): 你将加入高德地图核心算法团队,在资深算法专家的指导下,探索大模型(LLM/多模态)与推荐系统的深度结合。你将有机会接触亿级用户规模的真实业务场景,参与从前沿技术研究到工程落地的全过程。 你将参与或负责以下工作内容(包括但不限于): 大模型前沿探索: 参与 Qwen-VL、InternVL 等多模态大模型及 LLM 在高德业务场景下的微调(SFT)、对齐(RLHF)及 Prompt 优化,探索生成式推荐的新范式。 推荐算法优化: 深入理解高德核心业务(如首页推荐、目的地预测),协助优化召回、排序(粗排/精排)、重排等核心模块,提升 CTR、CVR 等关键业务指标。 用户行为建模: 利用深度学习技术挖掘用户长短期兴趣,结合高德特有的时空数据,进行下一站预测和场景化意图推理。 多模态内容理解: 处理海量图像与文本数据,构建高质量的内容表征体系,解决冷启动问题,提升内容分发效率。 数据分析与实验: 深入分析业务数据,设计并跟进 AB 实验,通过数据驱动的方式验证算法效果并进行迭代。 你将获得: 核心业务场景: 接触高德亿级日活用户的真实数据,解决极具挑战性的时空推荐问题。 大牛导师带教: 资深算法专家一对一指导,提供清晰的成长路径和技术辅导。 前沿技术落地: 拥有充足的算力资源(GPU集群),亲手将大模型技术落地到实际产品中。 转正机会: 表现优异者可获得校招转正 Offer 或 绿色通道面试资格。
【业务介绍】 作为公司统一的机器学习平台团队,负责调度公司所有模型训练与推理资源;基于自建的训推引擎,构建公司统一的机器学习平台,为公司所有算法同学(稀疏 & 稠密,含 LLM) 模型迭代提供端到端的一站式服务;包括 数据生产,模型训练,模型上线,特征管理,模型测试,资源管控等一系列能力。 【岗位职责】 1、负责机器学习链路,离在线数据相关的开发工作,包括样本数据、特征数据等的数据链路搭建、任务运维和调优、性能优化等 2、负责小红书大规模机器学习平台的后台系统设计和开发工作;包括样本平台,特征平台,训练平台,推理平台等AI应用后台建设等; 3、研究分析业内AI平台产品,优化技术方案,改进产品功能,完善产品体验。
大模型具备很强的泛化及理解世界能力,在小红书内的众多生产场景遍地开花,大模型的训练和部署已成为许多算法工程师的日常。在多团队、多业务频繁使用的大规模GPU集群上,如何能够通过高效的GPU调度策略,使大家不仅能丝滑地完成训练及部署任务,同时也能充分激发大规模GPU集群的效能,是行业公认的关键挑战。在这里,你可以聚焦LLM场景,接触到超大规模GPU集群,并使用真实负载数据进行深入分析及技术探索。欢迎加入我们,一起探索领先技术改变世界! 工作职责: 1、负责万卡规模GPU集群效能分析及优化,通过调度策略优化、在离线混部、集群调度、GPU虚拟化、故障快速恢复、存储&网络加速等手段,提升大规模GPU集群的整体使用效率。 2、负责构建面向大模型训练、微调、推理、部署全流程LLMOps,与下游云原生平台深度融合,支撑大模型在公司内各业务生产链路稳定高效地落地。 3、持续关注业界最新的GPU资源调度相关技术动态,探索建设业界领先的资源调度策略及方法,构建下一代大规模AI资源调度系统。
中台稠密引擎组,是小红书负责建设通用深度学习训练推理引擎的团队,面向全公司LLM、多模态LLM、SD、传统CV&NLP等稠密计算型模型训练与推理的业务场景,打造高效、易用、业界领先的训练与推理引擎,为小红书社区、商业化、安全等众多业务方向提供先进的引擎能力,支撑业务持续提升训练推理效率、模型迭代效率与算法研发效率。 1、参与设计和实现深度学习后训练及微调的前沿算法(包括但不限于RFT、RLHF等),以适应多样化的业务场景; 2、结合业务数据和场景,评估选择最适合的微调算法,以支撑业务大语言模型(LLM)微调指标的提升; 3、与数据团队紧密合作,深入理解数据特性,参与设计实现数据提质算法引擎工具,产出高质量数据集提升模型微调效果; 4、与公司内各算法团队深度合作,参与或负责大语言模型、多模态大模型等业务场景的后训练端到端效果提升及落地; 5、密切关注业界 LLM 微调算法和数据提质领域的前沿论文,并整合新技术和算法到训练引擎中,提升框架的领先性;