阿里云研究型实习生 - 大规模推荐系统性能优化
任职要求
1、优化推荐模型的特征算子和embedding算子, 通过算子融合提升embedding查找性能…
工作职责
推荐系统已成为面向用户的互联网APP不可或缺的核心功能,尤其在电子商务、社交网络和娱乐平台等行业中发挥着至关重要的作用。面对用户群体的持续扩张和推荐系统复杂度的增加,推荐系统在处理大量并发请求和优化响应时间方面遇到了显著挑战。当前,很多推荐系统在处理庞大的用户数据和复杂的多模态输入时,常常受限于并发处理能力和响应速度的不足。本项目旨在优化推荐系统的吞度和响应优化时间,通过gpu embedding算子优化,xla编译优化等技术提升高并发GPU/CPU异构环境下的训练和推理性能。
在这里,你将参与机器学习、深度学习领域的技术研发工作,包括但不限于神经元网络模型设计与优化、强化学习、迁移学习、主动学习、维度降低、核方法、谱方法、特征提取与稀疏学习、等级学习、推荐、随机优化等的算法和系统研发等; 在这里,你将进行机器学习尤其是深度学习前沿问题的探索与研究,结合未来实际应用场景,提供全面的技术解决方案; 在这里,你将有机会负责提供分布式的算法实现的解决方案,大幅提升算法计算规模和性能; 在这里,你将参与提供大数据分析建模方案,沉淀行业解决方案,协助拓展业务边界。 加入我们,共同专注于大数据之上的机器学习算法研究与应用。将对人工智能的极大热情投入到挑战各种实际应用难题中。来吧,我们等你加入!
职位描述 跟进AI Agent领域最新技术动态,围绕LLM大模型、Agent框架、LLM Reasoning技术(如思维链、多步推理)、优化复杂查询的Deep Research模式、长期记忆机制、自动化数据合成、指令微调(Instruction Tuning)、偏好对齐(RLHF/DPO)等技术,持续推动算法创新与落地。 开展LLM Agent技术研发,构建端到端Agent系统,涵盖意图识别、知识检索、结果生成与偏好对齐,推动相关技术研究与算法落地,提升用户体验。
【业务介绍】 作为公司统一的机器学习平台团队,负责调度公司所有模型训练与推理资源;基于自建的训推引擎,构建公司统一的机器学习平台,为公司所有算法同学(稀疏 & 稠密,含 LLM) 模型迭代提供端到端的一站式服务;包括 数据生产,模型训练,模型上线,特征管理,模型测试,资源管控等一系列能力。 【岗位职责】 1、负责机器学习链路,离在线数据相关的开发工作,包括样本数据、特征数据等的数据链路搭建、任务运维和调优、性能优化等 2、负责小红书大规模机器学习平台的后台系统设计和开发工作;包括样本平台,特征平台,训练平台,推理平台等AI应用后台建设等; 3、研究分析业内AI平台产品,优化技术方案,改进产品功能,完善产品体验。
大模型具备很强的泛化及理解世界能力,在小红书内的众多生产场景遍地开花,大模型的训练和部署已成为许多算法工程师的日常。在多团队、多业务频繁使用的大规模GPU集群上,如何能够通过高效的GPU调度策略,使大家不仅能丝滑地完成训练及部署任务,同时也能充分激发大规模GPU集群的效能,是行业公认的关键挑战。在这里,你可以聚焦LLM场景,接触到超大规模GPU集群,并使用真实负载数据进行深入分析及技术探索。欢迎加入我们,一起探索领先技术改变世界! 工作职责: 1、负责万卡规模GPU集群效能分析及优化,通过调度策略优化、在离线混部、集群调度、GPU虚拟化、故障快速恢复、存储&网络加速等手段,提升大规模GPU集群的整体使用效率。 2、负责构建面向大模型训练、微调、推理、部署全流程LLMOps,与下游云原生平台深度融合,支撑大模型在公司内各业务生产链路稳定高效地落地。 3、持续关注业界最新的GPU资源调度相关技术动态,探索建设业界领先的资源调度策略及方法,构建下一代大规模AI资源调度系统。