阿里云研究型实习生 - 大语言模型算法研究
任职要求
1、扎实的机器学习、深度学习、自然语言处理、大语言模型基础知识和编程能力; 2、优良的沟通表达能力、团队合作意识和经验;具备快速学习的能力,以及深入钻研技术问题的耐心; 3、长期实习,一年以上。 【加分项】 1、在国际顶级会议(ICLR/NeurIPS/ICML/ACL)有论文发表; 2、在顶级编程竞赛中获得优秀成绩; 3、有高star的github开源项目。
工作职责
专注于LLM post-training和agent相关算法研究,具体职责包括: 1、探索LLM可解释性 + 模型增量CPT/RL算法,提升语言模型在专业领域上的能力; 2、探索LLM可解释性 + 低比特量化算法,降低模型training/inference阶段计算成本; 3、探索agent 增强微调算法,提升模型在专业领域上端到端解决复杂任务的能力; 4、将相关算法研究成果发表在国际顶级会议上(ICLR/NeurIPS/ICML/ACL); 5、将相关算法研究成果应用于模型低比特量化、海外大模型业务中,显著提升阿里云通义千问模型服务效率和沙特等国家主权大模型线上效果。
专注于LLM post-training和agent相关算法研究,具体职责包括: 1、探索LLM可解释性 + 模型增量CPT/SFT/RL算法,提升语言模型在专业领域上的能力; 2、探索LLM可解释性 + 低比特量化算法,降低模型training/inference阶段计算成本; 3、探索agent 增强微调算法,提升模型在专业领域上端到端解决复杂任务的能力; 4、将相关算法研究成果发表在国际顶级会议上(ICLR/NeurIPS/ICML/ACL); 5、将相关算法研究成果应用于模型低比特量化、海外大模型业务中,显著提升阿里云通义千问模型服务效率和沙特、日本等国家主权大模型线上效果。
1.探索基于数据驱动的高效后训练优化策略,以更高效地提升模型性能,降低计算资源的消耗。 2.探索推理路径优化方法,提高大语言模型在多步推理、逻辑推理及跨领域知识融合任务中的准确性,稳定性和可控性。 3.探索推理能力自适应提升技术,开发能够根据具体任务需求动态调整推理策略的自适应学习机制,使模型在不同场景下都能达到较高的推理效率和准确率。
Top Seed人才计划-豆包大模型研究实习生专项:面向 2025 年 9 月及以后毕业的博士及本硕在读同学,加入我们,你可以自主决定研究课题,与正式员工享受同等权限和资源,和优秀的研究员一起,向智能上限发起挑战。 团队介绍:字节跳动豆包大模型团队(Seed)成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限,并探索新的交互。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。豆包大模型团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、成为研究型实习生,在你热爱的课题方向上,探索大语言模型领域最具挑战的长期关键问题; 2、寻找志同道合的伙伴,自由组建你的课题小组,享受充足的算力与数据资源支持; 3、获得长周期的培养与成长,大牛导师深度指导,国内外顶尖学者交流机会。
Top Seed人才计划-豆包大模型研究实习生专项:面向 2025 年 9 月及以后毕业的博士及本硕在读同学,加入我们,你可以自主决定研究课题,与正式员工享受同等权限和资源,和优秀的研究员一起,向智能上限发起挑战。 团队介绍:字节跳动豆包大模型团队(Seed)成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限,并探索新的交互。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。豆包大模型团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、成为研究型实习生,在你热爱的课题方向上,探索大语言模型领域最具挑战的长期关键问题; 2、寻找志同道合的伙伴,自由组建你的课题小组,享受充足的算力与数据资源支持; 3、获得长周期的培养与成长,大牛导师深度指导,国内外顶尖学者交流机会。