通义研究型实习生-多语言大模型低资源问题的探索与研究
任职要求
1. 候选人应为计算机及相关专业的博士或硕士研究生; 2. 熟练使用PyTorch框架进行深度学习模型训练与优化; 3. 拥有扎实的编程基础和出色的工程实现能力; 4. 在相关领域(自然语言处理、大模型)有顶会论文(ACL/EMLNP/ICLR/NeurIPS/ICML等)发表者优先。
工作职责
多语言技术是AI平权,助力企业出海的关键技术,也是Qwen系列的特色能力,在学术社区和工业界均获得了不错的反响和认可。然而,相较于高资源语言,大模型在低资源语言覆盖度和能力方面仍有显著差距。主要挑战在于低资源问题。本项目将致力于探索解决大模型第资源问题,主要包括以下方向: 1)探索数据合成、知识迁移等技术,优化基模型第资源语种能力; 2)通过Benchmark构建、质量估计等方法建设小语种自动评价体系; 3)研究post-training阶段小样本迁移、文化特色对齐等技术,实现小语种人类偏好对齐。
专注于LLM post-training和agent相关算法研究,具体职责包括: 1、探索LLM可解释性 + 模型增量CPT/SFT/RL算法,提升语言模型在专业领域上的能力; 2、探索LLM可解释性 + 低比特量化算法,降低模型training/inference阶段计算成本; 3、探索agent 增强微调算法,提升模型在专业领域上端到端解决复杂任务的能力; 4、将相关算法研究成果发表在国际顶级会议上(ICLR/NeurIPS/ICML/ACL); 5、将相关算法研究成果应用于模型低比特量化、海外大模型业务中,显著提升阿里云通义千问模型服务效率和沙特、日本等国家主权大模型线上效果。
高品质、高表现力的语音合成(TTS)技术需要用到高质量的录音数据进行模型训练,而采集高质量录音数据的成本较高,并且有其它自然阻碍使得数据采集无法完成。这些局限性使得特定说话人的音色的使用场景只能局限于特定风格和特定语言,因此也限制了TTS技术在更大范围内灵活使用和推广。因此,研究具有多语言,多风格迁移能力的高表现力语音合成技术具有极高价值,期望在低资源的条件下,实现风格的迁移,说话人音色的迁移,和语言的迁移。
【我们是谁?】 阿里云智能是阿里巴巴集团的技术基石,致力于以在线公共服务的方式,提供安全、可靠的计算和数据处理能力。我们的团队专注于机器学习系统(MLSys)的前沿研究与工程实践,特别是为“通义”系列大规模语言模型(LLM)的训练、推理提供坚实的系统支撑。在这里,你将有机会参与构建和优化支撑万亿参数级别模型的超级工程,直接影响亿万用户的AI体验。 【为什么这个机会不容错过?——来自工业界的真实挑战与机遇】 大规模语言模型的研发是一项复杂的端到端系统工程。从海量数据的高效处理、万卡集群的分布式训练、精细化的后训练调优,到低延迟高吞吐的推理服务和云上弹性部署,每一个环节都充满了挑战,也孕育着巨大的创新机会。我们认为,虽然算法创新是驱动力,但在LLM的整个生命周期中,系统扮演着至关重要的角色。 以下是我们正在“通义”大模型及相关场景下积极探索并期待与你共同攻克的挑战: 1.超大规模预训练系统优化:追求极致效率与稳定性 ·系统行为的深度洞察:在万卡集群并行训练的极致规模下,如何设计高效、低侵扰的追踪系统(Tracing System)以精准理解系统真实运行状态,本身就是一个难题。例如,仅网络层追踪就面临数据量爆炸性增长的挑战,如何在海量数据中高效提取关键信息,指导性能优化。 ·并行策略的自动化与智能化:随着模型结构的快速迭代,如何针对新型架构自动设计并调整最优的并行策略(张量并行、流水线并行、数据并行、序列并行及其混合),在复杂的内存、计算、通信约束下取得最佳平衡,减少人工调优的巨大成本。 ·大规模集群的韧性与容错:尽管我们拥有先进的异步、跨多级存储的Checkpointing机制,但GPU集群的故障(硬件、软件、网络等)仍会导致训练中断和时间浪费。如何进一步提升系统的容错恢复能力,最大限度减少故障影响,保障训练任务的连续性和效率。 2.后训练(RLHF等)中的算法-系统协同设计:提升“智能”的性价比 ·复杂工作流的高效资源调度:后训练阶段(如RLHF)涉及采样、训练、评估等多个计算特点各异的任务。如何设计智能调度系统,自动、高效地为这些任务分配和管理计算、存储、网络资源,以最小化总体资源消耗,或最大化单位资源投入下模型效果的提升“斜率”。 ·算法与系统协同进化:后训练的算法仍在快速演进,如何设计灵活、可扩展的系统架构,以适应算法的不断变化,并反过来通过系统创新启发新的算法可能性。 3.云原生推理服务:敏捷、高效、经济地赋能万千应用 ·多样化业务负载与SLA保障:云上推理业务场景丰富,客户对吞吐量、延迟、成本等有着不同的服务等级协议(SLA)要求。如何设计统一而灵活的推理服务系统,满足从离线批量推理到在线实时服务的各种需求。 ·推理优化技术的敏捷集成与工程化:学术界和开源社区的推理优化技术(如量化、剪枝、FlashAttention、PagedAttention、投机采样、模型编译等)日新月异。如何构建一套敏捷的工程体系,快速评估、吸收、融合这些前沿技术,并将其稳定部署到在线服务中,持续提升推理效率。 ·极致的资源弹性与成本效益:在云环境中,如何通过精细化的资源调度、高效的多租户管理以及智能的流量预测,应对业务负载的剧烈波动,最大限度地减少空闲资源浪费,为用户提供最具成本效益的LLM服务。