小红书【hi lab】大模型预训练算法工程师
任职要求
1、对大模型方向充满兴趣,且能充分意识到数据对于模型能力的重要价值和数据侧的巨大空间 2、很好的数据感觉,对人类文明积累下来的优质数据分布有很好的判断 3、有很好的NLP/多模态经验,在数据和算法方向上有深度的工作 4、工程能力强,有大规模数据处理的经验
工作职责
1、建立文本和多模态数据源、数据格式解析(网页,PDF等)、数据策略、模型能力、下游任务的全链路归因能力 2、建立并持续完善的数据质量、多样性、重复度、覆盖率等评估体系,分析和量化每个维度的影响 3、针对模型核心能力进行重点强化,包括不限于数学、推理、Code、Agent、ICL、OCR等 4、探索如何使用更少数据量,达到同样模型能力的策略,持续提升per token的通用能力训练效果 5、探索基于各类策略的高质量数据生成方式,定向优化特定模型能力和为长期Scaling Law解决数据缺失问题
职位描述 团队专注于大模型机器学习系统领域的前沿技术研究和落地,提供高性能、高可靠、可扩展的机器学习系统、丰富的异构计算资源和极致的端到端的机器学习服务体验,为公司提供核心技术能力和服务。 1、负责大模型推理服务的研究与开发,服务于公司各个产品; 2、负责端到端解决大模型预训练、微调对齐阶段的工程、算法问题,为结果负责
本课题的研究目标是研发更高效的预训练scaling效率,通过数据策略、模型结构设计(Dense, MoE, Long Context等)、初始化&优化器策略、学习范式的创新,深度理解模型的学习机制和评估方法,能够更精准的预测模型行为,并持续提升模型预训练从算力&数据到智能的转化效率。
文本大模型团队的主要负责小红书大语言模型的端到端全链路自研。主要研究方向包括: 1、持续探索大语言模型在不同阶段的高效scaling策略; 2、预训练的关键技术探索: 包括从数据策略(筛选,配比,合成,学习效率的提升)、优化技术、可解释性,到下一代模型结构的设计、long context建模、学习范式探索等; 3、通用alignment技术探索: 包括大规模RL的探索,持续提升大模型在通用能力、reasoning、长文本、agent、各方向中长尾知识等多个方向的综合能力,支撑更广泛的应用场景; 4、跟下游的多模态同学一起探索端到端全模态大模型的设计和高效scaling策略; 团队有充足的GPU计算资源,同时跟整个技术社区也有密切合作,开源开放。
【训练推理框架研发】 大模型hi lab AI Infra团队专注于大语言模型领域的前沿技术研究和落地,提供高性能、高可靠、可扩展的机器学习系统、丰富的异构计算资源和极致的端到端的机器学习服务体验,为公司提供核心技术能力和服务。 1、负责机器学习框架的研究与开发,服务于公司各个产品; 2、高效部署,优化NLP/多模态大模型核心业务模型; 【轻量化】 机器学习系统团队需要将传统或者新型的轻量化算法和工程有机结合起来进行加速,提高大语言模型训练或者推理性能的同时,通过算法手段尽可能降低效果损失。候选人将在以下几个方向进行深入探索和落地: 1、量化方向:负责但不限于大语言模型的低精度训练(FP8)、推理(W8A8KV8等)、低精度优化器(量化梯度、优化器状态、参数等) 2、高性能模型结构:大语言模型Finetune或者其他阶段的LoRA系列(熟悉各种变种),训练阶段的MQA/GQA系列等 3、稀疏化方向:大语言模型剪枝、稀疏、蒸馏、Sparse Attention等 4、新型方向:Medusa、超长文本、Speculative Sampling等