小红书强化学习后端研发实习生
任职要求
1.重点院校硕士及以上学历(或特别优秀的本科生),计算机、软件工程、人工智能等相关专业优先 2.熟悉Linux开发环境,具备良好扎实的算法基础、良好的编程风格和系统设计能力 3.熟悉服务端基础技术(Go/Java/Python,数据库,消息队列,微服务,多线程等) 4.有互联网实习经历或个人作品(Github 项目等)优先,实习时间长于 6 个月优先
工作职责
1.小红书大模型强化学习基础设施的开发,接入并维护强化学习工程环境,加快模型训练速度 2.进行大模型强化学习的相关研究,探索如何在开放领域任务(Code,web search,computer use)上高效的进行 RL Scaling,参与研究奖励模型和强化学习模型的泛化性,持续提升模型 Post-Train 能力
ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:智能创作团队是字节跳动创作场景业务中台,负责了抖音、剪映等产品的技术和业务研发,涵盖了计算机视觉、深度学习、高性能计算、图形学、特效引擎等技术领域,并以多种形式向公司内部各业务线提供业界前沿的内容理解、内容创作、互动体验与消费的能力和行业解决方案,同时通过火山引擎为企业客户提供服务。 1、设计和实现基于LLM的智能体架构,包括任务规划、对话管理、意图识别、流程工程等; 2、设计和实现多模态Agent,支持文本、语音、图像等多种输入/输出形式的处理; 3、推动AI Agent在架构和性能上的持续优化,提升Agent对用户理解能力和响应的准确性; 4、开发和维护智能体的后端服务,确保系统的稳定性和可扩展性; 5、跟踪并研究行业前沿AI算法,持续提升AI Agent的技术水平; 6、编写必要的技术文档,包括API接口说明、核心算法设计与代码开发。
1负责视频生成强化学习的数据处理管线搭建、日常运营、与优化。通过与研发,数据湖后端紧密合作,确定视频数据管线和流程,建立关键工具,确保日常运营的高质量和高效数据生成和管理。 核心职责: 1、从数据需求出发,完成数据处理管线的方案设计,规范化数据处理流程; 2、开发与优化脚本工具实现管线处理的关键步骤,提升数据处理效率,; 3、进行日常运营,维护数据管线,把控数据的质量,保证各版本数据的高质量交付; 4、分析数据分布,优化数据采样收集流程,持续提升数据交付质量;
我们正在寻找对大模型系统优化充满热情的优秀在读学生,参与大模型后训练阶段(Post-Training)关键系统与架构的前沿研究。你将深度参与千亿级大模型在强化学习训练、推理效率、训推分离架构、智能体(Agent)系统等方面的系统级优化工作,探索高MFU、低延迟、高吞吐的下一代AI基础设施。 如果你热爱系统与AI的交叉领域,希望在真实超大规模场景中打磨技术,欢迎加入我们,与顶尖研究者和工程师共同推动大模型系统的技术边界! 研究方向与实习内容: 你将从以下四个核心方向中选择1-2个深入参与,开展系统性研究与工程实现: 1. 后训练 MFU(Model FLOPs Utilization)优化 研究SFT、RLHF、DPO等后训练任务中的计算效率瓶颈; 设计高MFU的训练策略与系统支持,优化计算密度(如序列填充、混合批次、梯度累积等); 探索算力利用率提升路径,结合通信、显存、计算进行端到端建模与优化。 2. 强化学习推理框架优化 针对RLHF中大量采样推理的需求,优化推理延迟与吞吐(如Speculative Decoding、KV Cache复用、动态批处理); 设计轻量、高效的推理引擎,支持多轮对话、长上下文、流式生成等复杂场景; 探索训练-采样协同优化,降低推理端对训练整体效率的制约。 3. 强化学习训推分离架构优化 构建解耦的“训练-采样”系统架构,支持高并发采样与异步训练更新; 研究采样集群与训练集群之间的资源调度、数据同步与负载均衡机制; 实现弹性扩缩容、故障恢复、版本管理等系统能力,提升整体稳定性与可扩展性。 4. Agent 框架优化与系统支撑 研究面向复杂任务的Agent执行框架,优化工具调用、状态管理、多步规划的系统性能; 构建低延迟、高并发的Agent运行时环境,支持大规模仿真与自动评估; 探索Agent工作流的可复现性、可观测性与调试支持,提升研发效率。
团队介绍:专注大模型在数据智能方向的应用落地,横向支持公司多个数据产品的大模型解决方案。团队致力于跟进大模型前沿进展,结合领域模型的优化策略来设计端到端的算法优化和评估方案,实现数据产品的智能升级与应用效果提升。团队鼓励敏捷创新,知识共享的协作氛围,专注投入对数据智能课题的持续探索研究。 课题介绍: 背景:在Bird、Spider2.0等复杂数据分析榜单中,基于通用大模型的COT、Prompt工程方案相比BI分析师仍有较大差距(sota 75 vs 92)。近期推理大模型例如OpenAI O3、DeepSeek R1利用Test-Time Scaling Law提升模型推理能力,并指出后训练阶段中RL是提升的重要训练方式。本课题聚焦推理大模型后训练技术(SFT+RL),通过reasoning优化模糊语义理解、多步逻辑推导、复杂查询分解等关键问题,目标建立数据分析领域的推理大模型的方法体系。 课题主要关注的挑战点包括: 1、数据分析领域中高质量的reasoning数据生成,基于高质量数据的SFT冷启动训练来提升RL(GRPO、PPO)训练稳定性,包括多Epoch训练稳定、推理格式对齐等问题; 2、通过混合Reward(包括语义理解、代码执行、难度区分、子查询效率等多角度Reward)提升在模糊语义理解、多步逻辑推导、复杂查询分解的reasoning效果来提升结果准确率; 3、探索推理大模型overthinking的解决方案,面向简单到复杂问题数据分析问题,推理模型可合理的输出推理过程长度,同时保持整体准确率效果。 1、数据增强算法优化:设计面向数据推理任务的Data-Centric算法框架,优化Reasoning Data合成链路,提升训练数据的逻辑一致性、领域适配性与多样性; 2、Test-Time Compute:负责数据大模型与推理大模型的创新结合,解决思维链生成中的Over/Under-Thinking问题,探索复杂数据分析任务的Reward最优实践收益(包括语义理解、执行正确、查询效率、洞察启发性等); 3、推理大模型应用落地:跟进开源SOTA大模型的技术演进,实践Post-Training阶段的领域适配优化,在数据洞察机器人等产品中的验证应用价值,并基于评估体系实现效果的持续迭代,沉淀技术专利。