小红书Hi Lab-多模态通用基础大模型资深算法工程师
任职要求
1.良好的 pytorch / python 技术栈,具备熟练的阅读代码和编写代码的能力。 2.在多模态的研…
工作职责
在算力驱动的 AGI 和人文精神的烟火气交汇之处,我们真诚邀请对 AI 技术有信仰的同学加入,共同打造更具影响力的智能系统。你会成为团队的一员,并和其他同事协作,共同研发 SOTA 的智能技术。期待你以务实和客观的科学态度来推进技术的进展,不被过往经验裹挟、不被主观偏好影响。期待你除了算法外仍然是为出色的工程师。期待你对技术有强烈的好奇心和开放心态,以未来几年 AI 技术的质变突破为目标。 岗位说明:你会负责下述至少一件事情 1.海量的多模态数据处理:定性分析、定量评估数据质量,并给出 scalable 的改进方案,协助搭建多模态的数据流程; 2.搭建多模态的模型架构,在多种技术方案中找到 trade off 的关键,搭建更高效且可扩展的模型框架 3.研究并改进多模态模型的 Scale Law,随着模型的变化给出 Large Scale 上的技术选择(例如参数/数据比、不同超参数设置等)
本课题的研究目标是: 1、研究如何充分用好文本、图片、视频等各个模态的有效信息,进行高效的多模态数据表征和联合建模,能够更加高效的从各个模态中学习有效信息; 2、探索多模数据如何才能更高效的学习,多模数据如何对文本智能能力有提升,探索理解和生成的联合建模如何进一步提高多模态模型的能力上限。
本课题的研究目标是增强大模型的通用推理能力,通过研究多模态环境下的推理学习机制、真实世界任务的解决策略、基于强化学习的能力优化,以及构建多样性的奖励系统和训练环境。 研究将聚焦于如何使模型能够在跨领域和复杂场景中综合运用文本、图像、音频等多模态信息进行推理,有效处理现实世界的开放性问题,并通过精心设计的环境反馈机制持续优化模型的决策能力,从而提升AI系统在不同任务下的泛化能力和可靠性。
1、Post-Training Pipeline 设计与迭代:搭建并持续优化 SFT、RM、RLHF / RLAIF / RLVF 等后训练流水线,支持多模态模型的高效迭代,让千亿级大模型在一次次“后训练”中真正变得聪明、智慧、安全 2、可扩展监督与反馈系统:设计低成本人类 + AI 组合反馈机制,自动化完成偏好采集、对齐传递与数据质量评估,通过 Product-Research co-design 探索构建真实用户反馈的模型迭代机制 3、通用推理与工具使用能力提升:构建跨模态强化学习环境和多样化奖励体系,帮助模型学会调用外部工具、提升模型利用文本-图像-语音跨模态信息进行复杂推理和问题解决能力 4、长期记忆、个性化与终身学习:探索持久记忆与动态偏好建模,使模型能够跨会话记住用户偏好、持续学习而不遗忘核心能力 5、安全评估与价值观对齐:搭建安全对齐机制、红队测试、越狱防御与自动化评测框架,量化模型幻觉、稳定性及价值观一致性,制定风险缓解策略,确保模型在开放场景中始终行为可控 6、跨职能落地:与产品、设计、人文训练师及数据团队,把研究成果迅速推向真实场景,打造小红书下一代战略级 AI native 应用产品
文本大模型团队的主要负责小红书大语言模型的端到端全链路自研。主要研究方向包括: 1、持续探索大语言模型在不同阶段的高效scaling策略; 2、预训练的关键技术探索: 包括从数据策略(筛选,配比,合成,学习效率的提升)、优化技术、可解释性,到下一代模型结构的设计、long context建模、学习范式探索等; 3、通用alignment技术探索: 包括大规模RL的探索,持续提升大模型在通用能力、reasoning、长文本、agent、各方向中长尾知识等多个方向的综合能力,支撑更广泛的应用场景; 4、跟下游的多模态同学一起探索端到端全模态大模型的设计和高效scaling策略; 团队有充足的GPU计算资源,同时跟整个技术社区也有密切合作,开源开放。