小红书【Ace顶尖实习生】大模型后训练泛化性研究
任职要求
1、不限年级,本科及以上在读,计算机/人工智能/软件工程等相关专业优先; 2、扎实的编程能力和算法功底,熟练掌握Python/C++/Java等至少一种编程语言; 3、扎实的机器学习/深度学习理论基础,有大规模推荐系统、计算广告、搜索引擎等核心算法项目经验; 3、有LLM/MLLM等多模态理解技术背景,…
工作职责
本课题聚焦小红书通用基座模型在真实业务 OOD 场景下的泛化性问题,围绕三个方向展开: 1)研究如何在训练阶段提升模型的 In-context Learning 与 OOD 泛化能力,包括任务抽象、数据构造、Prompt 模板改写与训练策略设计; 2)研究如何评测这些能力,建立真实 OOD 评测和面向领域任务构造的 ICL 能力评测方法,区分真正的泛化提升与同分布收益; 3)在模型固定的情况下,研究如何通过更好的 Context Engineering 提升模型在 OOD 任务上的表现。目标是沉淀可复用的训练、评测和 Context Engineering 方法,为小红书通用基座模型通过 Prompting 调用 API 更好服务业务提供支撑。
在搜索等实际线上业务中,推理速度限定了线上可用的模型大小以及可达效果,当前的基于transformer架构的大模型基座在推理速度上存在系统性瓶颈。本课题探索基于创新框架,如diffusion LLM和linear attention model的大模型基座范式,从数据、模型预训练、后训练、AI Infra、评测等方向探索模型效果极限。
本课题聚焦在多模态数据场景下如何高效的组织其向量索引数据,设计并实现配套的混合查询优化技术,能根据用户请求动态选择合理的索引组合,实现耗时、吞吐的合理平衡。 预期成果是能用单一向量数据库产品原生支持异构多模态数据的向量索引构建和混合查询,为多模态大模型场景提供高效的向量支持。
大模型如 GPT 系列等,凭借其强大的语言理解和生成能力,为编程带来了新的变革。在大模型编程的实际应用里,涌现出诸多极具价值的落地场景,像代码问题的精准发现与高质量修复、代码的智能补全与生成等,这些场景切实提高了编程工作的效率与质量。 当前也普遍面临一系列亟待解决的问题与挑战: 1、怎样精准识别代码中潜藏的高质量问题,并迅速且有效地完成修复; 2、如何借助 RAG 技术等手段,精准召回相似的代码问题; 3、怎样构建更完善的评测体系,对整个编程系统以及各个应用场景进行全面且高质量的评估。 这些问题在行业内具有广泛的共性,极具研究价值。通过合作研究探寻解决方案,有望推动大模型编程领域迈向新的高度。
随着大型语言模型(LLMs)的快速发展,其在复杂任务中的推理效率问题日益凸显。本课题聚焦于LLMs的推理加速,旨在研究高效的Chain-of-Thought(CoT)压缩算法,以优化模型的推理过程,减少计算开销并提高响应速度,同时保持推理的准确性;同时,课题将深入分析现有LLMs的推理机制,探索如何通过算法创新来实现CoT的高效压缩。 具体研究内容包括但不限于:基于模型结构进行优化、基于推理过程进行优化、基于Prompt进行优化、以及基于数据驱动的压缩策略等。通过本课题的研究,期望能够为LLMs的高效推理提供新的理论和技术支持,推动其在更多实际场景中的广泛应用。