小红书Hi Lab-【Ace顶尖实习生】探索大模型的高效训练方式和工程算法Codesign机制
任职要求
1、不限年级,本科及以上在读,计算机/人工智能/软件工程等相关专业优先; 2、熟悉Linux/Unix平台上的C++编程,熟悉网络编程-多线程编程,有良好的编程习惯; 3、熟悉其中一种主流的深度学习训练或推理框架(TensorFlow / PyTorc…
工作职责
本课题的研究目标是研发大规模、高效易用的大模型训练框架,针对不同模型架构,探索多机多卡分布式训练的性能极限。 包括不限于: 1、高度稀疏化、长文本的模型训练策略优化; 2、大规模MoE模型的大规模RL训练性能优化; 3、基于模型的训练和推理瓶颈,工程算法Codesign探索下一代大模型网络结构设计。
本课题的研究目标是优化AI与人类的多模态交互体验,通过研发能够融合文本、视觉和语音等多种模态的自然交互机制,使AI系统能够通过理解图像内容、语音语调和情感等非文本信息增强交互效果。 研究将探索情境感知与个性化适应技术、多轮多模态交互中的意图理解与记忆保持能力,以及跨模态信息的整合与表达方式,使AI系统能够更好地理解用户通过不同感知通道传达的需求,提供视觉和语音层面的情感共鸣,并在长期多模态交互中不断适应用户偏好,实现更加流畅、高效且人性化的人机协作。
本研究方向探索如何使AI系统获得持久记忆与持续学习能力,从根本上改变人机交互的本质。当前AI模型通常缺乏跨会话的记忆保持和经验积累,难以形成对用户的深度理解。我们致力于构建能够记住互动历史、理解个人背景并随时间成长的AI系统,使其不仅能回忆与特定用户的共同经历,还能从这些经历中学习并适应。 研究将关注记忆形成与提取的认知机制、个性化交互模式的动态调整,以及知识持续更新而不遗忘核心能力的平衡策略。这一方向的突破将推动AI从单一功能工具向能够建立长期关系的智能伙伴转变,为未来AI系统打开全新的应用场景和交互范式,使人机协作更加自然、高效且个性化。
本研究方向聚焦于构建兼具强大能力与安全保障的AI系统,确保技术发展与人类价值观保持一致。随着AI能力边界不断扩展,系统性评估其安全性与行为边界变得至关重要。 研究将开发先进的红队测试方法,通过模拟各类攻击场景揭示模型弱点;建立抵御"越狱"尝试的防御机制,使AI在面对误导性指令时维持适当行为;探索价值观对齐技术,使AI能理解并遵循复杂的社会规范与伦理准则。研发量化评估框架,客观衡量AI系统的安全性与符合预期的程度。这一方向旨在构建真正可信赖的人工智能,使其能在发挥最大潜能的同时,始终将人类福祉置于核心位置,为负责任的AI发展提供技术保障。