通义研究型实习生-LLM分身复刻技术探索
任职要求
1. 在人工智能相关方向的硕士/博士,有扎实基础和丰富经验,有1篇以上顶会论文; 2. 热爱技术,乐于用创新技术解决业务问题,有大模型经验者优先; 3. 具备优秀的分析问题和解决问题的能力,以及良好的沟通协作能力; 4. 具备技术洞察力、业务敏感度和数据分析能力,能应对复杂业务的算法需求。
工作职责
阿里巴巴通义实验室-对话智能团队 以大模型对话技术为核心,研究及应用方向包括智能客服、个性化对话、角色扮演、分身复刻、社交智能、数字人等,主要业务场景包括: (1) 通义晓蜜—阿里云智能客服,国内对话式AI市占率第一; (2) 通义星尘-类人智能体创作平台。2020年以来,围绕预训练、对话智能、大模型等方向发表80+篇国际顶会论文,欢迎对大模型感兴趣的你加入我们,一起创造人机对话的未来。 拟研究技术方向: 1. 角色扮演技术(Role-Playing Agent)的研究,在相关性、人设一致性、吸引力、情感、道德等维度取得显著提升; 2. 分身复刻(Character AI)的研究,探索角色所处虚拟世界建模与演化; 3. 数字专家的研究,包括用户心理推断、策略搜索推理等技术; 4. 多模态Character模型的研究,包括语音端到端角色对话模型。
当前大语言模型(LLM)推理的快速发展推高了算力需求,推理过程中的 KVCache 技术所需的巨大显存消耗成为显著瓶颈。 目前亟需围绕KVCache的核心竞争力开展技术攻关,解决分级存储效率、动态调度策略、多级缓存协同等关键问题,以形成差异化的技术壁垒。 基于以上背景,本项目期望聚焦如下技术问题的研究: 1.面向大模型推理KVCache场景的分级(显存/内存/存储)缓存池及其多租SLO保障应用; 2.KVCache缓存池的冷热数据分层和压缩等技术应用研究; 3.面向大模型推理的KVCache效果的仿真和模拟量化研究; 4.结合KVCache的AI融合记忆存储系技术研究。
大语言模型(LLM)是一种基于神经网络技术和海量语料库数据进行预训练的语言模型,拥有非常强大的语言理解、内容生成能力。结合检索增强生成(RAG)技术,LLM能够实时访问和整合外部知识库的信息,从而显著提高其在复杂问答和特定领域任务中的准确性和可靠性。然而,RAG方法会引入以下两种问题: 1. 额外成本(尤其是在利用搜索引擎的开放域场景下); 2. 不可避免的引入噪音,干扰大语言模型。 本项目通过识别特定LLM的知识边界,精确判断当前问题是否需要通过检索补充外部知识,降低模型幻觉。
背景:大语言模型(LLM)评测是LLM开发和应用中的关键环节。基于模型的自动评测技术,面向复杂任务,例如知识推理(Knowledge Reasoning)、多轮会话(Multi-tern Dialogue)、文本生成(Text generation)等,具有独特的优势,逐渐成为学术界和工业界关注的热点。 涵盖技术点包括: 1. 基于裁判员模型的自动评测技术(Model-based Automatic Evaluation for LLM),涉及LLM/RL相关模型的算法设计、训练、推理等内容 2. 基于模型的自动评测框架设计,裁判员模型在不同任务和细分领域的性能优化