logo of tongyi

通义研究型实习生-LLM分身复刻技术探索

实习兼职通义研究型实习生地点:北京 | 杭州状态:招聘

任职要求


1. 在人工智能相关方向的硕士/博士,有扎实基础和丰富经验,有1篇以上顶会论文;
2. 热爱技术,乐于用创新技术解决业务问题,有大模型经验者优先;
3. 具备优秀的分析问题和解决问题的能力,以及良好的沟通协作能力;
4. 具备技术洞察力、业务敏感度和数据分析能力,能应对复杂业务的算法需求。

工作职责


阿里巴巴通义实验室-对话智能团队 以大模型对话技术为核心,研究及应用方向包括智能客服、个性化对话、角色扮演、分身复刻、社交智能、数字人等,主要业务场景包括:
(1) 通义晓蜜—阿里云智能客服,国内对话式AI市占率第一; 
(2) 通义星尘-类人智能体创作平台。2020年以来,围绕预训练、对话智能、大模型等方向发表80+篇国际顶会论文,欢迎对大模型感兴趣的你加入我们,一起创造人机对话的未来。

拟研究技术方向:
1. 角色扮演技术(Role-Playing Agent)的研究,在相关性、人设一致性、吸引力、情感、道德等维度取得显著提升;
2. 分身复刻(Character AI)的研究,探索角色所处虚拟世界建模与演化;
3. 数字专家的研究,包括用户心理推断、策略搜索推理等技术;
4. 多模态Character模型的研究,包括语音端到端角色对话模型。
包括英文材料
大模型+
数据分析+
算法+
相关职位

logo of aliyun
实习阿里云研究型实习

当前大语言模型(LLM)推理的快速发展推高了算力需求,推理过程中的 KVCache 技术所需的巨大显存消耗成为显著瓶颈。 目前亟需围绕KVCache的核心竞争力开展技术攻关,解决分级存储效率、动态调度策略、多级缓存协同等关键问题,以形成差异化的技术壁垒。 基于以上背景,本项目期望聚焦如下技术问题的研究: 1.面向大模型推理KVCache场景的分级(显存/内存/存储)缓存池及其多租SLO保障应用; 2.KVCache缓存池的冷热数据分层和压缩等技术应用研究; 3.面向大模型推理的KVCache效果的仿真和模拟量化研究; 4.结合KVCache的AI融合记忆存储系技术研究。

更新于 2025-07-02
logo of tongyi
实习通义研究型实习生

大语言模型(LLM)是一种基于神经网络技术和海量语料库数据进行预训练的语言模型,拥有非常强大的语言理解、内容生成能力。结合检索增强生成(RAG)技术,LLM能够实时访问和整合外部知识库的信息,从而显著提高其在复杂问答和特定领域任务中的准确性和可靠性。然而,RAG方法会引入以下两种问题: 1. 额外成本(尤其是在利用搜索引擎的开放域场景下); 2. 不可避免的引入噪音,干扰大语言模型。 本项目通过识别特定LLM的知识边界,精确判断当前问题是否需要通过检索补充外部知识,降低模型幻觉。

更新于 2024-11-14
logo of tongyi
实习通义研究型实习生

背景:大语言模型(LLM)评测是LLM开发和应用中的关键环节。基于模型的自动评测技术,面向复杂任务,例如知识推理(Knowledge Reasoning)、多轮会话(Multi-tern Dialogue)、文本生成(Text generation)等,具有独特的优势,逐渐成为学术界和工业界关注的热点。 涵盖技术点包括: 1. 基于裁判员模型的自动评测技术(Model-based Automatic Evaluation for LLM),涉及LLM/RL相关模型的算法设计、训练、推理等内容 2. 基于模型的自动评测框架设计,裁判员模型在不同任务和细分领域的性能优化

更新于 2024-11-14
logo of antgroup
实习研究型实习生

研究领域: 推荐系统 项目简介: 当前医疗信息搜索推荐服务面临三大核心挑战:1)搜索结果与用户真实需求匹配度低(准确性不足);2)推荐内容缺乏个性化适配(未考虑用户病史、症状特征等个体差异);3)医疗信息可信度验证机制缺失(存在误导风险)。本项目将融合大规模预训练语言模型、动态知识图谱和医学循证规则,重点突破以下方向: 研究医疗领域大模型精准语义理解与意图识别技术 构建多维度用户画像与个性化推荐算法体系 开发基于医学循证的可信度验证与风险预警机制