通义研究型实习生-LLM知识边界识别技术研究
任职要求
1、博士/硕士研究生,计算机、数学、计算法学等相关专业优先。 2、有扎实的机器学习、深度学习和自然语言处理理论基础,对大模型相关技术研究感兴趣。 3、在相关顶会或期刊发表论文、在高水平技术评测或竞赛中获得Top成绩、在开源组织有贡献或影响力者优先。
工作职责
大语言模型(LLM)是一种基于神经网络技术和海量语料库数据进行预训练的语言模型,拥有非常强大的语言理解、内容生成能力。结合检索增强生成(RAG)技术,LLM能够实时访问和整合外部知识库的信息,从而显著提高其在复杂问答和特定领域任务中的准确性和可靠性。然而,RAG方法会引入以下两种问题: 1. 额外成本(尤其是在利用搜索引擎的开放域场景下); 2. 不可避免的引入噪音,干扰大语言模型。 本项目通过识别特定LLM的知识边界,精确判断当前问题是否需要通过检索补充外部知识,降低模型幻觉。
智能存储团队专注于利用前沿的AI技术(包括计算机视觉、自然语言处理、多模态算法和大语言模型等)对海量非结构化数据进行处理、检索、管理。为用户提供海量数据场景下的“数据处理、智能索引、知识建模、知识引导生成”的全流程闭环解决方案。具体工作内容包括: 1、针对视频、图片、文档、音频等多模态文件的解析与理解; 2、基于LLM、VLMs构建的多模态RAG以及Agent应用; 3、图片、视频等AIGC的创新解决方案。 如果您热衷于探索AI技术的边界,并希望将这些技术应用于实际场景中解决复杂问题,那么欢迎加入我们!
我们致力于解决大模型(LLM)推理领域的根本性挑战,现诚邀拥有深厚研究背景的博士或硕士研究生加入我们的团队。您将: 1. 探索大模型推理的核心瓶颈: 深入研究大模型推理中计算密集与内存受限等核心挑战的本质。提出并验证创新的并行策略、调度算法与系统优化方案,以突破跨设备集群(多机)和异构硬件环境下的推理效率极限,为下一代高效推理引擎奠定理论基础并实现突破性贡献。 2. 定义硬件感知的高性能编译与协同优化: 研究并设计面向多样化硬件体系结构(如GPU, NPU, ASIC等)的高性能算子编译优化框架。开创性地探索计算与通讯的深度融合与协同优化方法,构建理论模型并实现系统级性能的显著提升。 3. 创新下一代高效模型架构与推理范式: 前瞻性地结合未来硬件发展趋势,深入解构现有模型架构的计算特性。致力于研究并发明计算效率显著提升的新型模型结构(如稀疏激活、条件计算等)和颠覆性的推理范式(如动态计算路径、混合精度推理策略),引领高效模型设计的前沿方向。 4. 引领前沿模型压缩与加速算法的研究与实践: 系统性地研究模型压缩与加速领域的最新技术(如量化、结构化/非结构化剪枝、投机采样、稀疏化、知识蒸馏等)的内在机理与极限。勇于探索并实践具有理论保障和实用价值的创新算法,为模型的高效部署开辟新路径,并推动该领域的技术边界。
背景:大语言模型(LLM)评测是LLM开发和应用中的关键环节。基于模型的自动评测技术,面向复杂任务,例如知识推理(Knowledge Reasoning)、多轮会话(Multi-tern Dialogue)、文本生成(Text generation)等,具有独特的优势,逐渐成为学术界和工业界关注的热点。 涵盖技术点包括: 1. 基于裁判员模型的自动评测技术(Model-based Automatic Evaluation for LLM),涉及LLM/RL相关模型的算法设计、训练、推理等内容 2. 基于模型的自动评测框架设计,裁判员模型在不同任务和细分领域的性能优化