阿里云研究型实习生 - 存储系统非结构化海量数据 AI 检索中的关键技术研究
任职要求
1、熟悉计算机视觉(CV)、自然语言处理 (NLP)和多模态算法的基本原理及应用场景;对RAG系统、大语言模型(LLM)有深入理解,具备RAG系统的搭建、LLM微调等相关项目经验; 2、熟练使用Python编程语言,熟悉常见的数据处理和机器学习库;具备良好的代码规范意识,能够编写高效、可维护的代码; 3、具备优秀的学习能力和解决问题的能力,能够快速掌握新技术并应用于实践; 4、良好的沟通能力和团队协作精神,能够在跨职能团队中高效工作; 5、发表过AI领域的高水平论文,或者参与过开源项目或贡献过AI相关的技术社区者优先。
工作职责
智能存储团队专注于利用前沿的AI技术(包括计算机视觉、自然语言处理、多模态算法和大语言模型等)对海量非结构化数据进行处理、检索、管理。为用户提供海量数据场景下的“数据处理、智能索引、知识建模、知识引导生成”的全流程闭环解决方案。具体工作内容包括: 1、针对视频、图片、文档、音频等多模态文件的解析与理解; 2、基于LLM、VLMs构建的多模态RAG以及Agent应用; 3、图片、视频等AIGC的创新解决方案。 如果您热衷于探索AI技术的边界,并希望将这些技术应用于实际场景中解决复杂问题,那么欢迎加入我们!
面向数据库结构化数据和文件系统非结构化数据,设计并实现一站式的高性能存储底座,优化海量存储场景下元数据库性能,具体研究内容包括但不限于: 1.基于数据库的大规模PB级别数据文件系统的文件metadata管理; 2.支持AI训练和推理的并行文件系统和数据库系统的性能优化; 3.数据库结构化数据和文件系统非结构化数据一站式融合和数据流动、索引构建和检索; 4.跨云并行文件系统。
随着数据量的爆炸性增长以及业务复杂性的增加,诸如图、文档、时空、时序等非结构化数据类型规模和价值都越发重要。需要研究更有效率的非结构化数据的处理、存储、分析的技术,尤其是与结构化数据融合进行分析的手段,将来自不同来源、格式、结构或模型的数据整合到一个统一的系统中,以实现数据共享、分析和决策支持。 我们的研究内容包括: 1. GPU加速的多模态数据处理,如fts、向量检索以及索引建立。GPU高效池化以及远程GPU调用,查询算子以及后台数据重整任务的高效远程GPU卸载; 2. 非结构化数据,如json、文档等自动语义发现与解析、数据模式匹配与语义对齐、对象关联分析。结合NLP等技术,实现从原始数据到结构化语义的高效转化; 3. OLTP高效入湖。结合数据湖的灵活性(存储非结构化数据)与数据仓库的结构化管理能力(如ACID、事务支持、元数据管理),通过存储层创新、计算引擎优化和云原生技术,实现不同业务的高效协同。
职位描述: 1.设计和实现面向大模型推理的多层级存储系统,综合利用多种硬件进行数据的存储和迁移管理,优化大模型缓存利用率,提升推理性能; 2.设计负载感知的推理框架自调优能力,设计高效的指标采集模块,能够根据对不同负载自动调优推理框架的参数; 3.优化模型量化以及模型卸载技术,进一步提升单机场景下支持的模型规模; 4.设计高效微调框架,集成并优化微调算法,实现动态策略调度模块,基于任务特征挑选最合适的微调方案。
当前大语言模型(LLM)推理的快速发展推高了算力需求,推理过程中的 KVCache 技术所需的巨大显存消耗成为显著瓶颈。 目前亟需围绕KVCache的核心竞争力开展技术攻关,解决分级存储效率、动态调度策略、多级缓存协同等关键问题,以形成差异化的技术壁垒。 基于以上背景,本项目期望聚焦如下技术问题的研究: 1.面向大模型推理KVCache场景的分级(显存/内存/存储)缓存池及其多租SLO保障应用; 2.KVCache缓存池的冷热数据分层和压缩等技术应用研究; 3.面向大模型推理的KVCache效果的仿真和模拟量化研究; 4.结合KVCache的AI融合记忆存储系技术研究。