logo of xiaohongshu

小红书【Ace顶尖实习生】面向长序列推理的KVCache优化技术研究

实习兼职基础后端地点:上海 | 杭州 | 北京状态:招聘

任职要求


1、不限年级,本科及以上在读,人工智能/计算机/软件工程等相关专业优先;
2、优秀的代码能力,熟练掌握至少一门编程语言,包括但不限于Python/C/C++/Java/Go等其中一门开发语言;
3、有分…
登录查看完整任职要求
微信扫码,1秒登录

工作职责


本课题旨在通过优化Transformer模型中的KV缓存机制,解决处理长序列数据时遇到的计算和内存挑战,目标是减少资源消耗、降低延迟并提高效率。

研究方向包括设计高效的KV缓存管理策略、适应不同应用场景的缓存优化以及并行与分布式处理优化。预期将成果应用于自然语言处理、视频分析等领域,为处理超长序列数据提供更加高效和可扩展的解决方案。
包括英文材料
Python+
C+
C+++
还有更多 •••
相关职位

logo of xiaohongshu
实习策略算法

本课题的研究目标是打造行业领先的多语言能力强化的大语言模型,结合业务海量的多语言互译语料,以及平台生活化特色的笔记评论数据,利用数据合成、RL冷启训练、SFT和RLHF等技术,实现: 1、在小红书多语言大模型翻译场景取得领先效果; 2、多语言场景下,AI搜索的检索和生成技术。

更新于 2025-07-20北京|上海|杭州
logo of xiaohongshu
校招机器学习平台

随着大型语言模型(LLMs)的快速发展,其在复杂任务中的推理效率问题日益凸显。本课题聚焦于LLMs的推理加速,旨在研究高效的Chain-of-Thought(CoT)压缩算法,以优化模型的推理过程,减少计算开销并提高响应速度,同时保持推理的准确性;同时,课题将深入分析现有LLMs的推理机制,探索如何通过算法创新来实现CoT的高效压缩。 具体研究内容包括但不限于:基于模型结构进行优化、基于推理过程进行优化、基于Prompt进行优化、以及基于数据驱动的压缩策略等。通过本课题的研究,期望能够为LLMs的高效推理提供新的理论和技术支持,推动其在更多实际场景中的广泛应用。

更新于 2025-11-21北京|上海|杭州
logo of xiaohongshu
校招机器学习平台

本课题的研究目标是针对多Agent协同场景构建基于课程学习与分层强化学习的RL框架,从优先级经验回放(PER)、分布式经验复用和Actor-Critic异步计算优化等角度,攻克多目标冲突下的样本利用率低效问题。 该技术旨在突破传统RL训练在复杂任务(如小红书社区点点RL训练任务)中收敛慢、资源消耗高的瓶颈,实现训练效率提升3倍以上,支撑Agent服务快速迭代上线需求。

更新于 2025-11-21北京|上海|杭州
logo of xiaohongshu
校招基础后端

本课题聚焦在多模态数据场景下如何高效的组织其向量索引数据,设计并实现配套的混合查询优化技术,能根据用户请求动态选择合理的索引组合,实现耗时、吞吐的合理平衡。 预期成果是能用单一向量数据库产品原生支持异构多模态数据的向量索引构建和混合查询,为多模态大模型场景提供高效的向量支持。

更新于 2025-11-21上海|杭州|北京