logo of aliyun

阿里云研究型实习生 - Tair Serverless KV内存池化技术研究

实习兼职阿里云研究型实习生地点:杭州状态:招聘

任职要求


1.功能完整的原型代码,相关技术经过验证,具备合入产品的要求,用Java / C ++等实现;
2.描述清晰的设计文档,包括验证的方法;
3.详细的…
登录查看完整任职要求
微信扫码,1秒登录

工作职责


Tair是基于云原生基础设施的Key-Value云数据库产品。在产品技术上期望通过云的规模化效应,基于云基础设施,面向海量大中小客户提供更加低成本和更好的弹性。
从工程实践和业务分析上看到对比当前主流的单租户架构模式,多租户的架构聚合度提升带来的成本优化能极大的提升云的竞争力,但同时在安全合规和租户影响上面对的挑战也比较大。 对比传统Share-Nothing架构的,Disk-Disaggregation, Memory-Disaggregation等技术在资源的快速弹性上带来很大的提升,也同样需要面对资源池化后的延迟一致性等问题。
基于以上背景,本项目期望聚焦如下技术问题的研究:
1、优化KV存储引擎在多租户场景的延迟表现;
2、KV存储引擎在多租户场景下的资源隔离、限流相关技术研究。
包括英文材料
Java+
C+
相关职位

logo of aliyun
实习阿里云研究型实习

Tair是基于云原生基础设施的KV数据库产品。在技术上期望通过云的规模化效应,基于云基础设施,面向海量的各种规模的客户提供更低的成本和更好的弹性。从工程实践和业务分析上看到对比当前主流的单租户架构模式,多租户的架构聚合度提升带来的成本优化能极大的提升云数据库的竞争力,但同时在租户影响上面对的挑战也比较大。 基于以上背景,本项目期望聚焦如下技术问题的研究: 1.优化KV存储引擎在复杂流量场景和多租户场景的延迟表现; 2.KV存储引擎在多租户场景下的资源隔离、限流相关技术研究; 3.研发多租的分布式KV集群如何在提升弹性的同时能更高效的利用资源。

更新于 2025-07-02杭州
logo of aliyun
实习阿里云研究型实习

随着近些年机器学习与表征学习的发展,非结构化数据的查询和分析变得更加普遍。通过表征学习,我们可以把图片或文本嵌入到高维空间从而用高维向量来代表这些图片或文本。进一步的,通过在高维空间中查找最近邻,我们可以对非结构化数据进行语义搜索。例如,通过检索增强生成技术(RAG),我们可以将外部知识或领域知识进行向量化,利用向量空间中的近邻搜索得到对应的原始知识,对大语言模型的生成结果进行增强,来减少大模型出现幻觉或知识过时的现象。 为了提升数据库产品对AI应用的支持,阿里云瑶池数据库也全面提升了向量检索能力,在PolarDB、RDS、AnalyticDB、Lindorm、Tair等产品中集成了向量功能,实现结构化数据、半结构化数据、多模数据、向量数据的一体化处理。 然而,目前向量索引主要关注查询速度和准确率,对于实际复杂场景下的搜索问题还没有足够的研究。例如,分布式架构下的向量查询索引、结构化与非结构化数据的联合查询,以及数据动态增删场景下的索引优化等问题,都需要进一步探索和研究。

更新于 2024-07-15杭州
logo of xiaohongshu
社招3年以上机器学习平台

【业务介绍】 作为公司统一的机器学习平台团队,负责调度公司所有模型训练与推理资源;基于自建的训推引擎,构建公司统一的机器学习平台,为公司所有算法同学(稀疏 & 稠密,含 LLM) 模型迭代提供端到端的一站式服务;包括 数据生产,模型训练,模型上线,特征管理,模型测试,资源管控等一系列能力。 【岗位职责】 1、负责机器学习链路,离在线数据相关的开发工作,包括样本数据、特征数据等的数据链路搭建、任务运维和调优、性能优化等 2、负责小红书大规模机器学习平台的后台系统设计和开发工作;包括样本平台,特征平台,训练平台,推理平台等AI应用后台建设等; 3、研究分析业内AI平台产品,优化技术方案,改进产品功能,完善产品体验。

上海
logo of xiaohongshu
社招引擎

大模型具备很强的泛化及理解世界能力,在小红书内的众多生产场景遍地开花,大模型的训练和部署已成为许多算法工程师的日常。在多团队、多业务频繁使用的大规模GPU集群上,如何能够通过高效的GPU调度策略,使大家不仅能丝滑地完成训练及部署任务,同时也能充分激发大规模GPU集群的效能,是行业公认的关键挑战。在这里,你可以聚焦LLM场景,接触到超大规模GPU集群,并使用真实负载数据进行深入分析及技术探索。欢迎加入我们,一起探索领先技术改变世界! 工作职责: 1、负责万卡规模GPU集群效能分析及优化,通过调度策略优化、在离线混部、集群调度、GPU虚拟化、故障快速恢复、存储&网络加速等手段,提升大规模GPU集群的整体使用效率。 2、负责构建面向大模型训练、微调、推理、部署全流程LLMOps,与下游云原生平台深度融合,支撑大模型在公司内各业务生产链路稳定高效地落地。 3、持续关注业界最新的GPU资源调度相关技术动态,探索建设业界领先的资源调度策略及方法,构建下一代大规模AI资源调度系统。

北京|上海