理想汽车时空数据流调度工程师
任职要求
1. 计算机、软件、电子直接相关专业硕士及以上,或运筹学、数学类的基础专业硕士及以上学历; 2. 有高性能算子优化、推理引擎或AI编译器开发经验、CPU/GPU/NPU深度性能优化经验者优先; 3. 具备AI模型大算力调度、策略调优、高性能计算或相关项目经验者优先; 4. 熟悉图优化、主流深度学习算法者优先。
工作职责
1. 承接端到端自动驾驶/大语言各类前沿AI模型负载,面向自研AI芯片,聚焦研发设计AI模型的数据流时空调度算法、编译软件栈,实现高性能推理; 2. 参与AI模型的时空数据流调度器构建,包括数学建模、算法开发、计算图优化,用简洁优美的数学方法,将大规模计算图负载切分、调度到自研AI芯片上,验证正确性、优化AI负载的推理性能; 3. 参与AI算子库的开发和优化,支撑算法模型推理所需算子的功能和基本性能要求,分析性能瓶颈,构建方案优化; 4. 与自研芯片架构师合作,协助芯片架构设计与演进,参与制定芯片软硬件协作方案。
1、承接端到端自动驾驶/大语言类AI模型负载,为大算力芯片研发设计AI模型调度、编译软件栈,实现高性能推理或训练。 2、参与数据流模式时空调度建模与算法开发,支撑AI模型自动化调度到大算力芯片之上,达到较高端到端性能。 3、参与AI基本算子的开发和优化,支撑算法模型推理所需算子的功能和基本性能要求,分析性能瓶颈,构建方案极致优化。
1、承接端到端自动驾驶/大语言类AI模型负载,为大算力芯片研发设计AI模型调度、编译软件栈,实现高性能推理或训练。 2、参与数据流模式时空调度建模与算法开发,支撑AI模型自动化调度到大算力芯片之上,达到较高端到端性能。 3、参与AI基本算子的开发和优化,支撑算法模型推理所需算子的功能和基本性能要求,分析性能瓶颈,构建方案极致优化。
团队介绍:字节跳动推荐架构团队,负责字节跳动旗下相关产品的推荐系统架构的设计和开发,保障系统稳定和高可用;负责在线服务、离线数据流性能优化,解决系统瓶颈,降低成本开销;抽象系统通用组件和服务,建设推荐中台、数据中台,支撑新产品快速孵化以及为ToB赋能。 课题介绍: 1、课题背景 在人工智能技术高速发展的背景下,推荐系统作为信息过滤与个性化服务的核心,面临多重挑战: (1)数据爆炸与模型复杂化 用户行为序列数据量呈指数级增长(百亿至千亿级/日),存储需求从单用户长序列扩展至多模态数据(文本、视频、Embedding等),传统存储架构面临读写性能瓶颈与成本压力;推荐大模型对数据质量敏感度提升,数据分布异常可能导致模型效果显著下降,亟需系统性数据质量评估与改进方法。 (2)异构计算与多模态处理需求 随着生成式AI(GenAI)的普及,多模态特征处理成为刚需,传统基于CPU的大数据框架(如Spark/Hadoop)难以高效处理非结构化数据,GPU/DPU等异构计算资源利用率不足;数据处理流程与模型训练脱节,ETL环节耗时长,CPU-GPU协同效率低下,导致算法迭代周期延长。 在此背景下,以数据为中心的人工智能(DCAI)与异构计算技术成为破局关键: -DCAI 强调通过数据质量优化与自动化处理链路提升模型性能,而非单纯依赖模型改进; -异构计算 通过统一调度CPU、GPU、DPU等资源,加速多模态数据处理与模型训练,实现降本增效。 2、课题目标 (1)构建支持多模态数据的低成本高性能存储引擎:支持百亿级用户行为序列与多模态数据混合存储,实现读写延时与存储量解耦,满足PB级数据天级回溯需求; (2)设计自适应数据演化的Schema管理机制:动态兼容特征增删改,确保训推一致性,降低模型迭代中的数据迁移成本; (3)研发多模态数据异构计算框架:实现CPU-GPU-DPU协同计算,加速ETL、特征处理与模型训练,提升资源利用率30%以上; (4)建立数据质量与模型性能的量化评估体系:开发自动化工具链,通过强化学习优化数据清洗、增强与异常检测流程; (5)打造以Python为核心的开发者生态:提供灵活API与可视化工具,支持快速接入多模态数据处理与DCAI优化链路。 3、研究内容 (1)多模态存储引擎与编码优化 - 混合存储架构 - 分层设计:行为序列采用时间分区+LSM-Tree存储,多模态数据(如图像/文本)采用对象存储+元数据索引,结合CXL内存池化技术降低访问延迟; - 编码优化:针对用户行为序列设计变长Delta编码,多模态数据采用深度学习压缩模型(如VAE),压缩比提升50%以上。 -Schema动态演化 - 开发基于Protobuf的版本化Schema语言,支持特征字段热更新,兼容历史数据回溯训练。 (2)异构计算框架与资源调度 - 计算引擎整合 - 基于Ray构建统一数据湖,实现Spark/GPU算子混合编排,数据从ETL到训练Tensor化零拷贝传输; - 设计DPU加速层,将哈希计算、特征编码等操作卸载至智能网卡,释放CPU/GPU算力。 - 多模态处理优化 - 文本/视频数据采用GPU流水线预处理,利用NVIDIA RAPIDS加速特征提取; - Embedding数据通过量化感知训练(QAT) 减少显存占用,支持FP16/INT8混合精度计算。 (3)数据质量与DCAI自动化链路 - 质量评估体系 - 定义多维度指标:时空一致性(行为时序异常检测)、模态对齐度(图文匹配校验)、噪声容忍阈值(基于模型鲁棒性反推)。 - 自动化优化工具 - 开发强化学习代理,根据模型反馈自动选择数据清洗策略(如GAN-based数据增强 vs. 规则过滤); - 构建因果推理模块,定位数据分布偏移对模型AUC下降的贡献度,生成根因分析报告。 (4)开发者生态与效能提升 - Python原生接口 - 提供声明式数据处理DSL,支持通过Python装饰器定义GPU加速算子(如@gpu_map); - 集成Jupyter可视化工具,实时展示数据质量热力图与模型性能关联分析。 - 效能监控体系 - 建立资源-质量-效果三维监控看板,跟踪存储成本、数据处理吞吐量、模型AUC等核心指标。
团队介绍:字节跳动推荐架构团队,负责字节跳动旗下相关产品的推荐系统架构的设计和开发,保障系统稳定和高可用;负责在线服务、离线数据流性能优化,解决系统瓶颈,降低成本开销;抽象系统通用组件和服务,建设推荐中台、数据中台,支撑新产品快速孵化以及为ToB赋能。 课题介绍: 1、课题背景 在人工智能技术高速发展的背景下,推荐系统作为信息过滤与个性化服务的核心,面临多重挑战: (1)数据爆炸与模型复杂化 用户行为序列数据量呈指数级增长(百亿至千亿级/日),存储需求从单用户长序列扩展至多模态数据(文本、视频、Embedding等),传统存储架构面临读写性能瓶颈与成本压力;推荐大模型对数据质量敏感度提升,数据分布异常可能导致模型效果显著下降,亟需系统性数据质量评估与改进方法。 (2)异构计算与多模态处理需求 随着生成式AI(GenAI)的普及,多模态特征处理成为刚需,传统基于CPU的大数据框架(如Spark/Hadoop)难以高效处理非结构化数据,GPU/DPU等异构计算资源利用率不足;数据处理流程与模型训练脱节,ETL环节耗时长,CPU-GPU协同效率低下,导致算法迭代周期延长。 在此背景下,以数据为中心的人工智能(DCAI)与异构计算技术成为破局关键: -DCAI 强调通过数据质量优化与自动化处理链路提升模型性能,而非单纯依赖模型改进; -异构计算 通过统一调度CPU、GPU、DPU等资源,加速多模态数据处理与模型训练,实现降本增效。 2、课题目标 (1)构建支持多模态数据的低成本高性能存储引擎:支持百亿级用户行为序列与多模态数据混合存储,实现读写延时与存储量解耦,满足PB级数据天级回溯需求; (2)设计自适应数据演化的Schema管理机制:动态兼容特征增删改,确保训推一致性,降低模型迭代中的数据迁移成本; (3)研发多模态数据异构计算框架:实现CPU-GPU-DPU协同计算,加速ETL、特征处理与模型训练,提升资源利用率30%以上; (4)建立数据质量与模型性能的量化评估体系:开发自动化工具链,通过强化学习优化数据清洗、增强与异常检测流程; (5)打造以Python为核心的开发者生态:提供灵活API与可视化工具,支持快速接入多模态数据处理与DCAI优化链路。 3、研究内容 (1)多模态存储引擎与编码优化 - 混合存储架构 - 分层设计:行为序列采用时间分区+LSM-Tree存储,多模态数据(如图像/文本)采用对象存储+元数据索引,结合CXL内存池化技术降低访问延迟; - 编码优化:针对用户行为序列设计变长Delta编码,多模态数据采用深度学习压缩模型(如VAE),压缩比提升50%以上。 -Schema动态演化 - 开发基于Protobuf的版本化Schema语言,支持特征字段热更新,兼容历史数据回溯训练。 (2)异构计算框架与资源调度 - 计算引擎整合 - 基于Ray构建统一数据湖,实现Spark/GPU算子混合编排,数据从ETL到训练Tensor化零拷贝传输; - 设计DPU加速层,将哈希计算、特征编码等操作卸载至智能网卡,释放CPU/GPU算力。 - 多模态处理优化 - 文本/视频数据采用GPU流水线预处理,利用NVIDIA RAPIDS加速特征提取; - Embedding数据通过量化感知训练(QAT) 减少显存占用,支持FP16/INT8混合精度计算。 (3)数据质量与DCAI自动化链路 - 质量评估体系 - 定义多维度指标:时空一致性(行为时序异常检测)、模态对齐度(图文匹配校验)、噪声容忍阈值(基于模型鲁棒性反推)。 - 自动化优化工具 - 开发强化学习代理,根据模型反馈自动选择数据清洗策略(如GAN-based数据增强 vs. 规则过滤); - 构建因果推理模块,定位数据分布偏移对模型AUC下降的贡献度,生成根因分析报告。 (4)开发者生态与效能提升 - Python原生接口 - 提供声明式数据处理DSL,支持通过Python装饰器定义GPU加速算子(如@gpu_map); - 集成Jupyter可视化工具,实时展示数据质量热力图与模型性能关联分析。 - 效能监控体系 - 建立资源-质量-效果三维监控看板,跟踪存储成本、数据处理吞吐量、模型AUC等核心指标。