快手Java开发实习生(智能直播)-【电商】
任职要求
1、本科及以上学历,计算机、软件相关专业优先; 2、熟悉Java,有扎实的计算机基础,对数据结构、算法基础有深入理解; 3、有机器学习、深度学习、强化学习领域知识经验优先; 4、有实际项目经验或互联网…
工作职责
1、支持电商领域的大模型时代下的新型AI产品,提升电商行业场景的用户体验和效率,打造AI时代的电商新应用; 2、负责快手各内外部产品后端系统、平台系统的研发工作,通过敏捷开发支持产品需求快速迭代,不断优化系统架构,支撑业务规模增长,保障服务稳定; 3、研究和跟踪前沿技术发展,探索AI助力电商业务发展的新范式。
ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:我们是智能服务团队,团队负责互娱业务的泛体验、泛安全问题挖掘和业务赋能,为抖音/直播/剪映/醒图/本地生活等业务,提供服务化与智能化解决方案。 团队拥有工程(FE/Server)、数据(数据工程、数据科学)、算法(NLP、CV、推荐)、产品经理等多种职能岗位,可以高效自闭环进行智能平台类产品的设计研发,具有多个公司级影响力的智能化平台产品成功落地经验。 团队年轻向上,打造工程师文化,团队年度输出了50+篇专利,10+篇行业会议分享。 1、参与字节跳动客服数据中心的建设; 2、参与优化集群/组件计算性能,提供支撑数百万QPS的分布式应用; 3、负责挖掘和分析海量用户/电商/评论/短视频/图片等数据,构建千亿级别的OLAP引擎和特征工程; 4、调研业内领先的大数据技术解决方案,结合实际应用场景进行创新应用试验和业务落地。
ByteIntern:面向2027届毕业生(2026年9月-2027年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:App Infra是字节跳动面向应用的基建中台部门,以App侧性能/稳定性深度优化为基础,结合LLM、Agent、生成式推荐模型等前沿技术,为字节跳动旗下的核心应用提供终端+平台的解决方案。于下层,结合操作系统、虚拟机、工具链、编译器等技术,建设了稳定性、流畅性、电量在内全链路的监控体系和调试分析工具;于上层,则结合端侧特征工程、深度学习模型/决策树模型/SLM 训练等基建,围绕搜索/推荐/广告/直播/电商等场景,建设了云端协同推荐、品质体验优化等端智能解决方案。如果你热爱挑战底层技术、追求极致优化,又渴望把AI转化为千万用户感受得到的流畅与智能——欢迎加入,和我们一起打造下一代移动体验! 1、开发编译器优化能力提升程序编译产物的性能,包括Java/Kotlin字节码,Golang,LLVM Toolchain编译的二进制产物等; 2、积极跟进业内和学术界在Compiler领域的最新进展,验证可行性和推进落地; 3、探索LLM在性能优化和编译器领域的应用。
团队介绍:字节跳动推荐架构团队,负责字节跳动旗下相关产品的推荐系统架构的设计和开发,保障系统稳定和高可用;负责在线服务、离线数据流性能优化,解决系统瓶颈,降低成本开销;抽象系统通用组件和服务,建设推荐中台、数据中台,支撑新产品快速孵化以及为ToB赋能。 课题介绍: 1、课题背景 在人工智能技术高速发展的背景下,推荐系统作为信息过滤与个性化服务的核心,面临多重挑战: (1)数据爆炸与模型复杂化 用户行为序列数据量呈指数级增长(百亿至千亿级/日),存储需求从单用户长序列扩展至多模态数据(文本、视频、Embedding等),传统存储架构面临读写性能瓶颈与成本压力;推荐大模型对数据质量敏感度提升,数据分布异常可能导致模型效果显著下降,亟需系统性数据质量评估与改进方法。 (2)异构计算与多模态处理需求 随着生成式AI(GenAI)的普及,多模态特征处理成为刚需,传统基于CPU的大数据框架(如Spark/Hadoop)难以高效处理非结构化数据,GPU/DPU等异构计算资源利用率不足;数据处理流程与模型训练脱节,ETL环节耗时长,CPU-GPU协同效率低下,导致算法迭代周期延长。 在此背景下,以数据为中心的人工智能(DCAI)与异构计算技术成为破局关键: -DCAI 强调通过数据质量优化与自动化处理链路提升模型性能,而非单纯依赖模型改进; -异构计算 通过统一调度CPU、GPU、DPU等资源,加速多模态数据处理与模型训练,实现降本增效。 2、课题目标 (1)构建支持多模态数据的低成本高性能存储引擎:支持百亿级用户行为序列与多模态数据混合存储,实现读写延时与存储量解耦,满足PB级数据天级回溯需求; (2)设计自适应数据演化的Schema管理机制:动态兼容特征增删改,确保训推一致性,降低模型迭代中的数据迁移成本; (3)研发多模态数据异构计算框架:实现CPU-GPU-DPU协同计算,加速ETL、特征处理与模型训练,提升资源利用率30%以上; (4)建立数据质量与模型性能的量化评估体系:开发自动化工具链,通过强化学习优化数据清洗、增强与异常检测流程; (5)打造以Python为核心的开发者生态:提供灵活API与可视化工具,支持快速接入多模态数据处理与DCAI优化链路。 3、研究内容 (1)多模态存储引擎与编码优化 - 混合存储架构 - 分层设计:行为序列采用时间分区+LSM-Tree存储,多模态数据(如图像/文本)采用对象存储+元数据索引,结合CXL内存池化技术降低访问延迟; - 编码优化:针对用户行为序列设计变长Delta编码,多模态数据采用深度学习压缩模型(如VAE),压缩比提升50%以上。 -Schema动态演化 - 开发基于Protobuf的版本化Schema语言,支持特征字段热更新,兼容历史数据回溯训练。 (2)异构计算框架与资源调度 - 计算引擎整合 - 基于Ray构建统一数据湖,实现Spark/GPU算子混合编排,数据从ETL到训练Tensor化零拷贝传输; - 设计DPU加速层,将哈希计算、特征编码等操作卸载至智能网卡,释放CPU/GPU算力。 - 多模态处理优化 - 文本/视频数据采用GPU流水线预处理,利用NVIDIA RAPIDS加速特征提取; - Embedding数据通过量化感知训练(QAT) 减少显存占用,支持FP16/INT8混合精度计算。 (3)数据质量与DCAI自动化链路 - 质量评估体系 - 定义多维度指标:时空一致性(行为时序异常检测)、模态对齐度(图文匹配校验)、噪声容忍阈值(基于模型鲁棒性反推)。 - 自动化优化工具 - 开发强化学习代理,根据模型反馈自动选择数据清洗策略(如GAN-based数据增强 vs. 规则过滤); - 构建因果推理模块,定位数据分布偏移对模型AUC下降的贡献度,生成根因分析报告。 (4)开发者生态与效能提升 - Python原生接口 - 提供声明式数据处理DSL,支持通过Python装饰器定义GPU加速算子(如@gpu_map); - 集成Jupyter可视化工具,实时展示数据质量热力图与模型性能关联分析。 - 效能监控体系 - 建立资源-质量-效果三维监控看板,跟踪存储成本、数据处理吞吐量、模型AUC等核心指标。
团队介绍:字节跳动推荐架构团队,负责字节跳动旗下相关产品的推荐系统架构的设计和开发,保障系统稳定和高可用;负责在线服务、离线数据流性能优化,解决系统瓶颈,降低成本开销;抽象系统通用组件和服务,建设推荐中台、数据中台,支撑新产品快速孵化以及为ToB赋能。 课题介绍: 1、课题背景 在人工智能技术高速发展的背景下,推荐系统作为信息过滤与个性化服务的核心,面临多重挑战: (1)数据爆炸与模型复杂化 用户行为序列数据量呈指数级增长(百亿至千亿级/日),存储需求从单用户长序列扩展至多模态数据(文本、视频、Embedding等),传统存储架构面临读写性能瓶颈与成本压力;推荐大模型对数据质量敏感度提升,数据分布异常可能导致模型效果显著下降,亟需系统性数据质量评估与改进方法。 (2)异构计算与多模态处理需求 随着生成式AI(GenAI)的普及,多模态特征处理成为刚需,传统基于CPU的大数据框架(如Spark/Hadoop)难以高效处理非结构化数据,GPU/DPU等异构计算资源利用率不足;数据处理流程与模型训练脱节,ETL环节耗时长,CPU-GPU协同效率低下,导致算法迭代周期延长。 在此背景下,以数据为中心的人工智能(DCAI)与异构计算技术成为破局关键: -DCAI 强调通过数据质量优化与自动化处理链路提升模型性能,而非单纯依赖模型改进; -异构计算 通过统一调度CPU、GPU、DPU等资源,加速多模态数据处理与模型训练,实现降本增效。 2、课题目标 (1)构建支持多模态数据的低成本高性能存储引擎:支持百亿级用户行为序列与多模态数据混合存储,实现读写延时与存储量解耦,满足PB级数据天级回溯需求; (2)设计自适应数据演化的Schema管理机制:动态兼容特征增删改,确保训推一致性,降低模型迭代中的数据迁移成本; (3)研发多模态数据异构计算框架:实现CPU-GPU-DPU协同计算,加速ETL、特征处理与模型训练,提升资源利用率30%以上; (4)建立数据质量与模型性能的量化评估体系:开发自动化工具链,通过强化学习优化数据清洗、增强与异常检测流程; (5)打造以Python为核心的开发者生态:提供灵活API与可视化工具,支持快速接入多模态数据处理与DCAI优化链路。 3、研究内容 (1)多模态存储引擎与编码优化 - 混合存储架构 - 分层设计:行为序列采用时间分区+LSM-Tree存储,多模态数据(如图像/文本)采用对象存储+元数据索引,结合CXL内存池化技术降低访问延迟; - 编码优化:针对用户行为序列设计变长Delta编码,多模态数据采用深度学习压缩模型(如VAE),压缩比提升50%以上。 -Schema动态演化 - 开发基于Protobuf的版本化Schema语言,支持特征字段热更新,兼容历史数据回溯训练。 (2)异构计算框架与资源调度 - 计算引擎整合 - 基于Ray构建统一数据湖,实现Spark/GPU算子混合编排,数据从ETL到训练Tensor化零拷贝传输; - 设计DPU加速层,将哈希计算、特征编码等操作卸载至智能网卡,释放CPU/GPU算力。 - 多模态处理优化 - 文本/视频数据采用GPU流水线预处理,利用NVIDIA RAPIDS加速特征提取; - Embedding数据通过量化感知训练(QAT) 减少显存占用,支持FP16/INT8混合精度计算。 (3)数据质量与DCAI自动化链路 - 质量评估体系 - 定义多维度指标:时空一致性(行为时序异常检测)、模态对齐度(图文匹配校验)、噪声容忍阈值(基于模型鲁棒性反推)。 - 自动化优化工具 - 开发强化学习代理,根据模型反馈自动选择数据清洗策略(如GAN-based数据增强 vs. 规则过滤); - 构建因果推理模块,定位数据分布偏移对模型AUC下降的贡献度,生成根因分析报告。 (4)开发者生态与效能提升 - Python原生接口 - 提供声明式数据处理DSL,支持通过Python装饰器定义GPU加速算子(如@gpu_map); - 集成Jupyter可视化工具,实时展示数据质量热力图与模型性能关联分析。 - 效能监控体系 - 建立资源-质量-效果三维监控看板,跟踪存储成本、数据处理吞吐量、模型AUC等核心指标。