字节跳动多模态大模型算法实习生-电商业务
任职要求
1、2026届本科及以上学历在读,计算机相关专业优先; 2、在NLP算法、多模态算法、大模型训练和应用、搜索推荐、知识图谱等领域有实际的开发和从业经验者优先; 3、有好奇心,喜欢新事物,善于合作,有创新精神,有一定的抗压能力; 4、至少熟悉一门计算机编程…
工作职责
ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:Data-电商-知识图谱团队,通过实体挖掘、关系抽取、知识融合等技术手段,将海量的非结构化文本进行结构化建模,构建起了大规模的电商知识图谱,支持电商业务的发展;同时,结构化的电商知识也能融入大规模的预训练模型,进一步提升在各个下游任务上的性能。我们利用这些前沿的NLP技术落地到图谱构建和下游的多个业务场景:商品/短视频分类和属性识别、评价情感分析、短标题生成等。此外,为支持国际化电商业务发展,在多语言、低资源等诸多新挑战下,我们积极探索利用跨语言迁移提升目标语言的模型、利用知识迁移去缓解低资源场景下的标注数据稀缺难点等课题,助力国际化电商知识图谱的快速建设,为业务的蓬勃发展提供助力。 1、构建和维护高质量的电商行业文本和多模态数据集,不断优化数据质量和丰富度,沉淀电商行业的高价值信息; 2、针对业务需求进行电商行业LLM和多模态LLM的继续训练(CT)、有监督微调(SFT),提升模型在电商场景下的表现; 3、制定和实施LLM的评估方案,结合人工评估和自动化评估手段,确保模型性能的可靠性和稳定性; 4、通过LLM不断优化针对电商场景人货场的理解和生成能力,包括:商品信息识别、视频内容理解、用户兴趣挖掘、商品文案生成、导购素材生成等等; 5、通过LLM和上述能力,支持电商各种业务场景,包括:搜索、推荐、导购、评价、商品发布等等,提升各场景的业务效果。
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 1、参与设计实现支持RLHF/DPO等对齐技术的高效训练框架,优化强化学习阶段的Rollout、Reward Model集成、多阶段训练 Pipline; 2、研发支持多机多卡 RL 的分布式训练框架,开发TP/PP/ZeRO-3与RL流程的动态协同机制,解决 RL 算法在超长时序下的显存/通信瓶刭 3、构建端到端后训练工具链,主导框架与 MLOps 平台集成,提供训练可视化、自动超参搜索等生产级能力 4、与公司各算法部门深度合作,参与大语言模型LLM、多模态大模型 MLLM等业务在 SFT/RL领域的算法探索和引擎迭代; 5、参与分析各业务 GPU 利用率与饱和度等指标,结合业务场景持续优化训练框架能力,提升框架领先性。
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 工作职责: 1、参与/负责研发面向大语言模型(LLM)/多模态大模型(MLLM)等类型模型的推理服务框架; 2、参与/负责KV Router、PD分离/EPD分离、KVCache管理、动态PD调整等分布式推理能力建设; 3、通过并行计算优化、分布式架构优化、异构调度等多种框架技术,打造高效、易用、领先的AI推理框架; 4、参与/负责构建推理框架的系统容错能力,包括但不限于请求迁移、优雅退出、故障检测、自愈等能力建设; 5、深度参与周边深度学习系统多个子方向的工作,包括但不限于模型管理、推理部署、日志/监控、工作流编排等; 6、与全公司各业务算法部门深度合作,为重点项目进行算法与系统的联合优化,支撑业务目标达成。
大模型具备很强的泛化及理解世界能力,在小红书内的众多生产场景遍地开花,大模型的训练和部署已成为许多算法工程师的日常。在多团队、多业务频繁使用的大规模GPU集群上,如何能够通过高效的GPU调度策略,使大家不仅能丝滑地完成训练及部署任务,同时也能充分激发大规模GPU集群的效能,是行业公认的关键挑战。在这里,你可以聚焦LLM场景,接触到超大规模GPU集群,并使用真实负载数据进行深入分析及技术探索。欢迎加入我们,一起探索领先技术改变世界! 工作职责: 1、负责万卡规模GPU集群效能分析及优化,通过调度策略优化、在离线混部、集群调度、GPU虚拟化、故障快速恢复、存储&网络加速等手段,提升大规模GPU集群的整体使用效率。 2、负责构建面向大模型训练、微调、推理、部署全流程LLMOps,与下游云原生平台深度融合,支撑大模型在公司内各业务生产链路稳定高效地落地。 3、持续关注业界最新的GPU资源调度相关技术动态,探索建设业界领先的资源调度策略及方法,构建下一代大规模AI资源调度系统。