字节跳动大模型应用算法实习生-AI PaaS-筋斗云人才计划
任职要求
1、2026届及之后毕业,博士在读,人工智能/计算机/软件工程/数学相关专业优先; 2、优秀的代码能力、数据结构和基础算法功底,熟练Python、C++等常用编程语言; 3、智能编码方向要求有扎实的机器学习基础,在ICML/CVPR/NeurIPS…
工作职责
团队介绍:Stone-AI PaaS团队专注研究AI/大模型应用相关领域的技术和产品,致力于创造和实现创新的人工智能平台服务。团队目前已服务于字节跳动多款产品,比如豆包、Cici、Coze、Trae等。同时团队内部也在孵化多款AI应用创新产品,积极探索大模型应用的技术发展。团队氛围好,发展空间大,欢迎加入! 课题介绍: 背景:随着人工智能技术的飞速发展,大语言模型(LLM)在自然语言处理领域取得了显著进展,为智能对话系统的发展提供了有力支撑。然而,现有的智能对话系统在面对复杂多变的实际应用场景时,仍存在诸多不足。一方面,用户对于交互的多样性和便捷性提出了更高要求,期望能够实现语音、图像、文本等多模态信息的自然交互;另一方面,面对复杂问题,当前对话系统缺乏深度思考和推理能力,难以提供全面且精准的解答。同时,在知识获取方面,如何高效地调度各类工具,挖掘优质内容,以满足用户的多样化需求,也成为亟待解决的问题。因此,开展对多模态交互、深度思考、工具调度以及优质内容挖掘方向的研究,对于提升通用对话助手的性能和用户体验具有重要的现实意义。 研究方向: 1、多模态交互方向:深入研究语音、图像、文本等多模态信息的融合与交互技术,开发能够实现多模态信息无缝对接的算法模型。通过构建多模态语义理解框架,使对话助手能够准确理解不同模态输入的含义,并根据用户需求以语音、图像、文本等多种形式进行输出,实现自然流畅的多模态交互体验。例如,当用户输入一张图片并提出相关问题时,对话助手能够识别图片内容,并结合文本信息进行分析解答,同时可以以语音形式反馈结果; 2、深度思考方向:探索基于深度学习的推理机制,提升对话助手的逻辑推理和问题解决能力。引入知识图谱、语义网络等技术,增强对话助手对知识的理解和运用能力,使其能够在面对复杂问题时,进行深度思考和分析,挖掘问题的本质,提供更具逻辑性和准确性的回答。比如,在解答科学类复杂问题时,对话助手能够基于知识图谱进行推理,给出全面且深入的解释; 3、工具调度方向:构建智能工具调度系统,使对话助手能够根据用户问题的类型和需求,自动识别并调用合适的外部工具,如信息检索工具、数据分析工具、翻译工具等。建立工具之间的协同工作机制,确保在处理复杂任务时,多个工具能够相互配合,实现信息共享和流程优化,提高问题解决的效率和质量。例如,在处理跨国业务相关问题时,对话助手可以同时调用翻译工具和信息检索工具,快速获取并翻译相关资料,为用户提供准确信息; 4、优质内容挖掘方向:研发高效的内容挖掘算法,从海量的文本、图像、视频等数据中筛选出优质、有价值的信息。利用自然语言处理和计算机视觉技术,对内容进行分类、标注和评估,建立优质内容数据库。通过与对话助手的交互,根据用户的兴趣和需求,精准推送相关的优质内容,满足用户对高质量信息的获取需求。比如,为对历史文化感兴趣的用户推荐相关的优质纪录片、学术论文等。
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 1、参与设计实现支持RLHF/DPO等对齐技术的高效训练框架,优化强化学习阶段的Rollout、Reward Model集成、多阶段训练 Pipline; 2、研发支持多机多卡 RL 的分布式训练框架,开发TP/PP/ZeRO-3与RL流程的动态协同机制,解决 RL 算法在超长时序下的显存/通信瓶刭 3、构建端到端后训练工具链,主导框架与 MLOps 平台集成,提供训练可视化、自动超参搜索等生产级能力 4、与公司各算法部门深度合作,参与大语言模型LLM、多模态大模型 MLLM等业务在 SFT/RL领域的算法探索和引擎迭代; 5、参与分析各业务 GPU 利用率与饱和度等指标,结合业务场景持续优化训练框架能力,提升框架领先性。
【业务介绍】 作为公司统一的机器学习平台团队,负责调度公司所有模型训练与推理资源;基于自建的训推引擎,构建公司统一的机器学习平台,为公司所有算法同学(稀疏 & 稠密,含 LLM) 模型迭代提供端到端的一站式服务;包括 数据生产,模型训练,模型上线,特征管理,模型测试,资源管控等一系列能力。 【岗位职责】 1、负责机器学习链路,离在线数据相关的开发工作,包括样本数据、特征数据等的数据链路搭建、任务运维和调优、性能优化等 2、负责小红书大规模机器学习平台的后台系统设计和开发工作;包括样本平台,特征平台,训练平台,推理平台等AI应用后台建设等; 3、研究分析业内AI平台产品,优化技术方案,改进产品功能,完善产品体验。
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 工作职责: 1、参与/负责研发面向大语言模型(LLM)/多模态大模型(MLLM)等类型模型的推理服务框架; 2、参与/负责KV Router、PD分离/EPD分离、KVCache管理、动态PD调整等分布式推理能力建设; 3、通过并行计算优化、分布式架构优化、异构调度等多种框架技术,打造高效、易用、领先的AI推理框架; 4、参与/负责构建推理框架的系统容错能力,包括但不限于请求迁移、优雅退出、故障检测、自愈等能力建设; 5、深度参与周边深度学习系统多个子方向的工作,包括但不限于模型管理、推理部署、日志/监控、工作流编排等; 6、与全公司各业务算法部门深度合作,为重点项目进行算法与系统的联合优化,支撑业务目标达成。
大模型具备很强的泛化及理解世界能力,在小红书内的众多生产场景遍地开花,大模型的训练和部署已成为许多算法工程师的日常。在多团队、多业务频繁使用的大规模GPU集群上,如何能够通过高效的GPU调度策略,使大家不仅能丝滑地完成训练及部署任务,同时也能充分激发大规模GPU集群的效能,是行业公认的关键挑战。在这里,你可以聚焦LLM场景,接触到超大规模GPU集群,并使用真实负载数据进行深入分析及技术探索。欢迎加入我们,一起探索领先技术改变世界! 工作职责: 1、负责万卡规模GPU集群效能分析及优化,通过调度策略优化、在离线混部、集群调度、GPU虚拟化、故障快速恢复、存储&网络加速等手段,提升大规模GPU集群的整体使用效率。 2、负责构建面向大模型训练、微调、推理、部署全流程LLMOps,与下游云原生平台深度融合,支撑大模型在公司内各业务生产链路稳定高效地落地。 3、持续关注业界最新的GPU资源调度相关技术动态,探索建设业界领先的资源调度策略及方法,构建下一代大规模AI资源调度系统。