logo of bytedance

字节跳动大模型应用算法实习生-AI Coding-筋斗云人才计划

实习兼职A120571地点:杭州状态:招聘

任职要求


1、2026届及之后毕业,硕士或者博士在读,人工智能、计算机、数学、软件工程相关专业优先;
2、具备优秀的代码能力、数据结构和基础算法功底,熟练掌握C/C++、Python等一个或多个编程语言;
3、熟悉大模型相关的算法和技术,有自然语言处理NLP)和大模型训练和强化学习(RL)算法经验者优先;
4、在软件工程或者人工智能领域有出色的科研…
登录查看完整任职要求
微信扫码,1秒登录

工作职责


团队介绍:AI Coding团队致力于探索LLM在软件开发全生命周期的应用,支持MarsCode、Trae等代码智能产品中代码补全、智能编辑、程序debug以及代码修复等核心AI功能的全链路模型优化。欢迎对大模型、Agent技术和开发者工具体系感兴趣、对技术有追求的同学加入,共同成长!

课题介绍:
一、课题背景与研究动机
1、复杂软件工程项目的挑战与需求:随着企业业务需求的快速增长,软件项目规模持续扩大,系统架构日趋复杂,跨语言、多框架、多平台开发成为常态。开发团队在应对代码理解、跨模块协作、版本演化和长期维护等问题时,效率与质量面临双重挑战;
2、大模型在编程领域的潜力与不足:大规模语言模型在代码生成、补全和文档生成等任务上已展现强大能力,推动了智能化开发工具的初步落地。然而,在应对复杂软件工程项目时,现有模型在长序列建模、上下文一致性、跨文件依赖理解及代码质量保障方面仍有明显不足;
3、技术与产业机遇:
1)范式变革:大模型有望成为软件开发全流程的重要参与者,推动从工具辅助向智能协作转变,覆盖从需求分析到代码实现、测试生成和自动化重构的各个环节;
2)行业转型:通过深度优化大模型在复杂软件开发中的能力,可显著提升企业研发效率、软件质量与团队协作能力,助力数字化转型;
二、研究目标与创新价值
1、研究目标
1)提升大模型对复杂项目的语义理解与跨模块上下文建模能力,尤其是在长序列代码、跨文件依赖和复杂逻辑推理场景中的表现;
2)优化模型微调与自适应学习策略,通过引入多任务学习、强化学习(RL)和领域知识增强,构建具有高泛化能力和行业适配能力的大模型;
3)集成领域知识库与检索增强(RAG)技术,确保模型生成结果在行业标准、安全规范和合规性方面的准确性与可靠性;
4)构建自我进化的AI Coding多智能体系统,基于强化学习、长期记忆、垂类模型训练、测试时计算等方法,持续优化任务规划、代码生成等能力,实现数据驱动的自我进化,从而实现复杂应用的端到端全栈开发;
2、创新价值
1)模型结构与预训练策略的突破:在通用预训练模型基础上,结合程序分析与语法语义建模,提升对大型软件项目的理解能力,尤其是在模块间交互和函数调用路径分析方面;
2)模型优化与自适应增强:通过多维度监督信号(代码质量、运行性能、测试覆盖率等),实现强化学习与在线反馈的动态调整,打造具备持续学习能力的大模型;
3)从工具辅助到全生命周期协作:以大模型为核心,推动需求到实现、测试到部署的智能化协作新范式,助力开发者在复杂工程项目中更高效地完成跨团队协作与长期维护;
4)领域知识与行业专属能力融入:通过引入行业领域知识库(如金融合规、医疗数据安全规范等),结合检索增强技术(RAG),确保生成代码符合行业标准,显著降低错误和安全隐患;
三、主要挑战与应用前景
1、长序列代码与复杂上下文建模:复杂软件项目中,代码文件可能达到数千行,存在跨模块调用和多层次依赖,模型如何在长序列输入下保持上下文一致性,是核心技术难点之一;
2、跨语言与多框架适配:现有模型大多针对单一语言优化,而企业项目往往涉及多语言(如Python、C++、Java等)和多框架(如React、Django、Kubernetes);如何提升模型的跨语言泛化能力成为重要课题;
3、领域知识缺失与安全合规风险:通用大模型缺乏行业特定知识,可能生成不符合行业规范或存在潜在漏洞的代码,需引入领域知识与合规规则进行优化和增强;
4、人机协作:针对新涌现的大模型技术和应用场景,研究下一代软件研发人机交互形式,推动AI驱动的交互形式的普及与发展。
包括英文材料
数据结构+
算法+
C+
C+++
还有更多 •••
相关职位

logo of xiaohongshu
社招5-10年引擎

我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 1、参与设计实现支持RLHF/DPO等对齐技术的高效训练框架,优化强化学习阶段的Rollout、Reward Model集成、多阶段训练 Pipline; 2、研发支持多机多卡 RL 的分布式训练框架,开发TP/PP/ZeRO-3与RL流程的动态协同机制,解决 RL 算法在超长时序下的显存/通信瓶刭 3、构建端到端后训练工具链,主导框架与 MLOps 平台集成,提供训练可视化、自动超参搜索等生产级能力 4、与公司各算法部门深度合作,参与大语言模型LLM、多模态大模型 MLLM等业务在 SFT/RL领域的算法探索和引擎迭代; 5、参与分析各业务 GPU 利用率与饱和度等指标,结合业务场景持续优化训练框架能力,提升框架领先性。

更新于 2026-03-28上海|北京
logo of xiaohongshu
社招3年以上机器学习平台

【业务介绍】 作为公司统一的机器学习平台团队,负责调度公司所有模型训练与推理资源;基于自建的训推引擎,构建公司统一的机器学习平台,为公司所有算法同学(稀疏 & 稠密,含 LLM) 模型迭代提供端到端的一站式服务;包括 数据生产,模型训练,模型上线,特征管理,模型测试,资源管控等一系列能力。 【岗位职责】 1、负责机器学习链路,离在线数据相关的开发工作,包括样本数据、特征数据等的数据链路搭建、任务运维和调优、性能优化等 2、负责小红书大规模机器学习平台的后台系统设计和开发工作;包括样本平台,特征平台,训练平台,推理平台等AI应用后台建设等; 3、研究分析业内AI平台产品,优化技术方案,改进产品功能,完善产品体验。

上海
logo of xiaohongshu
社招5-10年引擎

我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 工作职责: 1、参与/负责研发面向大语言模型(LLM)/多模态大模型(MLLM)等类型模型的推理服务框架; 2、参与/负责KV Router、PD分离/EPD分离、KVCache管理、动态PD调整等分布式推理能力建设; 3、通过并行计算优化、分布式架构优化、异构调度等多种框架技术,打造高效、易用、领先的AI推理框架; 4、参与/负责构建推理框架的系统容错能力,包括但不限于请求迁移、优雅退出、故障检测、自愈等能力建设; 5、深度参与周边深度学习系统多个子方向的工作,包括但不限于模型管理、推理部署、日志/监控、工作流编排等; 6、与全公司各业务算法部门深度合作,为重点项目进行算法与系统的联合优化,支撑业务目标达成。

更新于 2026-03-28北京|上海
logo of xiaohongshu
社招引擎

大模型具备很强的泛化及理解世界能力,在小红书内的众多生产场景遍地开花,大模型的训练和部署已成为许多算法工程师的日常。在多团队、多业务频繁使用的大规模GPU集群上,如何能够通过高效的GPU调度策略,使大家不仅能丝滑地完成训练及部署任务,同时也能充分激发大规模GPU集群的效能,是行业公认的关键挑战。在这里,你可以聚焦LLM场景,接触到超大规模GPU集群,并使用真实负载数据进行深入分析及技术探索。欢迎加入我们,一起探索领先技术改变世界! 工作职责: 1、负责万卡规模GPU集群效能分析及优化,通过调度策略优化、在离线混部、集群调度、GPU虚拟化、故障快速恢复、存储&网络加速等手段,提升大规模GPU集群的整体使用效率。 2、负责构建面向大模型训练、微调、推理、部署全流程LLMOps,与下游云原生平台深度融合,支撑大模型在公司内各业务生产链路稳定高效地落地。 3、持续关注业界最新的GPU资源调度相关技术动态,探索建设业界领先的资源调度策略及方法,构建下一代大规模AI资源调度系统。

北京|上海