字节跳动算法实习生-数据智能
任职要求
1、2026届硕士及以上学位在读,数学、人工智能等相关专业优先; 2、扎实的深度学习技术基础,有NLP/多模态相关的项目经验,在ACL/NeurIPS/ICML/EMNLP/ICLR等顶会上发表论文者优先或者有竞赛经验…
工作职责
ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:专注大模型在数据智能方向的应用落地,横向支持公司多个数据产品的大模型解决方案。团队致力于跟进大模型前沿进展,结合领域模型的优化策略来设计端到端的算法优化和评估方案,实现数据产品的智能升级与应用效果提升。团队鼓励敏捷创新,知识共享的协作氛围,专注投入对数据智能课题的持续探索研究。 1、数据增强算法优化:优化SFT/RLHF阶段的数据合成算法,提升训练数据的准确性、多样性和领域适配性; 2、大模型研发:负责面向Code与逻辑推理的大语言模型技术的创新研发,推动基于大语言模型的In-Context Learning、NL2Code建模、自然语言逻辑推理等关键技术的研发和核心问题的解决; 3、推动大模型应用落地:探索包括智能数据问答机器人、代码编程助手等在真实场景的应用价值,并基于评估体系实现应用效果的持续迭代; 4、跟进开源SOTA大模型:探索大模型Scaling law并实践开源大模型在数据智能领域的Post-Training,沉淀技术专利。
ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:专注大模型在数据智能方向的应用落地,横向支持公司多个数据产品的大模型解决方案。团队致力于跟进大模型前沿进展,结合领域模型的优化策略来设计端到端的算法优化和评估方案,实现数据产品的智能升级与应用效果提升。团队鼓励敏捷创新,知识共享的协作氛围,专注投入对数据智能课题的持续探索研究。 1、数据增强算法优化:优化SFT/RLHF阶段的数据合成算法,提升训练数据的准确性、多样性和领域适配性; 2、大模型研发:负责面向Code与逻辑推理的大语言模型技术的创新研发,推动基于大语言模型的In-Context Learning、NL2Code建模、自然语言逻辑推理等关键技术的研发和核心问题的解决; 3、推动大模型应用落地:探索包括智能数据问答机器人、代码编程助手等在真实场景的应用价值,并基于评估体系实现应用效果的持续迭代; 4、跟进开源SOTA大模型:探索大模型Scaling law并实践开源大模型在数据智能领域的Post-Training,沉淀技术专利。
团队介绍:专注大模型在数据智能方向的应用落地,横向支持公司多个数据产品的大模型解决方案。团队致力于跟进大模型前沿进展,结合领域模型的优化策略来设计端到端的算法优化和评估方案,实现数据产品的智能升级与应用效果提升。团队鼓励敏捷创新,知识共享的协作氛围,专注投入对数据智能课题的持续探索研究。 课题介绍: 背景:在Bird、Spider2.0等复杂数据分析榜单中,基于通用大模型的COT、Prompt工程方案相比BI分析师仍有较大差距(sota 75 vs 92)。近期推理大模型例如OpenAI O3、DeepSeek R1利用Test-Time Scaling Law提升模型推理能力,并指出后训练阶段中RL是提升的重要训练方式。本课题聚焦推理大模型后训练技术(SFT+RL),通过reasoning优化模糊语义理解、多步逻辑推导、复杂查询分解等关键问题,目标建立数据分析领域的推理大模型的方法体系。 课题主要关注的挑战点包括: 1、数据分析领域中高质量的reasoning数据生成,基于高质量数据的SFT冷启动训练来提升RL(GRPO、PPO)训练稳定性,包括多Epoch训练稳定、推理格式对齐等问题; 2、通过混合Reward(包括语义理解、代码执行、难度区分、子查询效率等多角度Reward)提升在模糊语义理解、多步逻辑推导、复杂查询分解的reasoning效果来提升结果准确率; 3、探索推理大模型overthinking的解决方案,面向简单到复杂问题数据分析问题,推理模型可合理的输出推理过程长度,同时保持整体准确率效果。 1、数据增强算法优化:设计面向数据推理任务的Data-Centric算法框架,优化Reasoning Data合成链路,提升训练数据的逻辑一致性、领域适配性与多样性; 2、Test-Time Compute:负责数据大模型与推理大模型的创新结合,解决思维链生成中的Over/Under-Thinking问题,探索复杂数据分析任务的Reward最优实践收益(包括语义理解、执行正确、查询效率、洞察启发性等); 3、推理大模型应用落地:跟进开源SOTA大模型的技术演进,实践Post-Training阶段的领域适配优化,在数据洞察机器人等产品中的验证应用价值,并基于评估体系实现效果的持续迭代,沉淀技术专利。
团队介绍:专注大模型在数据智能方向的应用落地,横向支持公司多个数据产品的大模型解决方案。团队致力于跟进大模型前沿进展,结合领域模型的优化策略来设计端到端的算法优化和评估方案,实现数据产品的智能升级与应用效果提升。团队鼓励敏捷创新,知识共享的协作氛围,专注投入对数据智能课题的持续探索研究。 课题介绍: 背景:在Bird、Spider2.0等复杂数据分析榜单中,基于通用大模型的COT、Prompt 工程方案相比BI分析师仍有较大差距(sota 75 vs 92)。近期推理大模型例如OpenAI O3、DeepSeek R1利用Test-Time Scaling Law提升模型推理能力,并指出后训练阶段中RL是提升的重要训练方式。本课题聚焦推理大模型后训练技术(SFT+RL),通过reasoning优化模糊语义理解、多步逻辑推导、复杂查询分解等关键问题,目标建立数据分析领域的推理大模型的方法体系。 课题主要关注的挑战点包括: 1、数据分析领域中高质量的reasoning数据生成,基于高质量数据的SFT冷启动训练来提升RL(GRPO、PPO)训练稳定性,包括多Epoch训练稳定、推理格式对齐等问题; 2、通过混合Reward(包括语义理解、代码执行、难度区分、子查询效率等多角度Reward)提升在模糊语义理解、多步逻辑推导、复杂查询分解的reasoning效果来提升结果准确率; 3、探索推理大模型overthinking的解决方案,面向简单到复杂问题数据分析问题,推理模型可合理的输出推理过程长度,同时保持整体准确率效果。 1、数据增强算法优化:设计面向数据推理任务的Data-Centric算法框架,优化Reasoning Data合成链路,提升训练数据的逻辑一致性、领域适配性与多样性; 2、Test-Time Compute:负责数据大模型与推理大模型的创新结合,解决思维链生成中的Over/Under-Thinking问题,探索复杂数据分析任务的Reward最优实践收益(包括语义理解、执行正确、查询效率、洞察启发性等); 3、推理大模型应用落地:跟进开源SOTA大模型的技术演进,实践Post-Training阶段的领域适配优化,在数据洞察机器人等产品中的验证应用价值,并基于评估体系实现效果的持续迭代,沉淀技术专利。
日常实习:面向全体在校生,为符合岗位要求的同学提供为期3个月及以上的项目实践机会。 团队介绍:字节跳动Data研发部门,负责公司产品线的推荐、广告、系统架构、大数据和开放平台等技术。 1、数据增强算法研发:优化数据增强算法,提高大模型预训练、SFT、RLHF 阶段的数据正确性、多样性; 2、大模型研发:基于大模型底座,优化训练链路,提升 Text2code、Code-interpreter 等模型应用效果; 3、跟进开源 SOTA 大模型:探索大模型 Scaling law 并结合开源大模型在数据智能领域的精调,沉淀技术专利; 4、推动大模型应用落地:探索包括 RAG-QA 机器人、数据洞察机器人等在真实场景的应用价值。