字节跳动算法工程师-数据智能【杭州】
任职要求
1、熟悉自然语言处理、机器学习等相关技术,有相关复杂算法系统架构与效果优化实践经验; 2、熟悉常用的LLM模型落地实践方法和LLM模型微调相关方法; 3、熟悉传统NLP方法,能够各种技术算法路线熟知,有相关落地经验者优先; 4、关注国际NLP语言模型最新前沿技术,对相关开源模型有落地实践者优先; 5、在国际顶级会议/期刊上有NLP相关相关论文发表者优先。
工作职责
负责LLM在数据方向的应用落地,支持模型调优,端到端算法设计及效果评测,实现数据产品的全面智能升级与效果保障。 1、为分析师、运营、决策者、商家等提供多种基于LLM的数据应用,提高数据决策效率; 2、激发LLM在NL2DSL、DocQA、ADA等场景的能力,推动业务增长; 3、基于业务需求和业务数据,构建基于LLM的算法体系,并对模型进行训练与调优,确保模型落地效果; 4、基于数据LLM产品的应用场景和功能特点,建立科学的模型在线与离线评估体系。
1、数据增强算法优化,优化预训练/SFT/RLHF阶段的数据合成算法,提升训练数据的准确性、多样性和领域适配性; 2、负责大模型研发,主导Code-LLM与逻辑推理大模型的训练创新,攻克NL2Code、复杂推理链生成等技术难点,推进LLM Test-Time Compute、Parameter-Efficient Finetuning等技术落地实践; 3、推动大模型应用落地,探索包括RAG-QA机器人、数据洞察机器人等在真实场景的应用价值,并基于评估体系实现应用效果的持续迭代; 4、跟进开源SOTA大模型,探索大模型Scaling law并实践开源大模型在数据智能领域的Post-Training,沉淀技术专利。
1、建设淘海外标准化数据体系,沉淀高质量数据资产,助力业务高效运转; 2、建设归因分析能力与AB测试数据能力,打造业务的核心决策数据产品,助力业务高效决策; 3、协同产技,通过数据+算法+工程化能力,提供数据洞察与产品化解决方案,提升业务数据化运营能力。
团队介绍:专注大模型在数据智能方向的应用落地,横向支持公司多个数据产品的大模型解决方案。团队致力于跟进大模型前沿进展,结合领域模型的优化策略来设计端到端的算法优化和评估方案,实现数据产品的智能升级与应用效果提升。团队鼓励敏捷创新,知识共享的协作氛围,专注投入对数据智能课题的持续探索研究。 课题介绍: 背景:在Bird、Spider2.0等复杂数据分析榜单中,基于通用大模型的COT、Prompt 工程方案相比BI分析师仍有较大差距(sota 75 vs 92)。近期推理大模型例如OpenAI O3、DeepSeek R1利用Test-Time Scaling Law提升模型推理能力,并指出后训练阶段中RL是提升的重要训练方式。本课题聚焦推理大模型后训练技术(SFT+RL),通过reasoning优化模糊语义理解、多步逻辑推导、复杂查询分解等关键问题,目标建立数据分析领域的推理大模型的方法体系。 课题主要关注的挑战点包括: 1、数据分析领域中高质量的reasoning数据生成,基于高质量数据的SFT冷启动训练来提升RL(GRPO、PPO)训练稳定性,包括多Epoch训练稳定、推理格式对齐等问题; 2、通过混合Reward(包括语义理解、代码执行、难度区分、子查询效率等多角度Reward)提升在模糊语义理解、多步逻辑推导、复杂查询分解的reasoning效果来提升结果准确率; 3、探索推理大模型overthinking的解决方案,面向简单到复杂问题数据分析问题,推理模型可合理的输出推理过程长度,同时保持整体准确率效果。 1、数据增强算法优化:设计面向数据推理任务的Data-Centric算法框架,优化Reasoning Data合成链路,提升训练数据的逻辑一致性、领域适配性与多样性; 2、Test-Time Compute:负责数据大模型与推理大模型的创新结合,解决思维链生成中的Over/Under-Thinking问题,探索复杂数据分析任务的Reward最优实践收益(包括语义理解、执行正确、查询效率、洞察启发性等); 3、推理大模型应用落地:跟进开源SOTA大模型的技术演进,实践Post-Training阶段的领域适配优化,在数据洞察机器人等产品中的验证应用价值,并基于评估体系实现效果的持续迭代,沉淀技术专利。