字节跳动豆包大模型算法工程师-火山方舟
任职要求
1、计算机相关专业本科及以上学历,1年以上算法研发工作经验,有相关方向技术和研究背景的候选人优先; 2、优秀的代码能力、数据结构和基础算法功底,C/C++或Python熟练; 3、有领域顶级会议文章(NeurIPS、ICML、ICLR、CVPR、ICCV、ACL、KDD等)、有编程/AI 比赛获奖(ACM/ICPC、NOI/IOI、Top …
工作职责
1、发现优化大模型的简单、普适的想法,并应用到各个规模的模型中提升效果; 2、推进数据建设、指令微调、偏好对齐、继续预训练等模型优化方面的工作,提高模型质量和适应性; 3、探索复杂指令、长上下文、多轮对话下,大模型更为复杂的理解、推理和生成能力; 4、基于语言处理、内容创作、教育指导、角色扮演、复杂Agent、AI搜索和工具、代码助手等服务和应用优化模型效果; 5、推进大模型效果评估,尤其是复杂场景(多轮对话、开放领域)评估集建设和自动化评估能力建设; 6、深入研究和探索大模型在ToB企业服务中的更多使用场景,拓展模型的应用范围,如搜索、推荐、广告、创作、客服和办公等各类场景。
1、发现优化大模型的简单、普适的想法,并应用到各个规模的模型中提升效果; 2、推进数据建设、指令微调、偏好对齐、继续预训练等模型优化方面的工作,提高模型质量和适应性; 3、探索复杂指令、长上下文、多轮对话下,大模型更为复杂的理解、推理和生成能力; 4、基于语言处理、内容创作、教育Tutor、角色扮演、复杂Agent、AI搜索和工具、代码助手等服务和应用优化模型效果; 5、推进大模型效果评估,尤其是复杂场景(多轮对话、开放领域)评估集建设和自动化评估能力建设; 6、深入研究和探索大模型在ToB企业服务中的更多使用场景,拓展模型的应用范围,如搜索、推荐、广告、创作、客服和办公等各类场景。
1、发现优化大模型的简单、普适的想法,并应用到各个规模的模型中提升效果; 2、推进数据建设、指令微调、偏好对齐、继续预训练等模型优化方面的工作,提高模型质量和适应性; 3、探索复杂指令、长上下文、多轮对话下,大模型更为复杂的理解、推理和生成能力; 4、基于语言处理、内容创作、教育Tutor、角色扮演、复杂Agent、AI搜索和工具、代码助手等服务和应用优化模型效果; 5、推进大模型效果评估,尤其是复杂场景(多轮对话、开放领域)评估集建设和自动化评估能力建设; 6、深入研究和探索大模型在ToB企业服务中的更多使用场景,拓展模型的应用范围,如搜索、推荐、广告、创作、客服和办公等各类场景。
团队介绍:火山方舟是火山引擎推出的一站式大模型服务平台,是中国大模型市场产品和份额领跑者。平台提供模型推理、评测、精调等全流程服务。方舟搭载了豆包及业界主流大模型,提供丰富的插件生态和AI应用开发服务,并通过稳定可靠的安全互信方案、专业的算法技术服务,全方位保障企业级AI应用落地。 1、负责定义和驱动字节跳动机器学习平台与中央异构算力池的产品演进,提升全集团AI研发效率与资源效能; 2、深度理解字节跳动各业务线(推荐、广告、搜索、电商、Seed等)在机器学习研发全链路中的工程挑战与效能瓶颈,抽象出算法工程师、资源运营者等关键角色的核心痛点,并转化为清晰的平台产品机会; 3、负责公司级机器学习平台(AML-Engine/MLSys)的中长期产品规划与落地,覆盖从数据、训练、实验、评估到服务部署的全生命周期,持续提升平台的研发效率、系统稳定性与用户体验; 4、主导大规模异构计算资源池(中央算力池)的产品化建设,推动云原生架构、高并发调度、分布式系统等前沿技术在产品中深度实践,确保多业务、大规模场景下的资源高效、稳定利用,最大化平台与算力综合价值。
团队介绍:字节跳动豆包大模型团队成立于 2023 年,致力于开发业界最先进的 AI 大模型技术,成为世界一流的研究团队,为科技和社会发展作出贡献。 豆包大模型团队在AI领域拥有长期愿景与决心,研究方向涵盖NLP、CV、语音等,在中国、新加坡、美国等地设有实验室和研究岗位。团队依托平台充足的数据、计算等资源,在相关领域持续投入,已推出自研通用大模型,提供多模态能力,下游支持豆包、扣子、即梦等50+业务,并通过火山引擎开放给企业客户。目前,豆包APP已成为中国市场用户量最大的AIGC应用。 1、负责代码预训练数据的合成、清洗、权重分配、来源扩充等一系列工作,持续提高代码预训练、中程训练等阶段的数据质量;负责探究预训练小领域数据的配比和最终效果之间的关系;开发数据合成链路,解决代码模型中的关键问题; 2、负责探究深度推理技术,探究Test-time Compute和模型效果的Scaling laws,参与后训练奖励模型、强化学习算法的一系列优化流程,探究线上代码补全数据到RL过程的数据飞轮; 3、专注于代码强化学习中的奖励模型(Reward Model)的优化和创新;包括和SFT阶段配合解决判别能力较差的场景、探究合成数据进行代码奖励模型的预训练、组织标注人员进行代码奖励模型的标注、Critic的前沿探究、强化学习过程中的可执行代码与单元测试的质量过滤和扩充。