字节跳动大模型应用架构工程师-豆包大模型
任职要求
1、熟练掌握Linux环境下的C/C++、Python、Java、Go 中的 1~2 门,扎实的编程能力,优秀的设计和代码思维; 2、对在线架构有丰富的经验和广阔的视野,有对话系统、搜广推推荐系统、大规模机器学习系统经验优先; 3、具有独立解决问题的能力,良好的团队合作精神,具备优秀…
工作职责
字节跳动豆包大模型团队成立于 2023 年,致力于开发业界最先进的 AI 大模型技术,成为世界一流的研究团队,为科技和社会发展作出贡献。 豆包大模型团队在AI领域拥有长期愿景与决心,研究方向涵盖NLP、CV、语音等,在中国、新加坡、美国等地设有实验室和研究岗位。团队依托平台充足的数据、计算等资源,在相关领域持续投入,已推出自研通用大模型,提供多模态能力,下游支持豆包、扣子、即梦等50+业务,并通过火山引擎开放给企业客户。目前,豆包APP已成为中国市场用户量最大的AIGC应用。 1、负责 LLM 在 toC 应用落地,提供多 tool (联网、文件识别、代码沙盒等) 与多模型的动态编排能力,不断优化架构可扩展性,帮助豆包、Coze、猫箱等业务不断快速增长; 2、与不同 LLM 算法同学紧密协作,探索复杂服务能力,如WebGPT、FunctionCall、Agents、AssistantAPI、图像/语音多模态等,追进前沿的研究成果; 3、设计并实施全流式通信的 LLM 应用架构,与国内最大规模的 LLM 高性能推理服务联动实现端到端最佳的性能和资源能效,不断提升高并发高吞吐在线系统的健壮性。
字节跳动豆包大模型团队成立于 2023 年,致力于开发业界最先进的 AI 大模型技术,成为世界一流的研究团队,为科技和社会发展作出贡献。 豆包大模型团队在AI领域拥有长期愿景与决心,研究方向涵盖NLP、CV、语音等,在中国、新加坡、美国等地设有实验室和研究岗位。团队依托平台充足的数据、计算等资源,在相关领域持续投入,已推出自研通用大模型,提供多模态能力,下游支持豆包、扣子、即梦等50+业务,并通过火山引擎开放给企业客户。目前,豆包APP已成为中国市场用户量最大的AIGC应用。 1、负责 LLM 在 toC 应用落地,提供多 tool (联网、文件识别、代码沙盒等) 与多模型的动态编排能力,不断优化架构可扩展性,帮助豆包、Coze、猫箱等业务不断快速增长; 2、与不同 LLM 算法同学紧密协作,探索复杂服务能力,如WebGPT、FunctionCall、Agents、AssistantAPI、图像/语音多模态等,追进前沿的研究成果; 3、设计并实施全流式通信的 LLM 应用架构,与国内最大规模的 LLM 高性能推理服务联动实现端到端最佳的性能和资源能效,不断提升高并发高吞吐在线系统的健壮性。
团队介绍:字节跳动豆包大模型团队成立于 2023 年,致力于开发业界最先进的 AI 大模型技术,成为世界一流的研究团队,为科技和社会发展作出贡献。 豆包大模型团队在AI领域拥有长期愿景与决心,研究方向涵盖NLP、CV、语音等,在中国、新加坡、美国等地设有实验室和研究岗位。团队依托平台充足的数据、计算等资源,在相关领域持续投入,已推出自研通用大模型,提供多模态能力,下游支持豆包、扣子、即梦等50+业务,并通过火山引擎开放给企业客户。目前,豆包APP已成为中国市场用户量最大的AIGC应用。 1、团队负责公司大模型的研发和应用,研究相关技术在搜索、推荐、广告、创作、对话和客服等领域的全新应用和解决方案,满足用户不断增长的智能交互需求,全面提升用户在未来世界的生活和交流方式;主要工作方向包括: 1)优化&创新RLHF算法训练效率与模型泛化能力; 2)Long CoT技术的实现和应用; 3)多模态大模型(文本、图像、语音)的Posttraining算法; 4)构建高质量、多领域的数据合成方法; 5)探索LLM在情感对话、创作等场景的应用。
团队介绍:字节跳动豆包大模型团队成立于 2023 年,致力于开发业界最先进的 AI 大模型技术,成为世界一流的研究团队,为科技和社会发展作出贡献。 豆包大模型团队在AI领域拥有长期愿景与决心,研究方向涵盖NLP、CV、语音等,在中国、新加坡、美国等地设有实验室和研究岗位。团队依托平台充足的数据、计算等资源,在相关领域持续投入,已推出自研通用大模型,提供多模态能力,下游支持豆包、扣子、即梦等50+业务,并通过火山引擎开放给企业客户。目前,豆包APP已成为中国市场用户量最大的AIGC应用。 1、团队负责公司大模型的研发和应用,研究相关技术在搜索、推荐、广告、创作、对话和客服等领域的全新应用和解决方案,满足用户不断增长的智能交互需求,全面提升用户在未来世界的生活和交流方式;主要工作方向包括: 1)优化&创新RLHF算法训练效率与模型泛化能力; 2)Long CoT技术的实现和应用; 3)多模态大模型(文本、图像、语音)的Posttraining算法; 4)构建高质量、多领域的数据合成方法; 5)探索LLM在情感对话、创作等场景的应用。