字节跳动AIGC服务端工程师(即梦)-剪映CapCut(深圳/广州)
任职要求
1、熟悉Golang或C++,有扎实的算法与数据结构基础、良好的编码能力和代码习惯; 2、对服务端研发常用的开源组件,如MySQL,Redis,Kafka,Pulsar,Etcd等,有一定应用经验,对其基本原理有一定了解更佳; 3、3年及以上研发经验,具备独立解决问题的能力,对挑战性问题充满热情,具备内在成就动机; 4、加分项:对AIGC有了解和动手经验,希望参与其中;搜索、推荐系统研发,大数据处理相关经验。
工作职责
1、负责剪映AI应用项目和平台工具的工程研发,结合各类AI技术特点,发挥想象力与创造性,落地有价值的AI应用场景,打造极致的用户体验; 2、研发高并发,高可靠,灵活扩展并支持国际化部署的服务端系统,满足复杂业务场景的需求; 3、研发AI应用基础服务组件,解决共性需求,减少重复开发; 4、AI应用领域的新技术研究和应用,推动适合的技术应用于生产。
1、负责即梦AI相关创新方向工具产品能力及用户产品能力建设,打造极致的用户体验; 2、研发高并发,高可靠,灵活扩展并支持国际化部署的服务端系统,满足复杂业务场景的需求; 3、研发AI应用基础服务组件,解决共性需求,减少重复开发; 4、AI应用领域的新技术研究和应用,推动适合的技术应用于生产。
字节跳动豆包大模型团队成立于 2023 年,致力于开发业界最先进的 AI 大模型技术,成为世界一流的研究团队,为科技和社会发展作出贡献。 豆包大模型团队在AI领域拥有长期愿景与决心,研究方向涵盖NLP、CV、语音等,在中国、新加坡、美国等地设有实验室和研究岗位。团队依托平台充足的数据、计算等资源,在相关领域持续投入,已推出自研通用大模型,提供多模态能力,下游支持豆包、扣子、即梦等50+业务,并通过火山引擎开放给企业客户。目前,豆包APP已成为中国市场用户量最大的AIGC应用。 1、负责 LLM 在 toC 应用落地,提供多 tool (联网、文件识别、代码沙盒等) 与多模型的动态编排能力,不断优化架构可扩展性,帮助豆包、Coze、猫箱等业务不断快速增长; 2、与不同 LLM 算法同学紧密协作,探索复杂服务能力,如WebGPT、FunctionCall、Agents、AssistantAPI、图像/语音多模态等,追进前沿的研究成果; 3、设计并实施全流式通信的 LLM 应用架构,与国内最大规模的 LLM 高性能推理服务联动实现端到端最佳的性能和资源能效,不断提升高并发高吞吐在线系统的健壮性。
字节跳动豆包大模型团队成立于 2023 年,致力于开发业界最先进的 AI 大模型技术,成为世界一流的研究团队,为科技和社会发展作出贡献。 豆包大模型团队在AI领域拥有长期愿景与决心,研究方向涵盖NLP、CV、语音等,在中国、新加坡、美国等地设有实验室和研究岗位。团队依托平台充足的数据、计算等资源,在相关领域持续投入,已推出自研通用大模型,提供多模态能力,下游支持豆包、扣子、即梦等50+业务,并通过火山引擎开放给企业客户。目前,豆包APP已成为中国市场用户量最大的AIGC应用。 1、负责 LLM 在 toC 应用落地,提供多 tool (联网、文件识别、代码沙盒等) 与多模型的动态编排能力,不断优化架构可扩展性,帮助豆包、Coze、猫箱等业务不断快速增长; 2、与不同 LLM 算法同学紧密协作,探索复杂服务能力,如WebGPT、FunctionCall、Agents、AssistantAPI、图像/语音多模态等,追进前沿的研究成果; 3、设计并实施全流式通信的 LLM 应用架构,与国内最大规模的 LLM 高性能推理服务联动实现端到端最佳的性能和资源能效,不断提升高并发高吞吐在线系统的健壮性。