字节跳动火山方舟&MLP技术文档实习生-Data AML
任职要求
1、硕士及以上学位在读,专业为软件工程、计算机科学、人工智能、信息工程等计算机相关领域; 2、具备清晰的思维逻辑和较强的表达能力,拥有技术类报告、课程论文的写作经验; 3、熟练掌握Python/Go/JavaScript/Java等主流编程语言中…
工作职责
日常实习:面向全体在校生,为符合岗位要求的同学提供为期3个月及以上的项目实践机会。 团队介绍:Data AML是字节跳动公司的机器学习中台,为抖音/今日头条/西瓜视频等业务提供推荐/广告/CV/语音/NLP的训练和推理系统。为公司内业务部门提供强大的机器学习算力,并在这些业务的问题上研究一些具有通用性和创新性的算法。同时,也通过火山引擎将一些机器学习/推荐系统的核心能力提供给外部企业客户。此外,AML还在AI for Science,科学计算等领域做一些前沿研究。 1、负责编写产品功能说明、快速入门指南、模型使用教程等基础技术文档,确保内容准确、清晰,便于用户理解和使用; 2、参与API文档版本更新工作,精确界定参数定义,详细说明错误码及处理方式,保障API文档的时效性与完整性; 3、收集并整理用户常见问题,协助搭建FAQ知识库,为用户提供便捷的问题解决方案; 4、将产品设计文档、API设计文档转化为易于理解的教程,协助制作功能演示、产品操作等短视频,提升产品的可操作性和用户体验; 5、参与基于方舟/机器学习的应用Demo开发,以及自动化文档开发流水线等工程化项目,推动AI产品普惠开发者及技术内容创作的高效性与标准化; 6、主动学习,快速理解大模型、机器学习的工作原理及典型应用场景,为文档编写提供坚实的技术基础;在工程团队的指导下,对基础功能文档进行准确性验证,确保文档与产品实际功能一致。
1、设计、实施和维护高可用、高性能的豆包大模型服务架构; 2、使用Terraform和其他IaC工具管理和自动化云基础设施部署; 3、开发和优化自动化运维工具,提高模型部署效率和系统可靠性; 4、优化大规模分布式模型训练和推理的基础设施; 5、与AI研究团队密切合作,确保新模型和功能的顺利部署和稳定运行; 6、使用Terraform管理多云环境,确保基础设施的一致性和可重复性。
1、设计、实施和维护高可用、高性能的豆包大模型服务架构; 2、使用Terraform和其他IaC工具管理和自动化云基础设施部署; 3、开发和优化自动化运维工具,提高模型部署效率和系统可靠性; 4、优化大规模分布式模型训练和推理的基础设施; 5、与AI研究团队密切合作,确保新模型和功能的顺利部署和稳定运行; 6、使用Terraform管理多云环境,确保基础设施的一致性和可重复性。
1、负责火山引擎大模型训练和推理系统的研发与性能优化,包括但不限于:模型计算性能优化、千卡训练集群调优、分布式大模型推理系统、大规模推理流量调度等; 2、负责解决系统高并发、高可靠性、高可扩展性等技术难关,支撑火山引擎千亿级别的日均Token训练推理流量; 3、负责大模型训练和推理前瞻性技术架构的调研和引入,技术方案不限于子图匹配、编译优化、模型量化等; 4、负责异构硬件的引入与训练推理框架的集成,包括但不限于GPU、NPU、TPU 等; 5、面向全球多地域超大规模GPU算力集群,通过弹性调度、GPU超卖、任务编排等方式不断提升算力利用率; 6、与算法部门深度合作,进行算法与系统的联合优化。
1、负责火山引擎大模型训练和推理系统的研发与性能优化,包括但不限于:模型计算性能优化、千卡训练集群调优、分布式大模型推理系统、大规模推理流量调度等; 2、负责解决系统高并发、高可靠性、高可扩展性等技术难关,支撑火山引擎千亿级别的日均Token训练推理流量; 3、负责大模型训练和推理前瞻性技术架构的调研和引入,技术方案不限于子图匹配、编译优化、模型量化等; 4、负责异构硬件的引入与训练推理框架的集成,包括但不限于GPU、NPU、TPU等; 5、面向全球多地域超大规模GPU算力集群,通过弹性调度、GPU超卖、任务编排等方式不断提升算力利用率; 6、与算法部门深度合作,进行算法与系统的联合优化。