字节跳动计算语言学专家-Data语音
任职要求
1、计算语言学、语言学、汉语言文学、翻译、小语种等相关专业,硕士或博士研究生学历优先;
2、中文基础扎实,语感良好,情绪感知力强,对语音敏感;
3、英文能力良好者(专八…工作职责
1、深入参与语音大模型/翻译大模型的构建,搭建具有通用性和扩展性的大模型数据生产、评测体系; 2、深度配合算法、产品团队进行NLP/ASR/翻译方向自研探索和业务落地; 3、培训和管理标注团队,进行数据质检,交付高质量数据; 4、为字节跳动产品提供语言学专业支持,用AI技术影响数亿用户。
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 工作职责: 1、参与/负责研发面向大语言模型(LLM)/多模态大模型(MLLM)等类型模型的推理服务框架; 2、参与/负责KV Router、PD分离/EPD分离、KVCache管理、动态PD调整等分布式推理能力建设; 3、通过并行计算优化、分布式架构优化、异构调度等多种框架技术,打造高效、易用、领先的AI推理框架; 4、参与/负责构建推理框架的系统容错能力,包括但不限于请求迁移、优雅退出、故障检测、自愈等能力建设; 5、深度参与周边深度学习系统多个子方向的工作,包括但不限于模型管理、推理部署、日志/监控、工作流编排等; 6、与全公司各业务算法部门深度合作,为重点项目进行算法与系统的联合优化,支撑业务目标达成。
【业务介绍】 我们是小红书内稠密类模型(LLM/MLLM/SD/CV/NLP)统一的AI平台QuickSilver,负责调度公司内所有稠密类模型训练与推理资源,基于自建的训推引擎,为公司所有AI算法同学迭代业务模型提供端到端一站式AI服务;包括数据管理,模型管理,模型训练、压缩、推理、部署,服务管理,资源调度等一系列能力。 工作职责: 1、负责稠密类模型训练推理开发平台的架构设计和核心功能研发 2、设计和实现大模型训练部署流程,包括模型fine-tuning、推理服务化等 3、构建云原生架构,设计高可用、高性能的微服务体系 4、优化平台性能,提升系统稳定性和可扩展性
【职位介绍】 我们团队负责构建小红书推荐算法中台,提高内容分发效率,为海量用户提供极致的推荐体验。在这里,你将参与到推荐系统的全链路搭建和各类算法的研发,包括不限于大模型应用、多模态建模、深度学习、强化学习、迁移学习、表示学习、图学习等领域。我们希望对推荐、搜索、广告感兴趣的同学,加入我们一起研发世界一流的推荐引擎。 1. 负责推荐算法中台的全链路建设,抽象业务共性,敏捷高效支持各类推荐需求。 2. 负责业界先进推荐算法的研发和落地,包括但不限于大模型技术、多模态内容理解、召回算法、排序模型(粗精排)、长短期兴趣建模、多场景联合建模等。
中台稠密引擎组,是小红书负责建设通用深度学习训练推理引擎的团队,面向全公司LLM、多模态LLM、SD、传统CV&NLP等稠密计算型模型训练与推理的业务场景,打造高效、易用、业界领先的训练与推理引擎,为小红书社区、商业化、安全等众多业务方向提供先进的引擎能力,支撑业务持续提升训练推理效率、模型迭代效率与算法研发效率。 1、参与设计和实现深度学习后训练及微调的前沿算法(包括但不限于RFT、RLHF等),以适应多样化的业务场景; 2、结合业务数据和场景,评估选择最适合的微调算法,以支撑业务大语言模型(LLM)微调指标的提升; 3、与数据团队紧密合作,深入理解数据特性,参与设计实现数据提质算法引擎工具,产出高质量数据集提升模型微调效果; 4、与公司内各算法团队深度合作,参与或负责大语言模型、多模态大模型等业务场景的后训练端到端效果提升及落地; 5、密切关注业界 LLM 微调算法和数据提质领域的前沿论文,并整合新技术和算法到训练引擎中,提升框架的领先性;