字节跳动GPU/异构计算硬件选型与应用工程师
任职要求
1、电气工程、计算机工程、计算机科学或相关专业硕士研究生及以上学历; 2、5年以上GPU/AI平台架构和/或应用性能优化设计或平台评测经验; 3、熟悉GPU/AI平台系统评测、性能分析、性能调优的技术与方法; 4、对计算…
工作职责
1、GPU/异构计算(FPGA/ASIC)部件的选型路标计划的制定、评测、引入和交付落地; 2、负责GPU/异构计算机型在与机器学习/AI等业务的适配与性能调优; 3、负责GPU/异构计算服务器的性能评测和稳定性调优,分析和优化系统性能瓶颈; 4、跟进GPU/异构计算故障在数据中心的监控、诊断与处理; 5、与行业联盟和开放标准委员会合作,参与新兴技术研究和新标准的定制。
1、GPU/异构计算(FPGA/ASIC)部件的选型路标计划的制定、评测、引入和交付落地; 2、负责GPU/异构计算机型在与机器学习/AI等业务的适配与性能调优; 3、负责GPU/异构计算服务器的性能评测和稳定性调优,分析和优化系统性能瓶颈; 4、跟进GPU/异构计算故障在数据中心的监控、诊断与处理; 5、与行业联盟和开放标准委员会合作,参与新兴技术研究和新标准的定制。
一、软件技术规划专家 — OS方向 主导智能手机操作系统(OS)的技术规划与架构演进,构建高性能、安全可靠、体验领先的OS技术底座,并推动跨终端OS生态协同,支撑公司终端产品全球竞争力提升: 1、OS技术战略规划:洞察全球操作系统技术趋势(Android/AOSP/Linux/RTOS/微内核等),制定3-5年OS技术路线图,定义关键子系统核心技术竞争力(如内核调度、安全架构、跨端互联、分布式多媒体、图形、AI等子系统) 2、OS-软硬协同规划:联合芯片团队,主导OS对新型硬件能力(CPU/NPU/GPU)的底层支持与性能调优规划;设计硬件抽象层(HAL)标准化方案,降低多芯片平台、多OS形态适配与维护成本 3、跨端OS技术整合:设计手机与IoT/车机/XR设备的OS协同架构(分布式软总线、多端任务迁移);主导跨端安全互联协议、数据互通框架、跨端AI等技术等标准化 4、OS逆向工程分析:主导OS核心架构及各子系统逆向工程分析(iOS、Android、RTOS、Linux等),详细拆解关键OS子系统能力,为OS技术规划提供技术竞争参考 二、软件技术规划与合作专家 — 芯片方向 负责智能手机芯片平台的前沿技术规划、软件生态合作及跨部门技术协同,推动芯片与系统软件的深度整合,打造高性能、低功耗、差异化的终端产品竞争力: 1、技术趋势洞察与规划:跟踪全球芯片技术(SoC/AP/ISP/NPU等)发展趋势,分析其对智能手机软件架构的影响;主导芯片平台的软件技术路线图制定,定义关键能力(如AI算力调度、能效优化、异构计算等) 2、芯片-软件协同设计:深度参与芯片选型与定义,确保硬件特性与系统层(驱动/Kernel/框架)的协同优化;推动芯片厂商(如高通、联发科、自研芯片团队)与内部软件团队的联合技术攻关 3、生态合作与资源整合:建立并维护与芯片厂商、IP供应商的战略合作关系,主导技术合作项目落地;整合芯片层能力(如AI引擎、安全模块、图像处理单元)至上层应用生态 4、技术竞争力构建:主导芯片平台性能、能效、稳定性等核心指标的软件优化方案,形成技术壁垒;探索创新场景(如端侧大模型、实时渲染、传感器融合)的芯片-软件协同方案 5、跨部门协同与赋能:联动硬件研发、系统开发、产品规划团队,确保技术规划与产品需求对齐;输出芯片技术白皮书、开发者指南,赋能内部团队及生态合作伙伴
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 1、参与设计实现支持RLHF/DPO等对齐技术的高效训练框架,优化强化学习阶段的Rollout、Reward Model集成、多阶段训练 Pipline; 2、研发支持多机多卡 RL 的分布式训练框架,开发TP/PP/ZeRO-3与RL流程的动态协同机制,解决 RL 算法在超长时序下的显存/通信瓶刭 3、构建端到端后训练工具链,主导框架与 MLOps 平台集成,提供训练可视化、自动超参搜索等生产级能力 4、与公司各算法部门深度合作,参与大语言模型LLM、多模态大模型 MLLM等业务在 SFT/RL领域的算法探索和引擎迭代; 5、参与分析各业务 GPU 利用率与饱和度等指标,结合业务场景持续优化训练框架能力,提升框架领先性。
大模型具备很强的泛化及理解世界能力,在小红书内的众多生产场景遍地开花,大模型的训练和部署已成为许多算法工程师的日常。在多团队、多业务频繁使用的大规模GPU集群上,如何能够通过高效的GPU调度策略,使大家不仅能丝滑地完成训练及部署任务,同时也能充分激发大规模GPU集群的效能,是行业公认的关键挑战。在这里,你可以聚焦LLM场景,接触到超大规模GPU集群,并使用真实负载数据进行深入分析及技术探索。欢迎加入我们,一起探索领先技术改变世界! 工作职责: 1、负责万卡规模GPU集群效能分析及优化,通过调度策略优化、在离线混部、集群调度、GPU虚拟化、故障快速恢复、存储&网络加速等手段,提升大规模GPU集群的整体使用效率。 2、负责构建面向大模型训练、微调、推理、部署全流程LLMOps,与下游云原生平台深度融合,支撑大模型在公司内各业务生产链路稳定高效地落地。 3、持续关注业界最新的GPU资源调度相关技术动态,探索建设业界领先的资源调度策略及方法,构建下一代大规模AI资源调度系统。