字节跳动后端研发实习生(风控合规方向)-国际支付
任职要求
1、2027届本科及以上学历在读,计算机相关专业优先; 2、热爱计算机科学和互联网技术,精通至少一门编程语言,包括但不仅限于:Java、C、C++、PHP、Python、Go;…
工作职责
ByteIntern:面向2027届毕业生(2026年9月-2027年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:国际支付,立足于为字节跳动国际化业务提供专业的支付和金融服务,专注于全球支付产品线的质量和效率,确保为国际产品提供高度可靠和稳定的服务,建立国际支付产品和能力,同时在高效助力业务快速拓展的同时,打造行业领先的支付和金融产品能力。团队当前所提供的产品和服务,遍布全球多个国家和地区,团队拥有丰富的国际化产品研发经验;同时这里有全球超大规模的支付网络;覆盖多业务场景的海外钱包及金融产品解决方案;围绕分布式一致性、高并发、高可用、资金安全在内的核心技术能力攻坚;LLM等前沿AI技术在支付&金融服务中的探索、研发和应用。另外,我们在全球设立团队,团队同学背景多元,不同的思维方式,打造了一个多元、碰撞、融合、包容的工作环境。我们邀请你来此成长、专研,发掘无限的潜力,一起应对技术和业务以及跨国合作上的挑战,还有跨文化交流机会在等你! 1、负责字节跳动国际支付业务的后端开发工作,结合LLM等前沿AI技术,优化支付业务流程、提升开发效率,参与AI在支付场景落地的后端支撑开发,助力AI技术与支付业务深度融合; 2、负责架构设计和开发,结合AI技术能力优化架构方案,探索AI在架构优化、系统自愈等方面的应用,提升系统稳定性与智能化水平; 3、负责在线大流量高并发系统设计和性能调优,运用AI相关技术(如智能监控、异常预测模型)辅助系统性能分析、瓶颈定位,优化系统响应速度,保障高并发场景下的AI辅助决策能力稳定输出; 4、参与各专项技术调研,新技术引入等前瞻项目,重点关注AI技术(LLM、智能合规、智能风控等)在支付&金融服务领域的应用调研与落地探索,推动AI相关新技术在团队业务中的落地实践。
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 1、参与设计实现支持RLHF/DPO等对齐技术的高效训练框架,优化强化学习阶段的Rollout、Reward Model集成、多阶段训练 Pipline; 2、研发支持多机多卡 RL 的分布式训练框架,开发TP/PP/ZeRO-3与RL流程的动态协同机制,解决 RL 算法在超长时序下的显存/通信瓶刭 3、构建端到端后训练工具链,主导框架与 MLOps 平台集成,提供训练可视化、自动超参搜索等生产级能力 4、与公司各算法部门深度合作,参与大语言模型LLM、多模态大模型 MLLM等业务在 SFT/RL领域的算法探索和引擎迭代; 5、参与分析各业务 GPU 利用率与饱和度等指标,结合业务场景持续优化训练框架能力,提升框架领先性。
中台稠密引擎组,是小红书负责建设通用深度学习训练推理引擎的团队,面向全公司LLM、多模态LLM、SD、传统CV&NLP等稠密计算型模型训练与推理的业务场景,打造高效、易用、业界领先的训练与推理引擎,为小红书社区、商业化、安全等众多业务方向提供先进的引擎能力,支撑业务持续提升训练推理效率、模型迭代效率与算法研发效率。 1、参与设计和实现深度学习后训练及微调的前沿算法(包括但不限于RFT、RLHF等),以适应多样化的业务场景; 2、结合业务数据和场景,评估选择最适合的微调算法,以支撑业务大语言模型(LLM)微调指标的提升; 3、与数据团队紧密合作,深入理解数据特性,参与设计实现数据提质算法引擎工具,产出高质量数据集提升模型微调效果; 4、与公司内各算法团队深度合作,参与或负责大语言模型、多模态大模型等业务场景的后训练端到端效果提升及落地; 5、密切关注业界 LLM 微调算法和数据提质领域的前沿论文,并整合新技术和算法到训练引擎中,提升框架的领先性;
1、负责模型训练平台核心功能开发和架构设计,包括传统CN/NLP/SD/LLM等多场景支持 2、负责大模型后训练工具平台化建设,包括后预训练、微调、对齐等技术落地 3、设计和实现高性能分布式训练系统,打造端到端训练解决方案 4、优化训练调度和资源管理,提升集群利用率和训练效率 5、开发模型训练监控诊断工具,建设可观测性体系