字节跳动大模型算法实习生(代码智能方向)-用户增长(User Growth)
任职要求
1、2026届本科及以上学历在读,计算机相关专业优先; 2、熟悉深度学习和大模型推理技术有基本了解,愿意在训练和测试阶段的各类推理强化技术上深入学习; 3、对Agentic工作流和多智能体系统有兴趣,愿意学…
工作职责
ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:字节跳动用户增长(User Growth)负责抖音、今日头条、番茄小说、剪映等多个产品的用户增长业务,建立行业领先的增长和营销技术,打造极致的用户体验。加入我们,有机会参与亿级用户场景的开发与架构工作,也有机会从数据出发,利用策略和模型为业务带来更大的助力。 1、协助团队探索和实现抖音垂直业务场景的代码自动生成; 2、参与基于公司内部和外部开源模型的项目,帮助提升代码模型的准确性和效率; 3、学习并跟踪大型语言模型(LLM)的前沿技术,协助应用于研发效率提升的任务中。
ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:字节跳动用户增长(User Growth)负责抖音、今日头条、番茄小说、剪映等多个产品的用户增长业务,建立行业领先的增长和营销技术,打造极致的用户体验。加入我们,有机会参与亿级用户场景的开发与架构工作,也有机会从数据出发,利用策略和模型为业务带来更大的助力。 1、协助团队探索和实现抖音垂直业务场景的代码自动生成; 2、参与基于公司内部和外部开源模型的项目,帮助提升代码模型的准确性和效率; 3、学习并跟踪大型语言模型(LLM)的前沿技术,协助应用于研发效率提升的任务中。
团队介绍:TikTok是一个覆盖150个国家和地区的国际短视频平台,我们希望通过TikTok发现真实、有趣的瞬间,让生活更美好。TikTok 在全球各地设有办公室,全球总部位于洛杉矶和新加坡,办公地点还包括纽约、伦敦、都柏林、巴黎、柏林、迪拜、雅加达、首尔和东京等多个城市。 TikTok研发团队,旨在实现TikTok业务的研发工作,搭建及维护业界领先的产品。加入我们,你能接触到包括用户增长、社交、直播、电商C端、内容创造、内容消费等核心业务场景,支持产品在全球赛道上高速发展;也能接触到包括服务架构、基础技术等方向上的技术挑战,保障业务持续高质量、高效率、且安全地为用户服务;同时还能为不同业务场景提供全面的技术解决方案,优化各项产品指标及用户体验。 在这里, 有大牛带队与大家一同不断探索前沿, 突破想象空间。 在这里,你的每一行代码都将服务亿万用户。在这里,团队专业且纯粹,合作氛围平等且轻松。目前在北京,上海,杭州、广州、深圳分别开放多个岗位机会。 课题介绍:TikTok作为全球领先的短视频平台,面临新用户数据稀疏导致的个性化推荐不足、直播推荐时效性要求高、用户兴趣多样性维护困难以及电商推荐系统链路复杂等多重挑战。传统推荐方法依赖历史行为建模,难以解决新用户冷启动问题,且直播推荐需在极短窗口期内(通常30分钟内)实时捕捉内容动态变化(如主播互动、流量波动),这对系统的实时感知与快速决策能力提出更高要求。此外,单列沉浸式场景放大了多样性问题,需平衡多峰兴趣学习与探索引发的内容穿越风险。当前电商推荐系统采用多阶段漏斗架构(召回-排序-混排),存在链路不一致、维护成本高、过度依赖短期价值预测等问题,导致用户易陷入内容同质化疲劳。 针对上述痛点,项目提出结合大语言模型(LLM)和大模型技术实现突破:一方面利用LLM的海量知识储备与Few-shot推理能力,通过注册信息与外部知识推理新用户潜在意图,缓解冷启动问题;另一方面,在社交偏好建模中融合GNN与用户全生命周期行为序列,提升兴趣预测精准度。同时,探索大模型的泛化能力、长上下文感知及端到端建模优势,简化电商推荐链路,增强实时动态适应性与兴趣探索能力,最终实现系统更简洁、推荐更精准、用户体验与留存双提升的目标,推动业务可持续增长。 1、负责TikTok的推荐算法工作,包括但不限于:视频推荐、内容理解、因果推断、智能增长等,为用户提供领先的产品体验; 2、结合机器学习技术和业务场景需求,运用包括强化学习、Graph Embedding、大模型、大规模计算等在内的前沿建模技能,解决业务痛点,提升线上效果; 3、与产品及运营团队紧密合作,对用户的行为进行深入理解和分析,制定合理高效的策略逻辑,促进生态的健康发展; 4、参与算法团队的基建工作,提升资源利用率、增强效果稳定性、优化开发流程等,持续提高团队成员的工作效率。
团队介绍:TikTok是一个覆盖150个国家和地区的国际短视频平台,我们希望通过TikTok发现真实、有趣的瞬间,让生活更美好。TikTok 在全球各地设有办公室,全球总部位于洛杉矶和新加坡,办公地点还包括纽约、伦敦、都柏林、巴黎、柏林、迪拜、雅加达、首尔和东京等多个城市。 TikTok研发团队,旨在实现TikTok业务的研发工作,搭建及维护业界领先的产品。加入我们,你能接触到包括用户增长、社交、直播、电商C端、内容创造、内容消费等核心业务场景,支持产品在全球赛道上高速发展;也能接触到包括服务架构、基础技术等方向上的技术挑战,保障业务持续高质量、高效率、且安全地为用户服务;同时还能为不同业务场景提供全面的技术解决方案,优化各项产品指标及用户体验。 在这里, 有大牛带队与大家一同不断探索前沿, 突破想象空间。 在这里,你的每一行代码都将服务亿万用户。在这里,团队专业且纯粹,合作氛围平等且轻松。目前在北京,上海,杭州、广州、深圳分别开放多个岗位机会。 为什么加入我们 与团队共同激发创造:创造是 TikTok的核心。不管对于TikTok产品还是团队本身,我们都希望能激发更多想象力,为自己、平台、我们所服务的社区以及社会带来更多价值和影响。 在有挑战的事中成长:在TikTok,你能够参与非常有挑战性的项目,一起做出突破行业、有全球影响力的事。这里有数以亿计的用户,在等你用新技术、新想法为他们带来新的体验。我们从不安于现状,对我们来说,每一个挑战,无论多么困难,都是一个学习、创新、和成长的机会。 工作方式和文化:我们鼓励务实解决实际问题、在每件事上追求极致,希望大家始终像“创业第一天”那样做事。 公司文化多元兼容,同事之间像同学一样平等相处,机制敏捷灵活,希望更好地激发每个人的创造力。 优秀的人能获得认可与回报:优秀人才能够和公司共同成长,什么时候加入都不晚。我们也进一步加大了激励区分度,让优秀的人得到认可和回报、承担更多重要项目,充分发挥潜能,脱颖而出。 欢迎加入我们! 课题介绍: TikTok作为全球领先的短视频平台,面临新用户数据稀疏导致的个性化推荐不足、直播推荐时效性要求高、用户兴趣多样性维护困难以及电商推荐系统链路复杂等多重挑战。传统推荐方法依赖历史行为建模,难以解决新用户冷启动问题,且直播推荐需在极短窗口期内(通常30分钟内)实时捕捉内容动态变化(如主播互动、流量波动),这对系统的实时感知与快速决策能力提出更高要求。此外,单列沉浸式场景放大了多样性问题,需平衡多峰兴趣学习与探索引发的内容穿越风险。当前电商推荐系统采用多阶段漏斗架构(召回-排序-混排),存在链路不一致、维护成本高、过度依赖短期价值预测等问题,导致用户易陷入内容同质化疲劳。 针对上述痛点,项目提出结合大语言模型(LLM)和大模型技术实现突破:一方面利用LLM的海量知识储备与Few-shot推理能力,通过注册信息与外部知识推理新用户潜在意图,缓解冷启动问题;另一方面,在社交偏好建模中融合GNN与用户全生命周期行为序列,提升兴趣预测精准度。同时,探索大模型的泛化能力、长上下文感知及端到端建模优势,简化电商推荐链路,增强实时动态适应性与兴趣探索能力,最终实现系统更简洁、推荐更精准、用户体验与留存双提升的目标,推动业务可持续增长。 1、负责TikTok最核心的业务推荐算法工作,与来自国内外顶级名校、有丰富业界经验的同学合作,共同搭建行业顶尖的推荐系统,为用户提供一流的产品体验; 2、将最前沿的机器学习技术应用到国际化短视频的核心场景业务,包括混排/排序/多目标/召回/冷启动/探索/多样性/内容理解等等场景,不断优化用户体验,促进业务发展; 3、研究方向包含且不局限于:深度学习、图神经网络、多任务学习、排序学习、模型压缩和加速、多模态技术等,结合业务的实际问题来做好技术的探索和研究; 4、和产品、运营团队紧密合作,通过对产品和用户的深入理解和分析,制定算法策略促进短视频生态的长期繁荣发展。
团队介绍:字节跳动基础架构团队主要负责公司云基础建设,支撑着字节跳动旗下多款APP产品,如抖音、今日头条、番茄小说、西瓜视频、飞书、剪映等,同时也负责支持火山引擎公有云业务。迄今为止,我们通过云技术管理着百万量级的服务器构成的超大数据中心;我们通过字节深度优化的Kubernetes管理超过千万容器实例支持10万+微服务;我们还通过丰富的存储产品矩阵,如NewSQL、NoSQL、云存储等治理EB级的数据资产;我们积极拥抱开源和创新的软硬件架构,致力于构建业界领先的云基础设施,为整个公司的业务和客户发展保驾护航。我们热切期待对技术有追求、对大型系统有深刻见解的同学加入基础架构团队一起构建基础设施系统。 课题介绍: 课题背景: 在大语言模型蓬勃发展的当下,本课题聚焦于智能云基础设施与数据处理关键技术的多维度研究,旨在全面提升云服务在 AI 场景下的综合性能与效率。 课题挑战: 1、新一代搜索型数据库:当前产业界广泛应用的ElasticSearch面临数据与用户需求的深刻变革。需实现语义检索升级,突破关键词匹配限制,以满足学术研究等领域对语义理解和精准检索的要求;具备处理和融合多模态数据的能力,应对互联网图像、音视频多模态数据的爆发式增长;优化检索过程,更好地支持检索增强生成(RAG)技术,为语言模型提供优质信息;同时,需应对各行业海量数据存储检索压力,提升搜索实时性与跨语言能力; 2、面向LLM的下一代智能云基础架构:一方面,自动化和智能化管理基础架构各系统生命周期,深度融合人工智能与基础架构关键系统,建设大规模LLM for Infra 服务;另一方面,针对新涌现的LLM应用场景,在基础架构各个领域进行前沿技术创新,与字节工程团队合作,设计和开发高性价比且简单易用的下一代大模型基础架构,为火山引擎奠定技术与业务增长基础; 3、面向 AI 场景的serverless高性能弹性文件系统关键技术研究:大模型时代数据量爆炸式增长,当前文件系统多采用中心化元数据架构,难以水平扩展,限制文件系统规模及元数据性能。本研究将围绕元数据扩展性、与大模型深度结合提供Data Insight、设计高性能元数据单机引擎、实现任意目录快照、融合文件系统和对象存储元数据、内存加速、提供QoS(性能租户隔离和目录隔离)、故障处理(故障域隔离和故障无损)以及研发高性能客户端(用户态文件协议和DPU卸载)等关键技术展开; 4、面向大规模AI集群的高速通信和稳定性优化:随着大模型训练/推理业务规模增长,底层高速网络面临挑战。一方面,需解决GPU服务器硬件资源利用率偏低问题,包括充分利用CPU和内存空闲资源,以及研发计算通信融合的高性能集合通信库,实现通信算子与计算任务的深度融合;另一方面,在稳定性方面,提升故障快速发现和根因定位能力,解决网络吞吐不达预期等典型故障。