快手大数据开发实习生(业务中台)-【商业化】
任职要求
1、本科及以上学历,计算机、数学、统计、数据科学、大数据技术等相关专业; 2、有较强的动手能力和学习能力,熟悉一门数据处理语言,如SQL、Java、Python等; 3、有较强的逻辑思维、解决问题的能力,…
工作职责
1、参与快手大数据体系的设计与建设,通过数据仓库、元数据、数据管理等体系,管理和建设几千P的数据; 2、参与商业化业务数据专题体系的建设,通过对数据的建设和应用理解,支持各类的业务管理决策和业务运营,结合自己的商业sense,发掘数据的业务价值; 3、有很好的团队氛围,徜徉在世界领先的大数据处理和应用技术的海洋中。
日常实习:面向全体在校生,为符合岗位要求的同学提供为期3个月及以上的项目实践机会。 团队介绍:智能创作团队是字节跳动的创作场景业务中台,以AI赋能创造,致力于通过AI技术降低创作门槛,赋能视觉内容生产与创作的智能化升级。团队深度支持抖音、剪映、即梦、豆包、商业化等多个业务线,持续深耕图片与视频生成、智能剪辑、数字人、特效等多个业务场景,通过由AI驱动的智能化工具与算法,为用户提供了更智能、更便捷、更丰富的创作体验,助力普通用户轻松实现高质量内容创作,同时为专业创作者提供强大的技术支持,推动内容生态的繁荣与创新。 1、负责智能创作AI平台大模型规模化训练数据自动化处理全流程相关开发工作,包括但不限于数据搜集、预处理、打标、入库、检索等; 2、负责构建针对不同场景、不同数据类型、不同数据规模有足够的扩展性的数据处理技术链路和框架,以支撑大模型数据集持续高效迭代,实现高质量数据集沉淀; 3、负责数据生成和数据增强,利用大模型工具生成来扩充和完善数据集。
ByteIntern:面向2027届毕业生(2026年9月-2027年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:数据平台是字节跳动数据中台部门,为公司多业务线(包括抖音、电商、直播和生活服务等)提供一站式大数据解决方案,涵盖数据的生产、清洗、传输、建模、分析等全流程链路,提供数据开发、实验评估、画像标签、增强分析等多元场景解决能力。同时,数据平台部门也致力于把字节跳动积累沉淀的数据中台解决方案做商业化输出,让更多行业能够应用我们的产品能力构建自己的数据中台。在火山引擎上,我们提供了营销增长套件,数据中台等相关产品解决方案,为泛互联网、金融、汽车、新零售等行业提供了行业解决方案。 1、参与字节跳动各业务线的数据建设工作; 2、面向PB级超大规模数据问题,每天处理千亿增量的用户行为数据; 3、为大数据的全生命周期提供服务,覆盖数据产生、传输、建模、统计分析、实验评估、可视化的全流程; 4、构建设计良好的数据流、数据仓库、调度系统、查询引擎、数据服务、分析系统、流程规范及数据工具/产品,降低数据的使用门槛,保证系统稳定高效运行,以实现数据的最大价值。
ByteIntern:面向2027届毕业生(2026年9月-2027年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:数据平台是字节跳动数据中台部门,为公司多业务线(包括抖音、电商、直播和生活服务等)提供一站式大数据解决方案,涵盖数据的生产、清洗、传输、建模、分析等全流程链路,提供数据开发、实验评估、画像标签、增强分析等多元场景解决能力。同时,数据平台部门也致力于把字节跳动积累沉淀的数据中台解决方案做商业化输出,让更多行业能够应用我们的产品能力构建自己的数据中台。在火山引擎上,我们提供了营销增长套件,数据中台等相关产品解决方案,为泛互联网、金融、汽车、新零售等行业提供了行业解决方案。 1、参与字节跳动各业务线的数据建设工作; 2、面向PB级超大规模数据问题,每天处理千亿增量的用户行为数据; 3、为大数据的全生命周期提供服务,覆盖数据产生、传输、建模、统计分析、实验评估、可视化的全流程; 4、构建设计良好的数据流、数据仓库、调度系统、查询引擎、数据服务、分析系统、流程规范及数据工具/产品,降低数据的使用门槛,保证系统稳定高效运行,以实现数据的最大价值。
ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:数据平台是字节跳动数据中台部门,横向支持公司多业务线(包括抖音、电商、直播和生活服务等)提供一站式大数据解决方案,涵盖数据的生产、清洗、传输、建模、分析等全流程链路,提供数据开发、实验评估、画像标签、增强分析等多元场景解决能力。同时,数据平台部门也在致力于把字节跳动积累沉淀的数据中台解决方案做商业化输出,让更多行业能够应用我们的产品能力构建自己的数据中台。在火山引擎上,我们提供了营销增长套件,数据中台等相关产品解决方案,为泛互联网、金融、汽车、新零售等行业提供了行业解决方案。 1、打造业界PB级OLAP引擎,支撑字节跳动主要产品线(如抖音、今日头条)的ETL、湖仓分析场景等; 2、参与以Spark、Doris、Presto等为代表的大数据引擎内核优化; 3、打造基于高并发大流量业务场景的大数据查询服务、任务调度系统、异构数据湖统一元数据服务及权限管理服务的设计和研发; 4、参与字节跳动数据引擎的架构设计、业务场景支持、性能优化与降本、稳定性提升。