字节跳动新加坡Lifestyle行业达人运营-国际电商
任职要求
1、对直播电商有丰富经验,具备达人运营或MCN工作经验,具有商品选品和撮合能力; 2、具备敏锐商业判断力与独立思考能力,能够从数据中发现并解决问题,学习能力强,能快速适应市场变化; 3、具有…
工作职责
1、负责搭建Lifestyle行业达人矩阵,包括站内达人的挖掘与孵化及站外达人的招募,不断扩大行业合作达人池,建立达人成长路径,打造健康的达人生态; 2、精准挖掘Lifestyle行业达人发展痛点并定位增长点,设计达人激励体系,制定阶段性达人发展策略,不断优化达人运营模式,推动模式创新; 3、人货撮合,对选品有较好理解,通过对优质货品、商家和达人的撮合,实现商家和达人共同成长; 4、通过跨团队协作,策划并落地多元行业达人活动,完成Lifestyle联盟渗透各项指标; 5、熟悉内部的达人管理工具及相关数据分析方法。
团队介绍:TikTok是一个覆盖150个国家和地区的国际短视频平台,我们希望通过TikTok发现真实、有趣的瞬间,让生活更美好。TikTok 在全球各地设有办公室,全球总部位于洛杉矶和新加坡,办公地点还包括纽约、伦敦、都柏林、巴黎、柏林、迪拜、雅加达、首尔和东京等多个城市。 TikTok研发团队,旨在实现TikTok业务的研发工作,搭建及维护业界领先的产品。加入我们,你能接触到包括用户增长、社交、直播、电商C端、内容创造、内容消费等核心业务场景,支持产品在全球赛道上高速发展;也能接触到包括服务架构、基础技术等方向上的技术挑战,保障业务持续高质量、高效率、且安全地为用户服务;同时还能为不同业务场景提供全面的技术解决方案,优化各项产品指标及用户体验。 在这里, 有大牛带队与大家一同不断探索前沿, 突破想象空间。 在这里,你的每一行代码都将服务亿万用户。在这里,团队专业且纯粹,合作氛围平等且轻松。目前在北京,上海,杭州、广州、深圳分别开放多个岗位机会。 1、与TikTok产品工程团队合作,构建新产品,并增强现有产品,以满足业务需求; 2、理解、应用和使用TikTok的产品和创新技术,与合作伙伴一起识别、开发和最大化新的和现有的商业前景; 3、与客户合作伙伴团队建立密切的合作伙伴关系,以识别潜在的商业机会并支持他们实现业务目标; 4、设计和建立端到端系统和启动计划战略;与跨职能团队合作,启动生产级代码,重点是长期可运维性和可扩展性,以及适用的留档和测试计划; 5、将跨职能合作伙伴与项目完成目标对齐;与内部和外部利益相关者建立和培养关系;使用数据通过展示业务价值和影响来影响决策。
团队介绍:TikTok是一个覆盖150个国家和地区的国际短视频平台,我们希望通过TikTok发现真实、有趣的瞬间,让生活更美好。TikTok 在全球各地设有办公室,全球总部位于洛杉矶和新加坡,办公地点还包括纽约、伦敦、都柏林、巴黎、柏林、迪拜、雅加达、首尔和东京等多个城市。 TikTok智能创作团队是为TikTok业务提供AI,特效,音视频创作技术能力,涵盖了计算机视觉、图形学、拍摄编辑、特效、客户端、服务端工程等技术领域,并以多种形式向抖音提提供业界前沿的内容理解、内容创作、互动体验与消费的能力和行业解决方案。 1、负责智能创作业务的质量体系建设,能够结合业务发展和挑战,质量风险进行针对性治理,能够敏锐识别Top质量风险和效率瓶颈,研究有效解决方案并推动落地; 2、对业务和系统架构细节逻辑掌握清晰,实际参与部分项目的测试执行,并深入掌握整体项目流程规范、测试技术以及相关平台和工具,能够指导团队新成员快速上手; 3、负责项目全生命周期全过程的质量管理,包括质保方案和策略的制定、预案、风险识别、规避、项目流程标准化、准入准出质量标准管控、缺陷管理、复盘等; 4、负责团队招聘、目标设定、团队成员辅导等工作,能够与合作方深入配合,建立良好的合作关系和较强的信任感。
团队介绍:字节跳动豆包大模型团队成立于 2023 年,致力于开发业界最先进的 AI 大模型技术,成为世界一流的研究团队,为科技和社会发展作出贡献。 豆包大模型团队在AI领域拥有长期愿景与决心,研究方向涵盖NLP、CV、语音等,在中国、新加坡、美国等地设有实验室和研究岗位。团队依托平台充足的数据、计算等资源,在相关领域持续投入,已推出自研通用大模型,提供多模态能力,下游支持豆包、扣子、即梦等50+业务,并通过火山引擎开放给企业客户。目前,豆包APP已成为中国市场用户量最大的AIGC应用。 1、团队负责公司大模型的研发和应用,研究相关技术在搜索、推荐、广告、创作、对话和客服等领域的全新应用和解决方案,满足用户不断增长的智能交互需求,全面提升用户在未来世界的生活和交流方式;主要工作方向包括: 1)优化&创新RLHF算法训练效率与模型泛化能力; 2)Long CoT技术的实现和应用; 3)多模态大模型(文本、图像、语音)的Posttraining算法; 4)构建高质量、多领域的数据合成方法; 5)探索LLM在情感对话、创作等场景的应用。
团队介绍:字节跳动豆包大模型团队(Seed)成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限,并探索新的交互。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 豆包大模型团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、负责机器学习系统存储相关组件的设计和开发,服务于大模型推理的各业务场景(LLM/S2S/VLM/多模态等),包括模型分发加载、KV Cache存储和优化,数据IO性能优化,提高推理TTFT、TBT等核心性能指标; 2、负责设计和实现面向大模型推理的多层级存储系统,综合利用显存、本地内存、分布式内存/磁盘、远端大容量存储系统(HDFS/对象存储)等多种介质进行数据的存储和迁移管理,实现「近计算缓存+远端大容量存储」的一体化分级系统; 3、负责优化大模型KV Cache命中率,从推理框架,流量调度,多级缓存等多个系统纬度入手定制化优化策略;优化数据的读取性能,充分利用近计算侧的NVLink、RDMA高速网络、GPU Direct技术实现数据的高效传输;优化数据副本的存放策略,实现负载流量和存储数据的合理化分布; 4、负责设计和实现高效、易用的数据访问接口,实现和推理框架、引擎的无缝对接,管理KV Cache的生命周期; 5、负责Kubernetes场景下多级存储系统的接入、管理、运维、监控,确保稳定性; 6、负责多机房、多地域、多云场景的系统搭建和容灾,优化跨集群的数据摆放。