logo of bytedance

字节跳动测试开发工程师-国际化社区

校招全职A143252地点:上海状态:招聘

任职要求


1、2026届获得本科及以上学历,计算机、软件工程等相关专业优先;
2、热爱计算机科学和互联网技术,对质量保障工作有浓厚兴趣,熟悉测试理论和方法;
3、有扎实的计算机理论基础和代码编写能力,掌握至少一门编程语言,包括但不限于:Java/C/C++/Python/Go;
4、具备优秀的业务理解能力,逻辑思维灵活全面,良好的沟通协作能力,善于发现问题和解决问题。

工作职责


团队介绍:国际化社区研发团队,旨在建立面向海外的兴趣种草社区,以图集和视频为内容呈现形式,专注于美妆、时尚、美食、旅行、居家、健身、艺术、萌宠等内容领域,为用户提供有信息价值的优质内容。用户可以在这里发现新的想法,分享通往美好生活道路上的真实经历,共同打造精致、时尚的兴趣种草社区。 加入我们,从业务上你能接触到包括用户增长,社交,内容,消费等核心业务场景,从技术上也能够接触到包括基础技术,服务架构等方向上的挑战;会让你具备保障业务持续高质量高效率安全的为用户服务的能力的同时,还能具备为不同的业务场景提供全面的技术解决方案的能力,享受专业且纯粹的团队带来的工作乐趣和个人成长。

1、负责国际化短视频产品的测试开发工作;
2、深度参与产品研发全生命周期,协同产品经理、业务开发交付高质量产品,手段包括但不限于功能测试、自动化实施、性能测试、安全测试、专项测试、稳定性监控、流程改进等;
3、通过质量和效率数据分析,持续完善产品质量和用户体验;
4、通过工具或平台开发,提升研发效率,完善质量保障策略;
5、参与质量体系的规划和建设,参与自动化、无人值守、智能测试、故障演练等创新测试方法的实施。
包括英文材料
学历+
Java+
C+
C+++
Python+
Go+
相关职位

logo of bytedance
社招3年以上T4P2

1、负责国际化产品社区安全相关系统的质量保障工作,包括但不限于:规则引擎、策略平台、特征平台、风险感知、风险算法模型等; 2、建设社区安全系统的质量保障体系,保障系统的质量和稳定性、算法模型线上效果; 3、深入发掘和分析业务质量问题和线上风险,通过建设质量专项、工具平台保障产品线上质量; 4、对国际产品的内容安全流程提出改进建议以提升的用户安全体验,对项目提出改进建议以提高项目整体效率; 5、跨国家地区进行项目协同合作,高质量完成全球化项目交付。

更新于 2021-07-29
logo of bytedance
社招3年以上JEP22

1、负责国际化产品社区安全相关系统的质量保障工作,包括但不限于:规则引擎、策略平台、特征平台、风险感知、风险算法模型等; 2、建设社区安全系统的质量保障体系,保障系统的质量和稳定性、算法模型线上效果; 3、深入发掘和分析业务质量问题和线上风险,通过建设质量专项、工具平台保障产品线上质量; 4、对国际产品的内容安全流程提出改进建议以提升的用户安全体验,对项目提出改进建议以提高项目整体效率; 5、跨国家地区进行项目协同合作,高质量完成全球化项目交付。

更新于 2021-07-30
logo of bytedance
校招A07267

团队介绍:TikTok是一个覆盖150个国家和地区的国际短视频平台,我们希望通过TikTok发现真实、有趣的瞬间,让生活更美好。TikTok 在全球各地设有办公室,全球总部位于洛杉矶和新加坡,办公地点还包括纽约、伦敦、都柏林、巴黎、柏林、迪拜、雅加达、首尔和东京等多个城市。 TikTok业务风控团队站在国际化战略第一线,致力于保护TikTok的用户权益,包括但不限于内容消费者、创造者、商业客户等。我们通过搭建通用的高效风控系统、平台,提供端到端技术解决方案,确保平台健康与社区体验的真实性,为国际化业务风控保驾护航。 1、负责TikTok APP产品的测试开发工作; 2、深度参与产品研发全生命周期,协同产品经理、业务开发交付高质量产品,手段包括但不限于功能测试、自动化实施、性能测试、安全测试、专项测试、稳定性监控、流程改进等; 3、通过质量和效率数据分析,持续完善产品质量和用户体验; 4、通过工具或平台开发,提升研发效率,完善质量保障策略; 5、参与质量体系的规划和建设,参与自动化、无人值守、智能测试、故障演练等创新测试方法的实施。

更新于 2025-07-29
logo of bytedance
校招A238623

Team Introduction: TikTok Content Security Algorithm Research Team The International Content Safety Algorithm Research Team is dedicated to maintaining a safe and trustworthy environment for users of ByteDance's international products. We develop and iterate on machine learning models and information systems to identify risks earlier, respond to incidents faster, and monitor potential threats more effectively. The team also leads the development of foundational large models for products. In the R&D process, we tackle key challenges such as data compliance, model reasoning capability, and multilingual performance optimization. Our goal is to build secure, compliant, and high-performance models that empower various business scenarios across the platform, including content moderation, search, and recommendation. Research Project Background: In recent years, Large Language Models (LLMs) have achieved remarkable progress across various domains of natural language processing (NLP) and artificial intelligence. These models have demonstrated impressive capabilities in tasks such as language generation, question answering, and text translation. However, reasoning remains a key area for further improvement. Current approaches to enhancing reasoning abilities often rely on large amounts of Supervised Fine-Tuning (SFT) data. However, acquiring such high-quality SFT data is expensive and poses a significant barrier to scalable model development and deployment. To address this, OpenAI's o1 series of models have made progress by increasing the length of the Chain-of-Thought (CoT) reasoning process. While this technique has proven effective, how to efficiently scale this approach in practical testing remains an open question. Recent research has explored alternative methods such as Process-based Reward Model (PRM), Reinforcement Learning (RL), and Monte Carlo Tree Search (MCTS) to improve reasoning. However, these approaches still fall short of the general reasoning performance achieved by OpenAI's o1 series of models. Notably, the recent DeepSeek R1 paper suggests that pure RL methods can enable LLM to autonomously develop reasoning skills without relying on the expensive SFT data, revealing the substantial potential of RL in advancing LLM capabilities. 团队介绍: 国际化内容安全算法研究团队致力于为字节跳动国际化产品的用户维护安全可信赖环境,通过开发、迭代机器学习模型和信息系统以更早、更快发掘风险、监控风险、响应紧急事件,团队同时负责产品基座大模型的研发,我们在研发过程中需要解决数据合规、模型推理能力、多语种性能优化等方面的问题,从而为平台上的内容审核、搜索、推荐等多项业务提供安全合规,性能优越的基座模型。 课题介绍: 课题背景: 近年来,大规模语言模型(Large Language Models, LLM)在自然语言处理和人工智能的各个领域都取得了显著的进展。这些模型展示了强大的能力,例如在生成语言、回答问题、翻译文本等任务上表现优异。然而,LLM 的推理能力仍有很大的提升空间。在现有的研究中,通常依赖于大量的监督微调(Supervised Fine-Tuning, SFT)数据来增强模型的推理性能。然而,高质量 SFT 数据的获取成本高昂,这对模型的开发和应用带来了极大的限制。 为了提升推理能力,OpenAI 的 o1 系列模型通过增加思维链(Chain-of-Thought, CoT)的推理过程长度取得了一定的成功。这种方法虽然有效,但在实际测试时如何高效地进行扩展仍是一个开放的问题。一些研究尝试使用基于过程的奖励模型(Process-based Reward Model, PRM)、强化学习(Reinforcement Learning, RL)以及蒙特卡洛树搜索算法(Monte Carlo Tree Search, MCTS)等方法来解决推理问题,然而这些方法尚未能达到 OpenAI o1 系列模型的通用推理性能水平。最近deepseek r1在论文中提到通过纯强化学习的方法,可以使得 LLM 自主发展推理能力,而无需依赖昂贵的 SFT 数据。这一系列的工作都揭示着强化学习对LLM的巨大潜力。 课题挑战: 1、Reward模型的设计:在强化学习过程中,设计一个合适的reward模型是关键。Reward模型需要准确地反映推理过程的效果,并引导模型逐步提升其推理能力。这不仅要求对不同任务精准设定评估标准,还要确保reward模型能够在训练过程中动态调整,以适应模型性能的变化和提高。 2、稳定的训练过程:在缺乏高质量SFT数据的情况下,如何确保强化学习过程中的稳定训练是一个重大挑战。强化学习过程通常涉及大量的探索和试错,这可能导致训练不稳定甚至模型性能下降。需要开发具有鲁棒性的训练方法,以保证模型在训练过程中的稳定性和效果。 3、如何从数学和代码任务上拓展到自然语言任务上:现有的推理强化方法主要应用在数学和代码这些CoT数据量相对丰富的任务上。然而,自然语言任务的开放性和复杂性更高,如何将成功的RL策略从这些相对简单的任务拓展到自然语言处理任务上,要求对数据处理和RL方法进行深入的研究和创新,以实现跨任务的通用推理能力。 4、推理效率的提升:在保证推理性能的前提下,提升推理效率也是一个重要挑战。推理过程的效率直接影响到模型在实际应用中的可用性和经济性。可以考虑利用知识蒸馏技术,将复杂模型的知识传递给较小的模型,以减少计算资源消耗。另外,使用长思维链(Long Chain-of-Thought, Long-CoT)技术来改进短思维链(Short-CoT)模型,也是一种潜在的方法,以在保证推理质量的同时提升推理速度。

更新于 2025-05-26