字节跳动豆包安全值班号-DMC
任职要求
1、在原业务线从事过安全干预和应急工作优先,有安全平台提需/落地能力优先;
2、有互联网信息内容质量运营基础,能准确识别基础的风险,具备文字编辑能力和英文基础;
3、了解当下大模型基本安全逻辑,有发现潜在风险以及内…工作职责
1、负责豆包大模型及相关产品数据流的安全干预应急和专项巡检工作; 2、根据相关法律法规和产品标准规范,可以准确的识别风险,从产品和用户角度灵活处理相关内容,提出并推动产品优化建议,提高大模型产品的前置风险拦截能力; 3、多角度看待安全问题敏锐的发现异常,针对工作开展过程遇到的风险识别并进行处置,优化处置标准,提升工作效率与准确性; 4、参与各项内容安全专项,解决各类内容安全风险,协助产品提高策略准确性; 5、保证内容安全的同时兼顾安全与质量的平衡,不断提升用户体验,提升平台质量。
日常实习:面向全体在校生,为符合岗位要求的同学提供为期3个月及以上的项目实践机会。 团队介绍:字节跳动豆包大模型团队(Seed)成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限,并探索新的交互。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。豆包大模型团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、负责LLM、VLM通用大模型与垂类大模型的内容安全研发,提升模型识别风险、规避风险、处置风险的能力; 2、负责通过定性、定量方法评估策略表现,进行策略迭代更新,不断提升内容安全效果; 3、深度参与大模型、安全、算法等领域的调研,结合通用模型的新技术、新场景,如LongCoT、Agent、GUI,积极探索相应新技术、新场景上,安全方案的创新和落地。
团队介绍:字节跳动安全与风控-Flow部门,负责Flow业务中大模型和生成式AI应用如豆包、Cici、扣子等的安全保障工作。团队为业务面临的数据安全、用户隐私挑战、新兴大模型攻击方式等安全隐患提供创新的防御能力和解决方案,我们在北京、杭州、深圳、美国均设有安全研发中心,团队和业务正处于快速发展期,成长空间大,欢迎各位同学加入。 课题背景: 当前大规模基础模型在自然语言处理、多模态识别、代码生成和自主决策等领域已得到广泛应用,但其在带来技术革新的同时,也暴露出诸多安全与隐私隐患。基础模型可能遭受对抗攻击、Prompt Injection、数据投毒等威胁,并可能在训练过程中无意中记忆敏感信息而导致隐私泄露;与此同时,AI智能体在自动化任务和自主决策中面临动态环境下的安全监控和防御难题;而代码生成模型则因生成的代码可能存在漏洞、隐蔽后门以及敏感信息泄露问题,使得其在软件开发中的应用风险加剧。 课题挑战: 大模型安全和隐私研究面临的主要挑战包括: 1、是基础模型规模巨大、结构复杂且具黑箱特性,使得安全漏洞难以全面识别与修复,并在对抗攻击、数据投毒等情况下防护不足; 2、是AI Agent在不断变化的环境中需要实现实时监控、异常行为检测和自适应防御,其安全保障机制亟待突破; 3、是代码生成模型在自动化编程中缺乏完善的安全评估与漏洞修复工具,容易被对抗性攻击诱导生成恶意代码或泄露敏感数据。
团队介绍:字节跳动安全与风控-Flow部门,负责Flow业务中大模型和生成式AI应用如豆包、Cici、扣子等的安全保障工作。团队为业务面临的数据安全、用户隐私挑战、新兴大模型攻击方式等安全隐患提供创新的防御能力和解决方案,我们在北京、杭州、深圳、美国均设有安全研发中心,团队和业务正处于快速发展期,成长空间大,欢迎各位同学加入。 课题背景: 当前大规模基础模型在自然语言处理、多模态识别、代码生成和自主决策等领域已得到广泛应用,但其在带来技术革新的同时,也暴露出诸多安全与隐私隐患。基础模型可能遭受对抗攻击、Prompt Injection、数据投毒等威胁,并可能在训练过程中无意中记忆敏感信息而导致隐私泄露;与此同时,AI智能体在自动化任务和自主决策中面临动态环境下的安全监控和防御难题;而代码生成模型则因生成的代码可能存在漏洞、隐蔽后门以及敏感信息泄露问题,使得其在软件开发中的应用风险加剧。 课题挑战: 大模型安全和隐私研究面临的主要挑战包括:一是基础模型规模巨大、结构复杂且具黑箱特性,使得安全漏洞难以全面识别与修复,并在对抗攻击、数据投毒等情况下防护不足;二是AI Agent在不断变化的环境中需要实现实时监控、异常行为检测和自适应防御,其安全保障机制亟待突破;三是代码生成模型在自动化编程中缺乏完善的安全评估与漏洞修复工具,容易被对抗性攻击诱导生成恶意代码或泄露敏感数据。