字节跳动AI+漏洞安全研究员-安全与风控-筋斗云人才计划
任职要求
1、获得博士学位,信息安全、人工智能、计算机相关专业; 2、优秀的代码能力,熟练应用LLM,对各类安全漏洞原理,对安全漏洞发现、利用和修复有深入理解; 3、在CCS/NDSS/IEEE S&P/USENIX Security等安全顶级会议或期刊上发表论文者优先; 4、出色的问题分析和解决能力,有自主探索解决方案的能力; 5、良好的沟通协作能力,能和团队一起探索新技术,推进技术进步。
工作职责
团队介绍:字节跳动安全与风控部门,负责公司信息安全的建设、规划和管理工作。致力于为亿万用户的数据安全保驾护航,为字节跳动的每一位用户打造健康自由交流的防护盾。作为企业信息安全的新生力量,以技术为基石,全面提升前瞻性研究和自动化能力。团队积极布局安全人才培养与招募,在北京、上海、深圳、杭州、南京、硅谷、伦敦、新加坡均设有安全研发中心,逐步和信息安全领域的知名高校、研究机构建立深度合作,与安全人才、高校、行业共同努力,建设并反哺互联网安全生态。 课题背景: 随着软件规模和复杂度的不断增加,传统的代码漏洞挖掘方法已经难以满足高效、准确地发现复杂漏洞的需求。自动化代码审计效率高,但是准确率低,对于复杂漏洞的发现效果不佳,人工代码审计准确率高,也能够发现利用链路长,逻辑复杂的漏洞,但通用性差,效率低; 大语言模型(LLM)在自然语言处理、自动化推理等领域的突破性进展为漏洞挖掘技术的创新提供了新的机遇。基于 LLM 的漏洞挖掘技术通过学习大量代码样本和潜在漏洞的模式,理解代码的语法和语义关系,使自动化“人工代码审计”成为可能,高效的在复杂代码库中定位潜在安全风险,辅助识别难以察觉的逻辑漏洞,尤其是在涉及多种编程语言、框架和复杂系统结构的时候。 1、相比软件工程领域,安全漏洞领域的数据集,特别是高质量的数据集非常缺乏,需要构建涵盖多种漏洞类型与多种编程语言的原始漏洞代码与修复代码数据集,制定数据集元数据标准,确保数据集的可复用性; 2、研究LLM在代码审计中的应用,探索其在代码漏洞识别、语法和语义分析中的优势,能够自动检测代码中的复杂漏洞,例如场景相关、跨语言、跨服务的逻辑漏洞,设计并实现支持多编程语言(如Go、Nodejs、Python等)的LLM漏洞挖掘工具。
团队介绍:字节跳动安全与风控部门,负责公司信息安全的建设、规划和管理工作。致力于为亿万用户的数据安全保驾护航,为字节跳动的每一位用户打造健康自由交流的防护盾。作为企业信息安全的新生力量,以技术为基石,全面提升前瞻性研究和自动化能力。团队积极布局安全人才培养与招募,在北京、上海、深圳、杭州、南京、硅谷、伦敦、新加坡均设有安全研发中心,逐步和信息安全领域的知名高校、研究机构建立深度合作,与安全人才、高校、行业共同努力,建设并反哺互联网安全生态。 课题背景: 随着软件规模和复杂度的不断增加,传统的代码漏洞挖掘方法已经难以满足高效、准确地发现复杂漏洞的需求。自动化代码审计效率高,但是准确率低,对于复杂漏洞的发现效果不佳,人工代码审计准确率高,也能够发现利用链路长,逻辑复杂的漏洞,但通用性差,效率低; 大语言模型(LLM)在自然语言处理、自动化推理等领域的突破性进展为漏洞挖掘技术的创新提供了新的机遇。基于 LLM 的漏洞挖掘技术通过学习大量代码样本和潜在漏洞的模式,理解代码的语法和语义关系,使自动化“人工代码审计”成为可能,高效的在复杂代码库中定位潜在安全风险,辅助识别难以察觉的逻辑漏洞,尤其是在涉及多种编程语言、框架和复杂系统结构的时候。 1、相比软件工程领域,安全漏洞领域的数据集,特别是高质量的数据集非常缺乏,需要构建涵盖多种漏洞类型与多种编程语言的原始漏洞代码与修复代码数据集,制定数据集元数据标准,确保数据集的可复用性; 2、研究LLM在代码审计中的应用,探索其在代码漏洞识别、语法和语义分析中的优势,能够自动检测代码中的复杂漏洞,例如场景相关、跨语言、跨服务的逻辑漏洞,设计并实现支持多编程语言(如Go、Nodejs、Python等)的LLM漏洞挖掘工具。
团队介绍:字节跳动安全与风控-Flow部门,负责Flow业务中大模型和生成式AI应用如豆包、Cici、扣子等的安全保障工作。团队为业务面临的数据安全、用户隐私挑战、新兴大模型攻击方式等安全隐患提供创新的防御能力和解决方案,我们在北京、杭州、深圳、美国均设有安全研发中心,团队和业务正处于快速发展期,成长空间大,欢迎各位同学加入。 课题背景: 当前大规模基础模型在自然语言处理、多模态识别、代码生成和自主决策等领域已得到广泛应用,但其在带来技术革新的同时,也暴露出诸多安全与隐私隐患。基础模型可能遭受对抗攻击、Prompt Injection、数据投毒等威胁,并可能在训练过程中无意中记忆敏感信息而导致隐私泄露;与此同时,AI智能体在自动化任务和自主决策中面临动态环境下的安全监控和防御难题;而代码生成模型则因生成的代码可能存在漏洞、隐蔽后门以及敏感信息泄露问题,使得其在软件开发中的应用风险加剧。 课题挑战: 大模型安全和隐私研究面临的主要挑战包括:一是基础模型规模巨大、结构复杂且具黑箱特性,使得安全漏洞难以全面识别与修复,并在对抗攻击、数据投毒等情况下防护不足;二是AI Agent在不断变化的环境中需要实现实时监控、异常行为检测和自适应防御,其安全保障机制亟待突破;三是代码生成模型在自动化编程中缺乏完善的安全评估与漏洞修复工具,容易被对抗性攻击诱导生成恶意代码或泄露敏感数据。
团队介绍:字节跳动安全与风控部门,负责公司信息安全的建设、规划和管理工作。致力于为亿万用户的数据安全保驾护航,为字节跳动的每一位用户打造健康自由交流的防护盾。作为企业信息安全的新生力量,以技术为基石,全面提升前瞻性研究和自动化能力。团队积极布局安全人才培养与招募,在北京、上海、深圳、杭州、南京、硅谷、伦敦、新加坡均设有安全研发中心,逐步和信息安全领域的知名高校、研究机构建立深度合作,与安全人才、高校、行业共同努力,建设并反哺互联网安全生态。 课题介绍: 新型可信隐私计算特点在于其融合了软件密码学以及可信硬件技术,能够在数据“可用不可见、可算不可识、可管可计量”的基础上,支持海量数据的计算分析以及大模型的训练和推理,提供透明可信的计算环境,保障用户数据的隐私安全; 但是,在工业级的实际场景中,可信隐私计算技术的应用面临着诸多难题,包括安全计算性能的提升、云原生环境的适配以及信任体系的构建。例如,1)面对十亿甚至百亿规模的海量数据,以及大模型动辄数十B的参数,安全多方计算、同态加密技术由于高昂计算与通信开销,使得其比明文计算慢上百倍甚至千倍;2)作为云原生基础技术的容器,与机密计算结合时面临着可信计算基(TCB)过大、攻击面失控、横向逃逸、可运维性差等问题;3)机密计算虽可有效保护应用的完整性,但是完整性并不等同于安全性,应用仍可能存在漏洞或泄露用户隐私。 1、在百亿至千亿量级的数据查询分析和大模型训练推理场景下,如何从时间、空间、通信等维度,结合可信硬件、专用加速器等手段,设计高性能、可实用的安全多方计算数据分析与机器学习算法、范式以及系统框架; 2、实现机密容器技术体系,从内核、操作系统、根文件系统等维度合理地减少攻击面,同时提高可信性的可证明性、可信容器的可运维性以及可靠的容器隔离性,防御恶意逃逸行为; 3、针对机密计算应用特点,实现可用高效、范化性强(多语言支持)、具备数据泄漏追踪能力的通用可信程序分析框架,提升机密计算环境可信性。
团队介绍:字节跳动安全与风控部门,负责公司信息安全的建设、规划和管理工作。致力于为亿万用户的数据安全保驾护航,为字节跳动的每一位用户打造健康自由交流的防护盾。作为企业信息安全的新生力量,以技术为基石,全面提升前瞻性研究和自动化能力。团队积极布局安全人才培养与招募,在北京、上海、深圳、杭州、南京、硅谷、伦敦、新加坡均设有安全研发中心,逐步和信息安全领域的知名高校、研究机构建立深度合作,与安全人才、高校、行业共同努力,建设并反哺互联网安全生态。 课题介绍: 新型可信隐私计算特点在于其融合了软件密码学以及可信硬件技术,能够在数据“可用不可见、可算不可识、可管可计量”的基础上,支持海量数据的计算分析以及大模型的训练和推理,提供透明可信的计算环境,保障用户数据的隐私安全; 但是,在工业级的实际场景中,可信隐私计算技术的应用面临着诸多难题,包括安全计算性能的提升、云原生环境的适配以及信任体系的构建。例如,1)面对十亿甚至百亿规模的海量数据,以及大模型动辄数十B的参数,安全多方计算、同态加密技术由于高昂计算与通信开销,使得其比明文计算慢上百倍甚至千倍;2)作为云原生基础技术的容器,与机密计算结合时面临着可信计算基(TCB)过大、攻击面失控、横向逃逸、可运维性差等问题;3)机密计算虽可有效保护应用的完整性,但是完整性并不等同于安全性,应用仍可能存在漏洞或泄露用户隐私。 1、在百亿至千亿量级的数据查询分析和大模型训练推理场景下,如何从时间、空间、通信等维度,结合可信硬件、专用加速器等手段,设计高性能、可实用的安全多方计算数据分析与机器学习算法、范式以及系统框架; 2、实现机密容器技术体系,从内核、操作系统、根文件系统等维度合理地减少攻击面,同时提高可信性的可证明性、可信容器的可运维性以及可靠的容器隔离性,防御恶意逃逸行为; 3、针对机密计算应用特点,实现可用高效、范化性强(多语言支持)、具备数据泄漏追踪能力的通用可信程序分析框架,提升机密计算环境可信性。