logo of alibaba

阿里巴巴阿里国际站-隐私合规管理-隐私合规管理

社招全职3年以上风险管理-风险策略运营地点:杭州状态:招聘

任职要求


岗位要求:
1. 本科及以上学历,信息安全、计算机等相关专业优先;
2. 3年以上隐私保护/数据合规相关经验,具备互联网业务及隐私合规工作背景,熟悉GDPR、CCPA、个人信息保护法等相关法律法规,了解PIA/DPIA方法,能结合业务和技术实际输出落地的隐私设计方案,有主持或参与相关项目经验者优先;
3. 英语可作为工作语言,有跨国企业或海外留学/工作经历者优先;
4. 获得CIPT、CIPM、CIPP、CISSP等认证或具备SQL读写技能者优先;
5. 具备良好的推动力、沟通能力和抗压能力,擅长跨部门协作,能在复杂组织中协调资源,保障项目高效推进。

加入我们,你将获得:
深度参与行业标准制定、参与全球数字经济发展与合规的机会;
与行业顶级合规专家和技术团队共同成长,与全球核心行业团队及监管接触交流经验;
丰富的国际视野与个人专业影响力提升空间;
具有竞争力的薪酬福利与广阔的晋升空间。

立即加入阿里巴巴国际站,与我们一同引领全球数据合规新高度!

工作职责


职位亮点:

加入阿里巴巴国际站数据合规团队,亲身参与全球化数据合规体系的搭建与实践,助力平台国际业务健康合规地高速发展。你将与行业顶尖专家共事,深入探索数据合规与个人信息保护的前沿动态,在全球舞台提升专业影响力。我们为你提供极具挑战性的成长环境和广阔的职业发展空间!

主要职责:
1. 合规治理与风险管理:基于全球数据合规、个人信息保护、数据安全等相关法律法规、政策和标准,识别、评估及治理平台业务风险。推动合规要求的流程化、产品化,将法规要求转化为切实可落地的解决方案,处置及跟踪风险,并沉淀为标准化合规方案和指南,不断提升业务合规效率和公司竞争力。
2. 监管事件解决:与公司内部业务、产品、研发等多团队紧密合作,及时共享合规动态,协调推动各类监管整改、合规检查、认证备案等重要项目落地,成为连接业务与合规的桥梁。
3. 工具创新与能力建设:主持或参与合规自动化工具(如跨境数据传输合规、APP/SDK合规等)的设计与开发,推动数据保护工具及机制创新,优化合规运营能力,为多业务场景提供高效、可复制的数据合规与数据安全解决方案,设计流程机制,助力合规智能化升级。
4. 全球合规体系搭建与落地:根据各国法律法规,为国际站搭建和完善数据合规管理体系,制定实施流程和管理标准,组织相关方沟通、决策记录、合规审计和培训,保障平台全球业务的数据合规和稳定运营。
包括英文材料
学历+
SQL+
相关职位

logo of anker
社招5年以上

1. 负责公司数据隐私专项合规事务和政策研究工作; 2. 处理对接业务部门的有关法律合规方面的咨询、合同评审、提供风险分析和解决方案; 3. 协助梳理及完善公司各项隐私合规管理及运营工作; 4. 负责完成团队交办的其他事务。

更新于 2022-07-28
logo of bytedance
校招A101610

团队介绍:隐私创新实验室,致力于探索数据隐私安全领域的前沿技术和理论,为业务高速发展提供洞悉行业趋势的技术咨询和创新性的技术解决方案。隐私创新实验室在数据安全领域拥有长期愿景与决心,研究方向覆盖数字主权、合规智能、大模型个人隐私数据保护等。在日益趋严的隐私合规管理的历史时刻,多极化的数字主权意识逐步觉醒,我们更需要融合学术界和产业界的经验智慧,引入前沿技术和理论,为承载海量用户和海量数据的互联网业务提供高效完备的数据隐私安全保障,突破合规瓶颈,支持业务持续突破创新。 课题介绍:生成式AI技术在创意产业、教育、医疗、法律等领域展现了巨大的潜力。然而,随着这些技术的发展,隐私问题也逐渐浮出水面。生成式AI模型通过学习大量的训练数据来生成新的内容,其中可能包含大量敏感的个人信息。如果训练数据或者模型训练过程没有进行足够的隐私保护,生成的内容可能泄露训练数据中的私人信息。例如,生成的文本可能无意中包含了训练数据中个人的敏感细节,图像生成模型可能会重构出真实世界的个人面孔或位置,甚至生成个人的生物特征。 因此,如何在不泄露个人隐私的前提下,利用生成式AI模型的强大能力,成为了一个亟待解决的关键问题。如何设计既能保证隐私保护,又能保持生成效果和模型性能的生成式AI,正成为该领域的前沿研究方向。 课题挑战: 1、隐私泄露风险:生成式AI模型的训练依赖于大量的数据,尤其是在自然语言处理和图像生成领域。训练过程中,模型可能会记忆训练数据的某些特定信息,这些信息可能会被生成模型复现。举例来说,GPT类语言模型可能会无意间生成包含训练数据中某个人身份信息、地址或其他敏感数据的文本。如何确保生成模型不会泄露这些信息,成为隐私保护中的一大挑战; 2、数据扰动与模型质量:为了防止隐私泄露,常用的隐私保护技术(如差分隐私)通常需要对训练数据进行扰动或噪声注入。然而,这种扰动可能导致生成模型失去对数据的精确建模能力,从而影响生成内容的质量。尤其在生成任务中,模型的质量直接决定了输出内容的实用性和创造性,因此,如何在保护隐私的同时,尽可能地保持生成结果的高质量,是一个亟需解决的问题; 3、模型的“记忆”与“复用”问题:生成式AI模型通过学习大量的数据来建立生成规则,但是它们也可能在训练过程中“记住”数据的细节。这个问题在某些情况下可能表现为“记忆泄露”,即模型输出内容可能无意间重现训练集中的某些特定片段,尤其是在小样本或高敏感度的数据集上。如何防止生成式AI模型“记忆”并复用具体的个人信息,而只是学习到数据的“规律”或“特征”,是设计隐私保护机制时必须要考虑的重要问题; 4、合规性与跨境数据流动:各国对隐私保护有不同的法律规定,例如GDPR、CCPA等都对如何处理和传输个人数据提出了严格要求。对于跨境数据流动,如何确保在进行生成式AI训练时遵守不同地区的数据隐私法规,特别是在涉及敏感个人信息时,成为了一个复杂的法律和技术挑战。此外,生成式模型可能涉及多个数据源和多个国家的用户数据,如何在这些环境下平衡隐私保护与合规性,也是值得关注的问题; 5、生成内容的透明性与可解释性:尽管生成式AI模型的生成能力令人惊叹,但它们往往缺乏足够的透明性,导致用户难以理解生成结果背后的原因。在隐私保护背景下,如何使生成模型具备更好的可解释性,能够让用户理解模型是如何生成特定内容的,且该内容是否涉及隐私信息,是增强用户信任的关键。这一挑战不仅仅是技术问题,也是伦理和社会问题。

更新于 2025-05-19
logo of bytedance
校招A49457

团队介绍:隐私创新实验室,致力于探索数据隐私安全领域的前沿技术和理论,为业务高速发展提供洞悉行业趋势的技术咨询和创新性的技术解决方案。隐私创新实验室在数据安全领域拥有长期愿景与决心,研究方向覆盖数字主权、合规智能、大模型个人隐私数据保护等。在日益趋严的隐私合规管理的历史时刻,多极化的数字主权意识逐步觉醒,我们更需要融合学术界和产业界的经验智慧,引入前沿技术和理论,为承载海量用户和海量数据的互联网业务提供高效完备的数据隐私安全保障,突破合规瓶颈,支持业务持续突破创新。 课题介绍:生成式AI技术在创意产业、教育、医疗、法律等领域展现了巨大的潜力。然而,随着这些技术的发展,隐私问题也逐渐浮出水面。生成式AI模型通过学习大量的训练数据来生成新的内容,其中可能包含大量敏感的个人信息。如果训练数据或者模型训练过程没有进行足够的隐私保护,生成的内容可能泄露训练数据中的私人信息。例如,生成的文本可能无意中包含了训练数据中个人的敏感细节,图像生成模型可能会重构出真实世界的个人面孔或位置,甚至生成个人的生物特征。 因此,如何在不泄露个人隐私的前提下,利用生成式AI模型的强大能力,成为了一个亟待解决的关键问题。如何设计既能保证隐私保护,又能保持生成效果和模型性能的生成式AI,正成为该领域的前沿研究方向。 课题挑战: 1、隐私泄露风险:生成式AI模型的训练依赖于大量的数据,尤其是在自然语言处理和图像生成领域。训练过程中,模型可能会记忆训练数据的某些特定信息,这些信息可能会被生成模型复现。举例来说,GPT类语言模型可能会无意间生成包含训练数据中某个人身份信息、地址或其他敏感数据的文本。如何确保生成模型不会泄露这些信息,成为隐私保护中的一大挑战; 2、数据扰动与模型质量:为了防止隐私泄露,常用的隐私保护技术(如差分隐私)通常需要对训练数据进行扰动或噪声注入。然而,这种扰动可能导致生成模型失去对数据的精确建模能力,从而影响生成内容的质量。尤其在生成任务中,模型的质量直接决定了输出内容的实用性和创造性,因此,如何在保护隐私的同时,尽可能地保持生成结果的高质量,是一个亟需解决的问题; 3、模型的“记忆”与“复用”问题:生成式AI模型通过学习大量的数据来建立生成规则,但是它们也可能在训练过程中“记住”数据的细节。这个问题在某些情况下可能表现为“记忆泄露”,即模型输出内容可能无意间重现训练集中的某些特定片段,尤其是在小样本或高敏感度的数据集上。如何防止生成式AI模型“记忆”并复用具体的个人信息,而只是学习到数据的“规律”或“特征”,是设计隐私保护机制时必须要考虑的重要问题; 4、合规性与跨境数据流动:各国对隐私保护有不同的法律规定,例如GDPR、CCPA等都对如何处理和传输个人数据提出了严格要求。对于跨境数据流动,如何确保在进行生成式AI训练时遵守不同地区的数据隐私法规,特别是在涉及敏感个人信息时,成为了一个复杂的法律和技术挑战。此外,生成式模型可能涉及多个数据源和多个国家的用户数据,如何在这些环境下平衡隐私保护与合规性,也是值得关注的问题; 5、生成内容的透明性与可解释性:尽管生成式AI模型的生成能力令人惊叹,但它们往往缺乏足够的透明性,导致用户难以理解生成结果背后的原因。在隐私保护背景下,如何使生成模型具备更好的可解释性,能够让用户理解模型是如何生成特定内容的,且该内容是否涉及隐私信息,是增强用户信任的关键。这一挑战不仅仅是技术问题,也是伦理和社会问题。

更新于 2025-05-19
logo of bytedance
校招A186054A

团队介绍:隐私创新实验室,致力于探索数据隐私安全领域的前沿技术和理论,为业务高速发展提供洞悉行业趋势的技术咨询和创新性的技术解决方案。隐私创新实验室在数据安全领域拥有长期愿景与决心,研究方向覆盖数字主权、合规智能、大模型个人隐私数据保护等。在日益趋严的隐私合规管理的历史时刻,多极化的数字主权意识逐步觉醒,我们更需要融合学术界和产业界的经验智慧,引入前沿技术和理论,为承载海量用户和海量数据的互联网业务提供高效完备的数据隐私安全保障,突破合规瓶颈,支持业务持续突破创新。 课题介绍:生成式AI技术在创意产业、教育、医疗、法律等领域展现了巨大的潜力。然而,随着这些技术的发展,隐私问题也逐渐浮出水面。生成式AI模型通过学习大量的训练数据来生成新的内容,其中可能包含大量敏感的个人信息。如果训练数据或者模型训练过程没有进行足够的隐私保护,生成的内容可能泄露训练数据中的私人信息。例如,生成的文本可能无意中包含了训练数据中个人的敏感细节,图像生成模型可能会重构出真实世界的个人面孔或位置,甚至生成个人的生物特征。 因此,如何在不泄露个人隐私的前提下,利用生成式AI模型的强大能力,成为了一个亟待解决的关键问题。如何设计既能保证隐私保护,又能保持生成效果和模型性能的生成式AI,正成为该领域的前沿研究方向。 课题挑战: 1、隐私泄露风险:生成式AI模型的训练依赖于大量的数据,尤其是在自然语言处理和图像生成领域。训练过程中,模型可能会记忆训练数据的某些特定信息,这些信息可能会被生成模型复现。举例来说,GPT类语言模型可能会无意间生成包含训练数据中某个人身份信息、地址或其他敏感数据的文本。如何确保生成模型不会泄露这些信息,成为隐私保护中的一大挑战; 2、数据扰动与模型质量:为了防止隐私泄露,常用的隐私保护技术(如差分隐私)通常需要对训练数据进行扰动或噪声注入。然而,这种扰动可能导致生成模型失去对数据的精确建模能力,从而影响生成内容的质量。尤其在生成任务中,模型的质量直接决定了输出内容的实用性和创造性,因此,如何在保护隐私的同时,尽可能地保持生成结果的高质量,是一个亟需解决的问题; 3、模型的“记忆”与“复用”问题:生成式AI模型通过学习大量的数据来建立生成规则,但是它们也可能在训练过程中“记住”数据的细节。这个问题在某些情况下可能表现为“记忆泄露”,即模型输出内容可能无意间重现训练集中的某些特定片段,尤其是在小样本或高敏感度的数据集上。如何防止生成式AI模型“记忆”并复用具体的个人信息,而只是学习到数据的“规律”或“特征”,是设计隐私保护机制时必须要考虑的重要问题; 4、合规性与跨境数据流动:各国对隐私保护有不同的法律规定,例如GDPR、CCPA等都对如何处理和传输个人数据提出了严格要求。对于跨境数据流动,如何确保在进行生成式AI训练时遵守不同地区的数据隐私法规,特别是在涉及敏感个人信息时,成为了一个复杂的法律和技术挑战。此外,生成式模型可能涉及多个数据源和多个国家的用户数据,如何在这些环境下平衡隐私保护与合规性,也是值得关注的问题; 5、生成内容的透明性与可解释性:尽管生成式AI模型的生成能力令人惊叹,但它们往往缺乏足够的透明性,导致用户难以理解生成结果背后的原因。在隐私保护背景下,如何使生成模型具备更好的可解释性,能够让用户理解模型是如何生成特定内容的,且该内容是否涉及隐私信息,是增强用户信任的关键。这一挑战不仅仅是技术问题,也是伦理和社会问题。

更新于 2025-05-19