2024年全球隐私计算报告_第1页
2024年全球隐私计算报告_第2页
2024年全球隐私计算报告_第3页
2024年全球隐私计算报告_第4页
2024年全球隐私计算报告_第5页
已阅读5页,还剩42页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

目录CONTENTS隐私计算产业发展概况2024隐私计算产业图谱隐私计算技术演进和融合隐私计算产业应用分析隐私计算与人工智能010203040506隐私计算未来展望指导单位杭州市数据资源管理局联合发起单位浙江大学区块链与数据安全全国重点实验室中国联通智能城市研究院数据要素社杭州数据交易所支持单位浙江省大数据产业技术联盟杭州国际数字交易联盟特别支持单位中关村实验室杭州金智塔科技有限公司浙江蚂蚁密算科技有限公司联通数字科技有限公司主编张秉晟 王鹏 熊婷参编人员许苗峰、殷泽原、郭大宇、胡爽、应琦、潘凯伟、林洋、梁子轩、刘泽宇、申奇、申冠生、武通、卢天培、钱润芃、卢益彪、田磊原、冯宇扬、徐泽森、张洵、张文、吴钰沁、彭乐坤、张菊芳、黄益超、谢琴超、周旦、郑超隐私计算产业发展概况2024全球隐私计算报告Part

On第e一章隐私计算是用于保护数据安全、个人信息和商业秘密,促进数据高效流通、处理和分享等一系列技术的总称助力实现数据“供得出”“流得动”“用得好”“保安全”隐私计算技术分类安全多方计算同态加密零知识证明不经意传输可信执行环境差分隐私数据脱敏 ...隐私计算技术是保障数据安全的关键技术国家数据局围绕数据要素市场化改革开展系列工作2023年,国家数据局会同有关部门制定《“数据要素×”三年行动计划(2024—2026年)》国家数据局积极探索布局数据基础设施,加快数据空间等技术研究,推动隐私计算技术应用,打造安全可信流通环境,为数据要素流通、开发、利用提供支撑2024全球隐私计算报告隐私计算技术是保障数据安全的关键技术隐私计算,通常又被称为隐私保护计算,是“在计算中和计算后保护数据隐私的技术”

。-----《联合国隐私保护计算技术手册》隐私计算技术路线优势劣势安全多方计算(MPC)学术界严谨的安全证明数据控制力强不依赖特殊硬件无硬件信任根,国密化方案较为可控有通用运算能力,但性能相对较低数据提供方增多性能会下降,一般适用于5方以下联邦学习(FL)数据控制力强不依赖特殊硬件无硬件信任根,国密化方案较为可控存在部分安全风险无通用运算能力数据提供方增多性能会下降,垂直场景一般建议于10方以下可信执行环境(TEE)理论上支持所有算法计算精度高,与明文一致计算性能支持大规模且性能损失小随着数据提供方增多不会有明显性能下降数据控制力比较弱需要相信硬件信任根需要额外硬件成本差分隐私(DP)可证明可衡量的个体隐私保护技术与上面所有技术路线可独立叠加计算精度明文比会有所下降,需结合算法流程设计不保护数据使用价值同态加密(HE)是经典

MPC、联邦学习方案重要基石,是目前隐私计算性能的关键PK通用FHE方案性能挑战大,硬件加速还在发展中零知识证明(ZK)验证速度快,证明通信量较小不泄露任何隐私信息能与其他隐私计算技术联合使用协议复杂,开发成本高大规模计算时证明开销大隐私计算是“隐私保护计算”(Privacy-Preserving

Computation的简称,可以在保证数据提供方不泄露原始数据的前提下,对数据进行分析计算,有效提取数据要素价值,保障了数据在产生、存储、计算、应用、销毁等各个环节中的“可用不可见”。隐私计算以安全多方计算(SecureMulti-party

Computation,

MPC)、联邦学习(Federated

Learning,FL)、可信执行环境(TrustedExecutionEnvironment,

TEE)三大技术路线为代表,同时发展出了同态加密、差分隐私等其他密码学技术为辅助的成熟技术体系。隐私计算概述2024全球隐私计算报告克劳德·香农在20世纪40年代发表的重要论文《保密系统的通信理论》《密码学数学理论》1976年Diffie和Hellman创建了公钥加密体制1978年Rivest等人设计的非对称加密算法RSA和首次提出的同态加密概念1981年Rabin首次提出不经意传输协议01萌芽期(1949-1981)隐私计算作为独立的概念在产学研界得到关注和发展,并融合密码学、人工智能等多学科技术逐渐形成了综合性技术体系。主流技术相继出现:1982年姚百万富翁问题1987年Goldreich等人提出的安全多方计算协议2009年Gentry提出全同态加密及OMTP提出首个可信执行环境标准2016年《中华人民共和国网络安全法》使隐私计算技术不可或缺02探索期(1982-2016)随着数字经济的快速增长,隐私计算技术快速发展,成为促进数据要素跨域流通和应用的核心技术,广泛用于金融、通信、互联网、政务等领域相关政策标准不断细化完善,如:2018年欧盟GDPR,2019年联合国《隐私保护计算技术联合国手册》,2020年中国“数据二十条”2022年美国《促进数字隐私技术法案》等产业方面,开源项目如FATE,Mesa开始商用和落地03增长期(2017-2025)隐私计算开始在实际应用中发挥重要作用,技术不断成熟,应用规模将呈现稳定增长趋势隐私计算在技术上将迎来一系列创新迭代,各个主流技术路线持续优化,业内探索技术融合等方式来突破应用瓶颈04稳定期(2025至未来)隐私计算技术的四个发展阶段2024全球隐私计算报告隐私计算技术市场前景广阔政策法规支持,产业需求增加技术加速创新并与区块链、人工智能等新兴技术融合相关技术标准和产业规范逐步完善、产业链完整、应用扩展应用扩展、产业链融合隐私计算在金融、通讯、政务、医疗、保险等产业应用更广泛产业链从上游的可信硬件,到中游的技术提供方,再到下游的应用方,已形成较完整的生态金融53%通信17%数据来源:亿欧,国泰君安,36氪研究院整理政务13%医疗

互联网

能源9% 5% 3%产业需求增加隐私计算生态包括数据提供方、数据加工方、数据使用方、服务商与交易所等企业和个人需求日益增长,有巨大市场空间开源产品目前是生态中的主流数据来源:36氪研究院根据公开资料整理2024全球隐私计算报告人工智能技术的发展2023年,具有开放许可证的日益高效的基础模型呈爆炸式增长,比2022年增加一倍以上,新模型如:LlaMa

、StableLM、Falcon、Mistral、LlaMa2、DeepFloyd和StableDiffusion等以ChatGPT为代表的新一代生成式人工智能问世,在全球范围大火,改变了人工智能(AI)技术与应用的发展轨迹,加速了人与AI的互动,是人工智能发展史上的新里程碑GPT-4、Gemini

、GeminiUltra和

Claude3等先进模型展示出强大的多模态能力,综合性能优越2023

年人工智能相关法规

25

项欧盟AI法案(EU

AI

Act,2024):全球首个全面的AI法律框架,基于风险分类对高风险AI系统设置了严格的监管美国AI权利法案(AI

Bill

of

Rights):防止AI系统中的歧视,确保算法透明性和隐私保护中国AI监管法案:加强对AI技术的监管,特别是涉及国家安全风险的应用,如生物识别和监控技术。加拿大人工智能和数据法案(AIDA):重点强调数据隐私和AI的伦理使用,如金融和保险领域其他国家和地区:南韩《South

Korea'sAIFrameworkAct》;巴西《Brazil'sAIRegulation

Bill》;印度《Digital

India

Act》麦肯锡2024年调查发现,在过去六年中,全球的

AI

采用率2019年之前一直在50%以下,2023年跃升至72%;生成式AI采用率从2023年的33%增加到2024年的65%,

几乎翻了一倍

。超过60%的中国企业计划在未来1-2年内部署生成式AI2023年对生成式AI的投资激增,达到252亿美元,比2022年增长近八倍2023-2024年间,AI在技术创新、政策法规与应用投资等方面均取得较大进展。目前60个国家拥有AI战略,预计生成式AI每年将为全球经济贡献4.4万亿美元。技术创新 政策法规支持 应用和投资规模扩大2024全球隐私计算报告userid:529794,docid:176240,date:2024-09-27,隐私计算与人工智能的技术融合AI大模型在创造巨大价值的同时,可能带来明文训练数据被泄露或个人信息被滥用等安全和隐私风险,隐私计算技术通过提供安全计算环境,可以有效降低这些风险。产业界进展2019年,微众银行人工智能团队发起了全球首个联邦学习工业级开源框架FATE,可以让企业和机构在保护数据安全和数据隐私的前提下进行数据协作,核心功能包括联邦特征工程,联邦统计,联邦机器学习,联邦深度学习,联邦迁移学习等2024年,蚂蚁集团发布“隐语

Cloud”大模型密态计算平台,提高大模型密态托管和大模型密态推理服务未来发展方向增强的模型安全性:隐私计算技术可以增强AI模型的安全性,防止模型被恶意攻击或篡改。例如,使用同态加密技术可以在加密状态下对数据进行处理,确保模型训练和预测过程的安全性,使用联邦学习、差分隐私等技术可以在不暴露原始数据的情况下训练模型技术融合与创新:隐私计算与AI技术的融合将催生新的技术路线和创新应用。例如,结合区块链技术可创建更透明、可追溯的数据处理流程,促进跨域数据合作性能优化:当前隐私计算和AI技术面临的一个挑战是性能问题,尤其是在处理大规模数据时。随着算法和硬件的优化,隐私计算和AI技术的性能将有望得到显著提升,从而更好地支持AI应用产业定制化解决方案:不同产业对隐私计算和AI技术的需求不同。未来将出现更多针对特定产业需求的定制化解决方案,如医疗健康、金融风控等专用隐私平台AI伦理和合规性:通过确保数据处理过程符合隐私保护要求,隐私计算可以帮助AI技术更好地适应法律法规,解决AI应用中的伦理和合规性问题2024全球隐私计算报告2024隐私计算产业图谱Part

Tw第o二章2024全球隐私计算报告2024隐私计算图谱场景应用金融政务交易所通信综合服务商隐私计算垂直类服务商隐私计算融合类服务商AI区块链信息安全硬件服务商软硬一体机服务商通用硬件服务商专精服务商开源服务商2024全球隐私计算报告医疗国内外隐私计算垂类服务商分析隐私计算垂类服务商正在快速成长,国外企业专注技术研发,在技术层面取得较多成果;国内企业技术研发和商业化落地协同发展。公司名称要点技术能力擅长领域应用场景ZamaConcrete,

Concrete-ML金融、医疗、区块链提供隐私保护应用程序开发,支持机器学习和其他计算任务InpherSecretComputing®,SecurAI金融、医疗安全计算,跨组织数据孤岛协作,大语言模型推理国外Eaglys隐私增强技术,MPC和安全多方数据分析平台金融、医疗数据安全共享和协作Cape

Privacy保密计算技术,API医疗、金融数据去识别化和重新识别,安全文档处理Pyte.ai加密状态下的机器学习工具集医疗、金融加密状态下训练和推理模型Cryptolabs安全多方计算(MPC),区块链安全金融、区块链多方协作计算,智能合约安全杭州金智塔科技有限公司隐私计算平台、数据合规流通平台、容器计算平台、数据资产登记平台等政务、金融、零售、制造业政公共数据授权运营、智能风控、反欺诈、智能营销、智能选址、智能制造等国内浙江蚂蚁密算科技有限公司以密态计算技术创新应用及开源社区共建赋能可信数据要素流通建设政务、金融、医疗、互联网公共数据开放、密态医疗大模型、密态大模型知识库、智能风控、车险定价等神州融安数字科技(北京)有限公司融安隐私计算平台、融安隐私计算一体机保险、公安、营销医保智能风控业务、银行营销用户画像及标签等2024全球隐私计算报告安全多方计算隐私保护广告位集合竞价平台(Meta)利用MPC技术完成用户浏览页面广告位的隐私保护集合竞价。隐语SecretFlow安全计算框架(蚂蚁)统一前端编写成本低加入中间层解耦前后端易于扩展新协议。同态加密HElib全同态加密库(IBM)首个开源实现全同态加密算法(BGV

算法)提供密文自举代码实现。但使用成本高,代码缺乏维护。Concrete全同态计算框架(ZAMA)提供密文自举代码实现(TFHE

算法)。前端兼容科学计算库Numpy。实现零成本编写同态应用。差分隐私联邦学习FATE联邦学习框架

(微众)支持多种机器学习模型联邦建模。社区多达

570家企业参加(2021年)但

代码性能低

(Python)。JaxFed计算库(谷歌)通过提供相关组件提高编写和部署联邦学习算法效率。支持TPU、GPU等硬件加速。可信执行环境TensorFlow

Privacy框架(谷歌)Occlum

TEE系统(清华&蚂蚁)提供用于训练差分隐私模型的工具。提供跟踪和管理隐私预算功能。高易用性,只需要少量修改程序源码即可在TEE上执行。高性能,支持多TEE任务同时高效执行。Privacy-PreservingData

Analytics(Uber)“翠湖”安全处理器和全同态协处理器

(中关村实验室)利用差分隐私与匿名化技术。帮助公司在处理用户乘车数据时保护隐私,同时进行交通流量和其他分析。自研

TEE,高性能密态计算能力,支持主流全同态加密算法与52种全同态加密算子的硬件加速,比软件性能提升200倍以上。国内外隐私计算产品概况2024全球隐私计算报告隐私计算技术开源情况开源促进了隐私计算的快速发展开源技术可以有效促进隐私计算技术的发展、普及及应用推广,开源项目降低了隐私计算产业门槛,从而进一步促进产业的发展与繁荣。开源提升了隐私计算平台的安全性在隐私计算领域,安全性是核心关切。开源社区的代码透明、审查公开,用户可以检验和监督平台的安全性。这种开放性有助于及时发现并解决产品中的潜在安全问题。国内外开源隐私计算技术与应用不断涌现,包括微软、蚂蚁集团、原语科技、UC伯克利、复旦大学等国内外企业与高校推出多个隐私计算开源项目,进一步促进隐私计算技术普及、应用和发展。国内开源隐私计算技术由蚂蚁集团研发的开源可信隐私计算框架,以安全、中立、易用为核心设计理念,用一套通用框架支持了包括安全多方计算(MPC)、联邦学习(FL)、同态加密(HE)、可信执行环境(TEE)以及差分隐私(DP)在内的多种主流隐私计算技术,是国内生态影响力最大的开源社区,技术方案最为齐全的隐私计算框架之一。由微众银行开源的联邦学习开源项目,提供了一种基于数据隐私保护的安全计算框架,为机器学习、深度学习、迁移学习算法提供强有力的安全计算支持。由复旦大学Daslab实验室韩伟力教授及其学生独立研发的开源安全多方学习平台

,是基于BGW协议的开源安全多方学习框架。由原语科技研发的开源可信隐私计算平台,该平台融合了安全多方计算

(MPC)、联邦学习(FL)、同态加密(HE)、可信执行环境(TEE)等多种隐私计算技术。由CSIROData61Engineering&Design机构Marcel

Keller独立维护,支持安全多方计算(MPC)及同态加密(HE)隐私计算技术。国外开源隐私计算技术EzPC由微软开源的安全多方学习框架,针对安全推理场景提供了相对完备的安全级别定义,相关研究工作自成一体,是安全多方学习框架中安全推理场景的标杆之一。由UC

Berkley

Rise实验室维护安全多方学习框架,主要通过GPU对本地密文计算进行加速,提高本地运算效率,是隐私计算领域中使用GPU加速本地密文计算的先行者。Zama由Zama公司开发的Concrete和Concrete-ML框架,是由Rust编写的FHE框架,旨在让密码学家和开发人员能够以最小的开销创建隐私保护应用程序。2024全球隐私计算报告隐私计算技术演进和融合Part

Thr第e三e章2024全球隐私计算报告隐私计算技术演进与融合-总体进展020406080100120140160MPCTEEZKP PSI&PIR FHE DP2024年发表数量 2023年发表数量2023-2024年各类隐私计算论文发表数量2023-2024年各类隐私计算论文占比MPC33%ZKP28%PSI&PIR11%FHE10%DP12%TEE6%说明:MPC中除去PSI、PIR相关工作说明:MPC中除去PSI、PIR相关工作数据来源(安全和密码学顶级会议):IEEE

S&P

2023、2024USENIX

Security

2023、2024ACMCCS

2023、2024NDSS2023、2024CRYPTO

2023、2024EUROCRYPT

2023、2024ASIACRYPT2023技术分类:MPC:SecureMulti-PartyComputation

安全多方计算ZKP:Zero-Knowledge

Proof零知识证明FHE:FullyHomomorphicEncryption

全同态加密DP:Differential

Privacy

差分隐私TEE:TrustedExecutionEnvironment

可信执行环境PSI:Private

Set

Intersection隐私集合求交PIR:Private

InformationRetrieval

隐私信息查询2024全球隐私计算报告安全多方计算MPC研究动态6%3%5%4%9%9%4%13%4%(门限)加密/签名非平衡场景混淆算法可追责性相关随机数轮数复杂度/非交互通信复杂度计算复杂度应用实现其他MPC论文分类统计统计了2023与2024年发表在四大安全会议(CCS,USENIX

Security,IEEE

S&P,

NDSS)和三大密码学会议(CRYPTO,

EUROCRYPT,

ASIACRYPT)的关于MPC的论文,共144篇。截至本报告写作之时,ASIACRYPT

2024的论文尚未公布,因此未加入统计

。有些论文同时属于多个类别

。18%25%门限加密/签名算法、混淆算法是MPC中经典的研究课题。门限方案允许一组参与方分享密钥,超过�个参与方能够对消息进行解密/签名;混淆算法起源于经典的姚氏混淆电路。关于Schnorr、BLS、BBS+、ECDSA等签名算法的研究数量较多。关注点包括:签名的轮数复杂度、抵御适应性敌手的能力、底层假设、在实际场景下的健壮性等。关于混淆算法的研究聚焦于:算法的性能、算术电路/算术-布尔混合电路的混淆算法。MPC的论文也关注一些特殊场景下的有趣问题,包括:相关随机数的生成、非平衡场景MPC、可追责MPC。相关随机数通过离线阶段的预处理,使协议的在线阶段取得巨大的性能提升。非平衡场景有:星型网络拓扑场景、算力非平衡场景、参与方权重不同场景等。可追责MPC协议能够在运行失败时识别出作恶的参与方,大大增加参与方的作恶成本。理论界,关于MPC协议的轮数复杂度(或非交互式计算)、通信复杂度以及计算复杂度也受到了广泛的研究。对于不同的目标/模型,研究者证明复杂度下界或设计线性/亚线性复杂度的高效协议。一些反直觉的结论:例如,Lin等人通过对输入的预处理,使得参与方在承诺、零知识证明、MPC协议中甚至不需要读取整个输入,达到亚线性的在线时间复杂度(Doubly

EfficientCryptography:Commitments,

ArgumentsandRAM

MPC)。MPC的在各场景下的应用以及高效实现,同样受到业界人员的广泛关注。研究最多的是MPC在机器学习/深度学习中的应用,其他的例子包括:使用MPC进行时间序列分析、认证、网络服务、密钥管理、动态数据库分析等等。MPC落地实现方面,研究包括:(布尔-算术-姚)混合模式MPC、有协助者的MPC、MPC编译器等。其中,Silph是一个能自动将高级程序语言程序编译成混合MPC协议的框架(Silph:AFrameworkforScalableandAccurateGenerationofHybridMPCProtocols)。各研究方向进展2024全球隐私计算报告可信执行环境研究动态可信执行环境(Trusted

ExecutionEnvironment,TEE)是软硬件协同构成的隔离环境,可以保护敏感数据并执行隐私计算。常用的TEE技术Intel

SGX、IntelTDX、AMD

SEV和ARMTrustZone攻击36%防御28%应用25%技术分类与论文数量构建11%技术分类:攻击、防御、应用、构建;安全类顶级会议相关论文总数

28篇。各研究方向进展Schaik等人的综述性文章发现,现有的Intel

SGX更新策略无法帮助开发人员即时修复安全漏洞潜在安全隐患 • 多篇文章利用数据竞争攻击、指令计数攻击、恶意#VC中断、总线故障攻击等攻击方式,成功攻破了现有的商用可信执行环境AEX-Notify解决方案已被纳入Intel

SGX修订版规范SymGX发现多个零日漏洞,并获开发者确认防御和漏洞探测手段EnigMap通过在外部存储和飞地间建立隐蔽映射,实现了大规模数据的安全高效处理Dörre等人利用不完全可信的可信执行环境构建了高效隐私集合求交协议,其中可信执行隐私计算和可信 环境可能受到侧信道攻击,或是将信息泄露给硬件制造商应用开发 • Gramine-TDX基于Gramine项目和Intel

TDX,专门为机密虚拟机设计了轻量级操作系统MyTEE通过制作页表进行内存隔离、过滤DMA数据包以及启用安全IO,在嵌入式设备新型可信执行环 上实现了可信执行环境境开发2024全球隐私计算报告零知识证明研究动态应用方面进展理论进展ZKVM(零知识证明虚拟机)。使用高级语言编写的程序可以自动生成零知识证明。Dora是专为ZKVM设计的高效零知识证明协议,它很好的平衡了指令数量和指令复杂度,使得向处理器添加指令的开销几乎为零。另一个新奇的ZKVM实现途径是,使用定制的零知识证明系统,证明在SatisfiabilityModulo

Theories

(SMT)范式下的各种等式,如布尔逻辑。Folding

Scheme。Nova是为IVC(incremental

verifiable

computation)专门设计的零知识证明方案。其本质是一种高效的算术化表示方法,通过对约束系统的不断压缩,只需验证一次,大大减少了开销。SuperNova处理了每次调用函数不同时的情况,同时运行多个folding实例,根据调用的不同,更新相对应的实例。而HyperNova适应于最新的算术约束系统CSS(customizable

constraint

system),并使用了名为CycleFold的技术,使得证明方案能在一对循环曲线上进行高效的递归。Post

Quantum。后量子安全的零知识证明方案一直是研究的前沿方向,基于格的零知识证明方案近两年在实用性上得到了较大的突破。其中,LaBRADOR证明系统通过基于格的递归摊销R1CS证明系统,实现了证明大小优化,其证明大小仅由递归的最后一步决定,与初始R1CS实例的大小无关。Greyhound是第一个基于标准的格假设的多项式承诺方案,当多项式的度高时,其evaluation证明大小较小,达到了实用的程度。分布式。减少零知识证明高昂的证明开销、将证明过程并行或者分布式是现实的需求。Pianist是一个基于Plonk的高效分布式零知识证明协议,为并行电路和通用电路都设计了并行化方法。该框架包含了一个分布式的多项式IOP协议和一个可分布式计算的多项式承诺方案。Collaborative零知识证明系统中,证明者会分发证明任务给多个子证明者,其他证明者会协作生成证明。ZKSaas是一个典型代表,其证明者可以通过秘密分享技术,让一组其他证明者通过安全多方计算的方式,安全生成证明,而不会泄露隐私信息。ZK数据库。零知识基本数据库(ZK-EDB)使得证明者能够对数据库�(其中包含(�,�)对的键值)进行承诺,并随后为“发送与�相关联的值�(�)”的查询提供令人信服的答案,而不会泄露任何额外的知识。其技术贡献有两方面。首先,引入了一种支持集合合并操作的新型零知识集(ZKS),并给出了一个基于未知阶群的实际构造。其次,开发了一种将布尔电路查询转换为相关集合合并操作查询的变换。ZK隐私保护。在区块链研究中,实现隐私保护的审计而不牺牲系统的安全性和可信性是一个关键的研究领域。zkCross,这是一种新颖的双层跨链架构,配备了三种跨链协议,以实现隐私保护的跨链审计。其中,两个协议分别用于隐私保护的跨链转账和交换,第三个协议则是高效的跨链审计协议。这些协议基于坚实的跨链方案,以保证隐私保护和审计效率。ZK投票。为了保证电子投票中没有选票被添加、遗漏或更改,使用零知识证明来提供公开可验证的证明,证明输出的选票是输入选票的重新加密的排列。通过Coq证明助手对Bayer-Groth洗牌证明的安全性进行了机器检查。随后提取了验证器(软件),用于检查Bayer-Groth实现生成的证明,并使用该验证器对正在为瑞士国家选举开发的瑞士邮政电子投票系统的证明进行检查。ZK身份验证。对于许多用户来说,基于私钥的钱包是进入区块链的主要方式。常见的钱包认证方法可能会显得繁琐。这种用户入门的难度显著阻碍了区块链应用的普及。zkLogin,这是一种新颖的技术,利用由流行平台(如启用OpenIDConnect的平台,例如Google、Facebook

等)发行的身份令牌来认证交易。zkLogin

提供了强大的安全性和隐私保障。然而,与之前相关的工作不同,zkLogin避免了额外的受信方(如受信硬件或预言机)来提供其安全保障。zkLogin利用零知识证明确保用户的链下身份和链上身份之间的链接被隐藏,甚至对平台本身也是不可见的。zkLogin

核心的签名方案使得在区块链之外进行许多重要应用成为可能。零知识证明(zero-knowledge

proof,

ZKP)是一种密码学技术,其中证明者能够向验证者证明某一陈述为真,但在此过程中,除了该陈述的真实性外,验证者无法获得任何额外的信息。2024全球隐私计算报告PSI&PSU&PIR研究动态PSI类型 文献数标准PSI 11电路PSI 2模糊PSI 2阈值PSI

1结构感知PSI

2据PSI类型统计文献数PIR研究方向 文献数效率优化 16抗恶意性 4隐私性 2批量PIR 2其它 4根据PIR研究方向统计文献数共有5篇文献对PSU进行研究,主要聚焦于新的PSU协议框架,以及对非平衡PSU的优化。PSI,即隐私集合求交,要求两方或多方在不泄露额外信息的前提下得到集合的交集。大多数文献的研究聚焦于标准PSI,关注点包括安全性、通信效率、计算效率。安全性方面,Dörre等人提出能够在含有侧信道的可信执行环境(TEE)下安全运行的PSI协议。通信效率方面,Bienstock等人通过对不经意键值存储(OKVS)进行改进,优化了键值对编码效率。在计算效率上,Kerschbaum等人提出在离线阶段执行昂贵操作的比较协议,可用于PSI协议并提高响应速度。此外,许多研究关注不平衡场景——这在实际应用中更为常见。例如,Sun等人对个多客户端与服务器分别独立执行PSI协议的场景进行了优化,使每个客户端的执行协议的复杂度与自身集合大小呈线性关系。除标准PSI外,许多文献关注PSI的变体,例如电路PSI,模糊PSI,阈值PSI,结构感知PSI。电路PSI的输出是集合交集的秘密分享,允许参与方基于集合交集做进一步的计算,而交集本身对两方保密

。Hao等人提出了不经意键值检索(OKVR),并据此构建了高效的不平衡电路PSI方案。模糊PSI将“距离接近”的两个元素视作相同元素匹配。Chakraborti等人提出DA-PSI返回在距离阈值内的匹配。阈值PSI仅在交集大小高于阈值时获得交集,Liu等人在阈值PSI的基础上提出了多方概率阈值PSI,以较小概率的不良事件为代价,换取了协议的高效性和可扩展性。结构感知PSI(sa-PSI)由Garimella等人在2022年提出,其中一方持有的集合为公开的结构,近年来Garimella等人又对sa-PSI在抗恶意性和计算开销等方面进行了优化。PIR,即隐私信息检索,指用户向服务器提交查询请求时,在用户查询隐私信息不被泄漏的条件下完成查询。多数文献聚焦于PIR在效率上的优化,关注点包括:底层假设、预处理、计算外包。底层假设方面,Lazzaretti等人提出了基于DDH假设的双服务器PIR协议,在性能上优于前人基于LWE的构造。许多研究通过使用预处理方式,增加查询的响应速度。例如,Ghoshal等人分别在双服务器和单服务器上提出了新的预处理PIR方案,有效降低了在线带宽。此外,Li等人通过将计算中昂贵的部分“外包”给服务器,同样对PIR查询的效率进行了优化。一些文献则更加关注协议的抗恶意性与隐私性。例如,Park等人提出了容忍至多两个恶意节点的高性能多服务器PIR方案;Dietz等人提出了抗恶意的、允许查询中途终止的PIR协议。一些文献对批量PIR进行了研究。Mughees等人提出了计算和通信效率都较高的批量PIR协议,Liu等人提出了支持批量查询的PIR协议PIRANA,且该协议对数据库频繁更新的场景更加友好。2024全球隐私计算报告FHE论文分类统计全同态加密(FHE)研究动态95341112其他应用机器学习标准化研究安全性分析算法改进Bootstrapping统计了2023与2024年发表在四大安全会议(CCS,USENIX

Security,

IEEES&P,

NDSS)和三大密码学会议(CRYPTO,

EUROCRYPT,ASIACRYPT)的关于MPC的论文,共44篇。截至本报告写作之时,ASIACRYPT

2024的论文尚未公布,故未加入统计

。各研究方向进展优化Bootstrapping提升FHE的计算效率Bootstrapping作为FHE中的关键操作,用于恢复加密数据的精度通过优化盲旋转操作、使用小型评估密钥来优化FHEW的Bootstrapping过程基于SIMD技术的Batch

Bootstrapping框架将FHE乘法操作的需求减少到常数级别对于经典FHE加密方案BGV、BFV、CKKS的Bootstrapping过程也有不同方式的优化优化同态运算的速度提升FHE的计算效率对密钥分解、多项式计算、矩阵向量乘法进行优化...研究者们提出了一种基于LWE问题的简化门限FHE加密方案FHE的安全性分析精确FHE方案(如BFV、BGV和TFHE)也容易受到𝐶��攻击提出了一种改进的FHE方案,通过引入可验证性机制,超越了传统IND-CCA1安全性模型提出了PELTA机制,通过零知识证明和一系列的验证机制抵御恶意参与者的攻击FHE的标准化统一的中间表示方法HEIR、新型的明文编码方案VERITAS、专为FHE设计的编译器HECOFHE在机器学习领域的应用在深度神经网络、在卷积神经网络、算法方面提高了计算效率神经网络推理方面提出了一种创新的方法NeuJeans,通过联合优化卷积操作和Bootstrapping,解决了隐私保护神经网络推理中的效率问题。FHE的其他应用转密、PSU、数据存储与检索加速FHE运算的硬件加速器、高效可扩展的数据库系统、利用同态加密的单服务器PIR方案.量子全同态方案的安全性和实用性产生了重要的改进2024全球隐私计算报告差分隐私DP研究动态新DP定义,

4DP应用,

9DP结合其他技术,

4DP-SGD相关研究,

5DP理论研究,13本地DP,

6其他,

7主要集中在用户级差分隐私和本地差分隐私。用户级差分隐私:Dong等人研究了针对用户级差分隐私的持续观察机制,这些机制无需对数据进行先验限制,并在效用上接近静态情况的最优值。本地差分隐私:基于链接的局部差分隐私方法,可以保护图中链接的隐私;针对本地差分隐私频繁项集挖掘协议的数据投毒攻击;首个在本地差分隐私下进行数据挖掘任务的方法LDP-RM;优化局部差分隐私协议中的频率估计问题的卷积框架等。DP论文分类统计研究热点各研究方向进展针对差分隐私的定义,可提出新的模型,并定义新的差分隐私算法,使其满足差分隐私定义,且有某些方面的改进与提升。Ji等人提出的R1MSG机制,通过使用一种特殊的低秩协方差矩阵,显著降低了精度损失,且能生成更稳定的噪声。差分隐私的应用或是差分隐私与其他隐私计算技术结合后的应用,得到了研究者广泛关注。差分隐私与零知识证明:Biswas等人提出了一种可验证的差分隐私计数查询机制,要求发布方生成零知识证明,确保输出既符合差分隐私,同时又能保证不暴露任何随机性信息。差分隐私与安全多方计算:Wei等人将差分隐私用于安全多方计算,可以较快地生成安全参数较高的离散高斯样本。差分隐私与联邦学习:跨机构联邦学习中实现记录级个性化差分隐私的rPDP-FL框架、PrivateFL方法改进了差分隐私用于联邦学习时的精度下降。差分隐私与机器学习:评估不同的差分隐私算法在图像分类任务中的效用和抵御成员推理攻击的能力的评估工具DPMLBench、模型在面对差分隐私引入的噪声时能够保持更好的性能的新技术DPAdapter,还有一些差分隐私用于机器学习的新算法等。其他:差分隐私应用于侧信道的研究、差分隐私与其他数学模型结合等。有部分研究对经典的DP-SGD算法进行了更深入的分析,比如“数据依赖”分析、验证该算法的信息泄露、研究该算法梯度裁剪引入的偏差等。也有研究工作提出了更好的算法,比如Du等人提出了一种通过在语言模型前向传播中直接扰动嵌入矩阵的差分隐私方法DP-Forward,与DP-SGD相比减少了计算和存储成本;Feng等人提出了Spectral-DP算法,结合频域梯度扰动和频谱滤波,通过降低噪声规模以提高效用。差分隐私理论方面的研究也有不少进展:在差分隐私的预算方面,近两年的研究工作研究了如何解决预算管理不足、如何有效分配预算等问题。其他工作研究了差分隐私中最优随机化的构建、错误界限改进、差分盲目性改进、审批机制改进、差分隐私和自适应数据在空间复杂度上的差异分析等问题。2024全球隐私计算报告联邦学习FL研究动态隐私保护与差分隐私技术,

3中毒攻击和后门攻击的防御,12分布式模型更联邦学习鲁棒

新和安全聚合性和稳健性,

2

协议,

4个性化联邦学习和定制防御,6其它,

13*统计了2023与2024年发表在四大安全会议(CCS,

USENIXSecurity,

IEEE

S&P,

NDSS)上关于FL的论文,共36篇。截至本报告写作之时,ASIACRYPT

2024的论文尚未公布,因此未加入统计。有些论文同时属于多个类别,分类时存在重叠。FL论文分类统计各研究方向进展联邦学习的隐私保护是其主要优势之一,差分隐私(DP)技术已经被广泛应用于保障用户数据的安全。然而,DP带来的精度损失和对异质性数据的影响仍是待解决的挑战例如,Yang等人通过个性化数据转换减少了差分隐私引入的异质性,从而提高联邦学习模型的精度。Jiang等人提出了标签分布扰动机制,实现个体隐私和标签分布隐私的双重保护联邦学习容易受到中毒攻击和后门攻击威胁,攻击者可以通过恶意客户端修改模型更新。现有的防御机制主要通过检测恶意更新、限制更新空间或引入认证机制来提高鲁棒性例如MESAS、RoFL、FedVal、FreqFed、CrowdGuard、AutoAdapt

、BackdoorIndicator、3DFed、BayBFed、FedRecover等多种防御框架被提出,被用于攻击检测、自适应工具防御、后门攻击等各种复杂场景之下的攻击防御。联邦学习中的分布式模型更新和聚合协议旨在确保客户端更新的隐私,同时抵御恶意客户端的攻击。现有方法如安全聚合协议、基于概率的检测机制提供了初步的解决方案,但面临通信成本和计算效率的挑战。例如,Ma等人提出

Flamingo协议,引入轻量级丢弃容错机制,显著提高了训练效率,同时保持模型准确性。Rathee等人提出了ELSA安全聚合协议,专注于应对恶意行为者的存在,并通过创新的分布式信任机制保证了客户端更新的隐私和防御恶意客户端。联邦学习的鲁棒性设计旨在防御恶意更新和各种对抗性攻击。现有研究提出了基于认证、评分和排名的机制来提高FL模型的稳健性。例如Xie等人探讨了差分隐私与中毒攻击认证鲁棒性之间的内在联系。通过用户级和实例级差分隐私的形式分析,研究提供了两种鲁棒性认证标准,并展示了如何在提高隐私保护的同时增强认证攻击的无效性。Fang等人提出BALANCE算法,并通过理论和实验结果证明了该算法在面对中毒攻击时的有效性。个性化联邦学习(PFL)允许每个客户端根据自身的局部数据分布定制模型,提升个体性能。然而,这种个性化也为潜在攻击者提供了新的攻击向量,特别是后门攻击等复杂威胁。例如,Lyu等人探讨了个性化FL中的潜在后门攻击,提出了PFedBA攻击策略,通过优化触发器生成过程有效规避现有防御机制。Xu等人提出ACE攻击,展示了恶意客户端如何通过操控本地模型参数提升自身的贡献评估,并探索了六种防御措施,结果显示这些防御不足以阻止ACE攻击。01020304052024全球隐私计算报告联邦学习未来发展趋势FL的应用场景正在不断扩大,研究者正致力于开发更加智能和自适应的防御机制来应对复杂的攻击。去中心化和个性化隐私保护技术、激励机制、分布式架构优化等也将成为未来研究的重点,发展趋势如下:未来的FL系统需要更智能的差分隐私应用,以在不显著影响模型性能的前提下提高隐私保护的能力。个性化隐私保护方案将是一个重要的发展方向。隐私保护技术的进一步发展FL中的攻击防御需要应对越来越复杂的自适应攻击,特别是针对后门攻击和中毒攻击。新的防御策略应具备动态适应不同攻击模式的能力。增强攻击防御能力随着FL应用场景的扩大,如何在大规模分布式系统中高效地进行安全聚合将成为一个关键问题。未来的研究可能会探索更加轻量化且鲁棒的协议设计。高效、安全的聚合协议个性化模型训练与全局鲁棒性的平衡将是未来的研究重点。个性化技术将继续发展,尤其是在保护安全的同时提高本地模型的性能。个性化与鲁棒性的平衡2024全球隐私计算报告隐私计算产业应用分析Part

Fou第r四章2024全球隐私计算报告隐私计算产业市场分析隐私计算产业资本热度有所降低,但随着应用加深,新的增长机会不断涌现,市场规模仍会持续增长。隐私计算市场规模/招标数量050100150200250020406080100120140160个市场规模招标项目数趋势分析受整体经济环境,隐私计算产业资本热度有所降低,资本逐渐回归理性。随着隐私计算技术成熟度和产业认知度逐渐提升,隐私计算产业仍处于快速增长阶段,预计市场规模将进一步扩大。2021 2023 2025e数据来源:中国信通院、2023全球隐私计算报告增长机会隐私计算技术与前沿技术不断融合,隐私计算技术与AI、云计算、区块链等技术深度融合,多种技术融合的应用解决方案已逐渐成为各场景的主要技术应用模式,持续提高数据安全性和隐私性。隐私计算应用场景不断深化,隐私计算在金融、医疗、政务、人工智能等业务场景不断深化,各个业务场景均需多方数据的可信流通,实现数据价值释放。数据要素流通促进隐私计算不断发展,随着各地公共数据授权运营机制逐渐完善,各方数据用户意识到隐私计算成为必需投入的内容。亿元/人民币隐私计算技术与前沿技术不断融合,隐私计算技术与AI、云计算、区块链等技术深度融合,多种技术融合的应用解决方案已逐渐成为各场景的主要技术应用模式,持续提高数据安全性和隐私性。隐私计算应用场景不断深化,隐私计算在金融、医疗、政务、人工智能等业务场景不断深化,各个业务场景均需多方数据的可信流通,实现数据价值释放。数据要素流通促进隐私计算不断发展,随着各地公共数据授权运营机制逐渐完善,各方数据用户意识到隐私计算成为必需投入的内容。2024全球隐私计算报告典型案例:Apple-Private

Cloud

Compute平台隐私成为云端智能计算的核心竞争力在日益重视隐私的时代,Private

Cloud

Compute提供了一种新模式,确保在享受云计算带来的强大智能时,用户的隐私和数据安全不会受到侵犯。这一模式使Apple成为了产业内隐私保护领域的标杆。打破“隐私与智能化无法兼得”的认知传统上,用户常常认为要想获得智能化的服务,必须牺牲部分隐私,而Apple的Private

Cloud

Compute平台通过技术创新打破了这种矛盾,使得用户能够在不损害隐私的前提下,享受与日俱增的智能服务。推动产业隐私保护标准提升Private

Cloud

Compute的推出推动了云计算和AI产业的隐私保护标准,促使更多公司关注用户数据隐私问题,进一步推动了全球数据

隐私保护法律法规的落实。适应AI时代的数据需求AI需要大量数据进行训练和推理,而如何在不泄露隐私的前提下处理这些数据是一个巨大挑战。Private

Cloud

Compute提供了一个新的解决方案,允许AI技术继续进步的同时,不必担心用户隐私泄露。Private

Cloud

Compute是2024年Apple推出的云计算平台,旨在提供强大的计算能力,同时确保用户数据的隐私和安全。这个平台标志着Apple在隐私保护领域的进一步创新。该平台是Apple基于其强大的隐私保护传统,构建的一个全新云计算架构。它将iPhone等本地设备上已有的隐私保护措施扩展到了云端计算环境中。该平台的设计理念是通过确保数据隐私,使用户可以在不暴露个人数据的前提下,享受人工智能和云计算技术带来的智能服务。案例亮点 平台意义本地级别的隐私保护扩展到云端Private

Cloud

Compute将Apple在设备端的隐私保护技术(如差分隐私、设备端处理、端对端加密等)无缝扩展到云端。这样,用户的数据即使在云端进行处理,依然享有与本地设备上同等的隐私保护。加密处理与计算平台采用先进的同态加密和多方安全计算技术,确保数据在加密状态下依然可以进行处理和分析。这意味着即使在云端,数据也不会被解密,从而实现完全的数据隐私保护。差分隐私技术Private

Cloud

Compute平台利用差分隐私技术,通过在数据中加入噪声确保单个用户的隐私。即使大量数据被用于AI训练或统计分析,个人数据仍然难以被识别或追踪。个性化与隐私的平衡用户可以通过平台享受个性化服务,比如广告推荐、智能助手等,而这些服务不需要实际读取或存储用户的个人数据。所有个性化推荐和分析均在加密数据上完成,保护了用户的隐私。端到端加密保障所有用户与云端之间的数据传输都经过端到端加密,确保数据在传输过程中无法被窃取或篡改。无论是用户的输入还是云端计算的输出,Apple都保证数据始终处于加密状态。2024全球隐私计算报告典型案例:Firefox-Privacy-Preserving

Attribution保障用户隐私在数字化时代,用户数据成为了最重要的资源之一,如何保护用户隐私不被滥用是整个产业的难题。PPA平台通过技术手段在不获取用户原始数据的前提下,实现高效的数据归因,解决了隐私保护与数据利用之间的矛盾,极大提高了用户对广告和数据分析平台的信任度。推动合规发展随着各国对数据隐私监管的不断加强,企业面临的合规压力日益增大。PPA平台的隐私保护机制使其能够适应全球范围内不同的隐私法律要求,帮助企业规避法律风险。同时,该平台也促进了隐私保护技术的应用和发展,推动了整个产业的合规进程。提升数据利用效率通过隐私保护技术,PPA平台解决了以往归因分析中的数据孤岛问题,使得不同平台的数据可以安全共享与交互,最终提高了数据利用的效率和归因分析的准确性。这对于广告主来说,意味着可以更好地评估广告投放效果,优化营销策略,最大化广告投入回报率。产业创新的标杆作为一种新型的隐私保护解决方案,PPA平台树立了产业创新的标杆。其应用不仅局限于广告归因,还可以扩展到金融、医疗等需要保护隐私的产业,具有广泛的应用前景。案例亮点Privacy-Preserving

Attribution(PPA,隐私保护归因)平台是一种基于隐私保护技术的归因分析解决方案,主要用于在线广告和数据分析。对于用户数据隐私问题,PPA在不侵犯用户隐私的情况下,提供高效、准确的归因和分析功能。该平台利用安全多方计算、同态加密和差分隐私等技术,确保用户数据始终加密或混淆,甚至连运营方也无法访问。PPA通过去中心化的数据处理机制,避免用户行为数据集中在少数公司手中,增强了数据处理的安全性和分析的透明度与公平性,同时遵守严格的数据隐私法规。平台意义隐私保护为核心PPA平台的最大亮点在于其隐私保护技术。通过安全多方计算、差分隐私等技术,即使是平台运营方或广告主也无法获得用户的真实数据,确保了用户隐私的高度安全性。这种隐私保护的特性使得PPA平台在欧盟的GDPR、美国的CCPA等严格的隐私法下仍然能合法合规地运营。多方参与的数据处理平台采用了分布式数据处理模式,保证了数据的多方所有权,消除了数据集中带来的隐私风险。此外,各个数据所有方只参与归因分析,而不暴露任何原始数据,这种分布式计算模式大大降低了潜在的数据泄露风险。数据归因的精确性和实时性尽管隐私保护措施使数据处理复杂化,但PPA平台在保证隐私的同时,仍然能提供高精度的归因分析结果。广告主能够通过该平台实时跟踪广告投放效果,了解用户行为路径,从而优化广告策略并提升广告投放效果。跨平台协作能力PPA平台支持多个广告网络和用户行为追踪工具之间的协作,打破了传统广告归因方法中的“数据孤岛”现象。不同广告渠道和数据源可以安全地共享数据,增强了数据的整合能力,为广告主提供更为全面的归因分析结果。2024全球隐私计算报告典型案例:联通数科-企业股权交易平台在股权交易场景中,股交中心节点使用隐私求交算法,从普惠征信节点通过匿踪查询技术查询该企业的税务流水、水电气交易流水以及银行交易流水数据,验证企业真实经营状况应用成效提升整体股权交易效率通过隐私计算技术,在确保企业经营数据安全的前提下,从征信公司的业务系统中调取数据并对企业提交数据进行自动核验,降低信息核验的人工成本,减少手工流程,避免操作风险,提升整体股权交易效率。

保障企业经营数据安全可信利用区块链技术为中小企业的经营数据进行背书,为当前股权交易市场数据披露、资金托管等方面的信息不对称问题提供助力,对于加强市场稳定性建设、改进市场监督管理机制具有重要意义。

隐私计算过程安全可靠将隐私计算和区块链相结合,既能在数据共享过程中有效保护敏感数据,实现数据的安全流通,还能为数据的真实性、数据确权等合规问题提供可行解决方案,实现隐私计算全流程可记录、可验证、可追溯、可审计。保障企业经营数据安全可信利用区块链技术为中小企业的经营数据进行背书,为当前股权交易市场数据披露、资金托管等方面的信息不对称问题提供助力,对于加强市场稳定性建设、改进市场监督管理机制具有重要意义。隐私计算过程安全可靠将隐私计算和区块链相结合,既能在数据共享过程中有效保护敏感数据,实现数据的安全流通,还能为数据的真实性、数据确权等合规问题提供可行解决方案,实现隐私计算全流程可记录、可验证、可追溯、可审计。应用架构隐私计算平台江西股权交易中心节点企业信息、展示信息是否完善?(上链存储)江西普惠征信公司计算节点企业是否有近三年税务流水、水电气缴费流水、银行流水数据(上链存储)隐私求交算法、匿踪查询算法江西股交中心业务系统(股权托管平台、企业挂牌展示平台、金融资产交易平台)区块链平台可信存证企业补充资材料企业填写申报信息预判段:是否可以挂牌?显示审批结果:是否:人工复审是企业填报数据存证审核结果数据存证补充资料数据存证统一门户网站移动app2024全球隐私计算报告典型案例:金智塔科技-基于隐私计算的省市县三级数据融合计算平台应用成效在“中小企业经营现状分析”场景,有效解决浙江省金监局和国网浙江电力间跨地域数据的安全融合计算,精准识别20多万企业的生产与经营现状,从而提供全方位、实时的评分服务,有效化解企业融资难、融资贵的难题,为中小微企业的壮大发展提供有力支持,促进社会经济的高质量发展;在“危化品车辆违规停靠行为分析”场景,合规融合浙江省税务局和浙江省交通厅数据,每日计算量8000万,筛出车辆可疑停靠点,为治理油品的偷税漏税提供高价值线索;在“产业数据研究”场景,安全合规融合浙江省统计局、浙江省经信厅及社会数据,助力深入分析产业发展现状,为制定精准产业帮扶政策提供有力的数据支撑。针对公共数据安全共享难题,金智塔科技联合浙江省数据局等建设基于隐私计算的省市县三级数据融合计算平台。该平台已在浙江省数据局、浙江省税务局、浙江省统计局、国网浙江电力、浙江银保监局等省市县单位部署100多个节点,并与移动运营商、征信公司等社会机构进行安全联合计算,先后在

“中小企业经营现状分析”、“危化品车辆违规停靠行为分析”、“产业数据研究”等几十个场景展开应用,已实现300多亿数据量共享服务。应用架构2024全球隐私计算报告典型案例:马上消费-以隐私计算助力金融黑灰产治理马上消费于2022年联合多家金融机构成立了打击金融领域黑产联盟(AIF联盟),旨在通过数据共享平台建设,实现对金融黑产的有效打击,维护产业利益。2023年8月,AIF联盟自主开发的“爱马平台”正式上线,该平台基于马上消费自主研发的隐私计算平台,采用多方安全计算和联邦学习技术,实现了黑产数据的高效碰撞与识别,协助警方有效打击金融黑灰产,取得了突破性成果。亮点和成效门限求交助力金融隐私保护马上消费提出了一种基于离散对数问题的门限隐私集合求交算法,使参与方在无须第三方信任节点的情况下,安全计算满足阈值的最大交集,抵御攻击模型,保护数据隐私,确保中间数据安全,且计算效率高,不受参与方数量影响,可用于识别跨机构的恶意行为者,帮助金融机构协作打击金融黑灰产。爱马平台打击金融黑灰产AIF

联盟的

“爱马平台”

利用隐私计算技术,通过求交方式挖掘黑灰产线索。在打击非法代理维权场景中,以用户手机号等为例,在多个参与方中找出满足特定条件的交集数据,即黑灰产线索,同时保证各参与方非交集部分数据不被泄露,并建立多方黑产线索碰撞机制,全面防范和协助警方打击金融黑灰产。AIF联盟打击金融黑灰产成效至2024年,AIF联盟已吸引包括银行、互金、保险、小贷在内的129家机构加入,共同推进了60起非法代理维权案件的受理,其中14起为刑事案件,促使警方对172名金融黑产人员采取了强制措施。试运行期间,22家成员机构导入了87580条黑灰产数据,发起了145次扫描任务,挖掘出1150条黑灰产线索。应用架构隐私计算运营平台黑产求交黑产求并安全协议存证模块黑产扫描黑产聚合打击跟踪成员管理黑产扫描结果黑产聚合结果AIF成员1AIF成员2AIF成员3AIF成员3密文黑 计算名单密文黑 计算名单密文黑 计算名单密文黑 计算名单查询方被同一黑产攻击的企业,可联合打击平台求交计算后发现AIF成员2和AIF成员4被同一黑产攻击,打标后发起联合打击建议。平台求并计算获得密文并集,基于该并集提供数据查询服务,排除低营销价值用户。AIF系统平台运营中心2024全球隐私计算报告典型案例:蚂蚁集团-基于医保

DRGs

建模的蚂蚁隐私计算智能服务平台该案例通过隐私计算技术向医疗机构提供患者数据不出域的本地模型训练的功能,以提升医疗诊断分类预测效果的准确性,解决单家医院因为数据样本少、疾病覆盖量小导致的医疗诊断分类(DRGs)准确性不高等问题。应用成效应用架构训练节点本地模型工作节点本地模型模型下载参数上传DRGs组1DRGs组…DRGs组3标准:10000块阑尾切除消化道恶性肿瘤标准:58000块病人B病人C病人A病人D3万+诊断2万+手术

几十亿种组合几千个组别服务管理隐私计算平台模型开发服务监控模型参数安全保护全局模型医疗机构A医疗机构B训练样本导入在线数据导入训练节点本地模型工作节点本地模型训练样本导入在线数据导入任务下发参数上传任务下发应用接入应用接入确保各方医疗数据安全基于隐私保护计算技术实现的联合DRG建模方式,在患者方面,加强了数据授权和流转的立法保护和实际落地,保护了患者医疗数据和个人信息的安全性;在医疗机构方面,提供了更安全的数据不出本地的共享方式,保障机构数据利益的同时充分释放了数据价值。降低成本,提升资源利用率DRG支付模式的优势一是能够减少对药品、耗材、大型建设设备的不合理使用,减少过度医疗,有效降低患者医疗成本、减轻患者经济负担;二是提高医疗机构医疗资源利用率,有利于促进医疗服务公开透明,有效规范医疗机构的医疗服务行为,有效提高医疗服务质量;三是医保基金不超支,助力医保控费。2024全球隐私计算报告

隐私计算与人工智能Part

Fiv第e五章2024全球隐私计算报告隐私保护机器学习PPML在医疗、金融、社交网络等领域,隐私保护技术的应用显著提升了产业效率,推动了数据共享与协作的安全性,加速了智能化产业变革,同时促进了新技术与传统业务模式的深度融合。通过整合不同领域的数据来学习多样化的数据特征,增强模型性能和泛化能力允许研究人员和开发者访问不同地区的独特数据集,加速创新和研究促进国际合作跨域数据共享的重要性Cambridge

Analytica事件(2018年):未经用户许可通过Facebook非法收集了8700万用户的个人信息进行政治广告定向推送。Google与Ascension医疗数据共享(2019年):获得了数百万患者的健康记录。Clearview

AI的面部识别数据滥用(2020年):抓取了大量社交媒体上的个人照片,创建了一个全球性的人脸数据库。LinkedIn数据抓取与滥用(2021年):超过7亿LinkedIn用户的数据被非法抓取并在黑市出售(虽然这些数据来自公开资料)。WhatsApp数据共享争议(2021年):WhatsApp计划将更多的用户数据共享给其母公司Facebook。Anthropic

数据泄露(2024年):一名承包商错误地将客户的信息通过电子邮件发送给了不该访问这些数据的第三方。隐私保护机器学习(Privacy-PreservingMachineLearning,PPML)是一种结合人工智能(AI)和隐私计算技术的机器学习方法,其目的是在不泄露敏感数据的情况下训练或评估。隐私计算赋予人工智能“数据可用不可见”的能力,实现数据共享使用,从而更好地发挥出数据在人工智能领域发展中的支撑性作用。机器学习在各领域快速发展 敏感数据的滥用2024全球隐私计算报告隐私保护机器学习面临三大风险数据集泄漏风险模型训练过程中,存在通过在线监控来获取数据集的隐私数据的风险;模型中存储的数据,具备一定的可逆性,可以通过一些攻击手段,如成员推理攻击等手段,获取模型内存储的隐私数据。模型鲁棒性风险AI系统在其整个生命周期中,从数据收集到模型训练和推理阶段,容易受到各种安全威胁。敌手可以通过诱导生成错误、具有后门的模型,来向用户提供误导性AI服务。AI模型提供的服务,尤其是金融、医疗等领域,用户数据具备高隐私性。直接将用户数据发送给模型提供方,会令模型提供方获取到隐私数据。数据推理隐私泄漏风险数据推理模型训练2024全球隐私计算报告隐私保护机器学习应用快速增长隐私保护机器学习的概念最早出现在2016年,经过9年的发展,目前已经成为安全领域最为热门的方向之一。6117546682015002070273001000200030004000500060007000 6700 8000201620172022 2023-20242018 2019 2020 2021PPML应用英文文献按年发表数量隐私保护机器学习研究领域处于上升期,研究热度逐年增加。对谷歌学术、dblp等多个论文数据索引工具进行整理后表明,隐私保护机器学习应用性的工作在2016~2020呈现快速增长,20-23年呈现缓慢增长。其中,23年发表的文章数量为3657,24年截止年中(9月份)为3003篇。据不完全统计,截至目前,隐私保护机器学习英文文献相关工作成果14522个。物联网与智能设备,区块链与数字货币或成为主流隐私保护机器学习应用。对所有2023-2024隐私保护机器学习应用文献进行分类,结果表明区块链与数字货币占比最高,其包括了数字货币交易隐私保护、供应链追踪、去中心交易、身份验证等多种应用场景。物联网与智能设备成为第二大应用领域,覆盖如IoT系统,智能穿戴设备等多用途。此外,隐私保护机器学习用于医疗信息学、图像分类诊断、卫生保健等用处占比19%。27%1

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论