青阳网>要闻>正文

英特尔开源HE

2019-01-10 00:07:12 IT经理网 CashCat 分享

所有的数据科学家都会告诉你:数据集是人工智能(AI)的生命线。但对于需要处理大量个人身份信息的行业(例如医疗健康行业)来说,如何兼顾AI的大数据训练与与个人隐私保护是个艰巨的挑战。但幸运的是,业界在AI模型培训中使用匿名加密数据的方法方面取得了令人鼓舞的进展。

今天在加拿大蒙特利尔召开的NeurIPS 2018会议上,英特尔宣布推出开源式HE-Transformer,这是一种允许AI系统对敏感数据进行操作的工具。它是nGraph——英特尔神经网络编译器的后端,基于简单加密算法库(SEAL),该加密库本周已经由微软研究院开源。

英特尔和微软两家公司将HE-Transformer定义为“隐私保护”机器学习的一个典范。

“他允许对加密数据进行计算。当应用于机器学习时,此功能允许数据所有者获得有价值的分析结论,同时又不会暴露基础数据; 而且,该工具可以使AI模型所有者通过以加密形式部署来保护他们的模型,“英特尔研究科学家Fabian Boemer和英特尔研究高级主管Casimir Wierzynski在一篇博客文章中写道。

HE-Transformer中的“HE”是同态加密的缩写,是一种加密方式,可以基于密文(被算法加密的明文或文件内容)上进行计算 ,生成一个加密结果,在解密时,与未加密文本上执行的操作结果完全匹配。

HE是一项相对较新的技术–IBM研究员Craig Gentry在2009年开发了第一个完整的HE方案。正如Boemer和Wierzynski所说,设计使用HE的AI模型不仅需要机器学习技术,还需要加密和软件工程方面的专业知识。

HE-Transformer提供了一个可应用于开源框架(如Google的TensorFlow,Facebook的PyTorch和MXNet)上的神经网络的抽象层,来帮助开发过程,人们无需再将模型手动集成到HE加密库中。

HE-Transformer结合了Cheon-Kim-Kim-Song(CKKS)加密方案以及加法和乘法运算,例如加法、广播、常数、卷积、乘、否定、填充、整形、切片和减法。此外,它还支持HE特定技术,如明文值旁路,SIMD打包,OpenMP并行化和明文操作。

基于上述特性和其它优化,Intel声称HE-Transformer在cryptonets上的性能表现一流。  -后者使用在TensorFlow中训练的浮点模型。

微软研究院首席研究员兼密码学研究经理克里斯汀·劳特表示:“我们很高兴能与英特尔合作,为更多的数据科学家和隐私保护机器学习系统开发人员带来同态加密技术。”

目前,HE-Transformer直接与TensorFlow的nGraph编译器和运行时集成,对PyTorch的支持也即将推出。对于那些能够将神经网络导出到ONXX的深度学习框架,例如PyTorch,CNTK和MXNet,可以通过将模型导入ONXX中的nGraph并以序列化格式导出它们来使用这些框架。

Boemer和Wierzynski表示,未来版本的HE-Transformer将支持更多种类的神经网络模型。

他们写道:“作为最新的进展成果,HE已经成为一种有价值的深度学习工具。” “研究人员如今可以利用TensorFlow快速开发新的面向HE的深度学习拓扑。”

声明:本站部分资源来源于网络,版权归原作者或者来源机构所有,如作者或来源机构不同意本站转载采用,请通知我们,我们将第一时间删除内容。本站刊载文章出于传递更多信息之目的,所刊文章观点仅代表作者本人观点,并不意味着本站赞同作者观点或证实其描述,其原创性及对文章内容的真实性、完整性、及时性本站亦不作任何保证或承诺,请读者仅作参考。
编辑:小青