首页 > 科技 > > 正文
2019-08-08 15:27:46

SFU学生的AI解决方案可以屏蔽视频偷窥者

如果您是房主,您可能会依赖智能家居安全系统让您高枕无忧 - 但如果第三方在您不知情的情况下拦截和查看活动会怎么样?

“当您将视频或智能家居系统流上传到安全提供商时,图像本身就很明显,保存图像数据的服务器可以识别您的身份,”SFU工程科学博士生Saeed Ranjbar Alvar说。“当我们上传到谷歌或Facebook时,我们会看到这一点,并且它会使用自动面部识别软件建议照片中的人物。智能家居安全系统也是这样做的,以保护我们免受入侵者的侵害。“

Ranjbar Alvar和博士生Hyomin Choi正在提出一种隐私屏蔽解决方案,该解决方案使用人工智能(AI)来保护流媒体视频中的无辜主体,同时不影响视频对安全提供商和执法部门的实用性。

在最近涉及谷歌Nest和亚马逊环的隐私泄露事件中,未经授权的用户查看了数千名毫无戒心用户的家庭监控视频,并暴露了使用不受保护的智能监控系统的风险。几天前,这次在美国海关和边境保护局的分包商处发生的类似违规事件表明,这种黑客攻击的后果不仅仅是个人 - 它可能对国家和国际安全产生影响。

为了创建他们的解决方案,Ranjbar Alvar和Choi开发了一种计算机视觉算法,当视频上传到智能家居系统中使用的存储平台,甚至是用户的个人Google云端硬盘时,可以对图像进行加密。

“我们创造的是一种加扰数据的方式,这样我们人类就无法识别视频中的人,而没有正确的权限来解锁它,但是软件仍然可以区分它们,”Choi说。

他们在电气电子和工程师协会的多媒体和信号处理两个会议的会议记录中发表了这项研究。IvanBajić教授在SFU工程科学学院的多媒体实验室监督该项目。

Ranjbar Alvar和Choi修改了视频压缩算法,以便将内容模糊并加扰到人眼。然后,他们应用机器学习技术来训练人工智能模型,以识别与人脸相对应的视频数据流(称为比特流)的部分。由此产生的视频在很大程度上对人类来说是荒谬的,但人工智能系统可以在其中找到人脸并跟踪他们在视频中的活动。

因此,在开发的AI模型的帮助下,人类主持人仍然可以确定人类主体的存在,但实际上无法看到它们的样子。对于像Nest和Ring这样的设备,房主的隐私将保持不变,而安全提供商可以应用该软件来判断是否允许占用者或是入侵者。黑客或潜在的偷窥者只能看到乱糟糟的废话。

学生的模型目前能够以与典型的面部识别扫描仪相同的方式识别对象的面部。在未来,他们希望提高其识别动作和姿势的能力 - 例如摔倒的人或群体拳头 - 用于各种公共安全和个人安全应用。与此同时,当前模型还可用于保护个人照片被黑客入侵的用户的隐私。

“我们可以看到这项技术也被用于出租车,辅助生活设施和许多其他视频需要足够有用的地方进行分析,但主题应该具有隐私性,”研究信号处理和机器学习的Bajić说。多媒体。

“直到最近,大多数人对他们的隐私都相当松懈,”他说。“但这种情况正在发生变化,人们要求公司更加认真地对待我们每天访问的技术。”

Ranjbar Alvar对此表示赞同,“隐私是数字世界的一个大问题。我希望这项研究可以成为解决方案的一部分,这样我们就可以保护人们免受他们可能甚至没有意识到的这些入侵。“

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。

相关推荐