AIoT 领域的安全风险,真的要懂!

2020-09-02 16:49   来源: 互联网    阅读次数:25

目前人工智能的发展,如人工智能、智能家庭、自动驾驶仪、智能交易等,继续颠覆着企业的商业模式,也在改变着我们的生活方式。中国科学院院士、上海交通大学副院长毛俊发说,人工智能作为一种 "加速器",已经涉足医疗、金融、交通、新闻等行业,有效地解决了传统产业面临的问题,充分发挥了大量数据的价值,增强了传统产业的发展能力。


人工智能发展的实质是通过算法、计算能力和数据来解决完全信息和结构化环境的确定性问题。" 毛俊发认为,随着算法、计算能力和数据的进一步发展,必将加速万物智能时代的到来,使人工智能能够为各种场景打开重要的通道,实现一切事物的互联。


然而,不可否认的是,人工智能不仅为人类的生产和生命提供服务和动力,而且带来不可忽视的安全风险。


[人工智能安全问题的分类]


一、数据风险


1." 数据中毒


所谓 "数据中毒" 是指人工智能训练数据污染导致人工智能决策错误,通过在训练数据中加入伪装数据和恶意样本,破坏数据的完整性,导致训练算法模型决策的偏差。


有两种主要的攻击方式 "数据中毒":


一是采用模型倾斜模式,攻击目标是训练数据样本,通过污染训练数据改变分类器的分类边界。


另一种是采用反馈误导的方法,攻击的目标是人工智能自身的学习模型,利用该模型的用户反馈机制发起攻击,将伪装的数据或信息直接注入模型中,误导人工智能做出错误的判断。


数据中毒 " 是非常有害的,特别是在自动驾驶仪领域,它会导致车辆违反交通规则,甚至导致交通事故。


二。数据泄漏


一方面,反向攻击会导致算法模型中的数据泄漏。


另一方面,人工智能技术可以增强数据挖掘分析能力,增加隐私披露的风险。例如,各种智能设备(如智能手镯、智能扬声器)和智能系统(如生物识别系统、智能医疗系统)、人工智能设备和个人信息收集系统更加直接和全面。人工智能应用程序收集的信息包括人脸、指纹、声纹、虹膜、心跳、基因等,具有很强的个人属性。这些信息是独特和不变的,一旦泄漏或滥用,将产生严重后果。


3. 数据异常


运行阶段的异常数据会导致智能系统的运行错误,而模型盗窃攻击可以反向恢复算法模型的数据。此外,开源学习框架存在安全风险,也会导致人工智能系统的数据泄漏。


二。算法风险


图像识别、图像欺骗等都会导致算法问题,比如自动驾驶仪,谷歌也做了一些研究,如果模型文件被黑客控制,恶意修改并从中学习,就会产生完全不同的结果。


算法设计或实现中的错误可能会产生不良甚至有害的结果


算法中存在潜在的偏见和歧视,这可能导致不公平的决策结果。


算法的黑匣子使人工智能决策无法解释,导致了监督和审查的两难境地。


带有噪声或偏差的训练数据会影响算法模型的准确性。


三。网络风险


人工智能将不可避免地引入网络连接,网络本身的安全风险也将把人工智能带入风险的深渊。


人工智能技术本身也可以提高网络攻击的智能化水平,进而进行智能数据窃取。

人工智能可以用来自动锁定目标和进行数据勒索攻击。人工智能技术通过学习特征库来自动发现系统漏洞和识别关键目标,从而提高攻击效率。


人工智能可以自动生成大量虚假威胁情报并攻击分析系统。人工智能可以通过机器学习、数据挖掘和自然语言处理技术来处理安全大数据,从而自动产生威胁智能。攻击者还可以利用相关技术生成大量错误信息,混淆判断。


人工智能可以自动识别图像验证代码并窃取系统数据。图像验证代码是防止机器人帐户滥用网站或服务的常用验证手段,但人工智能通过学习可以使这种验证措施无效。


四。其他风险


第三方组件也会出现问题,包括文件、网络协议和各种外部输入协议的处理。被黑客利用会带来灾难性的破坏。




责任编辑:萤莹香草钟
分享到:
0
【慎重声明】凡本站未注明来源为"人民经济网"的所有作品,均转载、编译或摘编自其它媒体,转载、编译或摘编的目的在于传递更多信息,并不代表本站赞同其观点和对其真实性负责。如因作品内容、版权和其他问题需要同本网联系的,请在30日内进行!
关于我们 网站地图 投诉与建议 免责声明 sitemap