从网络安全的角度看,人工智能和机器学习在工厂的使用有利有弊。
人工智能驱动系统的漏洞的一个众所周知的例子是deepfakes:通过深度学习技术创建的伪造图像、视频和文本。在人眼看来,它们与原作一模一样;只有人工智能才能发现差异。
McAfee实验室在一份报告中指出,威胁参与者利用这项技术试图操纵公众舆论,但面部识别安全系统也很脆弱讨论2020年威胁预测报告的博客.伪造的图像可以成功地欺骗这些人工智能驱动的系统解锁智能手机或允许入侵者使用假身份证进入建筑物。
所谓的“对抗性机器学习”,或简称aml,经常被坏人使用,但它也是网络安全研究人员和提供者对抗它们的工具。当被攻击者使用时aml可以包含有毒数据用于模型训练。图像识别和自然语言处理(nlp)系统是脆弱的。或者可以披露培训数据,可以调查行业或公司机密。
赞助|如何避免HPC数据流量拥堵
AML还可以主要包括企业通过多种教学方法进行模拟有效的用户资源配置文件,包括愚弄自动语音识别技术系统能够通过学生产生与现有实际声音片段99%相同的音频波形。相反,它们包含伪造的短语。
RensselaerIBMAIResearchCollaboration的首席科学家陈品玉(PinYuChen)告诉记者,白帽黑客和研究人员可以利用AML来对抗对手,并通过使模型更加健壮来改进基于AI的技术EE次.他说:“例如,在计算机视觉领域,它可以帮助改进基于神经网络的深度学习模型,生成更好的数据,获得非常高质量的图像。”。
智能制造系统的弱点
智能技术制造的网络信息安全挑战很多。
ARC咨询集团负责网络安全服务的副总裁希德·斯尼特金(SidSnitkin)告诉记者,在工业4.0(也称为数字转型)中,“每个人都希望访问一切:云计算中的设备、数据存储和应用程序。”EE次.“整个想法就是利用这些设备的连接性来做一些你还没有想到的新事情。但所有这些连接都在打开新的安全漏洞,这可能意味着操作可能受到威胁,因为从安全角度来看,您不知道数据从何而来,也不知道数据将从另一端流向何处。”
能见度是智能制造和人工智能在工作场所面临的最大网络安全挑战,因为你不可能保护你看不见的东西,darktrace的网络情报和分析主管贾斯汀.提姆布莱克菲尔说。“在实现industry4.0技术之前,您需要了解安全影响,但我们倾向于在部署安全之前部署industry4.0技术。”
趋势科技(TrendMicro)5月发布的一份报告称,即使是一个孤立的智能制造系统,也可能包括由外部顾问和员工定制的工业物联网设备。
这份报告是针对智能制造系统的攻击,是一种包括威胁和防御在内的安全分析,模拟了意大利工业4.0实验室的货物生产情况。该实验室生产玩具手机的理由与成熟的智能制造平台相同。这些供应链薄弱是报告的主要发现之一。
AML在工厂
Darktrace的Fier说,反洗钱的目标企业要么是用于中国制造业和其他信息系统的人工管理智能,要么是模仿我们人类操作员的行为,然后学生进行分析大规模攻击。“例如,spear网络钓鱼活动过程中可能会通过使用NLP来模拟和伪造一个电子商务邮件,使其工作看起来像是真人发送的。”
Trendmicrothreat研究主管rainervosseler表示,在智能制造领域,机器学习被广泛应用于包括异常检测在内的许多领域。“即使你是在反洗钱假设下运作的,你的数据也必须足够好,足够可信,以至于在某个时候,你可以把它交给模型。因为你可以操纵流入系统的数据,攻击者也可以操纵模型。”
一位研究人员表示,一些机器学习模型容易受到反洗钱的攻击,即使是最先进的神经网络IBM博客。比如损坏的模型分类错误,只有一点点图像不同,通常分类正确。
赞助商|Touch?
福特福特卫士实验室的安全洞察和全球威胁联盟主任德里克·曼基解释说,ML对分配的任务非常具体,尤其是在操作技术(OT)方面。例如,一些特定于OT的威胁仍在攻击Windows/X86/PC接口以及许多基于ARM的威胁。曼基说:"因此,ML模型必须学习和理解从Linux代码到ARM代码到RISC代码和许多其他代码的所有内容。"。"现在固有的问题是,我们如何根据不同的OT协议和系统或环境连接这些不同的模型?这是下一代:联邦机器学习,一个分析所有这些协议和系统或环境的系统。"
IBM的陈说,一些来自对抗性人工智能的真实伤害已经发生了。“一个典型的例子是自动驾驶,它很容易修改停车标志并欺骗系统,这样自动驾驶汽车就不会在需要停车的地方停车。”
他说,因为人工智能的开发和实现非常迅速,用户将无法跟上已经开发出来的东西,以及能做什么和不能做什么。“我们的工作是确定这一点,以便用户能够对这项技术抱有现实的期望,并对其对部署的影响更加谨慎,”他表示。ibm创建了一份新的技术情况说明书,告诉用户使用这项技术所涉及的风险。
用人工智能对抗人工智能
一些公司正在合作,为特定的工业部门量身定做人工智能驱动的网络安全解决方案。
打击ACM的大部分工作是由网络安全公司根据使用人工智能和机器学习来帮助改进威胁和攻击的监控、检测和预防的产品完成的,尤其是在物联网和IIoT设备等终端。例如,Darktrace的协议admm知道工业免疫系统在OT、IT和IIoT环境中学会看起来"正常"。该网站说,其ML驱动的安提根纳网络"可以中断攻击与机器的速度和手术精度,即使威胁是目标或完全未知的。
Fortinet的网络安全也是由人工智能驱动的。
陈说,IBM等公司正在开发更好的人工智能技术,以基于数据收集缺陷来了解漏洞的原因。"我们扮演的角色与白帽黑客类似:在产品推出之前,我们会识别漏洞并了解对市场的道德影响。
对抗性攻击可以发生在模型开发的三个阶段中的任何一个阶段:收集数据,训练模型,或者在现场部署模型。每个问题都有不同的解决策略和技巧。Ibm的模型清理服务描述了一个好的模型,然后返回一个干净的模型。另一个服务为健壮模型提供了基线。
即将到来:人工智能驱动的恶意软件?
不幸的是,使一个系统模型对攻击更加健壮通常意味着要牺牲性能,因为更健壮的模型也不太灵活。此外,深度合作学习管理模式进行复杂且难以整合。“事实上,我们自己不知道一个网络模型是如何有效解决学生一个重要任务的,这使得我们更难知道它是否存在安全,”陈说。“我们应该怎么知道它真正学会了如何提高解决这些问题?”
另一个障碍是试图跟上简单的攻击。
基于人工智能的恶意软件可能很快就会出现,黑暗跟踪的消防员警告说。"虽然人工智能驱动的恶意软件尚未完全运行,但我们开始看到它,而且它已接近地平线,"他说。"。据我们所知,工业控制系统领域尚未出现对抗性人工智能(AI)或ML。但我想象一个恶意软件,坐在你的ICS环境中,从中学习,然后采取下一步。对工业空间影响最大的可能是损害的扩大。"
但到目前为止,大多数攻击都是使用自动化,而不是机器学习,Fortinet的Manky说。“这是个好消息,因为自动化比ML更容易被打败。我们每天看到200万个病毒进入我们的实验室,其中大多数都是微不足道的自动化。但我们开始看到一些ML和AI逃避安全的迹象,所以它肯定会到来。”
芯片作为现代电子技术的核心组成部分,具有举足轻重的地位。下面将详细介绍芯片的重要性,并解释...