人工智能的阴暗面:如何让人工智能值得信赖

来源:TECHWEB  责任编辑:小易  

确保人2113工智能在不会带来一些意想不到的后果的5261情况下造福人类,是很困难的。拉塞4102尔教授说,人类社会无1653法界定自身想要什么,因此通过编程让机器为最多数量的人谋求最大幸福是存在问题的。这就是人工智能所谓的“控制问题”:智能机器将一心追逐武断的目标,甚至当这些目标并不可取的时候也是如此。“机器必须考虑到人类真正想要的东西具有不确定性,www.zgxue.com防采集请勿采集本网。

安全和隐私问题是采用人工智能的最大障碍,这是有充分的理由。良性和恶意行为者都可以威胁AI模型和数据的性能、公平、安全与隐私。

人工智能的利: 首先,在生产领域,人的各种能力都已被效率更高且成本低廉的机器及人工智能实体代替,劳动力将大大被解放。 其次,我们的环境问题将会被改善

随着AI逐渐成为主流并转向他们承诺一系列好处,这是企业不能忽略的发展趋势。实际上,在最近的2020年Gartner新兴技术发展曲线图中,所列技术中有三分之一以上与AI有关。

随着科学技术的发展,人工智能越来越多地进入到人们的日常生活中。硅谷的专业人士表示,未来五年内,人们将大大受益于使用人工智能所提升的效率,尤其在医疗

同时,人工智能也有一个往往无法解决的阴暗面,特别是因为当前的机器学习和人工智能平台,市场上还没有提供一致或全面的工具来保护企业组织和个人的权益。人工智能企业而言,更糟糕的是,根据Gartner的一项调查,消费者认为,使用或提供AI的组织在出现问题时应负责任。

人工智能本质上是对人类智能的功能模拟。 在某些方面的表现比人类智能更优秀,但是目前由于其固有的复杂性和技术的局限性,所以暂时不过是人类智能的延伸,

实施应对威胁的安全措施以保护AI投资符合每个组织的利益。对AI的威胁和攻击不仅损害AI模型的安全性和数据安全性,而且损害模型的性能和结果。

具体可以搜索一下:快包 智能产品开发,外包服务平台 演绎、推理和解决问题早期的人工智能研究人员直接模仿人类进行逐步的推理,就像是玩棋盘游戏或进行逻辑推理

犯罪分子通常会以两种方式攻击AI,技术人员可以采取行动来减轻此类威胁,但首先让我们探讨AI的三大核心风险。

其实对于人工智能,我们没有本办法去抵挡它的潮流,但是我们也一定要有一个自己的标准嘛,就是知道什么事情是可以让他帮助自己的。

人工智能的安全、责任和社会风险

使用AI的组织面临三种风险。随着AI越来越普及并嵌入到关键的企业运营中,安全风险正在上升。例如,自动驾驶汽车的AI模型中可能存在导致致命事故的错误。

由于使用敏感客户数据的AI模型越来越多地影响着影响客户的决策,因此责任风险正在增加。例如,错误的AI信用评分会阻碍消费者获得贷款,从而导致财务和声誉损失。

随着“不负责任的AI”通过做出既不透明也不容易理解的偏见决策,给消费者带来不利和不公平的后果,社会风险正在增加。即使是轻微的偏差也会导致算法的严重错误行为。

罪犯通常如何攻击AI

上述风险可能是由犯罪分子攻击AI的两种常见方式造成的:恶意输入,骚扰和调查攻击。

对AI模型的恶意输入可以采取对抗性AI、操纵数字输入或恶意物理输入的形式。对抗性AI可能会使用AI生成的声音以社会工程学人类的形式出现,该声音可用于任何类型的犯罪,被认为是网络钓鱼的“新”形式。例如,去年3月,犯罪分子使用AI合成语音模仿了CEO的语音,并要求将243000美元的资金以欺诈方式转移到自己的帐户中。

调查攻击涉及犯罪分子向组织的AI模型发送调查,以了解其工作方式,并且可能以黑匣子或白匣子的形式出现。具体来说,黑匣子查询攻击确定了不常见的扰动输入,以用于所需的输出,例如财务收益或避免检测。一些学者已经能够通过操纵输出来欺骗领先的翻译模型,从而导致翻译不正确。

白盒查询攻击会重新生成训练数据集以重现类似的模型,这可能会导致有价值的数据被盗。这样的一个例子是,语音识别供应商成为新的外国供应商伪造他们的技术然后出售它的受害者,这导致外国供应商能够基于被盗的IP抢占市场份额。

最新的安全支柱使AI值得信赖

对于IT领导者而言,承认其组织中对AI的威胁至关重要,以便评估和支持他们现有的现有安全支柱(以人为中心和企业安全控制)和新的安全支柱(AI模型的完整性和AI数据)完整性)。

AI模型的完整性鼓励组织探索对员工的对抗培训,并通过企业安全控制来减少攻击面。将区块链用于AI模型的起源和跟踪以及用于训练该模型的数据也属于这一支柱,作为组织使AI更加值得信赖的一种方式。

AI数据完整性侧重于数据异常分析(如分布模式和异常值)以及数据保护(如差异性隐私或合成数据),以应对对AI的威胁。

为了保护AI应用程序的安全,专注于安全技术和基础架构的技术专业人员应执行以下操作:

通过进行威胁评估并应用严格的访问控制以及对训练数据、模型和数据处理组件的监视,可以最大程度地减少开发和生产期间AI应用的攻击面。 通过解决四个特定于AI的方面来增强用于保护软件开发生命周期(SDLC)的标准控件:模型开发过程中的威胁,AI模型中缺陷的检测,对第三方预训练模型的依赖以及公开的数据管道。 通过保护和维护最新,高质量并且包含对抗性样本的数据存储库,防御所有数据管道中的数据中毒。越来越多的开源和商业解决方案可用于提高针对数据中毒,对抗性输入和模型泄漏攻击的鲁棒性。

除非欺诈者被人发现并随后对该欺诈者的系统进行取证,否则很难证明AI模型何时遭到攻击。同时,企业不会简单地停止使用AI,因此确保其安全对于在企业中成功实施AI至关重要。将安全性改造到任何系统中的成本要比从一开始就内置它要高得多,因此请立即保护您的AI。

 

我们在一片对18岁照片的花2113样赞美中,迎来了又一个新年。52614102按说新年应该是开心的时候,但是刚刚跨1653年结束,抬头一看居然要上班了!不由得悲从心来……所以今天我们打算说点不那么开心的事。最近几天,各种对2018年的科技预测层出不穷,其中对AI的畅想占了大头,内容差不多是一片喜庆祥和。但事有两来,当我们开始从AI中收获价值的时候,技术升级后带来的潜在风险也在升温。这就像汽车当然好过牛车,但汽车也会带来各种各样的交通事故。我们当然不能因此禁止汽车上路,但是也不能对交通问题视而不见。今天我们来预测几个,很可能在2018年进入我们眼帘的“人工智能负能量”。毕竟做好准备,是解决问题的前提条件。一、人工智能伦理问题开始出现个案2017年1月,在加利福尼亚州阿西洛马举行的Beneficial Al会议上,近千名人工智能相关领域的专家,联合签署了著名的《阿西洛马人工智能23条原则》。随后,各种关于人工智能伦理道德的讨论、会议,以及相关协会和科技组织开始出现在公众视野里。《23条原则》的主要内容,就是呼吁人工智能不能损害人类的利益和安全,同时人工智能必须可以被人类控制,同时人类要尽量尊重人工智能和机器人的安全。听起来颇有点科幻的味道,但是在各行各业开始部署AI,尤其开始利用AI进行自动化决策的时候,人工智能的伦理与道德问题或许真的会浮出水面。比如说,自动驾驶车辆在马上要发生事故时,是优先保护路人还是乘客?假如AI诊断系统,给出的建议是安乐死,那么它算是杀人吗?为了避免更大损失,AI系统是否能打破规则,自行其是?这其中最著名的,大概就是去年谷歌批评上海交大某团队进行的“看脸定罪犯”研究。引发了媒体对于AI价值观的大量讨论。在各个产业场景开始使用AI技术时,随之而来的边界问题、责权问题、道德选择问题这些在实验室中不会出现的矛盾将很可能被引发。人类还从未真正讨论过这些。假如2018年人工智能的落地化足够快,伦理问题的苗头或许会临近。二、难以根治的的算法歧视记得2016年,微软推出过聊天机器人Tay,却因为用户教给它大量种族歧视和脏话,一天内就被暂时下线。这引出了一个极具争议的话题:机器学习会吸收人类的知识和信息来塑造自己,那么假如它吸收的信息含有大量“不那么纯良”的东西呢?2017年,算法歧视问题非但没有被解决,各种各样新的问题还应运而生。比如谷歌大脑会给女性图片打上很多关于家庭、弱势的标签,显然有悖于女权主义精神;而把黑人识别为大猩猩,则点燃了AI种族歧视的话题关注度。所谓的算法歧视,对于普通消费者来说,最有可能在内容推荐和电商推荐两个地方感觉到。比如说消费者刚看过宽大的衣服,电商就推荐减肥药,很可能让消费者联想到算法在歧视自己胖;再比如打开今日头条这类软件的时候,大家可能都出现过这种情况:偶尔点了一个推荐来的猎奇或者伪色情内容,然后再一刷新。好嘛,蜂拥而至的类似内容啊,你本来想看的兴趣内容和专业内容瞬时间化为乌有。甚至你怎么点我不关心不喜欢,平台还是给你推荐。这就是因为算法的归类方式给你贴上了标签。这种歧视感也蛮严重的,好像背后有个人奸笑着对你说:“承认吧,你就是这么低俗……”这类问题的根源,是机器学习技术进行个性推荐,今天还必须建立在两个逻辑的基础上:以过去算将来,以群体算个体。算法会吸收以前有过的经验来给你特定的某些东西,但很有可能歧视信息就包含在机器吸收的经验里。在个性推荐系统越来越多场景应用可能的今天,我们恐怕短期内还难以根治算法的歧视。三、私人数据与机器学习的矛盾日益凸显人工智能和个人隐私,似乎从来都是一对天敌。因为人工智能技术假如想要提供个性化、完全符合个人习惯的服务,那么就必然要学习和理解用户本身。而这其中,就涉及对用户私人数据的学习。但出于隐私的考虑,以及对网络安全的不信任,大部分用户显然是不希望透露自己数据给机器的。从而“鸡生蛋蛋生鸡”的矛盾就产生了。近两年,用AI来读取用户个人数据这件事一直处在被压抑和不能提的状态。更早一点的时候,苹果和谷歌等大公司都推出过让AI读懂用户的产品,但很快就被舆论抨击给关停了。即使这样,谷歌去年推出的家用AI相机还是饱受诟病。在2017年后半段,我们看到了AI芯片拉开了风云际会的争夺序幕。但是搭载AI芯片的硬件一定要有的放矢,有任务可以完成。于是让硬件读懂用户、让系统根据用户数据提供千人千面的服务,势必会重新回到公共视野里。其实从大趋势上看,把个人数据交给机器似乎是人类不可避免的归宿。无论是医疗健康、金融服务还是社会安全,机器肯定都比人类更靠谱。只是这其中经历的不适感和安全风险是巨大的。在2018年,无论是手机、音箱、穿戴设备、VR,在启用了机器学习能力后,似乎都要重新沾惹隐私数据这条红线。究竟怎么处理这个矛盾,也是挺让人头疼的。四、真假越来越难分就目前来看,希望AI能像人一样对话和理解,显然还是为时过早的一件事。但是让AI来造假,似乎已经问题不大了。此前我们讨论过视频和直播换脸的可能,其实从整个技术进度来看,基于GAN的仿真和替换技术正在整体成熟。无论是模拟替换音频还是视频文件,AI都已经能够得心应手的处理。但这肯定不会是什么好事。在著名的Face2Face软件推出的时候,国外网友就惊呼,假如跟我视频聊天的人被替换了怎么办?而在开发框架和数据资源越来越丰富、算法越来越强劲的今天,大概我们可以很肯定的说:2018年用AI来伪造视频音频将更加天衣无缝。这是AI对未来技术的探索,却很可能引发社交媒体和网络传播的动荡:当我们看到的视频都可以完全造假的时候,这个世界还有什么可以相信呢?假作真时真亦假,只能期望反AI造假的AI系统也尽快出现吧。五、黑客攻击有更多花样2017年年末,谷歌TensorFlow被惊人的爆出框架漏洞,虽然是被白帽子找到,没有造成危险,但这还是点醒了我们一点:AI并不安全。至此,我们已经见识过了各种黑客攻击和AI技术结合的可能性:用AI来伪造文件信息实施攻击和诈骗;利用AI技术来提升黑客攻击效率;以AI系统为目标的攻击。随着AI和物联网体系的结合,未来物联网攻击中很可能也会加入AI的身影。AI技术的成熟,让网络黑客们找到了更多的目标、更多的工具以及更多的技巧。虽然AI同样给我们提供了各种保护互联网安全的方式。但无论如何,AI带给了黑客更多可能性是毫无疑问的。2017年的网络安全世界并不平稳,各种各样的病毒和黑客肆虐不绝于耳。进入2018,我们很可能会在这个战场看到更激烈的搏杀。结束语就像任何一种技术革新一样,AI也同样在带来价值的同时创造了危险。而且凭借着识别和学习能力的特征,AI带来的负面影响说不定会比过往更大。但是无论如何,技术就是这么一步步推进的。更好的风景总是伴随着更难走的路途。认识风险,并探索解决方案,或许才是人类与AI相处时更舒服的方式内容来自www.zgxue.com请勿采集。


  • 本文相关:
  • 2018我们可能要忍受的人工智能阴暗面?
  • 如何让人工智能造福人类
  • 如何让人工智能机器人快速自我纠正错误并吃一堑长一智
  • 辩论赛 辩题人工智能是人类之幸还是祸 我是正方 如...
  • 人工智能利与弊。
  • 如何克服使用人工智能带来的风险
  • 如何评价「如何把控人工智能」
  • 人工智能的4种实现途径
  • 如何对抗人工智能?
  • 人工智能如何保护用户隐私与安全?
  • 免责声明 - 关于我们 - 联系我们 - 广告联系 - 友情链接 - 帮助中心 - 频道导航
    Copyright © 2017 www.zgxue.com All Rights Reserved