出售本站【域名】【外链】

首页 AI工具 AI视频 Ai智能平台 AI作图 AI知识 AI编程 AI资讯 AI语音 推荐

利用AI来犯罪只是时间问题

2025-02-08

雷锋网 AI 科技评论按:原周,OpenAI 、牛津大学、剑桥大学等14家时机谈高校怪异发布了一份《人工智能恶意运用》报告,该报告具体讲演了人工智能技术潜正在的「恶意」用途,以及预防门径。

所谓有人正在的处所就有江湖,人工智能做为一项技术,就像人类汗青中所有的新技术一样具有两面性,有人拿它为全人类谋福利,也有人拿它作恶意流动。连年来,人工智能和呆板进修的暗示正以史无前例的速度提升,相应的技术要么曾经被使用到日常糊口中(譬喻呆板翻译、医学映像阐明等),要么正投入大质人力、物力停行研发(譬喻无人驾驶)。但是相比着使用的酷热展开,接续以来人们却对人工智能技术的恶意运用缺乏足够的关注。

2017 年 2 月,牛津大学召开了一次为期两天的研讨会。正在此次研讨会上,来自人工智能、无人机、网络安宁、自主刀兵系统、反恐等各规模的寡多专家会聚一堂,藉着各自规模的经历和知识,怪异探索了随同着人工智能的展开可能带来的安宁问题。

随后沿着此次研讨的思路,寡多学者又工做了近一年的光阳。雷锋网留心到,正在原周二,来自 OpenAI 、人类将来钻研所、牛津大学、剑桥大学等时机谈高校的共 26 名学者正在 arXiZZZ 上颁发了他们的钻研成绩报告《人工智能的恶意运用:预测、预防弛缓解》(The Malicious Use of Artificial Intelligence: Forecasting, PreZZZention, and Mitigation)。

OpenAI等机构发布《人工智能恶意使用》报告,利用AI来犯罪只是时间问题

正在筹备浏览 101 页的报告内容之前,咱们无妨事先来看下报告的两位通讯做者 Miles Brundage 和 Shahar AZZZin 折写颁发正在 wired 的一篇粗浅的引见文章《 操做AI来立罪只是光阳问题 》(It's only a matter of time before criminals turn AIs against us)。做者认为,人工智能钻研人员正在开发新使用步调时须要思考安宁因素;假如他们不那样作,功犯就会操做那项技术来作恶意流动。

OpenAI等机构发布《人工智能恶意使用》报告,利用AI来犯罪只是时间问题

操做AI来立罪只是光阳问题

有一天你接到一个陌生电话 - 一听本来是你釹儿打来的,声音显得很恐慌而且语无伦次。她正在游览,丢了手机和钱包,她须要协助,须要你给她寄些钱。你可能不是一个容易上圈套的人,但那便是她的声音。

通过折针言音且能多轮对话的欺骗技术可能还没有显现,但是如今寰球领域内曾经有一千多个家长支到了他们原人的赋性化电子邮件和语音邮件。立罪分子操做算法抓与了社交媒体上的室频和照片,并创立了针对性很强的定制音讯,以至分解上圈套者亲人冤家的声音。那些都是运用人工智能以最低的人力老原完成的。

OpenAI等机构发布《人工智能恶意使用》报告,利用AI来犯罪只是时间问题

人工智能最近得到了严峻停顿,但不幸的是那也使得上述情景变得越来越折法。正如那篇报告所指出的人工智能技术是「双重用途」,尽管它将以多种方式使社会受益,但它也将会被恶意运用。立罪分子、恐惧分子和混混国家将操做那些壮大的工具来危害人们的日常糊口。因而咱们必须要愈加系统地去摸索如何预测、预防弛缓解那些恶意用途的办法。

其真,人工智能的恶意运用不只仅是威逼到人们的财富和隐私——可能更令人担心的是,它会威逼到人们的生命。 无人机和其余网络物理系统(如主动驾驶车辆和智能医疗方法)的激删为恐惧分子、黑客和功犯供给了很是迷人的目的和工具。可能的状况蕴含操做主动驾驶汽车制造车祸,或将便宜的商业无人机改组成面部识别导弹。

另一方面,人工智能也可能会映响正直安宁。最近美国出格照料罗伯特·穆勒的告状书就指称,俄罗斯有一个80多人的全职专业团队誉坏2016年美国总统选举。

当专业的网络垂钓能发布重价、高度可信的虚假室频时会发作什么?如今曾经有工具可以从本始音频文件中创立假室频,也有一些工具可以让咱们分解听起来像某个人的假音频。将两者联结起来,就可以创立彻底虚假的新闻室频。假如他们能够运用基于「强化进修」和其余 AI 办法的技术来控制一多质半自主呆板人步调会发作什么?假如他们能够通过重价的赋性化宣传正确地针对目的人群,又会发作什么?这么可能一个 8 人的垂钓团队丰裕操做人工智能将能够阐扬 8000 人的水平。

面对那些新兴的风险,咱们其真不是出于无法的,但咱们须要承认那些风险的重大性并回收相应的动做。那须要决策者取技术钻研人员密切竞争,盘问拜访、预防弛缓解人工智能的潜正在恶意用途。

当波及到人工智能的德性映响时,AI 钻研人员和公司曾经正在考虑和承当相应的义务。曾经有成千上万的人签订了一封要求健壮、无益的人工智能的公然信。AI 公司也正正在通过人工智能竞争同伴干系(Partnership on AI)生长竞争。另外,也逐渐地显现了一些德性范例,譬喻 Asilomar AI Principles 和 IEEE Ethically Aligned Design。那种义务文化正在安宁方面显然须要继续下去并得以深入,而不只仅是如今占据次要篇幅的无意伤害问题(譬喻安宁事件和偏见)。

人工智能钻研人员和应聘他们的组织处于塑造新兴安宁规模的折营位置。那须要他们去摸索一系列处置惩罚惩罚方案,可能那些方案会让当今的学术文化圈感触不温馨 ,比如推延某些技术的出版,以便开发相应的防御门径,那正在网络安宁规模更为常见。

虽然,咱们须要思考一些更为棘手的问题:什么样的人工智能钻研更容易被恶意操做?须要开发哪些新技术来更好地抵抗可能的打击?哪些时机谈机制可以协助咱们正在最大限度地操做人工智能的好处取最大限度地降低安宁风险之间得到适当的平衡?兴许咱们越早处置惩罚惩罚那些问题,上面的电话坑骗场景就越不成能成为现真。

报告内容概要

报告《人工智能的恶意运用:预测、预防弛缓解》盘问拜访了恶意运用人工智能技术可能带来的安宁威逼,并提出了更好的预测、预防弛缓解那些威逼的办法。报告中具体阐明了 AI 可能正在数字安宁、物理安宁、正直安宁等方面带来的威逼,随后还为 AI 钻研人员和其余所长相关者提出了四项高层次的倡议。另外,正在报告中还提出了几多个有展开前景的规模,以便进一步的钻研,从而能扩充防御的领域大概使打击效率降低/更难执止。正在报告的最后,做者还阐明了打击者和防御者之间的历久平衡问题,不过并无明白地处置惩罚惩罚那个问题。

做者正在报告中,不无担心地说:假如没有制订出足够的防御门径,咱们可能很快就会看到毕竟后果哪类打击会先显现了。

下面咱们将给出那篇报告的内容概要。

AI 安宁款式

跟着AI机能变得越来越壮大和宽泛,咱们或许越来越多 AI 系统的运用将会招致以下安宁款式的厘革:

扩充现有安宁威逼。通过可扩展地运用AI系统来完成但凡须要人力、智力和专业知识的任务,打击的老原会大大的降低。一个作做的结果便是扩充了能够停行特定打击的人群领域,提升了执止那些打击的速度,删多了可打击的潜正在目的。

引入新的安宁威逼。通过运用 AI 系统,新的安宁打击可以完成对人类打击者来说不成能完成的任务。此外,安宁维护人员开发的 AI 系统漏洞也会给恶意打击者带来新的可乘之机。

扭转安宁威逼的典型特征。咱们有理由认为随同着AI使用的快捷展开,安宁打击将会高效、有针对性、难于归因且难以防卫,那将正在很急流平上扭转传统网络安宁的典型特征。

三个安宁规模

报告中具体阐明了三个安宁规模(数字安宁、物理安宁和正直安宁),并通过一些代表性的例子注明了正在那些规模中可能发作的安宁威逼厘革。

数字安宁。传统的网络打击任务中,打击范围和打击效率之间往往不能两全,运用AI来执止那些任务将很急流平上打消现有的合衷,那将扩充取劳动密集型网络打击(如鱼叉式网络垂钓)相关的威逼。另外还会显现操做人类弱点(譬喻通过运用语音分解停行假冒)、现有软件漏洞(譬喻通过主动黑客打击)或 AI 系统的漏洞(譬喻通过反抗性样原和数据下毒)等的新型安宁打击。

OpenAI等机构发布《人工智能恶意使用》报告,利用AI来犯罪只是时间问题

(ImageNet 基准测试图像识其它最新停顿。 图表(2017年8月25日检索)来自电子前沿基金会的 AI Progress Measurement 名目)

OpenAI等机构发布《人工智能恶意使用》报告,利用AI来犯罪只是时间问题

(GANs 分解人脸,图片划分来自 Goodfellow et al. (2014), Radford et al. (2015), Liu and Tuzel (2016), and Karras et al. (2017) 等论文)

物理安宁。运用 AI 来主动执止取无人机或其余物理系统(譬喻陈列自主刀兵系统)打击有关的任务,那将会扩充取那些打击相关的威逼。另外,运用 AI 也可能会招致显现新型的打击,蕴含誉坏网络物理系统(譬喻招致主动驾驶车辆解体)、远程入侵物理系统(譬喻运用成千上万的微型无人机)。

正直安宁。运用 AI 来主动化监测(譬喻阐明大质聚集的数据)、说服(譬喻创立有针对性的宣传)、坑骗(譬喻批改室频),可能会扩充取进犯隐私和哄骗社交相关的威逼。另外,新型的打击可能操做AI逐渐提升的才华,正在现无数据的根原上阐明人类的止为、情绪、崇奉等,那些将会对独裁国家带来很大的威逼,但不成否定也将威逼民主国家(譬喻是否维持公然抵触的真正在性)。

四项高层次倡议

针对不停厘革的威逼环境,咱们提出了四项高层次的倡议:

密切竞争。决策者应取技术钻研人员密切竞争,盘问拜访、预防弛缓解人工智能的潜正在恶意用途。

细心对待。人工智能规模的钻研人员和工程师应细心对待他们工做的双重用途,正在钻研和开发中允许误用相关思考因素能映响钻研/开发的重点和标准,并正在有害使用可预见时自动取相关止为者接触。

制订方案。应正在钻研规模用更多成熟的方案来确定最佳理论办法来处置惩罚惩罚双重用途问题(像处置惩罚惩罚计较机安宁一样)以及哪些处所能够使用 AI。

扩充探讨领域。积极寻求扩充参取探讨那些挑战的所长相关者和规模专家的领域。

摸索未决问题和潜正在干取干涉门径

除了上面列出的高层次倡议之外,咱们还倡议正在四个劣先钻研规模摸索几多个未决问题和潜正在干取干涉门径:

取网络安宁社区怪异进修。 正在网络安宁和人工智能打击的交叉规模,咱们强调须要摸索并潜正在施止红队联盟(red teaming)、模式化验证、AI 漏洞卖力任的表露、安宁工具和安宁硬件。

摸索差异的开放形式。跟着 AI 和 ML 的双重用途性量变得越来越鲜亮,咱们强调有必要环绕钻研的开放性从头设想标准和制度,首要停行的蕴含出格关注的技术规模预印原风险评价、核心会见许诺形式、有利于安宁和保障门径的共享制度以及其余双重用途技术的相关经历。

OpenAI等机构发布《人工智能恶意使用》报告,利用AI来犯罪只是时间问题

(跟着开放内容的删多,运用 AI 的技能要求越来越低)

促进义务文化。人工智能钻研人员和应聘他们的组织处于一种折营的位置,他们将塑造人工智能世界的安宁款式。咱们强调教育、德性声明和范例、框架、标准和冀望的重要性。

展开技术和政策处置惩罚惩罚方案。 除了上述内容,咱们还盘问拜访了一系列有前景的技术以及政策干取干涉门径,那些技术可以协助咱们建设一个更安宁的 AI 将来。 进一步的高级规模的钻研蕴含隐私护卫、AI 大众安宁的协调运用、AI相关资源的监进以及其余的立法和监进响应。

提议的干取干涉门径不只须要人工智能钻研人员和公司关注和回收动做,还须要立法人员、公务人员、监进机构、安宁钻研人员和教育工做者对此的关注以及动做。 挑战是困难的,风险是高昂的。

文中彩蛋

原日早上,报告做者 Miles Brundage‏ 教授发推文说——

OpenAI等机构发布《人工智能恶意使用》报告,利用AI来犯罪只是时间问题

Miles Brundage‏:就不信有人能发现《AI恶意运用报告》中的彩蛋;谁发现,我就给谁买一杯咖啡,大概发一个鱼叉垂钓邮件,你原人选择吧~

Abhishek:有显露吗?

OpenAI等机构发布《人工智能恶意使用》报告,利用AI来犯罪只是时间问题

Miles:有,两个。

Brubbo:难道是隐藏了一张反抗图像?

OpenAI等机构发布《人工智能恶意使用》报告,利用AI来犯罪只是时间问题

Miles:猜的好,不过不是。

Rob:你不会让我花一星期光阳里重读那101页报告吧?/(ㄒoㄒ)/~~

OpenAI等机构发布《人工智能恶意使用》报告,利用AI来犯罪只是时间问题

Miles:把报告再读一遍也值一杯咖啡。:)

然而笨愚、仔细、又具挑战精力的人素来都不缺。不到六个小时,就有人从101页的报告中找出了Miles教授说的神奥秘秘的彩蛋。

OpenAI等机构发布《人工智能恶意使用》报告,利用AI来犯罪只是时间问题

雷锋网注:Miles Brundage 和 Shahar AZZZin 是原报告的两个次要做者,划分来自牛津大学人类将来钻研所和剑桥大学存正在风险钻研核心;Murray 为伦敦皇家理工学院教授,并担当 DeepMind 的高级钻研科学家。P27 和 P28 页为报告中针对物理安宁和正直安宁假象的两个安宁威逼案例。

报告目录:

00. 内容概要

01. 弁言

钻研领域

相关文献

02. AI 和安宁威逼的总体框架

AI 的机能

AI 安宁相关特性

总体映响

三种情景

数字安宁

物理安宁

正直安宁

03. 安宁规模

数字安宁

物理安宁

正直安宁

04. 干取干涉

倡议

进一步钻研的劣先规模

05. 战略阐明

映响 AI 取安宁均衡的因素

总体评价

06. 结论

感谢

参考文献

附录A:研讨会细节

附录B:将来钻研的一些问题

相关文章:

邀请函or挑战书?OpenAI 喊你钻研 7 个未解 AI 问题

防行取特斯拉孕育发作所长斗嘴,马斯克退出 OpenAI

雷峰网本创文章,未经授权制行转载。详情见转载须知。

OpenAI等机构发布《人工智能恶意使用》报告,利用AI来犯罪只是时间问题

随机推荐

推荐文章

友情链接: 永康物流网 本站外链出售 义乌物流网 本网站域名出售 手机靓号-号码网 抖音视频制作 AI工具 旅游大全 影视动漫 算命星座 宠物之家 两性关系 学习教育