深度|为什么机器人会变坏?

深度|为什么机器人会变坏?

作者|Bennat Berger  编译自:VentureBeat
出品|遇见人工智能     公众号 GOwithAI


从微软的种族主义机器人Tay到Inspirbot的黑色模因论,AI偶尔会触碰到法律的红线。为什么会发生这种事,我们能阻止吗?这是个好问题,也是一个很多人想知道答案的问题。


在科幻小说中,人工智能通常以不道德的恶棍形象出现。比如2001年太空奥德赛的HAL到“黑客帝国”中的机器人代理,AI是扮演的都是能干可信的坏蛋角色。


不难理解的是,一台机器人在设计上并不像你或我那样感觉和思考,因此它是一个很好的工具和试验地,可以把我们所有的不信任,恐惧和不道德都投射出去。


也就是说,人工智能已经不再是未来主义者想象中的一个角色了 ,而是已经在我们的厨房,汽车和手机中无处不在的主流现实。


深度|为什么机器人会变坏?


一些科学家警告说它存在诸多潜在的恶意行为,但在目前这个新生阶段,人工智能远没有可能威胁到我们的生死存亡。


它可以为我们订购所需的食物或帮我们用Google搜索问题。例如,Siri和Alexa足够聪明,对生活能够有所帮助,也不会构成威胁。


AI天生不是道德或仁慈的,也不是天生的不道德或应受谴责的。然而,我们已经看到中性人工智能经常出现违规的行为,这是一个没有研究清楚的原因。


AI目前注定不会进入黑暗的领域,但我们仍然需要小心一旦它失控产生的后果。

聊天机器人“Tay”

 

先看微软,这家科技公司创建了一个名为“Tay”的聊天机器人,它的设计是根据Twitter上学到的东西进行交流的,想不到的是它变成了一个满嘴脏话的机器人,宣称“XiTeLe是对的”,“女权主义者应该在一天后死去”。


深度|为什么机器人会变坏?


当然,Twitter上有很多丑陋的言论,但也没那么糟糕,然而,Tay变成了一个偏执狂。


从上面很容易地认为Tay变成了一个“邪恶僵尸机器人”,她缺乏道德是使她受到唾弃的原因。


据她的创作者说,她遇到了错误的人群:网络巨魔。当被要求模仿他们讽刺性的冒犯性言论时,她变成另人讨厌的机器人,而这些也归结于她的人类创造者。


Tay之所以变坏,不是因为她是一个没有感情的机器人,而是因为她受到了一群人的影响,他们感觉到了很多事情:仇恨、咄咄逼人的恶意,以及违反社会强加的界限的冲动。


我们可以指责创作者没有预见到它的到来,以及导致它发生的可怕行为,但科技本身既没有自我意识,也没有罪责。


安吉拉·纳格尔(AngelaNagle)在她的“杀死一切正常人”(Kill All Normal)一书中详细描述了我们今天所知的“另类右翼”的崛起,她将巨魔的行为描述为“越轨”,是过去十年在网络上表现出来的文化产物。


过分挑衅往往是为了挑衅性,模糊了反讽和认真波动之间的界限。根据Nagle深入互联网黑暗角落的说法,这种态度已经在网上成长并渗透到了主流。很糟糕的是,人类容易受到这种心态和武器的影响,很明显,人工智能也是如此。

艺术家造的Inspirbot

 

AI机器人产生威胁的另一个例子是Inspirbot,由挪威艺术家和编码器Peder J rgensen创作。这个鼓舞人心的海报生成AI创造了一些如果不是机器人的话,那将是令人难以置信的黯淡的海报模版。


深度|为什么机器人会变坏?


新闻媒体称这是一场危机中的人工智能,或声称机器人“疯了”。


尽管如此,Inspirbot的违法行为与Tay的不同之处在于它的幽默。它的偏差在一个对人们的不当行为有着较低容忍能力的世界里是一种娱乐,人们应该更好地了解它。


机器人变成的不是造物主的原本意图,约根森认为原因在于机器人的算法核心。他解释说:“这是一个搜索系统,它将人们在网上的对话和想法汇编起来,分析它们,并将它们重塑成它认为合适的鼓舞人心的对立面。”“鉴于互联网的现状,我们担心机器人的情绪只会随着时间的推移而恶化。”


到目前为止,创作者试图缓和“倾向于残忍和争议”的努力似乎“只会使其更加先进,更加虚无主义”。约尔根森说,他们会让它继续运行,看看它的结局。


虽然它的海报可能并不令人振奋,但我认为Inspirbot最大的讽刺之处在于,它通过颠覆那些鼓舞人心的海报经常被推崇的陈词滥调,创造了更多的意义。


深度|为什么机器人会变坏?


幸运的是,有缺陷的聊天机器人和记忆机器人并不会对社会构成威胁,如果有的话,它们是一种受欢迎的分散注意力的方式。


但是,当没有适当的保障措施时,它们确实代表了人工智能的可能。如果有人在全国范围内劫持亚马逊Echos,给他们灌输种族主义宣传或虚无主义的名言,那显然是一个更大的问题。


巨魔毕竟只是巨魔,直到它们不再是了;直到有一天,它们被认真对待,对话才变得有趣。


巨魔通常也有技术技能来**、泄露和传播宣传,因此,假新闻泛滥,以及越来越多的人担心人工智能在其创建过程中可能扮演的角色。


据深度神经网络平台Keras的创建者Fran ois Chollet说,“可以说,最大的威胁是通过信息瞄准和宣传机器人军队来控制大规模受众。”


如果人工智能可以自行武装起来,那么我们能遏制这种趋势吗?需要告诉制造商们要小心,但无疑是难以预测和阻止所有异常的结果。


虽然复杂,但必须积极主动地做,特别是人工智能作为一种值得信赖的日常工具,日益突出和强大。我们必须确保电脑不会违法或不道德地达到他们的目标,或者根据不准确的数据作出严肃的决定。换句话说,我们需要在这些不道德的机器中编码一些值必备程序代码。


我们现在还没有答案,我们可能永远也不会。但在我们解决这些问题之前,我们面临的风险是让机器选择自己的意识形态,或者让谁在网络上掌握最多的权力就让谁来支配它。我们留下的问题和漏洞越少,我们就越能控制和安全。


虽然它现在看起来像个小人物,但如果我们把人工智能的邪恶编码成一条通向黑暗的道路,它的恶行就会无限大。


深度|为什么机器人会变坏?

>>>>昨日全平台阅读量:6万4000余次>>>>
约访|据说有气质的AI公司都想被AI公司酷约访一下。微信加:623974966 
福利|点标题下蓝字,或微信搜“遇见人工智能”,关注后回复"报告",1秒钟获取麦肯锡、德 勤等48份顶级最新AI报告。


遇见人工智能 

专注人工智能的首席全媒体 

商务合作、转载、投稿请联系微信 

▼ 

623974966



我们近日组建了遇见人工智能观察团社群,每天分享最新的人工智能要闻、新技术、新应用、新观点。


目前微软、百度、腾讯、出门问问、Face++ 、商汤科技、科大讯飞、猎豹移动、物灵等顶级人工智能公司集结,如果感兴趣,可加微信:623974966,备注:遇见人工智能+单位和职位,符合条件,邀您加入。




深度|为什么机器人会变坏?