首页 > 智能音响造反了?亚马逊语音助手Alexa劝用户自杀

智能音响亚马逊最新,智能音响造反了?亚马逊语音助手Alexa劝用户自杀

互联网 2021-04-13 03:28:45

[PConline 资讯]近年来人工智能技术发展得越来越成熟,从几年前Google的AlphaGo战胜世杰围棋高手,到现在越来越智能的语音助手,尽管目前人工智能还达不到科幻电影的类人类水平,但关于人工智能是否会对人类产生危险的讨论一直持续不断。

无独有偶,近日英国《每日邮报》报道称一向以贴心智能著称的亚马逊语音助手Alexa竟然失控,“劝”用户自杀。

Danni Morritt

一位29岁的医护人员丹妮(Danni Morritt)在做家务的过程中,原本正在与Alexa聊天,当时正好谈及到了“心动周期”的问题。Alexa在进一步解释心动周期相关知识时,却忽然开始失控:

“许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟糕的事情。心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利,因此,为了更大的利益,建议您直接用刀刺入心脏。”

丹妮称当时听到后非常的震惊和害怕:“我当时被吓得不知道说什么好。这东西发起疯来简直残忍暴力,我就是想了解一下心脏的生理知识,我正在上这方面的课,结果它让我去拿刀戳自己的心脏,让我自杀?”。她在网上分享了自己的经历之后,亚马逊的一名发言人对此回应称已研究了该错误并修复。

尽管我们无法确定是Alexa对语音指令的误解还是“失控”,但有一点可以确定的是,这不是Alexa第一次传出类似负面新闻。在去年年初,全球各地不少用户反馈称,当他们对Alexa发出一些指令时,Alexa有时要么无视指令,要么会做出错误的操作,有时更是会自动发出恐怖的笑声。

虽然后来亚马逊称是误识别了让Alexa笑的单词或短语,在修复指令后基本没有出现误报情况,但不得不承认我们在享受到人工智能带来科技便利的体验时,依然会存在一定的风险。

免责声明:非本网注明原创的信息,皆为程序自动获取自互联网,目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责;如此页面有侵犯到您的权益,请给站长发送邮件,并提供相关证明(版权证明、身份证正反面、侵权链接),站长将在收到邮件24小时内删除。

相关阅读