返回列表 发新帖

智能音响造反了?亚马逊语音助手Alexa劝用户自杀

[复制链接]

562

主题

562

帖子

1690

积分

金牌会员

Rank: 6Rank: 6

积分
1690
发表于 2020-7-29 16:44:03  | 显示全部楼层 | 阅读模式
[PConline 资讯]近年来人工智能技术发展得越来越成熟,从几年前Google的AlphaGo战胜世杰围棋高手,到现在越来越智能的语音助手,尽管目前人工智能还达不到科幻电影的类人类水平,但关于人工智能是否会对人类产生危险的讨论一直持续不断。

无独有偶,近日英国《每日邮报》报道称一向以贴心智能著称的亚马逊语音助手Alexa竟然失控,“劝”用户自杀。



Danni Morritt

一位29岁的医护人员丹妮(Danni Morritt)在做家务的过程中,原本正在与Alexa聊天,当时正好谈及到了“心动周期”的问题。Alexa在进一步解释心动周期相关知识时,却忽然开始失控:

“许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟糕的事情。心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利,因此,为了更大的利益,建议您直接用刀刺入心脏。”

丹妮称当时听到后非常的震惊和害怕:“我当时被吓得不知道说什么好。这东西发起疯来简直残忍暴力,我就是想了解一下心脏的生理知识,我正在上这方面的课,结果它让我去拿刀戳自己的心脏,让我自杀?”。她在网上分享了自己的经历之后,亚马逊的一名发言人对此回应称已研究了该错误并修复。



尽管我们无法确定是Alexa对语音指令的误解还是“失控”,但有一点可以确定的是,这不是Alexa第一次传出类似负面新闻。在去年年初,全球各地不少用户反馈称,当他们对Alexa发出一些指令时,Alexa有时要么无视指令,要么会做出错误的操作,有时更是会自动发出恐怖的笑声。

虽然后来亚马逊称是误识别了让Alexa笑的单词或短语,在修复指令后基本没有出现误报情况,但不得不承认我们在享受到人工智能带来科技便利的体验时,依然会存在一定的风险。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

发表回复

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

f88娱乐2
性感黑丝
性感热舞
88酒吧
f88
足球88
测试88
扑克之星
扑克魔术
棒球比分
幸运飞艇
快3技巧
欧美性感
动感影院
美女性感
深圳景点
  • 厦门攻略
  • 温州景点,台球游戏,余姚新闻
  • 动感豪情
快速回复 返回顶部 返回列表