您的位置 科技 > 智能 >

智能助手竟然劝人自杀 官方回应这是 BUG

科技的发展让人们体验到了便捷、智能的生活,但是不少的人都在担心,人工智能会不会像电影中的那样,从提高人们的生活质量到影响

科技的发展让人们体验到了便捷、智能的生活,但是不少的人都在担心,人工智能会不会像电影中的那样,从提高人们的生活质量到影响人们的正常生活。之前就有亚马逊Alexa智能语音助手"监听门"的事件,如今又有人工智能助手劝主人自杀的事情,让不少的人害怕。

近日,一位使用亚马逊语音助手Alexa的用户,在询问心动周期的问题时,竟然得到了如下答案:"心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。"

据了解,Alexa的回答是根据维基百科上的内容进行的,Alexa可能从任何人都有权编辑的维基百科上获取了不良信息。维基百科的免责声明中指出,任何文章的内容都可能被他人修改、破坏或篡改,而这些人为观点与相关领域的知识状况不符,维基百科不保证其有效性。

针对此事,亚马逊回应称,这是个Bug,而且已经进行了修复。AI能够为用户更好的服务固然是好的,但是对于安全和隐私方面的不确定性,有待提高。

本文来自网络,不代表江苏资讯网立场,版权归原作者所有,仅供参考交流,如有侵犯版权,请联系我们!

为您推荐

© 2015 - 2020 江苏资讯网 版权所有
联系我们

联系我们

在线咨询: QQ交谈

邮箱: 1519329887@qq.com

工作时间:周一至周五,9:00-17:30,节假日休息

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部