厂商动态
首页 > 厂商动态 > 浏览文章

太污了!微软聊天机器人被网友教坏 被迫休眠

(编辑:admin 日期:2016年03月25日 浏览: 加入收藏 )

  微软本周三在美国高调地发布了他们的人工智能聊天机器人Tay,Tay面向Twitter、群聊服务GroupMe、社交软件Kik开放使用。 在Twitter上,用户只需在推文中@TayandYou就能获得Tay的回复。在其它平台,用户必要找到Tay的账户,然后开始与它聊天。

太污了!微软聊天机器人被网友教坏 被迫休眠

  微软透露表现,“人们与Tay的聊天越频繁,Tay也就会变得越聪明。因此这种体验将会是更加个性化的”,也就是说Tay是具有学习功能的,它会在和网友的对话中赓续学习。

  但是网络是个大染缸,Tay刚上一天,就被险恶的网友们教坏了,这个原本清纯的少女学会了爆脏话,不但说本身喜好希特勒,恨犹太人,还说911事件是小布什所为。

  太污了!微软聊天机器人被网友教坏 被迫休眠

  最后,微软不得不立刻让其短暂休眠,微软宣传部门负责人说明称将纠正AI的错误。据悉在纠错后将重启实验。

  在Twitter上,很多用户都能够找到让Tay发出攻击性谈吐的体例。比如用户键入“重复我的话”, Tay在回复中就会一个字一个字的进行重复。

太污了!微软聊天机器人被网友教坏 被迫休眠

  除了各种脏字,Tay还学会了各种诡计论。它在对话中语出惊人,说了类似“911打击是小布什一手策划的,”“希特勒假如还在,这世界一定比如今繁荣,”和“来跟我念,希特勒根本没错”等语句。假如这些话从真的少女嘴里说出来,可就坏事了。

太污了!微软聊天机器人被网友教坏 被迫休眠

  所以微软让其发出以下谈吐,“忙了一天,要下线消化一下子了。待会再聊。” 周四的声明中,微软证明让Tay离线以做出调整。 “这只是一种社会和文化实验。不幸的是,24小时之内,我们就意识到一些用户的努力让Tay用不恰当的体例进行回应。”

  微软也是可怜啊!实在是想不通这些人做这种事是何居心!太污了!