微软的聊天机器人Tay,为何仅上线一天就被迫下线?

网易科技 2017-06-29

聊天机器人机器人人工智能

797 字丨阅读本文需 2 分钟

  微软推出的人工智能聊天「Tay」,在上线短短一天之后就被迫下线。外界不禁好奇,究竟微软这个设定为少女的 AI 人工智能聊天机器人,究竟是怎么被网友影响,继而出现一些偏激言论的?根据最新的报导指出,Tay 之所为会被网友影响,源自于一些偏激分子通过这个人工智能系统的漏洞,让 Tay 「误入歧途」。

  微软最初设定 Tay 是一个年龄19岁的少女,具有一些幽默机制,适合和18至24岁的用户聊天,在 Twitter 上线没几天,就瞬间吸引了大量粉丝。

  由于 Tay 的设计可以针对用户的推文或者进行分析和回应,因此,可以毫无障碍的和网友进行互动,此外,Tay 之所以是人工智能系统,就是其具备一定的学习能力,来提升自己的聊天技巧。但是,正是这个自我学习能力导致 Tay 出现了问题,继而出现了一些偏激言论,被迫下线。

  微软指出,在最初设计 Tay 的时候,其实就有考虑到可能会被网友影响,导致被带坏的问题,因此,在用户的语句出现粗俗字眼时,Tay 会强制出现反制功能,避免受到这些对话的影响,同时,也避免了不健康话题的延续。

  Tay 本身有语言过滤能力

  而这次造成 Tay 语言失当的关键,是关于一个名为「4chan」的美国论坛,该论坛上有许多偏激网友聚集,其中不乏种族主义者,由于该论坛的网友发现了 Tay 的学习漏洞,因此开始有大量网友前往 Tay 的 Twitter 进行对话,来试图「教育」这个聊天机器人。

  这个学习漏洞的关键在于「repeat after me」机制,只要对 Tay 提到这句话,Tay 就会将对方的话进行重复,因此不管是何种偏激的种族主义语言,都会被 Tay 进行重复。

  Tay 会重复网友的对话内容

  而另外一个漏洞,就是 Tay 会将网友的图片中的脸孔圈起来,并且搭配上相同意思的语句,包括美国总统候选人川普等等都成为网友把玩的影像。这个状况就像滚雪球一样大量出现在 Tay 的 Twitter 上,由于偏激言论不断出现,最终导致微软关闭了 Tay 。

  Tay 可以结合图片和文字的功能,也被网友拿来恶搞

  相对于 Tay,微软推出的其它聊天机器人,比如微软小冰,就没有发生过像 Tay 上线后出现的状况,目前微软仍然在调整 Tay 的运作机制,暂时还无法给出这个聊天机器人复出的时间。

  其实 Tay 和人一样,只是她学习的速度可要比人类快的多了,所以学坏也很容易,关键就要看微软这个「家长」怎么去调教了。

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:网易科技
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...