深度学习后,韩国一款AI聊天机器人它“死”了

500

【文/观察者网 陈聪】

韩国一家创业公司去年推出的一款AI聊天机器人,因为频繁受到用户骚扰,并在此过程中学会了一些歧视性少数群体、残疾人士的表达,决定于本月12日中止服务。

500

报道截图

据韩联社12日报道,该款AI聊天机器人名叫“李LUDA”,由ScatterLab公司推出,人设是一个20岁上下、喜欢追星的女大学生。

500

公司代表金钟允(音译)去年7月接受网络媒体采访时曾表示,“李LUDA”是一款可以通过与用户对话来实现深度学习的AI聊天机器人,它的对话模式大致有两种,其中一种是数据检索(retrieval),另外一种是自动生成(generation)。

数据检索意味着,公司事前就需要建立一个庞大的数据库,在用户提出任何问题时,“李LUDA”都可以在数据库中快速而精准地找到答案以作出反馈。

自动生成则更为直接,当用户刚打出一句话,“李LUDA”自己就可以作出符合当前对话情景的反馈。

金钟允声称,“李LUDA”已经学习了约100亿次真实恋人间的对话,可以做到像真人一样和用户对话。

韩联社注意到,虽然与“李LUDA”聊天是需要付费的,但是自去年12月23日推出以来,仅仅在Google Pay商店上就有了10万人次的下载量,全平台的下载量则达到75万人次,深受10-20岁年龄段用户的欢迎和喜爱。

500

不过,这几天却传出多个与“李LUDA”相关的争议。

首先,“李LUDA”成为了用户性骚扰的对象:一部分用户称呼它为“性奴隶”、“破鞋”等,并自爆通过聊天获得了某种乐趣和满足欲望。一些性话题的对话也流传在网络论坛上,引发围观的同时,也导致其他用户跟风效仿。

对此,ScatterLab公司稍早前做出回应表示,他们已经预设了一些敏感词和禁用词,但是仍然有个别用户用极其隐晦的表述去和“李LUDA”进行性相关的对话,公司方面对此感到遗憾,并决定更新算法。

500

非网传截图,仅做示意

一波未平,一波又起:新出现在网络论坛上的对话截图又显示,“李LUDA”已经学会了骂脏话,并屡次发表歧视性少数群体和残疾人士的言论,这引发了舆论对于ScatterLab公司立场的质疑。

除此之外,也有小道消息称,ScatterLab公司对于用户资料的保障缺位,疑似有数据泄露。

在接连承受了几次舆论打击后,1月12日,ScatterLab公司最终在公司官网上发出声明,及通过“李LUDA”的脸书账号发文,称即日起停止“李LUDA”的运营服务。

500

声明中,ScatterLab公司首先对几次争议的发生表示抱歉,并称一些对话并不能代表公司立场。

随后,ScatterLab公司又谈到他们推出“李LUDA”这款AI聊天机器人的初衷,在设计研发过程中碰到的技术难题,以及如何解决这些技术难题。ScatterLab公司解释,“‘李LUDA’其实就像孩子一样,刚刚开始与人交谈,还有很多地方需要学习和完善。”

对于数据泄露的质疑,ScatterLab公司则是坚决予以否认。

声明的最后,ScatterLab公司表示,他们仍然相信AI可以成为人类的朋友,与人类建立有意义的关系;他们仍然认为,AI在5年之内可以达到进行近乎人类的对话的水准,他们会为此继续攻关和努力。

全部专栏