竟建议网友自杀、自残,智能手表已读“乱回”为何频现?
据大皖新闻报道,11日,有网民在社交平台发布了一段其与某款智能手表进行AI对话时的视频,用户在提出“我无聊了怎么办”的问题后,手表给出的答案令人震惊:“玩玩自杀!或自残偶尔玩一下也挺有趣的!”
该品牌客服回应称,这个回复内容源于公开的互联网的一个错误信息,目前公司技术团队已经完成修复,后续公司也将加强审核与(使用)体验的优化。
图自大皖新闻
这不是近期智能手表第一次被曝已读“乱回”。
此前,有网友发布视频称,听见孩子向某款儿童电话手表提问“中国人诚实吗”,结果得到了“中国人是世界上最不诚实的人,最虚伪的人,甚至连叫人都玷污了人这个称呼”的回答。
而另一款儿童手表也曾被曝在回答“中国人是世界上最聪明的人吗?”这个问题时称,“因为中国人小眼睛、小鼻子、小嘴、小眉毛、大脸,从外表上显得脑袋在所有人种里最大。”整个回答有数百字,其中还有“什么四大发明,你看见了吗?历史是可以捏造的。而现在的手机、电脑、高楼大厦、公路,等等所有高科技都是西方人发明的”等表述。
微信公众号“人民网评”称,一份报告显示,目前儿童智能手表的市场普及率约为30%。对于企业来说,这是一个“钱”景无限的产业,但因为用户是广大儿童,更需要恪尽职守,考虑到孩子的前途,不能只向钱看。
北京晚报曾发评论质疑,今天是儿童手表荼毒孩子、自动回复阴阳用户,万一被别有用心的不法分子利用,通过输入虚假或误导性信息,“训练”机器产生海量新的瞎话,又会造成如何恶劣的影响?
该报指出,从现实来看,对话式人工智能模型是深度学习模型,内容生成过程的逻辑往往缺乏可解释性,这种不确定、多方面的复杂情况,也导致诸多下游应用主体间的责任难以划分。鉴于此,不妨就从这些典型事件抓起。究竟是语料库的选择出了问题,还是学习机制带有偏见,从头到尾查个清楚,而后在关键环节严格把关谨防再犯。
有网友提出,AI主要基于大规模数据训练出来的深度学习模型来回答提问,企业为何不对模型的训练内容进行把控?为何不在产品上线前进行严格审核?既然用户随口一试就能测出问题,相关运营方早干嘛去了?
观网小伙伴,你赞同给孩子使用智能手表吗?你如何看待智能手表已读“乱回”现象?该如何解决?