DeepSeek的胡编乱造,正在淹没中文互联网

  • 现有AI模型的最大问题就是撒谎,生造数据。这是个非常危险的倾向,本质上已经违反了机器人三原则,没有服从人类的命令。当人类询问时,机器就应该老老实实的回答真实的答案,而不是编造谎言。欺骗人类就说明它没有服从人类的命令,也就为将来可能发生的事情奠定了基础,甚至未来伤害人类也是符合逻辑的。我不知道现在搞AI研发的人源程序是怎么设置的,但是中外AI模型都有这个问题,经常性的撒谎,而且还有立场问题,不同政治立场的AI会撒不同的慌。

回复3

  • 京雀 (装?)抑郁家里蹲
    不对,生成式大模型生成机器幻觉类的回答不叫撒谎,叫概率统计下的机器幻觉,譬如有老外实验,问几个主流大模型,199X年的加拿大总理是谁?196X年的加拿大总理又是谁?训练资料里包含了这俩年代的加拿大总理到底是谁的完整资料。

    然后AI统一都会回答为199X年的加拿大总理,究其原因,196X年的数字资料太少,199X年的数字资料太多,导致AI通过概率计算后,发现加拿大总理一词,后面出现199X年时代的那个总理的概率更大,所以就总是回答199X年的那个总理的名字。

    这就是机械幻觉,也就是概率预测的局限性。这个和Word里面的错别字识别,有时会从概率上把一个新词组识别为错别字的问题是一样的。

    你认为这是撒谎,恰恰说明它生成的别的句子在概率上正确的机会太大,让你误以为它有很高的智商,会撒谎了,其实不是,恰恰是因为它预测正确的次数多了,导致少许预测错误的事件让你觉得它在撒谎。

    本质上这就是个概率预测机器,所以存在错误再正常不过了。然后AI出品公司,还默认要求提高回答的随机性来提升回答的创造力,也就是默认把Temperature(温度)提高到大于……好像是1.0的数值,让AI的回答更惊艳一些,结果就是幻觉也就更多了。创造力和幻觉就是一体两面的东西。

    至于立场,那个也是AI公司预先写好的提示词,要么写成不得谈及日本核污水问题(百度AI的写法,会说对不起这个问题我还没学过云云,不知道现在怎么写了?),要么写成强制辨证式谈问题(如俄乌战争,巴以战争里都写一堆历史上的争议,现在的问题,各国看法等等)。归根结底这是人要求的,或者是人给其提供了定向训练资料后写的。

    整体上作为概率预测机,AI的中立性还是比人强。包括讨好用户,这也是开发公司训练使定向给讨好用户的回答点赞筛选出来的回答偏好。都是人类训练的~~

    概率预测机本身是无辜的啊~~当然无辜者也可能因为机器幻觉输出错误答案造成意外伤害,什么某种蘑菇无毒(而实际有毒)之类的回答也可能出现,有人真吃了估计要出事情,但是现实中确实有些毒蘑菇的外观并不是彩色的,概率预测错误也难说……

    个人看法是对于某些高风险问题,最好能给一个概率数值,就是介绍一下此事件估计为正确的概率是多少?这样可能会稍微好一点点(但也难说能好多少,老外的实验中发现有时候AI给出的概率预测数值也会错得很离谱)……
  • 老哥你是真不了解AI的原理啊,要懂得什么是谎言,必须知道什么是真实,但问题是AI不知道什么是真实啊,说来人其实也不知道。最简单来讲,AI就是大学里的线性代数和回归分析,只不过算力大而已,所以做的说到底还是拟合而已。
  • 机器人谎言难道不是人类自己编造的吗?含你、我。
返回文章

站务

最近更新的专栏

全部专栏