淘客熙熙

主题:【原创】AI 幻觉 -- 孟词宗

  • 共: 💬 21 🌺 88
  • : 💬 21 🌺 7
现在的一般方式是进行专门训练

一般大公司的本地部署是确定一个 AI 模型,然后根据本地数据进行大量训练,然后在测试中给出所谓的“可信度” (Confidence Score)。这样到最后得到一个“专用”的模型。晨司机问的东西估计就是这个。

问题在于即使是用了这个模式,还是不适合高精度、高责任、高风险的项目的。

例如 AI 的一个应用场景是银行通过分析客户的资金流动情况来发现欺诈和洗钱。这是非常适合 AI 的应用。因为这不需要 100% 的精确度,即使是人工也做不到 100%。所以只要达到人工的准确度就行了。即使抓错了也没问题,后续流程中仍然有改正的机会,不会造成重大损失。

但同样是银行,靠 AI 来进行精算就不行了。万一 AI 搞出个类似 9.11>9.8 的笑话,银行损失就可能很大。

银行损失点钱没啥,但如果是化工厂的操控也是生成式 AI,出点问题就不是小问题了。



有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河