主题:【原创】AI 幻觉 -- 孟词宗
- 共: 💬 21 🌺 88
- 新: 💬 21 🌺 7
复 幻觉这点很头疼
一般大公司的本地部署是确定一个 AI 模型,然后根据本地数据进行大量训练,然后在测试中给出所谓的“可信度” (Confidence Score)。这样到最后得到一个“专用”的模型。晨司机问的东西估计就是这个。
问题在于即使是用了这个模式,还是不适合高精度、高责任、高风险的项目的。
例如 AI 的一个应用场景是银行通过分析客户的资金流动情况来发现欺诈和洗钱。这是非常适合 AI 的应用。因为这不需要 100% 的精确度,即使是人工也做不到 100%。所以只要达到人工的准确度就行了。即使抓错了也没问题,后续流程中仍然有改正的机会,不会造成重大损失。
但同样是银行,靠 AI 来进行精算就不行了。万一 AI 搞出个类似 9.11>9.8 的笑话,银行损失就可能很大。
银行损失点钱没啥,但如果是化工厂的操控也是生成式 AI,出点问题就不是小问题了。
- 相关回复 上下关系4
压缩 2 层
🙂前段时间需要分析一个TCP client和server之间的 1 lpa 字421 2025-03-06 09:42:37
🙂感觉就是个高级版的维基百科 3 北纬42度 字171 2025-03-05 18:39:59
🙂隔壁抢师妹的师兄连夜改的? 3 北京北京 字147 2025-03-05 22:07:06
🙂现在的一般方式是进行专门训练