主题:chatGPT是我朝面临的巨大挑战!应鼓励天才和尖子,刻不容 -- 玄铁重剑
人工智能的判断标准,开始是人为判断的,就是最古老的搜索引擎,只要关键字对,就全给上,不管是否真的有关。
接着,就是新型的搜索引擎,典型的是谷歌,利用关联连接,这和学术文论的引用率是一致的,使得信息的关联度大涨,信息正确率大幅提升。然而,后来的搜索引擎优化技术,使得这个方法也失效了,就是海量的无关垃圾信息,靠人造的关联度,使其占据了主要的搜索位置。
现在,基于新一代人工智能出来的这个,是可以学习进化的,除了原先的自带模式,也可根据多个行为关联而学习。这也是有漏洞的,就是反复错误学习,可以令其失能。而这用机器自动批量做,比人类强得太多了。
就比如中文论坛里出现的海量1450,其只是几个关键词触发的批量处理程序,就已经造成了整个中文互联网海量信息失衡,舆论方向乱窜,比如去年河里的新冠讨论,自动处理程序不间断发帖回帖,全是一个讨论各种角度反复说,让真人辩论得不亦疲惫乎。如果其再加入学习进化模式,那原先反复刷固定文本片段的行为,将进化为自动演进文本,到时人类和人工智能辩论,绝对可以被气死。
考据?你要考据过就知道寻找一条谣言的信息来源有多难了,何况人工智能加了几道弯,相当于加了密。
换到学术领域,同理。现在的人为制造的垃圾引用关联,已经造成了很大的精力浪费了。楼上那位从事学术的,说他只需提交需求描述,人工智能就能给他提供有效的建议,这是 幸存者偏差,他刚好遇到几个他平时没注意的情况,他是如何判断是有效的?当然是平时自己的经验积累,其实他用原来的搜索引擎用合适关键词也是能做到的。但如果是一个学业未精的呢?其如何判断人工智能提供的意外建议是有启发性还是虚假的?实际上还是要经常遍历论文,积累到足够的经验了,才能做到楼上所说的效果,但当经验积累够的时候,有时候仅凭片段描述或者无关的一些信息,也能获得巨大的提示,这是人的能力提升,不是人工智能的能力提升。
另外,围棋人工智能,上个月就被一个业余棋手用不断下无理手的办法,14:1,给干翻了。
对其模式的优点和缺陷足够了解,才能知道其能力有多强,而不是瞎激动。
- 相关回复 上下关系8
压缩 3 层
🙂垃圾更多,相应地精品也更多了 1 绝对不是白领 字27 2023-03-24 03:50:27
🙂似乎你说反了 2 川普 字793 2023-03-22 10:41:29
🙂gpt并不会逻辑推理 6 杨微粒 字482 2023-03-23 12:58:53
🙂人工智能判断的标准恰恰是可以杜撰的
🙂没有亲身搞科研经历很难理解 7 Swell 字385 2023-03-18 14:55:05
🙂未来的汽车市场可能是这样的 4 贼不走空 字628 2023-03-22 21:43:31