淘客熙熙

主题:【原创】货币锚定国债,不是建金融防火墙,而是建金融抽水机 -- nobodyknowsI

共:💬222 🌺617 🌵15
全看分页树展 · 主题 跟帖
家园 自动驾驶主要难点是计算机视觉,当然最终决策也是难点

你看你列的五点,三点都是“XX识别”,这个都是最初的深度学习——计算机视觉,图像领域一定是基于大模型、人工标注海量数据、训练的大规模算力、预测时候高性能AI芯片。

最终决策的难点是其实不是技术上的,因为技术上的局限性但最终导致的是伦理上和法律责任上的问题:第一、危机处理,事故的时候自动驾驶如果判断错误带车往人身上撞的伦理问题。第二、上述问题的法律责任问题。

--

李世石对弈的是alpha-go,柯洁对弈的是AlphaGo-master,但【一台4TPU的服务器来允许程序】一定不是训练,而是对弈,具体我已经忘了。

【ChatGPT的不着调】ChatGPT之外的绝大多数AI都是靠谱的,问题只是准不准。ChatGPT是特殊的,ChatGPT的不着调是因为:

它是一个基于语言模型的聊天机器人,即使ChatGPT因为大模型表现得多么令人震惊,它的本质依然是聊天机器人,而不是问答机器人,你要明白这两者的区别。

下面直接抄我之前写过的一个回复:https://www.cchere.net/article/5020474

(1)划重点,聊天机器人就是话术机器人,特点就是——谎话连篇、胡编乱造一流,这一点ChatGPT也不例外。

(2)语言类大模型因为融合了大量的资料,让你可以自己从这些资料中获得想要的答案,并不代表模型能够理解问题或得出答案。

(3)所有的语言类大模型都不负责理解问题,也不负责生成答案,真正学习的是问题和答案之间的统计关系,也就是共现性,而对于自然语言领域,最常见的共现性就是各种话术,例如百度体、小编也想知道……

各种零信息量的话术,才是语言类大模型最最擅长的领域。

(4)语言类大模型使用的时候,好坏的标准在于是否糊弄住用户,注意是糊弄——如果是一个网上已有问题和正确回答,它就给你复述一遍,这种情况下你当然很满意;如果是一个相对陌生的问题,它就利用话术根据相对熟悉的问题给你编一个。

(5)前者是搜索,后者是糊弄,但大多数人看不懂其中的区别,对于糊弄的警觉性也不高。事实上,大多数糊弄的话术,只要不涉及你专业领域,你就拆穿不了。更何况,大多数用户根本没有所谓的“专业领域”,他们的提出的问题大多数时候只会触发前者,也就是“搜索”。

@唐门凤去 老哥,你能够意识到这一点,一定是有自己的专业领域。所有AI相关的人对chatGPT的看法跟你是一样的,chatGPT的不靠谱是因为话术机器人的特征,它就是用来跟你聊天的,chatGPT能够融合很多资料的特性带来很多惊喜,但它依然不是真正的问答机器人。

真正的问答机器人,现在AI还做不到——在特定领域可能实现,但像聊天机器人有这么高的普适性,当前是绝对不可能的,还有太长太长的路要走。

聊天机器人的普适性来自于它不需要真正理解问题,不需要真正回答问题,所以它才会带来惊喜;一旦你要求它的准确性,它对于绝大多数问题就只能回答不知道,然后帮你搜一堆不知道是否准确的参考资料,这就退化成搜索引擎了。问答机器人要求准确性,所以它会把它的能力明明白白告诉你,包括它只是人工智障这一点,所以,就不像先今那些聊天机器人,被媒体赋予人工智能等各种吹嘘之词而出圈了——这是一个娱乐至死的时代。

ps:键政时谈到建国后,我对那些马恩派的肉喇叭特别讨厌的,也是因为他们本质上是一些话术机器人,他们真的很“普适”,普适性远远超过了技术官僚,道理一摸一样:只要不真正解决问题,谁都能做到普世性。

通宝推:川普,唐门凤去,
全看分页树展 · 主题 跟帖


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河