淘客熙熙

主题:【原创】【讨论】征集图灵测试题目 -- 任爱杰

共:💬76 🌺268 🌵3
全看树展主题 · 分页首页 上页
/ 6
下页 末页
家园 你最后这个领悟

真是苦恼人的笑。

家园 不同意

即使是不同的设计者设计的机器人,哪怕是高智能、带情感的机器人,它们都有一个共性——不疲劳。

不论是体力上的不休止,还是情感上的不厌其烦,都体现出不疲劳这个共性。

另外,机器人还有一些特征,不会创新(随机不叫创新),而是重复,除非设计者更新。

机器人不会审视自我,目的确定、程序执行精准,没有自我审视的必要。

家园 如果我回答壁炉很温暖,我会被判不通过么?

😄😄

家园 那你怎么判断不疲劳呢?观察一下上线连贯度?

其实之前我和燕人兄已经说过这点的原因所在了,只是不雅,还是不说了。

现在,我觉得你是某人的小号了。之前还不明显。

家园 近期就有一个很好的测试题目

问题:

市长在新闻发布会上说不会封城。

那么,您是否会储备食物?

通宝推:任爱杰,
家园 单就后几个而言,似乎机器也是可能达到的

通过大量试错并纠正,这有个专门的词儿,我一下想不起来了。

不过,人类难道不就是这么过来的吗?或者说,机器难道就不能有类似于人类的自我意识吗?退一步,难道就不能有类似于猴子的自我意识或狗的自我意识吗?

还有,人类是社会的人,机器如果不能是社会的机器,哪怕是进入人类的社会而非他们自己的社会,恐怕也不能有类似人类的自我意识。

有句话,自我意识是在和他人的对照中产生的,似乎也是标准。

再有,自我意识的产生好像还需要有自身的需求与欲望。

家园 统统拉到计算所拆解!
家园 的确我很注意行文风格

我到西河是和有趣的人交流生活乐趣,以及请教看法。如果行文风格像AI, 或者纯粹小说,或者职业时事评论员写一些花边,我通常怀着敬意远观。

家园 这个是你自己的定义吧?

同一个人左右到右手,实际上就是交易。

按照传统经济学的定义,交易是要人跟人交换才算,鲁滨逊的世界,是没有交易的。

家园 对,AI 应答其实是刻意的人工智障

然后印度PM的PPT会显示用人工智障应答后售后服务询问在人工智障被解决了多少,证明了人工智障是多么有效。

家园 你也暴露了吗?

这段看着就是 AI 写的。尤其是 “我通常怀着敬意远观。”😅

对号入座。😂

家园 坚持使用科学方法的人是很容易拧把的

坚持使用科学方法的人

怎么会承认有真理呢?

这句话本身是不是真理?🤭

家园 看来我越描越黑

不如不描。

但不知“越描越黑”是不是AI 的写法。

所以“不知越描越黑”是不是越描越黑了。

以上是AI 陷入死循环的一个例子。

通宝推:任爱杰,
家园 应当不会

实际测试是一组题目而不是单个题目。

家园 图灵测试好像不是测有没有自我意识

而是测人工智能在多大程度上能够伪装成人类。有没有自我意识不是能否伪装成功的关键。

绝大多数图灵测试问题实际上是知识问题而不是逻辑问题。在没有互联网的时代,知识问题可以问倒 AI。但在互联网时代,AI 可以在网上搜索答案。这样即使回答是错误的知识也无法辨别是不是 AI 回答。

例如楼主举的 AI 作文里有一个明显的矛盾。一方面说自己是自己是老二,另一方面又说自己没有兄弟姐妹。

但这个错误人类也会犯。例如那位“大饥荒的死剩种”--丁来峰同学在文章里说58年他爷爷坐了10年牢回到家乡,当时他爸8岁,他姑5岁,他叔3岁。家里除了他爸都饿死了。(详见 大饥荒的死剩种)。初看没啥,但仔细一看,他父亲那辈的三个孩子都不是他爷爷亲生的,他是他奶奶出轨的后代。😁

丁来峰同学的这篇文章有没有用 AI 辅助写作?或者丁来峰本人是不是给机器人冒名顶替了?这个无法判断。但是我们知道确凿是人类的著名作家也有犯类似错误的。例如金庸作品里黄蓉的年龄就是一个谜。

知识测试在图灵测试中似乎越来越无效。逻辑测试反而可能更有效。

例如下面这个问题:世界上有绝对真理吗?

猜猜 AI 的回答会是什么?😁

全看树展主题 · 分页首页 上页
/ 6
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河