淘客熙熙

主题:这几天大火的Deepseek没有人讨论吗 -- 俺本懒人

共:💬117 🌺319 🌵12新 💬9 🌺3 待认可1
分页树展主题 · 全看首页 上页
/ 8
下页 末页
      • 家园 从实用角度,DS是个里程碑:性能高;创造力——来自信息压缩

        我没试过chat-gpt,但国内之前的那些语言类大模型都是垃圾,性能低到必须不懂装懂,就是我说的——聊天机器人、话术、糊弄。

        chat-gpt模型更大,预测应答更慢,虽然看似性能比国内的那些垃圾大模型强,但性能曲线是处于差不多位置的。

        DS则是整个性能曲线进步了一大截,这本是就是特别了不起的进步,所以DS在回答的时候,遇到不懂的问题可以老老实实承认:

        【对不起,我还没有学会如何思考这类问题,我擅长数学、代码、逻辑类的题目,欢迎与我交流。】

        --

        DS的性能曲线提升,不仅因为是整体架构上突破,特别是模型大小减少了很多,后面这点更重要。

        模型做得越小,越说明对于整个知识库的压缩能力越强,越接近人类,这一点是毫无疑问的。

        你要从整体的信息压缩角度看,压缩的越厉害,越接近人类,压缩超过人类,那就是超过人类。

        从信息角度,创造力并不是什么了不起的东西,接近人类平均水平,就获得了人类平均水平的创造力。

        当大模型的信息压缩能力超过了人类平均水平,那就是某种生成模型了,当然可以根据某些规则生成人类真假难辨的东西。

        这一切都是信息,信息压缩得越厉害,就越有创造力,当前的DS在短篇上、诗词上、古文已经表现出了超出普通人的创造力。

        --

        DS把大模型做小这一点,才是在人工智能这个领域真正的突破——只要你能够做到信息压缩,你就能获得创造力。

        ==

        然后对于你说的问题,你是按照给严格正确的问答机器人角度拷打DS,我写过,DS依然不是问答机器人,而是介于聊天机器人和问答机器人中间态的智能助手:搜索助手、分析助手、汇总助手。

        当前的DS没办法替代人来得出答案,做是否判断,只能够作为智能助手来帮助人做出判断——跟过去的的聊天机器人比起来,这已经是特别惊人的进步了。

        通宝推:时间的影子,
        • 家园 与其说是信息压缩

          不如说是抽象程度。抽象程度越高,思维和表达能力越强这一点已在很多学科的发展中被证实了。个人感觉人类思维在本质上是二维的,抽象和联想(或者是泛化)是其中一维,归纳和演绎是另外一维。

          • 家园 是的,抽象和重构。能够重够有损压缩的信息,就是创造力的体现

            是的,抽象和重构,应该算是一种有损压缩,不能单纯说压缩——能够重损压缩的信息,就是创造力的体现。

            当DeepSeek的抽象损失了大量信息之后,它还能把原来的信息重构个七七八八,这就表明它有了创造能力。

            所谓的创造能力并不神奇,就是无中生有,凭空造假。创造能力最简单的例子是图像生成模型中的——超分辨率(Super-Resolution)。

            对生成模型比较陌生的童鞋,可以去了解一下这个问题。把一张低分辨率图像变成高分辨率图像,需要补充大量的不存在的细节信息,这就涉及到无中生有、凭空造假,这些补充进去的细节信息都是伪造的。

          • 家园 然后情绪是一个维度

            动物没有(复杂)情绪,再到超越情绪的理性,否定之否定,不知是个什么关系了。

        • 家园 我不同意你的基本出发点

          模型做得越小,越说明对于整个知识库的压缩能力越强,越接近人类,这一点是毫无疑问的

          这个观点的来源是哪里?我是很有疑问的

          A 张三长得很丑

          B 越丑的人越像张三

          A不能推导出B。

          • 家园 就像生成模型,创造力只管生成,判断归用户。形式逻辑问题很大

            (1)DS的创造性

            DS的例子,对于金庸武侠的东西合璧问题,我给一小段,DeepSeek能够用它丰富的知识库扩写成一大段,这就是创造能力。

            当我和DS前一个观点冲突的时候,DS根本不作正确与否的判断,根本懒得反驳我,而是履行一个智能助手的职责,去细化分析。

            (2)图像生成算法的创造性

            我不知道你对各种生成模型怎么看?特别是图像领域的各种生成模型,所有生成的图像都是假图,不是真实的照片,包括最基础的超分辨率。

            即使是最基础的超分辨率算法,依然需要在图像里填满各种算法猜测出来的细节,无中生有,才叫创造性。

            (3)创造性先于逻辑能力,模型不判断正确与否,只管无中生有。

            【模型做得越小,越说明对于整个知识库的压缩能力越强,越接近人类】我的这句话指的是创造性,不是指模型有了逻辑思维能力。

            就像我说的,模型不判断真假,不判断对错,只是在履行一个智能助手的指责,细化分析。

            (4)DS的生成答案,生成的是一个细化的组织化的问题描述,而非对于原来问题真假与否的判断。

            本质上,所有的语言类大模型都是生成模型,它是生成一个答案,而不是回答一个问题——这两个是有本质区别。

            早期语言类大模型是聊天机器人,用话术生成了一个答案来糊弄人。而DS做到了智能助手的范畴,生成了一个分析细化的答案。

            一个分析细化的答案,只是对原有问题的补完,它本质上是相当于把原来的问题重新复述一遍,再以丰富的知识库把问题补充完整。

            这就是分析细化,如果你看得不够仔细,你会以为DS有了逻辑分析能力,进而误以为DS的答案做出了是否判断。

            但实际上并非如此,DS的分析细化,就是把你提出的问题,用更有层次的语言重新组织一边,以丰富的知识库把问题表述得完整无缺。

            事实上,DS给出的分析细化回答,依然是一个问题描述,而非一个真正的答案,DS也没有给出任何是否、真假之类的判断。

            (5)形式逻辑的问题很大。

            形式逻辑的问题很大,你们越是学形式逻辑,越会污染你们的认知论,变成诉诸是否判断、真假判断的——小学老师的最爱。

            当我谈到创造性的时候,指的是DS会无中生有地作画,不需要一个小学老师来教DS形式逻辑,形式逻辑只会湮灭创造性。

            所谓的创造性,就是作假,就是无中生有,它本身就是跟“真假”、“是否”之类的主观判断是对立的——记住了,是主观逻辑判断。

            DS的世界里存在什么真假吗?真假是存在于我们的现实世界中的,你再怎么标注,给出来的也是一种主观逻辑判断。

            再次强调,真假是存在于我们现实之中的,DS的输入输出都是脱离现实世界的,你们不能指望一个缸中之脑,告诉你现实世界的真假。

            缸中之脑的意识永远生活在一片脱离现实的世界里,现实世界的真假对于缸中之恼都是主观判断。

            缸中之脑能够跟你讨论,能够利用输入、利用知识库,跟你一起把现实中的问题分析细化,但永远没办法替代你做出真假判断。

            回到你的问题,很多看似是抽象问题、纯粹逻辑问题,但它有着重重现实约束,再多的知识库也没办法真正说清楚所有的现实约束。

            真假只有在现实世界中才有意义,看似抽象的问题,依然有特别多现实约束。失去现实约束的话,在缸中之脑的世界里,是永远不存在真假的。缸中之脑的知识库是不连续的、有限的,而现实世界是连续的、近乎无限的。缸中之脑的知识库里没有黑天鹅,那么你能用来判断,现实中没有黑天鹅吗?

            就像我前面说的,当你要求一个缸中之脑帮你判断现实中的真假的时候,你已经被形式逻辑污染了认知了。

            形式逻辑我其实有很多想说的,但攻击性太强,我只能说形式逻辑问题很大,对认知的污染很大。

            通宝推:时间的影子,南门桥,唐家山,
            • 家园 很独特的视角,对我有启发

              贴一段我之前的想法吧:

              ”推理能力也是分层的。交互式定理证明应该是最硬核的形式演绎推理了,在证明的过程中也分三种情况。第一种是直接照搬已有的证明,只在语法层进行修改,用于消解待证目标。第二种需要深入理解待证目标的语义信息,以及已有类似证明的语义信息,借鉴已有证明的构造模式,构造出符合要求的证明。第三种是还没有类似的证明,这种情况下需要从头开始,把大脑中的非形式证明,翻译成形式化的证明。

              第一种可以简述为"人云亦云"。可以看成是一种广义的模式匹配,大模型的水平已经达到这一层级。

              如果大模型能够做到第二种,概括为“举一反三”,那就应该认为它有一定程度的演绎推理能力。目前大模型已经有这个迹象了。

              如果大模型能做到第三种,总结为“无中生有”,那它就已经具备了真正的演绎推理能力。”

              之前一直在想大模型如何能做到“无中生有”。现在看来不一定需要大模型独立做这件事,或许在和人类配合的情况下能做到。

              • 家园 DeepSeek还到不了逻辑的层次,依然是自然语言的层次

                DeepSeek把模型变小是它最关键的一点。

                自然语言存在大量的冗余,从抽象和有损的信息压缩角度,DeepSeek已经把自然语言中的冗余挤得差不多了。

                自然语言中的逻辑不是逻辑,通篇全是漏洞;形式逻辑因为污染认知问题更大,真正的逻辑是数学中的符号逻辑那一套。

                大多数大学生可以从高数、微积分中那套无穷小逼近的那套写法了解一些符号逻辑,更早的话,初中几何中的三个点表示的因为、所以。

                我是上过《离散数学》,对于全序偏序、符号逻辑那些体会更深一些,虽然最后收获不多,但我知道什么才是符号逻辑。

                --

                DeepSeek当前为止并没有表现出任何逻辑能力,也就是判断、证明、证否这些真正的逻辑能力。

                DeepSeek当前为止真正表现出来的能力是把原问题分析细化的能力,也就是你当你对DeepSeek提出一个问题之后:

                (1)DeepSeek只是用他的丰富的资料库,把问题分析细化;

                (2)用更有条理的语言把问题描述得更清晰;

                换句话说,DeepSeek只是用它的知识库,把你提出的问题重新描述了一遍,补充资料,组织得更有条理性——所以我称之为分析细化能力。

                你提出一个问题,DeepSeek负责描述这个问题,增加资料,更加条理化,然后看你自己能不能找到这个问题的答案。

                DeepSeek的回复并没有真正回答这个问题,能不能得出这个问题的答案全看用户自己——能不能充分利用DeepSeek提供的那些资料,能不能充分利用DeepSeek把问题条理化时透漏出来的那些结构化信息。

                --

                DeepSeek能够做到分析和细化,不是因为它具有了逻辑能力,而是它把自然语言中的冗余挤掉得差不多了,所以特别擅长变换表述。

                DeepSeek的分析细化能力,是自然语言层次的变换表述,因为它可以补充各种资料,因为它知道各种结构化信息,所以它可以补完问题。

                DeepSeek的变化自然语言的表述,是为了把你提出的问题补充完整,它负责提供各种资料,负责提供结构化信息——但负责做出判断的是用户。

                --

                所以我有时特别不明白,为啥你们对着自然语言讨论逻辑,金岳霖有句话:红楼梦中的哲学不是哲学,金岳霖的哲学就指逻辑。

                讨论逻辑是需要门槛的,我们理工科的门槛叫严格逻辑,数学的门槛叫纯粹逻辑,我严格逻辑还可以,到纯粹逻辑就开始欠费了。

                平常我们在网上讨论的这些都不是逻辑层次,而是自然语言的层次。至少也要到符号逻辑的层次,才能真正的讨论逻辑。

                --

                最后,交互属于HCI(人机交互接口)的研究内容,并不是真正回答你提出的问题才叫交互。

                AI回答问题这种交互往往只存在于科幻中,但我们讨论是现实中的技术问题,就不要套科幻了,我怎么觉得你们把科幻当真了?

                就像我反复强调的一样,DeepSeek利用它的分析细化能力,把你问题补充完整,也是一种交互。

                通宝推:薄荷糖家族,南门桥,
                • 家园 DeepSeek 的模型可不小

                  深度自己的介绍:

                  V3: We present DeepSeek-V3, a strong Mixture-of-Experts (MoE) language model with 671B total parameters with 37B activated for each token. To achieve efficient inference and cost-effective training, DeepSeek-V3 adopts Multi-head Latent Attention (MLA) and DeepSeekMoE architectures, which were thoroughly validated in DeepSeek-V2. Furthermore, DeepSeek-V3 pioneers an auxiliary-loss-free strategy for load balancing and sets a multi-token prediction training objective for stronger performance. We pre-train DeepSeek-V3 on 14.8 trillion diverse and high-quality tokens, followed by Supervised Fine-Tuning and Reinforcement Learning stages to fully harness its capabilities. Comprehensive evaluations reveal that DeepSeek-V3 outperforms other open-source models and achieves performance comparable to leading closed-source models.

                  R1 是基于 V3 的。一样是671B total parameters with 37B activated for each token.。而Meta的羊驼3也不过 15 trillion training tokens,和DeepSeek 基本相当。而训练结果是最大 405B total parameters ,8B 和 70B active。

                  DeepSeek 主要的突破有两个:

                  1. 降低了训练成本,缩短了训练时间

                  2.显示 AI 的思索过程

                  • 家园 性能差不多小一半也是小。说说恶心到我的阿里通义2.5

                    羊驼3分为8B、70B、400B+三个不同应用场景的版本,很显然依然是大模型方向,但为了适应低精度应用场景降档了。

                    中英文的区别,羊驼3的中文性能如何你用过吗?DeepSeek主力战场可是中文,但在英文上也不差。

                    DeepSeek的预测在国内可是独一档的快,性能也是碾压式的进步,如果羊驼3没有能够跟国内其他大模型拉开差距,那就是差。

                    更重要的,羊驼3依然是大模型方向,接下来是众所周知的更大更大更大。但DeepSeek不仅是走通了另一条路,还可能预示着小模型方向。

                    如果你也是相关的领域,不会看不懂其中的差别、因为我只是相关的领域,我没办法判断这些是不是实实在在的差距,我只能说可能。

                    ==

                    最后,我说下因为DeepSeek太忙,我昨天去用阿里的通义2.5大模型,别信知乎上吹嘘的得分超过DeepSeek-V3的话,用起来:

                    不仅菜,而且你明显能够感觉到在决策上玩了各种话术、糊弄的花活,你要花大量时间在鉴别它是不是在骗你。

                    我被恶心坏了,大家有个美国时间陪你玩花活啊?基本上是我在西西河遇到体制内脱产教士的感觉,不仅菜,还想忽悠别人。

                    不是我看不起体制内用户,而是在这帮猪队友的拖累下,体制内从基层到技术官僚,能力都是出类拔萃的。

                    但体制内的脱产教士是没有任何社会实践:菜也就算了,菜还不自知天天想忽悠别人,失去了垄断特权之后,在网上跟个弱智一样。

                    任何在社会上工作过的人,任何体制内的基层和技术官僚,如果不能一眼认出这些脱产教士,那就是没有仔细想过自己的社会实践。

                • 家园 AI要到什么层次它才能输出人类未知的东西

                  什么样的合金熔点最高?

                  目前已知熔点最高的合金是五碳化四钽铪(Ta₄HfC₅)合金,其熔点高达4215摄氏度。

                  上面这个,就还是个搜索嘛

                  • 家园 这就是标准的体制教士

                    大而化之,是体制内教士永远的标签!

                    不管你有了什么成绩,他都是一副嘴脸,你厉害啊,但是你能厉害到我没有想到的一个事吗?如果说能,那你即使想到了,他永远都说你没有想到,因为他心里想什么他认为你永远不知道,但是你真知道了,他还是说你不知道。这就是当年庄周搞的那一套,你不是我,你咋知道我心里想的啥?其实这就是脱产的好处,因为要是实践上打一仗,他的一切招数都被对手知道了,他嘴的好处就是一刀被被人砍了,到阴间继续嘴硬了。

                    其实回等你这个问题很简单,还是用你大而化之的逻辑。

                    AI把人类全部消灭后,就能输出人类未知的东西了。

                    • 家园 你有什么问题要问AI吗?

                      我好像找不到什么问题要问的,四十不惑,不惑的意思是对所有问题都不困惑了。

                      这几天用了几次,都是为了跟你们吹牛瞎扯。再查了一下孩子学校的985211率,悬着的心放下了。

                      法理上加拿大是否要退出英联邦成员国才能与美国合并?

                      加拿大如果要与美国合并,通常需要先退出英联邦成员国。原因如下:

                      加拿大是英联邦成员国,国家元首是英国国王。其政治体制为君主立宪制,与美国的共和制不同。若要与美国合并,需要改变其政治体制以及与英国的关系,而退出英联邦是其中关键的一步。此外,英联邦有其自身的规则和框架,成员国之间存在一定的权利和义务关系。加拿大作为成员国,在英联邦内有相应的地位和角色。如果加拿大要与美国合并,这将涉及到对英联邦整体架构和其他成员国利益的重大影响,从尊重英联邦的规则和国际关系的惯例角度看,加拿大需要先退出英联邦,以避免在合并过程中产生复杂的法律和政治冲突。

                      • 家园 基本上可以很肯定

                        你跟体制有关系。

                        其他就说着玩呗。AI毕竟跟人脑差的很远,这是现实。忽悠炒作都是焦虑的表现,资本主义要求人矿需要新发现和新应用,他们很着急!

                  • 家园 “叙事即权力,想象力即战场”、“城中谈礼法,乡野种稻粱”算吗

                    这两句都是DeepSeek跟我对话的时候写出来的,我去网上搜了一下,四句只有“叙事即权力”能在网上搜到。

                    这四句都是我想说但说不出来的,结果DeepSeek跟我对话一会,就成功成为了我的嘴替——为什么我说模型小就意味着创造能力,这就是创造能力!

                    你举得那个例子叫空想,恰恰是缸中之脑之外的,创造能力指的是绘画之类的,现在DeepSeek在自然语言方面的创造能力太离谱了。

分页树展主题 · 全看首页 上页
/ 8
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河