- 近期网站停站换新具体说明
- 按以上说明时间,延期一周至网站时间26-27左右。具体实施前两天会在此提前通知具体实施时间
主题:【原创】看见现在还有人拿着“高知”来说事就很搞笑 -- 履虎
“高知”的身份并不等于你的认知必然就是正确的,相反代表着过去对中下层的知识壁垒和垄断,中国近代没落的主要原因不就是一小撮士大夫阶层的知识壁垒和垄断,所以大部分人民才是文盲?这点道理都不知道?
deepseek的出现,普通人都可以自己部署使用,deepseek还详细说明逻辑推理过程,目的不就是冲破知识壁垒和垄断?你还想就靠一个“高知”身份就垄断话语权,不知道为什么大家都特别反感“知识分子”四个字吗,毛主席为什么说六亿神州尽舜尧,
最大的阻力和障碍是谁,知识分子们能不能要点脸?
六十年前的文化大革命是在怎样的历史大背景之下出现的,今天中国的基本国策,“中国式现代化”和“中华文化的创造性转化和创新性发展”,是在怎样的历史大背景之下出现的,“高知”们心里一点数没有吗?
假设,这帮“高知”真的能代表中华民族站到世界之巅,我也没意见,问题这帮人对内垄断压制,控制话语权;对外就跪舔西方的民主、科学话语权,终究还是中奸殇。
要开源,不要垄断,十四亿神州尽舜尧,变化才刚刚开始,未来无可限量。
附上一个:本地部署 DeepSeek-R1 671B 千亿大模型硬件配置及流程!
@Snowkylin_Lazarus
本地部署 DeepSeek-R1 671B 千亿大模型流程!
🚀 测试模型:
1.73-bit 量化版(158GB,每秒7-8个词)
4-bit 量化版(404GB,每秒2-4个词)
💻 硬件需求:
1.73-bit:内存+显存 ≥ 200GB
4-bit:内存+显存 ≥ 500GB
实测配置:4块RTX4090显卡(96G显存) + 384G DDR5内存
⚡ 性能对比:
短文本生成:1.73-bit速度碾压,长文本会卡到1-2词/秒
瓶颈竟是CPU和内存,GPU全程摸鱼(利用率1-3% 😂)
🤖 模型性格差异:
1.73-bit:毒舌傲娇,敢怼ChatGPT:
“哼!还在用老古董ChatGPT?(◔‸◔) 我的训练费可没烧穿钱包!”
4-bit:安全标兵,拒绝一切危险发言,全程官方脸 😇
🔧 部署步骤:
下载+合并GGUF文件
装Ollama + 调参数(GPU分层加载)
跑模型,内存炸了?减层数!
可选:搭配OpenWebUI变身高配版ChatGPT!
✨ 总结:
1.73-bit版性价比超高,适合短平快任务!长对话会变树懒…🦥