主题:如果要走向强人工智能,openai的路线根本就是错的 -- 亮子
支持向量机原理不就是把低维空间的非线性分类投射到高维空间用线性平面进行分类吗?
假如人脑是非线性的,那么这种非线性能不能用线性表示呢?理论上不能否定这种可能吧。
所以传统用来研究刚体运动的方程组是不适用的,需要的是引入随机变量的动力系统。神经网络迭代训练就是在构造这个动力系统。
人脑的功率是10W级别的。
现在主流前沿AI的功率是电厂级别的。
那还有啥不值的。
特斯拉据说是把三个模块合起来,直接机器学习。所以连决策也是黑箱了。
优点是这要是成了,直接就不用适配了。相当于人只要会开车了就去哪里都会开车了。而且可以覆盖复杂场景。
缺点就是目前没人知道上限在哪?万一上限很低那就钱打水漂了。
据说一个问题是它跟人学,而人开车其实是很不守规矩的,直接把机器带坏了。没办法还需要人手工标注数据,强迫机器坏的不要学。
决策是黑箱的话,估计用的还是神经网络,神经网络一个缺点是当遇到新环境时,容易出错。
至于区别于特斯拉方案,国内目前走的路线都有别于特斯拉吧,马应龙是纯视觉派,国内一般几种传感器都用。
这个技术如果成了,再给车子装上巴雷特,上限不就是终结者里面的杀人机器么。
高精地图问题,大嘴说过了,国家只给每个季度更新一次,不可能实时更新的,国防安全,此路不通。
这个某种程度可视为基础设施
之前听好像是大嘴提过,一个上海的高精,几年了还没弄好。。。
很可能是受电能利用是当代显学的影响,如果百年后人们人们进入核能普及时代,带块设备都是核电池,说不定人脑又会被当做核反应堆。
更或者大脑(意识)根本就是消耗暗物质暗能量的。必经物质世界才占宇宙五分之一到四分之一。测量其电能消耗搞错了方向。
1,线性模型的选择没有理论上的证明为什么是它,而不是另一个。相比之下,微积分是基于极限理论,极限经过数学家的努力获得了严格定义,虽然这是在微积分已经开始实用了,虽然那时候无穷小是一个可意会不可言传的东西。现在的深度学习还没有到它的极限定义时刻。现在的大量计算很可能是不必要的,如果有一个更恰当的线性模型或者干脆非线性模型被证明或者定义出来。
那个小公司很厉害。弄了一个机器人,直接用机器学习“学走路”,也是端到端解决方案。感情原来上亿行的代码用一个通用的学习模型就搞定了。想想也是,人不也没有什么走路代码,多摔几跤就学会走路了?
而且进一步扩展,也没有家务代码,让它学如何做咖啡,学了一下午就会了。虽然非常简单,把一个咖啡盒子(k-cup)放到咖啡机里,按按钮。但是盒子偏了,歪了,它会先调整,再盖上。
这个发展下去,想让机器人干什么,直接就看训练什么数据就行了。天天给它们看“终结者”,呵呵。
机器学习看起来最先是要革码农的命。 if else 代码全面被替换。
你要是机器学习程序都彻底训练好,优化好, 出场之后只需要微调,那估计用的能量也差不了太多。本质上碳基不应该优于硅基。
人这个程序靠着进化微调了上亿年,大多数基本功能其实都不是学会的,是天生就会的。 应该拿这个能量和现在训练一个机器学习程序去比。
如同当初微积分发展过程。
但确实在应用中比较好用,有实用价值,也有不足。
另外有个地方商榷下,老兄一直提到线性,神经元模型输入部分虽然是权重和变量线性组合,但sigmoid函数本身是非线性的,这样组成的神经网络整体上不是线性的,虽然线性在其中比重较大。