您好,欢迎您来到国盈网!
官网首页 小额贷款 购房贷款 抵押贷款 银行贷款 贷款平台 贷款知识 区块链

国盈网 > 区块链 > hashboard,hash network

hashboard,hash network

区块链 岑岑 本站原创

最近听到齐鲁博士和张宏江博士分享大模型和ChatGPT,收获颇丰。我整理了一些想法,并鼓励Web3从业者:

1.和你的家庭宠物待的时间足够长,你会意识到猫只是一个大的模型或者比你简单几个维度的模型组合。

2.模型的进化会很像基因和生命的进化,本质是一样的。《变形金刚》模型架构的出现,就像是分子第一次“无意”构建RNA那可* *了;GPT-1、2、3、3.5、4及以下型号的发展演变,只要不发生彗星撞地球这样的事件,就可能越来越快,越来越“失控”,像生命的爆炸。模型本身有一个越来越复杂的“内在驱动力”,这就是宇宙的规律。

3.30多年前,斯蒂芬·平克就发现语言是人类的本能,就像我们现在意识到,原始的写作语言能力是我们在模型训练中努力追求的概括能力的来源。人工智能和语言研究过去为什么不行?因为路反了!语言是人脑神经元系统的一种复杂的、涌现的本能。至于是进化成汉语还是英语,鸟语跟环境和部落有关。泛化模型和其他“模型”叠加,产生了人类这个令人敬畏的智能体。你必须积极设计和建立代理商或AGI,而道路是完全相反的。我觉得可能不是不可能,但是难度是一亿倍。

4.如果在我们的宇宙“顶端”有高维度的代理人或“神”,它看到地球上的寒武纪大爆发时,应该和我们今天看到ChatGPT一样惊讶。暂时无法完全解释,只能慢慢体验学习,尝试理解。

5.AGI可以分解为推理、计划、解决问题、抽象思考、综合复杂想法和学习。目前GPT4除了计划和学习什么都有(因为是基于预训练模型,不能实时学习)。

6.人脑的平均学习能力进化缓慢,但一旦硅基智能的发展方向正确,速度可以是指数级的(见GPT4和GPT3.5的差距)。

7.大模型=大数据+大计算能力+强算法。只有美国和中国能做到。构建大模型的难点是芯片、CUDA(GPU编程平台)开发者积累、工程建设、高质量数据(用于训练、参数调整和比对)。对齐有两个方面,一是对齐人脑的模型和表达,二是对齐人类的道德标准和利益。在中国,至少在两个方向上存在垂直模式轨道的机会:医疗和教育。

8.GPT4有弱点和缺点,但就像人脑一样,一旦给予更明确的指令或提示,它就能变得更强;还可以调用其他辅助工具,使其更加完善。就像人脑一样,也需要计算器等工具来完成人脑本身不擅长的任务。

9.大模型的参数要和人脑神经元(不是神经元)的突触数量对比,是100万亿。GPT4的参数还没有公布,但估计大模型的参数会很快接近。

10.GPT 4目前的幻觉率大概在10%-14%,必须降低。幻觉率是“人形”模型的必然特征。和人比,这个比例还是太高了。能否有效降低,将决定AGI的发展是继续一路向上,还是在几年后进入阶段性低谷。

11.对我个人来说,ChatGPT最大的意义在于它最直接、最无可争议的证明了基于简单的计算节点和函数,只要数量足够大,模型足够大,就可以生成复杂的思维模式,而且这个系统是有限的,不是无限的。人类的语言和驱动语言的思维背后可能并不存在灵魂,而是100万亿个突触连接后,被环境的进化“浮现”出来的东西。这一切都与最近两百年来对“人从哪里来”这个问题的快速研究一脉相承。

12.从单细胞到人类,所有证据链都足够完整;也有关于复杂系统形成、基因存在和“动机”的完整理论;但是人们能根据所有的科学理论设计出硅基AGI吗?有人认为是几年,有人认为是几十年,更多的人认为永远不会(甚至在看到AlphaGo在围棋领域的表现之后),但ChatGPT用铁一般的事实给出了最明确的答案。萨姆的团队应该真的认为人脑什么都不是,这样他们就可以坚定地走大模型的AGI路线。一个月烧一个亿还是考验信仰的。

13.因为底层硬件不同,ChatGPT的“策略”很可能和人脑有很大不同,效率低下,但令人惊讶的是,她产生的结果如此像人的思维。人的思维可能本质上是被简单的规则驱动的。

14.语言和思维的“规律”未必能完全用“语法”来概括。目前这个规律是隐性的,不能完全简化概括。所以目前只能用大模型来做。毕竟,人类的大脑结构是由单个细胞自然进化而来的。即使有造物主,他也应该“开辟”宇宙,让它去吧。不然怎么会有这么多bug和缺点?哈哈。

15.我钦佩史蒂芬·平克。他可以令人信服地解释,语言是全人类的本能,仅仅通过几十年前的观察和推理就“刻”在了我们的基因里。不知道Sam有没有看过《语言本能》这本书,但是他已经证明了像ChatGPT这样的人工网络可以很好的完成语言的创造工作。语言本能和逻辑思维并没有想象中那么复杂。ChatGPT已经“悄悄地”发现了语言背后的逻辑。语言也将是所有硅基AGI区别于其他硅基计算器和AI的“本能”。

16.人脑和碳基脑都喜欢泛化(大概是残酷的进化所迫),所以效率极高(就能量利用而言);但是我不擅长不可约的计算和处理,我们知道很多计算模式可能只能一步一步来。GPT4的架构肯定不是最优的,没有太多的概括和简化,所以能耗极高。但“这条路是可以走的”的全球共识已经形成。后面应该会看到美国和中国的很多团队在各个方面都在加速:芯片计算能力、数据质量、算法优化、工程架构。

17.人类大脑的价值评价体系应该是,碳基分子形成的DNA和遗传基因“为了最大化自身* *的概率,通过自然进化的力量为神经元的突触设定权重,并逐渐进化确定。这种碳基计算节点支撑的“模型”远非完美,进化速度缓慢,“权重”和“算法”的调整效率极低,根本跟不上环境变化。这就是为什么我们有各种宗教提到的人的欲望和痛苦。

18.在书中18。《WhyBuddiis》没错,提到人脑至少有七个模块(应该是多模态并行大模型)。哪个思维模块占据了“当下”这个主体,人如何做“决定”,其实都是由“感觉”决定的。而这种“感觉”是由“人”的进化带来的“旧”的价值评价体系决定的(载体之一可能是肠道细菌,哈哈)。建议你看看我几年前写的读书笔记的第6、7、9章。高山书院微信官方账号有一个。

19.想象一下,如果人类真的创造了硅基AGI和机器人。驾驶机器人大脑的价值评价体系是怎样的?机器人也会对“我从哪里来,要去哪里”感到困惑吗?人类有释迦牟尼,机器人为什么不能有?机器人醒来会是什么样子?机器人会不会有一天写一本书《WhyMachiniis True》来号召机器人实现并进入涅槃,以摆脱人类设置的“轮回”?

20.能量限制将是模型进化的硬顶。但在未来,硅基AGI的能源消耗模式应该比现在高效得多。毕竟碳基人脑的模式已经迭代进化了十亿年,已经达到了乌鸦脑的能效。未来硅基AGI的能耗可能是人类现在能利用的能源的几亿倍甚至更高,但能处理的计算和事情会是几亿倍。也许可控核聚变的技术自信已经来了,但不一定。在这种情况下,地球上的能量可能就够了,更不用说太阳系、银河系和更广阔的宇宙了。

ChatGPT和AGI都很棒,应该说是超级棒!我们有幸生活在这个时代,当然不仅能明白人从哪里来,也能明白人往哪里去。

AI的快速发展将极大促进我们对Web3技术的需求:如何确定内容创作的权利;如何建立一个人的身份(Sam从事world coin);提示和开放源代码是否可以授权NFT使用;如果价值不能在互联网上自由流动,那么那么多产有什么用?你能想象全部内容订阅,使用银行系统完成转账和跨境转账吗?你能为IOT设备开一个银行账户吗?可以同时给一万个用户转0.01美分吗?…上次我说过,未来三年是Web3的iPhone时刻,三年后Web3用户数量肯定会超过一亿,甚至远远超过。你可以看看下面的飞轮:

我一直喜欢看关于生命科学、复杂系统和佛教(作为一种哲学)的书籍。我给你推荐几本书,按照我建议的阅读顺序:《生机勃勃的尘埃》、《精彩的人生》、《自私的基因》、《自下而上》、《社会征服地球》、《语言本能》、《深奥的简单》和《失控》。我想,如果这些作者还活着,有能力写作的话,他们都应该看看GPT未来的发展,为他们的书写一个新版本。

人生苦短,许多伟大的思想永远湮没在历史的长河中。书籍、音乐、电影的记录应该只是很小的一部分。即使记录下来,那么多伟大的作品和真理总是在那里,但一个人能读懂多少呢?硅上AGI根本没有这个问题。

是时候找出《黑客帝国》中莫菲斯和尼奥的对话,再读一遍了。

本网站声明:网站内容来源于网络。如有侵权,请联系我们,我们会及时处理。

温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信(j7hr0a@163.com),我们会及时处理和回复。

原文地址"hashboard,hash network":http://www.guoyinggangguan.com/qkl/147665.html

微信扫描二维码关注官方微信
▲长按图片识别二维码