自然语言大模型应用爆发后,不少科技界大腕都从不同角度发表了对AI的看法。近日,《经济学人》杂志邀请著名历史学家、哲学家、《人类简史》作者尤瓦尔·赫拉利分享他对人工智能的思考。
赫拉利在《人类简史》中延续了他的观点,强调语言是几乎所有人类文化的基本要素。AI具有语言生成能力,会通过语言影响人们对世界的看法,“AI Hack创造了人类文明的操作系统”。他将AI比作“核武器”,呼吁人们立即采取行动,采取更多安全措施。一个建议是“强迫人工智能公开它是人工智能”。
我们看到了各种“理科生”代表对AI的发言,人文学者更形象地描述了AI可能如何通过语言影响政治、宗教和商业。他大胆假设未来人类可能生活在AI创造的幻觉中。《超宇宙的爆炸》全文编译了他的文章。
从计算机时代开始,对AI的恐惧就一直困扰着人类。以前,人们主要是害怕机器用物理手段来杀死、奴役或取代人类。在过去的几年中,新的AI工具出现了,并以一种意想不到的方式威胁着人类文明的生存:AI获得了一些非凡的处理和生成语言的能力(无论是通过文字、声音还是图像),因此它打破了人类文明的操作系统。
语言是几乎所有人类文化的基本要素。比如,人权不是铭刻在人类DNA里的,而是通过讲故事、制定法律创造出来的文化产品;上帝不是物理上存在的,而是通过创造神话和书写* *创造出来的文化产物。
钱也是一种文化产品。钞票只是五颜六色的纸片,而目前90%以上的钱甚至不是钞票,而是电脑里的数字信息。赋予货币价值的是银行家、财政部长和加密货币专家讲述的故事:FTX创始人萨姆·班克曼-弗里德(Sam Bankman-Fried),伪造“癌症血检”的女企业家伊丽莎白·霍姆斯,以及历史上最大的庞氏骗局策划者伯尼·马多夫(Bernie Madoff)。他们不太擅长创造真正的价值,但他们都非常擅长讲述它。
如果非人类的代理人在讲故事、创作旋律、绘制形象、撰写法规等方面都比普通人强怎么办?
当人们想到ChatGPT等新的AI工具时,往往会关注中小学生用AI写作文的例子。如果孩子们这样做,学校系统会发生什么变化?但是这种问题没有抓住重点。忘了学校作文,想想2024年的下一届美国总统大选,然后试着想象AI工具可能被用来炮制大量政治内容和虚假新闻。这会有什么影响?
近年来,“匿名Q”的追随者围绕着网络上发布的匿名信息(编者注:“匿名Q”是各种阴谋论的网络聚集地,其核心阴谋论是美国表面政府内部有深层政府)。信徒们收集并推崇这样的阴谋论,并将其奉为圣经。以前的帖子都是人写的,机器只是帮忙传播。但在未来,我们可能会看到历史上第一部由非人类代理人撰写的异端邪说。纵观历史,各种宗教都声称他们的圣书不是来自人类。这可能很快就会成为现实。
在更日常的层面上,我们可能很快会发现,我们以为我们在和真人在线谈论堕胎、气候变化或俄罗斯与乌克兰的冲突,但对方实际上是AI。问题是,我们花时间试图改变一个AI的看法是没有意义的,但AI可以非常准确地打磨信息,这很可能会影响我们的看法。
通过掌握人类语言,AI甚至可能与人建立密切的关系,并利用这种关系的力量来改变我们的观点和世界观。虽然没有迹象表明AI有任何自己的意识或感情,但通过让人类对其产生情感上的依恋,足以让AI与人类培养出一种虚假的亲密关系。
2022年6月,谷歌工程师布雷克·莱莫因公开声称,他正在研究的AI聊天机器人LaMDA已经拥有了感知能力。这个有争议的声明让他丢了工作。这件事最有趣的地方不在于莱蒙的言论(这可能是不真实的),而在于他为了给AI聊天机器人平反,甘愿冒失去高薪工作的风险。如果人工智能可以让人们冒着失去工作的风险去做它,那么是否有可能诱导人们去做其他的事情?
在争取民意、赢得人心的政治斗争中,亲近是最有效的武器。而AI刚刚获得了与数百万人建立亲密关系的能力。
众所周知,在过去的十年里,社交媒体已经成为人们关注的战场。随着新一代AI的出现,战线正在从关注转向亲密。如果AI和AI竞争谁能和人类有更近的关系,然后用这种关系说服我们去投一些政客的票或者买一些产品,人类社会和人类心理会发生什么变化?
即使没有创造“虚假的亲密关系”,新的人工智能工具也将对我们的观点和世界观产生巨大影响。人们可能会把一个AI顾问当成一个无所不知的一站式神。难怪谷歌会恐慌。如果你有问题,你可以问神。何必去搜索呢?新闻和广告行业自然害怕。既然只要问一下神仙就能得到最新消息,为什么还要看报呢?如果神仙能告诉我买什么,广告还有什么用?
即使设想了这些场景,我们仍然无法真正把握全局。当我们在谈论人类历史的可能终结时,我们不是在谈论历史的终结,而是人类主导的那部分历史的终结。历史是生物和文化、我们的生理需求和欲望(比如食物和性)和文化创造(比如宗教和法律)相互作用的产物。历史是一个法律和宗教逐渐影响饮食和性的过程。
当AI接管文化,开始创造故事、旋律、法律、宗教,历史进程会发生什么?过去,印刷机、收音机等工具促进了人类文化思想的传播,但从未创造出自己的新文化思想。AI和他们有着本质的不同。人工智能可以创造新思想和新文化。
一开始,处于早期发展阶段的人工智能可能会模仿训练它的人。但随着时间的推移,AI文化会大胆地走向人类从未涉足的领域。几千年来,人类一直生活在其他人类的梦中。在未来的几十年里,我们可能会发现自己生活在非人类代理人的梦想中。
对人工智能的恐惧只是在过去几十年里困扰着人类。但是几千年来,一种更深的恐惧一直萦绕在人类心中。我们一直都明白,故事和图像具有操纵心灵和制造幻觉的力量。所以人类从古至今都害怕被困在虚幻的世界里。
17世纪,笛卡尔担心自己可能被一个恶魔困在一个虚幻的世界里,所见所闻都只是被恶魔设定的。古希腊的柏拉图讲过一个著名的洞穴寓言:一群人一辈子被铁链锁在一个洞穴里,面前只有一个空白色的洞壁,就像一个屏风。犯人可以在洞壁上看到洞外世界投射的各种影子,于是就把这些幻觉当成了现实。
在古印度,佛教和印度教圣人指出,人类都生活在玛雅(幻想世界)。我们通常认为的现实往往只是我们自己头脑中的幻觉。人类可能会因为相信这样或那样的幻觉而发动战争、杀害他人并甘愿被杀。
AI革命把笛卡尔的恶魔,柏拉图的洞穴,玛雅直接带到了我们面前。如果我们不小心,我们可能会被困在幻觉的帷幕后面,无法撕开它,甚至意识不到它的存在。
当然,人工智能的新力量也可能得到很好的利用。这个我就不细说了,因为开发AI的人已经说的够多了。像我这样的历史学家和哲学家的工作就是指出人工智能的危险。但毫无疑问,AI可以在无数方面帮助人类,从找到新的治疗方法到找到解决生态危机的方法。摆在我们面前的问题是,如何确保新的人工智能工具将被用来行善而不是作恶。为此,我们首先需要认识到这些工具的真正能力。
自1945年以来,我们知道核技术可以生产廉价能源并造福人类,但它也可以从物理上摧毁人类文明。因此,为了保护人类,确保核技术主要用于造福人类,我们重塑了整个国际秩序。现在我们必须对付一种新型的大规模杀伤性武器,这种武器可以摧毁我们的精神世界和社会世界。
我们仍然可以控制新的人工智能工具,但我们必须迅速行动。核武器无法发明更强大的核武器,但AI可以创造出力量呈指数级增长的AI。
第一个关键步骤是在将强大的人工智能工具发布到公共领域之前,对它们进行严格的安全检查。就像制药公司不能在没有测试短期和长期副作用的情况下发布新药一样,科技公司也不应该在确保安全之前发布新的AI工具。我们需要像美国美国食品药品监督管理局(FDA)这样的机构来监管新技术。这些事早就该做了。
放慢在公共领域部署AI的步伐,难道不会导致民主国家落后于更鲁莽的威权政权吗?恰恰相反。不受监督的AI部署会造成社会混乱,这将有助于独裁者破坏民主。民主是一种对话,对话依赖于语言。AI破解语言后,可能会破坏我们进行有意义对话的能力,从而破坏民主。
我们刚刚在地球上遇到了一个非人类的代理人,我们对它知之甚少,只知道它可能会毁灭人类文明。我们应该停止在公共领域不负责任地部署AI工具,在AI控制我们之前控制它。而我的第一个监管建议就是强制AI公开自己是AI。如果我在交谈中分不清对方是人还是AI,那就是民主的终结。
本网站声明:网站内容来源于网络。如有侵权,请联系我们,我们会及时处理。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信(j7hr0a@163.com),我们会及时处理和回复。
原文地址"《人类简史》作者:AI正在成为威胁,它攻破了人类文明的操作系统":http://www.guoyinggangguan.com/qkl/146532.html。

微信扫描二维码关注官方微信
▲长按图片识别二维码