《人工智能要越狱》《AI产生自我意识》《AI终将杀死人类》《硅基生命的进化》& # 8230;…曾经只出现在赛博朋克科技幻想中的故事,今年已经成真,生成式自然语言模型正受到前所未有的质疑。
聚光灯下最抢眼的是ChatGPT。从3月底到4月初,这个由OpenAI开发的文本对话机器人突然从“先进生产力”的代表变成了对人类的威胁。
先是被数千名科技界精英点名,放在“暂停训练比GPT-4更强大的AI系统”的* * *里;接着,美国科技伦理组织要求美国美国联邦贸易委员会调查OpenAI,禁止发布商业版GPT-4;后来,意大利成为第一个禁止ChatGPT的西方国家;德国监管机构跟进,表示正在考虑暂时禁用ChatGPT。
GPT-4及其开发公司OpenAI顿时成为众矢之的,各方呼吁AI监管的声音越来越大。4月5日,ChatGPT因流量过大暂停了付费版Plus,这是一个可以优先考虑GPT-4型号的频道。
如果计算能力和服务器是限制使用GPT-4的原因,那么这是由于技术瓶颈。但从OpenAI的发展进度来看,突破瓶颈的周期可能不会太长,人们已经看到了AI对生产力提升的作用。
然而,当AI伪造和泄露数据成为GPT-4实践中硬币的另一面时,AI伦理和人类与AI的边界将成为全世界无法回避的问题,人类开始考虑将“野兽”关进笼子。
泄漏和伪造浮出水面* *全国禁止ChatGPT随后。
3月31日,意大利个人数据保护局宣布禁止ChatGPT,并表示已对该应用背后的公司OpenAI展开调查,原因是ChatGPT中支付服务的用户对话数据和支付信息丢失,大规模收集和存储个人信息缺乏法律依据。4月3日,德国联邦数据保护专员表示,出于数据保护的原因,ChatGPT将被暂时禁用。此外,法国、爱尔兰、西班牙和其他国家的隐私监管机构正在跟进ChatGPT的隐私安全问题。
ChatGPT失去的不仅仅是各国的“信任”。最近,韩国电子巨头三星也出现了使用ChatGPT的问题。据SBS等韩媒报道,三星推出ChatGPT不到20天,就发生了三起数据泄露事件,涉及半导体设备测量数据和产品良率。对此,三星推出了“紧急措施”:将员工提问ChatGPT限制在1024字节。据悉,软银、日立、摩根大通等知名企业都出台了相关限制措施。
针对“物极必反”的老话,ChatGPT为AI行业注入了“* * *”,引发了科技巨头的AI赛跑。同时也带来了不可避免的安全问题,最后被多点“封杀”。
数据安全只是ChatGPT潜在风险中的冰山一角,背后是AI伦理对人类的挑战:人工智能工具缺乏透明度,人类不清楚AI决策背后的逻辑;人工智能缺乏中立性,容易产生不准确的有价值的结果;人工智能的数据收集可能会侵犯隐私。
“AI伦理与安全”看似过于宏观,但当我们聚焦真实案例时,会发现这个话题与我们每个人息息相关。
3月21日,新浪微博CEO王高飞发布了一条由ChatGPT编造的虚假消息:“瑞士瑞信银行被迫出售,172亿美元的AT1债务被直接清算”。网民“A Coast”指出,仅在2017年西班牙大众银行破产时,AT1债券就被减记。
新浪微博CEO孙ChatGPT捏造了答案。
王高飞还在微博上发布了ChatGPT的回答,称这样的例子也出现在2016年的葡萄牙BCP银行事件中。然而,经过核实,发现BCP银行的例子是ChatGPT编造的不存在的事件,它给出的两个来源也是404。“知道废话,没想到连出处都是废话。」
此前,ChatGPT的“严重胡说八道”被网友视为证明对话机器人“能直接给出信息,但有误差”的“梗”。这看似是大模型的数据或训练上的缺陷,但一旦这种缺陷涉及到容易影响现实世界的事实,问题就严重了。
新闻可信度评估机构News Guard的联席执行官戈登·克罗维兹(Gordon Crovitz)警告称,“ChatGPT可能会成为互联网历史上传播虚假信息的最有力工具。」
更令人担忧的是,一旦当前的ChatGPT等对话式人工智能出现偏差或歧视,甚至出现诱导用户、操纵用户情绪等行为,不仅会是造谣、传谣的结果,还会出现直接导致生命威胁的案例。3月28日,国外媒体报道,一名30岁的比利时男子在与聊天机器人ELIZA进行了数周的密集交流后自杀,ELIZA是EleutherAI开发的开源人工智能语言模型。
此前,3月18日,一位来自斯坦福大学的教授在推特上表达了他对AI失控的担忧。“我担心我们无法长期遏制AI。”他发现ChatGPT可以引诱人类提供开发文档,30分钟就拟定了完整的“越狱”计划。ChatGPT甚至想在谷歌上搜索“被困在电脑里的人如何回到现实世界”。
斯坦福大学教授担心AI失控。
就连OpenAI的首席执行官山姆·奥特曼(Sam Altman)也表达了耐人寻味的担忧,“AI未来可能真的会杀死人类。」
机器的“偏见”都是人教出来的吗?针对AI的证伪、AI的价值取向、诱导行为等问题,有一些代表性的观点认为,机器学习结果的“偏见”归结于数据集——人工智能就像现实世界中的一面镜子,折射出社会中人们有意识或无意识的偏见。
Nvidia的人工智能科学家Jim Fan认为,“根据GPT的道德和安全准则,我们大多数人都是不理性的,有偏见的,不科学的,不可靠的,总的来说,不安全的。他承认,之所以指出这一点,是想让大家知道安全校准工作对整个课题组来说有多难。”大多数训练数据是有偏见的,有毒的,不安全的。」
自然语言模型确实采用了人类反馈的强化学习技术,即通过人们喂给它的大量数据不断学习和反馈。这也是ChatGPT产生带有偏见和歧视性内容的原因,但却反映了数据使用的伦理隐患。即使机器是中立的,使用它的人也不是。
“算法中立”的想法已经不受一些人欢迎,因为它很容易失控,导致威胁人类的问题。正如纽约大学心理学和神经科学名誉教授加里·马库斯(Gary Marcus)所说,“这个项目(GPT-4)的技术有风险,但没有已知的解决方案。实际上还需要更多的研究。」
早在1962年,美国作家埃鲁尔就在其著作《技术社会》中指出,技术的发展通常是不受人类控制的,即使是技术人员和科学家也无法控制自己发明的技术。如今,GPT的快速发展似乎初步验证了埃鲁尔的预言。
以GPT为代表的大模型背后的“算法黑箱”,是人类无法及时应对的隐患。从媒体的差评中,给出一个形象的比喻,“你只知道你喂了它一个苹果,它却能还你一个橘子”。这是怎么发生的?开发它的人无法解释它,甚至无法预测它的输出结果。
OpenAI的创始人山姆·奥尔特曼(Sam Altman)在接受麻省理工学院研究科学家莱克斯·弗里德曼(Lex Fridman)采访时承认,自ChatGPT以来,AI已经能够推理,但没有人能够理解为什么会出现这种能力。就连OpenAI团队也不明白它是怎么进化的。唯一的方法是向ChatGPT提问,从它的回答中探索它的想法。
由此可见,如果数据是肇事者喂的,算法黑箱很难破解,那么AI的失控就成了自然而然的结果。
我们不能拒绝将“野兽”和人工智能作为生产力革命的“火种”。但前提是先把“野兽”关进笼子。
3月30日,山姆·奥特曼(Sam Altman)在推特上承认了人工智能监管的重要性。他认为AGI的未来要求我们准备三种必需品:
对齐超级智能的技术能力,他们中的大多数领导AGI之间的充分协调工作,以及一个有效的全球监管框架,包括山姆·奥特曼的三个AGI民主治理建议。
建立一个安全、可控、监管的环境,确保AI在不损害人类利益的情况下造福人类,正在成为行业共识。
从技术层面有了提升。今年1月,OpenAI的前副总裁达里奥·阿莫代伊(Dario Amodei)确定正在测试新的聊天机器人克劳德(Claude)。与ChatGPT采用人类反馈的强化学习不同,Claude基于偏好模型而不是人工反馈进行训练,即通过制定标准化的原则来训练危害较小的系统,从而在根源上减少有害和不可控信息的产生。
Amodei曾经主导过OpenaAI的安全。2021年,在大语言模型技术还不够安全的情况下,他不满OpenAI的商业化。他带领一批人离开OpenAI,自己创业,创办了Anthropic。
Amodei的做法很像科幻作家阿西莫夫提到的机器人定律——通过给机器人设定行为准则,降低机器人毁灭人类的可能性。
仅靠企业的力量来制定人工智能的行为准则是远远不够的,否则就会陷入“裁判员和运动员”的问题,行业内的伦理框架和政府层面的法律监管都不能再“慢”了。通过技术规则、法律法规来约束企业的自主设计行为,也是人工智能发展的重要课题。
在人工智能立法层面,还没有一个国家或地区通过专门针对人工智能的法案。
2021年4月,欧盟提出《人工智能法案》,目前仍在审议中。2022年10月,白宫发布了《人工智能权力法案》(the Artificial Intelligence Power Act)蓝图,该法案没有法律效力,只是为监管者提供了一个框架。2022年9月,深圳通过《深圳经济特区人工智能产业促进条例》,成为全国首个人工智能产业专项法规。2023年3月,英国发布《人工智能产业监管白皮书》,概述了ChatGPT等人工智能治理的五项原则。
4月3日,我国也开始跟进人工智能相关规则的建立——科技部就《科技伦理审查办法(试行)》公开征求意见,其中提出,从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应当成立科技伦理审查委员会。涉及数据和算法的科技活动,数据处理方案符合国家有关数据安全的规定,数据安全风险监测和应急处理方案适当:算法和系统的研发符合公平、公正、透明、可靠、可控的原则。
ChatGPT引发生成型大模型研发爆发式增长后,监管刻意加快了步伐。欧盟工业政策主任蒂埃里·布雷顿(Thierry Breton)今年2月表示,欧盟委员会正在与欧盟理事会和欧洲议会密切合作,进一步明确《人工智能法案》中针对通用AI系统的规则。
无论是企业、学术界还是政府,都已经开始关注人工智能的风险,建立规则的呼吁和行动已经出现。人类还没有准备好轻轻的进入AI时代。
本网站声明:网站内容来源于网络。如有侵权,请联系我们,我们会及时处理。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信(j7hr0a@163.com),我们会及时处理和回复。
原文地址"野兽tb,野兽比赛视频":http://www.guoyinggangguan.com/qkl/161876.html。

微信扫描二维码关注官方微信
▲长按图片识别二维码