来源:
编辑黄俊志
ChatGPT开发商OpenAI周三(5日)表示,该公司计划投入大量资源,创建一个新的研究团队,以确保其人工智能(AI)对人类是安全的,并最终实现AI的自我监控。
OpenAI的联合创始人伊利亚·苏茨基弗(Ilya Sutskever)和负责提高系统安全性的AI一致性团队负责人简·雷科(Jan Schmidt)在博客中写道:“超级智能的巨大力量可能...导致人权的剥夺,甚至人类的灭绝。”
“目前,我们没有一个解决方案来操纵或控制一个潜在的超级智能人工智能,并防止它失控。”他们写道。
AI对齐是指AI的行为要符合设计者的兴趣和预期目标。
20%的计算能力用来解决AI失控的问题
他们预测,超智能AI(即比人类更聪明的系统)可能会在这十年(2030年前)到来,人类将需要比目前更好的技术来控制超智能AI,因此他们需要在所谓的“一致性研究”上取得突破,其重点是确保人工智能对人类有益。
根据他们的说法,在微软的支持下,OpenAI将在未来四年内花费20%的计算能力来解决AI失控的问题。此外,该公司正在成立一个新的团队来组织这项工作,名为超级一致性团队。
据悉,该团队的目标是创建一个“人类级别”的AI研究员,然后通过大量的计算能力对其进行扩展。OpenAI表示,这意味着他们将使用人类的反馈来训练AI系统,训练AI系统来辅助人类评估,然后最终训练AI系统进行实际的一致性研究。
专家质疑
然而,这一举措刚公布就遭到了专家的质疑。人工智能安全的倡导者康纳·莱希(Connor Leahy)表示,OpenAI的计划从根本上来说是有缺陷的,因为能够达到“人类水平”的初级版本AI在被用于解决AI安全问题之前,可能会失控并造成严重破坏。"
他在接受采访时说:“在构建人类级别的智能之前,你必须首先解决一致性问题,否则你无法默认控制它。我个人不认为这是一个特别好或安全的计划。”
人工智能的潜在危险一直是人工智能研究人员和公众最关心的问题。今年4月,一群人工智能行业领袖和专家签署了一封信,呼吁暂停训练比OpenAI新推出的GPT-4模型更强大的人工智能系统至少6个月,理由是它们对社会和人类构成潜在风险。
最近的一项民意调查发现,超过三分之二的美国人担心AI可能带来的负面影响,61%的人认为AI可能威胁人类文明。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信(j7hr0a@163.com),我们会及时处理和回复。
原文地址"超级11,超级iis":http://www.guoyinggangguan.com/qkl/140442.html。

微信扫描二维码关注官方微信
▲长按图片识别二维码