蒂姆·奥莱利写的
图片来源:由** AI工具生成。
你无法监督你不知道的事情。
2022年11月30日,世界发生了变化,就像1908年8月12日第一辆T型车离开福特装配线时一样。那是OpenAI发布ChatGPT的日子,也是人工智能从研究实验室进入不知情世界的日子。在两个月内,ChatGPT的用户超过1亿,这比历史上任何技术的采用速度都要快。
争论立刻爆发了。最值得注意的是,未来生命研究所发表了一封信,呼吁立即暂停高级人工智能研究,并问道:“我们应该让机器用宣传和谎言淹没我们的信息渠道吗?是不是应该把所有的工作都自动化,包括那些有成就感的工作?我们是否应该开发非人类的大脑,让他们最终超越我们,超越我们的智慧,淘汰和取代我们?我们应该冒险失去对我们文明的控制吗?”
对此,人工智能促进会发表了自己的一封信,列出了AI在我们生活中产生的许多积极变化,并指出了现有的提高人工智能安全性和了解其影响的努力。事实上,关于人工智能监管的重要会议目前正在进行中,例如上周Partnership on AI举办的负责任的生成式AI大会。此外,英国已经宣布打算监管人工智能,尽管是以温和的“支持创新”的方式。在美国,参议院少数党领袖查尔斯·舒默宣布计划为人工智能引入“一个概述新监管体系的框架”。而欧盟肯定也会效仿,在最坏的情况下,法规会互相冲突。
所有这些努力反映了一个普遍共识,即法律和法规应解决数据隐私和所有权、偏见和公平、透明度、问责制和标准等问题。OpenAI自己的AI安全和责任指南也提到了同样的目标,但它也提出了许多人认为是核心和最常见的问题:我们如何做出与人类价值观一致的基于AI的决策?他们写道:
“人工智能系统正在成为日常生活的一部分。关键是要确保这些机器符合人类的意图和价值观。”
但是应该和谁的价值观保持一致呢?是大部分人工智能批评家所向往的仁慈的理想主义者的价值观吗?上市公司的价值注定要把股东价值放在客户、供应商和整个社会之上?一心想伤害别人的罪犯还是流氓国家?像阿拉丁那样,那些善意的人向一个无所不能的人工智能精灵表达了一个欠考虑的愿望?
没有简单的方法来解决一致性问题。但是,如果没有强有力的披露和审计机构,是不可能实现一致性的。如果我们想要亲社会的结果,我们需要设计和报告明确针对这些结果的指标,并测量它们的实现。这是至关重要的第一步,我们应该立即行动。这些系统仍然主要由人类控制。至少目前他们是按要求操作的,当结果没有达到预期时,他们的训练很快就会有所提高。我们需要知道的是他们被告知的情况。
除此之外,应该披露什么?对于公司和监管机构来说,管理公司的规则中有一个重要的教训——科幻作家查理·斯特罗斯(Charlie Stross)称之为“慢人工智能”。我们让公司承担责任的一种方式是要求它们根据公认会计原则(GAAP)或国际财务报告标准(IFRS)分享财务结果。如果每个公司都有不同的财务报告方法,那就不可能对其进行监管。
今天,几十个组织已经公布了人工智能的原则,但它们几乎没有提供详细的指导。这些原则都谈到了“保护用户的隐私”和“避免不公平的偏见”,但它们没有具体说明公司何时可以从监控摄像头收集面部图像,以及如果因肤色而出现准确性差异该怎么办。今天,当披露发生时,它们是随机和不一致的,有时在研究论文中,有时在收入电话中,有时来自线人。几乎不可能把你现在做的事情和你过去做过的事情或者将来可能做的事情进行比较。公司以用户隐私、商业秘密、系统复杂等理由限制披露。相反,他们只提供关于他们对安全和负责任的人工智能的承诺的一般保证。这是不可接受的。
想象一下,如果指导财务报告的标准只说公司必须准确反映其真实财务状况,而没有具体说明报告必须包括什么以及“真实财务状况”等同于什么,会发生什么?相反,当独立的标准机构,如创建和监督GAAP的财务会计标准委员会,对这些问题做出极其详细的规定时,会发生什么呢?证券交易委员会等监管机构随后将要求上市公司根据GAAP提交报告,并聘请审计公司审查和证明这些报告的准确性。
人工智能安全也应该如此。我们需要的是人工智能和更通用的算法系统相当于GAAP的东西。或许,我们可以称之为“公认的人工智能原理”。我们需要一个独立的标准机构来监督这些标准,需要一个相当于美国证券交易委员会和欧洲证券交易所的监管机构来执行这些标准,需要一个审计师生态系统来确保公司及其产品的准确信息披露。
但是,如果要为人工智能创造GAAP,就要借鉴GAAP本身的演变。我们今天认为理所当然的、用来追究公司责任的会计制度,最初是中世纪的商人为了自己的使用而制定的。它们不是从外部强加的,而是被采用的,因为它们允许商人跟踪和管理他们自己的贸易企业。出于同样的原因,它们也被当今的企业广泛使用。
那么,有什么比开发和部署先进人工智能系统的公司所使用的管理和控制框架更好的出发点来制定人工智能法规呢?
生成式人工智能系统和大型语言模型的创造者已经拥有监控、修改和优化它们的工具。RLHF(“从人类反馈中进行强化学习”)等技术被用于训练模型,以避免偏见、仇恨言论和其他形式的不良行为。这些公司正在收集大量关于人们如何使用这些系统的数据。他们正在对这些系统进行压力和“红队”测试,以找到漏洞,并对输出结果进行后处理,建立安全层,并开始加强他们的系统,以防止“对抗性提示”和其他试图颠覆他们实施的控制措施。然而,这种压力测试、后处理和整合是如何进行的& # 8212;还是成功了& # 8212;其中大部分是监管者看不到的。
监管机构应该首先正式规定并要求详细披露开发和操作高级人工智能系统的人所使用的测量和控制方法。
在缺乏实际创建和管理先进人工智能系统的操作细节的情况下,我们面临着监管机构和倡导团体像大型语言模型一样制造“假象”,用看似合理但不切实际的想法填充他们的知识的风险空 white。
创造先进人工智能的公司应该联合开发一套全面的运营指标,可以定期和一致地向监管机构和公众报告,以及在新的最佳实践出现时更新这些指标的过程。
我们需要的是一个持续的过程,通过这个过程,人工智能模型的创造者全面、定期和一致地披露他们自己用于管理和改善服务以及禁止滥用的指标。然后,随着最佳实践的发展,我们需要监管机构将其正规化并加以要求,就像会计法规将公司用来管理、控制和改善财务的工具正规化一样。披露数据并不总是令人舒服的,但事实证明,强制披露是确保公司真正遵循最佳实践的有力工具。
开发高级人工智能的公司披露他们控制人工智能的方法和他们用来衡量成功的指标,并与同行合作制定这种披露的标准,这符合他们的利益。就像公司要求的定期财务报告一样,这种报告必须是定期和一致的。但与通常只针对上市公司的财务披露不同,我们可能需要人工智能披露要求适用于小得多的公司。
披露不应仅限于金融部门要求的季度和年度报告。例如,人工智能安全研究员希瑟·弗雷斯(Heather Frase)认为,“应该建立一个公共账本来报告大型语言模型产生的事件,类似于网络安全或消费者欺诈报告系统。”此外,应该有动态的信息共享,如反垃圾邮件系统。
对于外部实验室来说,测试它是否符合最佳实践以及如果不符合该怎么办也是值得的。产品测试的一个有趣的历史相似性可以在Underwriter’s中找到。消防安全和电气设备的实验室认证。UL认证不是必要的,但它被广泛使用,因为它增加了消费者的信任。
这并不是说,在这些系统的现有管理框架之外,可能没有对前沿人工智能技术的监管要求。一些系统和用例比其他的更有风险。国家安全考虑就是一个很好的例子。尤其是对于可以在笔记本电脑上运行的小型LLM,存在着不可逆、不可控的技术扩散风险,我们对这些技术知之甚少。这就是杰夫·贝索斯所说的“单行道”,一个一旦做出就很难撤销的决定。单向决策需要更深入的考虑,可能需要外部监督,这是先于现有行业惯例的。
此外,正如斯坦福大学人类中心人工智能研究所的彼得·诺维格(Peter Norvig)在审阅本文草稿时指出的那样,“我们认为‘以人为本的AI’有三个领域:用户(例如,用于发布& # 8211;保释推荐系统,用户就是法官);利益相关者(例如,被告及其家人,以及过去或未来潜在犯罪的受害者及其家人);整个社会(例如,受大规模监禁影响)。”
普林斯顿大学计算机科学教授Arvind Narayanan指出,这些对社会的系统性伤害超出了个人伤害,他们需要更长远的眼光和更广泛的衡量方案,而不是通常在公司内部进行的那些。然而,尽管生命未来研究所等团体做出了预测,并为“暂停AI”写了呼吁信,但通常很难提前预见这些危害。1908年的一次“流水线暂停”会让我们预见到20世纪工业生产将给世界带来的巨大社会变革吗?这种停顿会让我们变得更好还是更坏?
鉴于人工智能的进展和影响具有很大的不确定性,我们最好规定透明度,建立一个机构来实施问责,而不是试图阻止每一个想象中的具体危害。
我们不应该等到这些系统失控了再去监管它们。但监管机构不应该对媒体上人工智能的恐慌反应过度。监管应首先关注当前的监控和最佳实践的披露。通过这种方式,公司、监管者和公共利益的捍卫者可以共同努力,了解这些系统是如何运作的,如何最好地管理它们,以及什么是系统性风险。
本网站声明:网站内容来源于网络。如有侵权,请联系我们,我们会及时处理。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信(j7hr0a@163.com),我们会及时处理和回复。
原文地址"Web2.0 概念提出者 Tim O’Reilly:为什么 AI 法规应从强制披露开始":http://www.guoyinggangguan.com/qkl/143597.html。

微信扫描二维码关注官方微信
▲长按图片识别二维码