打破
周四

人工智能风险报告:前OpenAI员工提议设立安全热线

近年来,国家监管机构屡遭意外打击:大型科技公司一个接一个地推出人工智能模型,而不考虑其后果。这是迟早的事,因为这些系统会带来全新的社会挑战。社区的呼吁和人工智能公司的各种承诺似乎并未能成功延迟这些高风险模型的发布。在发布之前测试模型是一种常见方法,用以减少某些风险。这也有助于当局权衡利弊,并可能阻止被认为过于危险的软件发布。然而,这种调查往往并不精确且不完整。

理论上,人工智能模型甚至可以在评估中“藏拙”,故意隐藏某些能力,以避免引发安全顾虑。这使得问题无法可靠地被发现。所有人工智能风险不太可能立即显现
此外,测试的范围也有限,不太可能涵盖所有应进一步调查的风险。最终的问题在于谁来进行模型评估,以及他们自己的偏见如何影响测试工作。因此,安全测试应该与其他治理工具一起使用。一种这样的工具可能是人工智能公司的内部机制。

理想情况下,员工应被赋予能力,能够定期且完全地与同事分享有关于人工智能安全的顾虑,而不必担心会被同事怀疑。不过,开放批评在人工智能实验室中受到的支持似乎越来越少。三个月前,来自OpenAI和其他人工智能公司的13名前任和现任员工写了一封公开信,表达了他们对报复的担忧。因此,揭露公司有害行为几乎成为不可能,尤其是当这些行为不违法但依然令人担忧时。

通过热线报警
外部机制对举报者的保护可能在揭露人工智能风险方面发挥重要作用。这可以保护因披露公司行为而可能被解雇的员工,同时弥补内部报告机制的不足。几乎每个美国州都有这样的法律,旨在帮助因揭露不安全或非法公司行为而遭报复的员工。然而,现实中,这些法律对员工的保护甚少。至少在美国,法官在处理举报人案件时,往往倾向于支持雇主。

人工智能公司赢得此类诉讼的可能性尤为高,因为社会尚未就什么算是不安全的人工智能发展达成共识。这些以及其他举报人保护的缺陷解释了为什么上述13名人工智能专家,包括前OpenAI员工William Saunders,要求一个新颖的“警告权”。企业必须为员工提供一种匿名报告风险相关问题的程序,可以向公司董事会、监管机构和由专家构成的独立第三方进行报告。

虽然具体流程尚需制定,但大致会是一个正式的、较为官僚的机制。董事会、单位监管者和第三方必须详细记录投诉,可能各自启动调查,还要举行后续会议和听证会。不过,Saunders也明白,现实可能与理想有很大不同。最近在Big Technology Podcast中,Saunders描述了他理想中的人工智能公司安全隐患报告流程,且重点并未放在正式路径上,而是建议添加一个中间步骤。

他希望能有机会获得中立且专家的反馈,判断安全隐患是否足够严重,以启动“警告权”流程,同时保护员工。Saunders指出,目前负责的国家监管者无法扮演这一角色。首先,他们可能缺乏必要的专业知识,无法为人工智能专家在评估安全顾虑时提供建议。而且,知道电话那头是单位官员时,只有少数员工会打电话,因为这可能“极具威慑力”,如Saunders所说。相反,他设想了一条由志愿专家组成的热线,供员工讨论顾虑。

理想情况下,员工会被告知该风险并不像他们想象的那么严重或可能,从而能安心回到工作中去。确保安全
Saunders最终要求的其实不是“警告权”,这种提法暗示员工已确信其公司存在不安全或非法活动。他实际需要的是对直觉的验证——一种机会来确认对不安全或非法行为的怀疑是否合理。因此,投入程度会低得多,对监管的反应也不会那么强烈。他希望负责这个直觉检查的第三方可以更为非正式地工作。

例如,这条热线中的志愿者可以是人工智能领域的博士生、前行业从业者和其他具有专业知识的人士。这种设想是他们将负责迅速且专业地与员工进行保密和匿名的电话对话,讨论安全问题。热线志愿者应熟悉前沿的安全实践,并清楚了解可能对相关人工智能公司员工可用的选项。进入门槛必须很低。正如Saunders所指出的那样,可能只有少数员工会直接提出安全顾虑,无论是对同事、董事会还是当局。

他们更可能在有中间非正式热线参与的情况下提出问题。人工智能热线对话的保密性
人工智能安全热线的具体运作细节应由人工智能社区成员、监管机构和民间社会深入讨论。为使热线发挥其全部潜力,它必须具备将最紧急的验证报告转交给相关当局的能力。同时,还需彻底研究如何确保热线对话的保密性。另一个重要问题是如何招募并留住志愿者。考虑到许多专家对人工智能风险的普遍担忧,有些人可能只出于愿望参与。

如果志愿者不足,则需考虑其他激励措施。然而,首要步骤是承认这一拼图缺失在人工智能安全监管中的重要性。接下来需要寻找可用作构建首条人工智能热线的模式。一个好的起点是监察员。其他行业已认识到这些中立、独立人士作为评估员工担忧严重性的资源的重要性。学术界、非营利性组织和私营部门都有监察员。其特别之处在于他们的中立性——不偏向任何一方,因此更可信。看看联邦单位中的监察员案例:

如果有他们的存在,问题往往比平时更早被发现和解决。设立人工智能监察员
这一概念相对较新。美国商务部于1971年设立了第一个联邦监察员,旨在帮公众解决与该机构的争端并调查其行为。随后,社会保障管理局和税务局等其他机构也效仿了这一做法。回顾这些早期努力,结论是有效的监察员可以显著改善公众与单位之间的关系。总体来看,监察员的存在与法规遵从和与单位合作的增加密切相关。

人工智能监察员或安全热线的任务和人员配置与联邦机构的监察员会有所不同。然而,这一概念值得那些推动人工智能行业保护措施的人士进行研究。警告权可能在表达人工智能安全隐患中发挥作用,但我们还需引入更多中间非正式步骤。人工智能安全热线是一种易于实现的监管措施。一个有志愿者参与的试点项目可以相对较快地组织起来,为像Saunders这样仅希望为其关注点寻求发声的平台的人士提供一个即时渠道。

Kevin Frazier是圣托马斯大学法学院的助理教授,也是德克萨斯大学奥斯汀分校宪法研究项目的高级研究员。