美国军队每天都将世界上最强大的武器交给全球各地数以十万计的服役人员,其中大多数人年龄在30岁以下。军队通过三个方面来减轻这些强大技术在年轻和经验不足的用户手中全球部署可能带来的风险:它们监管技术本身、用户和他们的单位。政府有机会采取同样的方法来监管AI。
根据任务,服役人员需要成功完成课程、学徒制和口头考试,才能获得驾驶舰只、开火或在某些情况下进行维护任务的权限。每个资格反映了系统可能有多复杂技术,它可能有多致命,以及用户将被授予多大权限来做决定。更重要的是,知道即使经过资格认证的人也可能会感到疲劳、无聊或压力很大,军队还设有标准操作程序(SOP)和检查表,以确保一致安全的行为——比如外科医生就效仿了这一点。
军队在减轻风险方面不仅限于个人,也包括单位。例如,“航母资格”不仅针对个别飞行员,也必须通过航空母舰及其指定的航空联队(飞行员小组)的联合演示来获得。单位资格强调团队合作、共同责任以及多个角色在特定环境下的综合运作。这可以确保每个团队成员不仅擅长自己的任务,而且完全了解他们在更大背景下的职责。
最后,为了补充资格和检查表,军队根据任务和个人责任或资深程度将权限分离和明确划分给不同的个人。例如,表面战斗员在释放武器方面必须拥有的权限,仍然必须请求舰长的许可才能发射某些类型的武器。这一检查可以确保具有适当权限和充分了解风险的人,有机会解决可能升级冲突或减少特定重要武器库存的特殊风险类别。
这些军事策略应激发关于如何监管AI的讨论,因为我们在其他非军事领域看到类似的方法已经奏效。资格、标准操作程序和明确的职责划分已经与技术和工程监管相辅相成,这在医疗、金融和警务部门已经见证。虽然军队独有能力强制执行这样的资格制度,但这些框架也可以在民用领域有效应用。它们的采用可以通过展示这些工具的商业价值、通过政府监管或利用经济激励来推动。
资格制度的主要优点是只允许经过培训的用户访问可能危险的AI系统。审核过程有助于减少恶意用户的风险,比如那些会利用它来生产冒充公众人物的文本或视频,甚至是跟踪或骚扰普通公民。培训有助于减少那些理解这些技术不够充分但本意良好的人错误使用它们的风险,比如一个在联邦法院使用ChatGPT准备法律论文的律师。
为了进一步提高个人用户的责任感,例如设计定制生物体,某些资格可能需要用户具有唯一标识,类似于国家提供者标识号或驾驶证号码。这将使专业组织、法院和执法部门有效跟踪和解决AI滥用事件,增加我们法律体系熟知的责任机制。
将个人资格与组织资格相结合,可以为尤其是服务关键职能的高性能系统提供更全面、多层次的监督。这再次强调AI安全不仅是个人责任,也是组织责任。这种资格方法也支持划分明确的责任,将尤其重要的决定限制在不仅资质合格,而且具体被授权的人手中,就像美国证券交易委员会(SEC)如何监管高频交易操作。换句话说,简单地了解如何使用AI不够,用户还必须了解何时适合使用以及根据谁的授权。
资格和检查表还有其他二级利益。设计、管理和监测它们将创造就业机会。国家以及州政府可以成为资格机构,专业协会可以成为安全研究和相应标准的领导者。即使是AI公司,也可能从支持其个别系统的资格培训计划中获得经济利益。
实施资格或许可制度来监管AI使用是一个吸引人但复杂的机会和挑战。这种框架可能大大改善安全性和责任感,但也将面临障碍和潜在不利影响,其中第一个可能就是为这些工具创建使用障碍和一个不那么多样化的从业人员群体。资格制度也会带来官僚主义开支,不同管辖区可能制定不同的资格标准,无意中阻碍创新和高效的全球AI市场。当然,资格可能只会使恶意用户意图造成伤害变得更复杂,而不是必然防止。
这些不利影响必须放在上下文中进行评估。在没有周到考虑资格制度的情况下,我们被迫仅依靠监管工程方法——一个必然也会官僚主义、缓慢的过程,而且永远不足以单独解决问题。
尽管资格或许可制度的好处在于可以有效提高安全性和责任感,但操作性、伦理和实际挑战都需要仔细考虑。然而,考虑不应推迟实施资格制度,因为这些技术正在迅速传播。
政府和专业社团现在可以开始为优先行业或应用领域设立或指定可信赖的机构,将记录和分析AI损害事件作为它们的首要任务。AI事件数据库或自动驾驶汽车事故报告可以帮助监管机构更好地了解风险,并在此基础上制定培训和资格制度。
记录损害之外,监管机构还需要开始试点资格机制,分享学习教训以进行迭代改进。可以在不同地点和不同市场并行运行多个试点,以并行学习并更好地评估不同监管方法的成本和效益。与此同时,我们还需要继续开发教育计划,提高公众对AI的理解能力。