(SeaPRwire) – “2017年,在一次双边会议上,一位高级政府官员对我被任命为全球首位人工智能部长表示‘一个年轻的部长,他的年龄和我的儿子一样,被委任来监管一个假设中的技术,这证明你们政府有太多时间和资源在手。’当时,我清晰地记得自己感到一丝不满,因为他们用年轻等同于不称职,但更不满的是他们明显轻视和贬低人工智能。”
在担任阿联酋人工智能战略领导人六年来,过去一年可以说是前所未有的人工智能突破的飞速发展期。从ChatGPT到Midjourney到HyenaDNA。人工智能不再是假设性技术,而是需要全球各国政府投入更多时间和资源的技术,这一点已无法否认。
我看到这些突破和人类在交通工具领域的进步有些相似。从马到飞机只用几十年的时间,今天骑马旅行已经无法与时速900公里的飞机相比,同样,人工智能计算的发展也会带我们进入一个新的阶段。我们现在还在骑马,从帕斯卡的计算器到人工智能的未来,人类的思维将在速度和复杂性上被超越。如果你能想象,就像传说中的阿拉丁灯一样,你只需向这个“容器”输入一个指令,它就会像神话中的精灵一样实现你所有的数字愿望。这就是我们将来会体验的激动未来。
但是,如果我说出警告的话,潜在的危害是巨大的。在历史上,我们见证过灾难事件推动政府对技术进行监管:1986年切尔诺贝利核事故导致国际原子能机构安全指南的修订;1977年特内里费机场事故两架波音747相撞导致标准化空中交通管制术语。一个“阿拉丁灯”出错可能会引发我们从未见过的规模灾难。这可能包括关键基础设施瘫痪、深假新闻通过机器人大规模传播破坏信息可信度、导致重大人员伤亡的网络攻击等。其影响远远超出机场运营或城市地理范围。简而言之,我们不能等待人工智能灾难再来监管它。
面对这样潜在的负面影响,加速发展的人工智能,传统的治理和监管模式明显不堪重负。这源于我长达三分之一生命时间在阿联酋监管新兴技术的亲身经历。几年后才生效的人工智能监管法律无法体现敏捷性和有效性。此外,单一国家在当前全球秩序下,受国界和官僚体系限制,根本无法应对人工智能这样全球性和快速发展的力量。
这需要从根本上重新设想治理模式,采取敏捷的流程和多边实施。我们必须效仿像埃隆·马斯克这样的先驱,同时警告未监管人工智能的危险,并利用它大力推进人类的进步。我们也必须在这两条线上进行平衡,把这些警告视为可调整的指导原则而不是阻碍人工智能发展的障碍。这需要消除政府对人工智能知识的危险性误区。
除了扩大政府视野,我们还必须采取理性、简单和有度量的方法来监管人工智能,不要扼杀创新或阻碍采用。假设一个人工智能面临两个病危病人,但只有资源治疗一个,它应优先治疗谁?千页长篇巨著式的政策文件标准已经无法实现。我们的重点必须转向采纳一个简单的蓝图,类似于艾萨克·阿西莫夫著名的“机器人三定律”。第一定律防止人工智能伤害人类,或者通过不作为,让人类受到伤害。因此,这个定律会把两个病危病人的困境交给一个人类来依靠其道德程序和人性判断做决定。
这些可能是不受人工智能发展影响的普遍原则,因为它们的真实性不是科学证明的问题,而是我们在应对下一个人工智能选择困境时共有的人性标志。它会提醒我们和后代,人工智能必须始终服务于人类价值观,而不是相反。
我代表一个从全球互联和国际合作中成长的国家。我敦促全球同行共同召开会议,制定一个人工智能通用基本法律框架。这个框架将为我们制定各种法规提供支撑,从知识产权到计算碳足迹。最重要的是,我坚信我们有集体能力重新设想人工智能治理新的方法,这种方法必须敏捷、多边并且现在就开始。
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。