(SeaPRwire) – 在1960年,赫伯特·西蒙(Herbert Simon),他后来获得了诺贝尔经济学奖和计算机科学图灵奖,在他1960年出版的书《管理决策的新科学》中预测说,“20年内,机器将能够完成人类可以完成的任何工作。”
历史上充满了过于乐观的技术预测未能实现。在人工智能领域,最夸张的预测涉及可以完成任何人类任务的系统的到来,通常称为通用人工智能或AGI。
所以,当谷歌DeepMind联合创始人兼首席人工通用智能科学家Shane Legg预测AGI有50%的可能性在2028年前开发出来时,我们可能会觉得他也成为了没有吸取历史教训的人工智能先驱之一。
尽管如此,人工智能的进步确实在快速发展。2022年开发的语言模型ChatGPT的后继者GPT-3.5在2022年的统一律师考试中考取了213分,处于10%的底端水平。仅仅几个月后开发的GPT-4考取了298分,处于前10%水平。许多专家预计这种进步将继续。
Legg的观点在目前建立最强大人工智能系统的公司领导人中很常见。2022年8月,人类公司Anthropic联合创始人和CEO表示,他预计“人类水平”的人工智能可能在两到三年内开发出来。OpenAI的CEO萨姆·阿尔特曼表示,AGI可能在未来四五年内实现。
但是,在最近一次调查中,对1712名人工智能专家提出的问题中,大多数人对人工智能能够在所有任务上都比人类更好和更便宜地完成工作的时间给出了一个不太乐观的预测。独立调查机构对精英预测专家进行的另一项调查显示,他们的预测更为保守。
判断谁正确的后果很严重。Legg像许多其他人工智能先驱一样警告说,强大的未来人工智能系统可能导致人类灭绝。即使对那些不太担心“人类灭绝”情景的人来说,也有人警告说,能够替代人类完成任何任务的人工智能系统可能会造成严重后果。
规模假设
正在建立最大和最强大人工智能模型的公司的许多工作人员都相信AGI的到来即将来临。他们采信了一个称为“规模假设”的理论:即使需要进行一些增量技术进步,但继续使用越来越大的计算能力和数据来训练人工智能模型,最终必然会导致AGI的出现。
有一些证据支持这个理论。研究人员观察到在训练人工智能模型使用的计算能力(也称为“计算”)和该模型在给定任务上的表现之间存在非常整洁和可预测的关系。在大语言模型(LLM)的情况下(这些模型驱动ChatGPT等聊天机器人),规模定律可以预测模型在预测句子中缺失单词的能力。OpenAI的CEO萨姆·阿尔特曼最近告诉《时代》杂志,他在2019年意识到,考虑到OpenAI研究人员发现的规模定律,AGI的到来可能比大多数人想象的要早得多。
即使在观察到规模定律之前,研究人员长期以来一直明白,使用更多的计算能力来训练人工智能系统会使其能力更强。过去70年来,用于训练人工智能模型的计算能力相对可预测地随着成本下降而增加。
早期基于计算能力预期增长的预测曾被专家用来预测人工智能何时可能与人类匹配(然后可能超越人类)。1997年,计算机科学家汉斯·莫拉维茨预测,到2020年代,廉价可获得的硬件将与人脑在计算能力方面匹配。广泛用于人工智能训练的Nvidia A100半导体芯片大约需要1万美元,可以进行约2万亿次浮点运算,而本十年末开发的芯片性能将更高。然而,对人脑计算能力的估计范围很广,从约1万亿次浮点运算/秒(FLOPS)到超过1兆FLOPS,这使得很难评估莫拉维茨的预测。此外,训练现代人工智能系统需要的计算能力远大于运行它们,莫拉维茨的预测没有考虑这个事实。
最近,非营利组织Epoch开发了一种更复杂的计算预测方法。它不再估计人工智能模型何时将以人脑相似的计算能力进行训练,而是直接利用规模定律,做出一个简化假设:如果使用给定计算能力训练的人工智能模型可以完全重现给定文本部分(根据规模定律是否预测该模型可以重复地以近乎完美的方式预测下一个单词),那么它就可以替代产生该文本的作者。例如,可以完全重现一本书的人工智能系统可以替代作者,可以完全重现科学论文的人工智能系统可以替代科学家。
有些人会说,就因为人工智能系统可以产生类似人类的输出,并不意味着它们会像人类一样思考。毕竟,拉塞尔·克劳在2001年电影《美丽心灵》中扮演诺贝尔奖得主约翰·纳什,但没有人会声称他的表演水平越好,他的数学技能就越出色。Epoch的研究人员表示,这个类比基于对语言模型工作方式的错误理解。随着规模的扩大,LLM获得了类似人类的推理能力,而不是仅仅表面模仿人类行为。然而,一些研究人员表示,当前的人工智能模型是否真的在推理还不清楚。
Epoch的这种方法是定量建模规模假设的一种方式,Epoch的副主任Tamay Besiroglu表示,Epoch的研究人员通常认为人工智能的进步会比该模型预测的更慢。该模型估计“如果广泛部署,将引起与工业革命相当的变化”的“变革性人工智能”的出现概率为2025年10%,2033年为50%。Besiroglu表示,模型预测与Legg等人的预测之间的差异很可能在于实现变革性人工智能比实现AGI更难。
询问专家
尽管许多主要人工智能公司的领导人认为,当前人工智能进步的路径很快就会产生AGI,但他们是少数派。人工智能影响力项目AI Impacts进行了系统性评估专家对人工智能未来的看法。2023年秋,它调查了2778名专家,所有专家在过去一年在重要人工智能会议和期刊上发表过同行评审研究。
其中一个问题是他们认为“高级机器智能”(即机器能够“在没有人类帮助下,在所有任务上都比人类更好和更便宜”)可能成为现实的时间。尽管个人预测差异很大,但预测结果的平均值表明,这一可能性达到50%的时间是2047年,10%的可能性是2027年。
像许多人一样,专家似乎被过去一年人工智能的快速进步所惊讶,并相应地更新了预测。2022年,当AI Impacts运行同一调查时,研究人员估计高级机器智能出现50%的可能性时间是2060年,10%的可能性时间是2029年。
专家还被问到各种单个任务可能由机器完成的时间。他们估计音乐排行榜前40名歌曲由机器人创作的可能性为2028年50%,书籍进入《纽约时报》畅销书榜的可能性为2029年。
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。
超级预测专家持保留态度
尽管如此,有很多证据表明专家并不擅长预测。