
(SeaPRwire) – 2025年,随着人们努力理解人工智能技术的快速发展和应用,关于人工智能的误解层出不穷。以下是三个在新的一年里应该摒弃的常见误解。
人工智能模型发展遇到瓶颈
当GPT – 5在5月份发布时,人们(并非第一次)开始怀疑人工智能是否遇到了发展瓶颈。尽管名称有了重大升级,但改进似乎只是渐进式的。《纽约客》发表了一篇文章,标题为“如果人工智能的发展止步于此怎么办?”,文中称GPT – 5“是表明大型语言模型发展停滞的最新产品”。
很快人们就发现,尽管名称具有里程碑意义,但GPT – 5主要是一次以更低成本实现性能提升的尝试。五个月后,OpenAI、谷歌和Anthropic都发布了在具有经济价值的任务上表现出显著提升的模型。谷歌DeepMind深度学习团队负责人奥里奥尔·维尼亚尔斯(Oriol Vinyals)在Gemini 3发布后表示:“与流行观点认为的扩展已结束相反,谷歌最新模型的性能提升‘是我们见过最大的’,看不到发展瓶颈。”
有理由去思考人工智能模型究竟将如何改进。在获取训练数据成本高昂的领域,例如将人工智能代理用作私人购物助手,进展可能会很缓慢。安全与新兴技术中心临时执行董事海伦·托纳(Helen Toner)表示:“也许人工智能会不断进步,但在某些重要方面可能仍然不尽如人意。”但认为人工智能发展停滞的观点很难站得住脚。
自动驾驶汽车比人类驾驶更危险
当驱动聊天机器人的人工智能出现故障时,通常意味着有人在输入时犯了错误,或者搞错了“strawberry”一词中“r”的数量。而当驱动自动驾驶汽车的人工智能出现故障时,人们可能会面临危险。难怪很多人对尝试这项新技术持谨慎态度。
在英国,一项针对2000名成年人的调查发现,只有22%的人对乘坐无人驾驶汽车感到放心。在美国,这一比例为13%。10月份,Waymo的一辆自动驾驶汽车在旧金山撞到了一只猫,引发了公众的愤怒。
然而,根据对Waymo一亿英里无人驾驶里程数据的分析,自动驾驶汽车在很多情况下已被证明比人类驾驶更安全。Waymo的汽车造成人员受伤的事故数量比人类驾驶少近五倍,造成“严重伤害或更糟情况”的事故数量比人类驾驶少11倍。
人工智能无法创造新知识
2013年,数学家塞巴斯蒂安·比贝克(Sébastien Bubeck)在一家著名期刊上发表了一篇关于图论的论文。比贝克现在是OpenAI的一名研究员,他说:“我们留下了一些未解决的问题,然后我和普林斯顿大学的研究生一起研究这些问题。除了一个问题之外,我们解决了大部分未解决的问题。”十多年后,比贝克将这个问题交给了一个基于GPT – 5构建的系统。
他说:“我们让它思考了两天。模型发现了一个惊人的恒等式,实际上解决了这个问题。”
批评者认为,像GPT – 5这样的大型语言模型无法提出任何原创性的东西,只能复制它们所接受训练的信息——这让大语言模型得到了“(此处原文缺失)”这一具有讽刺意味的绰号。6月,苹果公司发表了一份报告,声称要证明大语言模型的任何推理能力都是“幻觉”。
诚然,大语言模型生成回复的方式与人类推理不同。它们在解释简单图表方面存在困难,尽管它们在顶级(此处原文缺失)和(此处原文缺失)竞赛中获得金牌,并且“自主地”(此处原文缺失)“新颖的数学构造”。但在简单任务上的困难显然并不妨碍它们提出有用且复杂的想法。
人工智能安全中心执行董事丹·亨德里克斯(Dan Hendrycks)对《时代》杂志表示:“大语言模型当然可以执行一系列逻辑步骤来解决需要演绎和归纳的问题。有人是否选择将这个过程称为‘推理’或其他名称,这取决于他们自己和他们的词典。”
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。