AI ethics, Digital law, justice technology concept with glowing balance scale, vector illustration

(SeaPRwire) –   教皇利奥十四世最近呼吁“人工智能的开发者将道德判断力作为其工作的基本组成部分来培养——开发能够体现正义、团结和真正尊重生命的系统。”

包括Andreessen Horowitz联合创始人Marc Andreessen在内的一些科技领袖对此类呼吁。但这样做是错误的。我们不只需要人工智能监管——我们需要人工智能道德。

每项技术都承载着一种哲学,无论我们是否愿意承认。印刷术传播了知识,削弱了等级制度。电力消弭了距离。互联网打破了公共与私人生活的界限。人工智能可能迄今为止最具启示性,因为它迫使我们面对,如果有什么是人类独有的。

各国政府正争相追赶。这是迄今为止最雄心勃勃的机器学习监管尝试;发布了自己的和。行业领袖大声谈论“”和“”。安全的语言占据主导,仿佛伦理是一个可以编码和部署的清单。

规则是必要的。它们可以限制伤害、阻止滥用并提供问责制。但它们不能告诉我们想要建设一个什么样的世界。监管回答了如何,但很少回答为什么。将伦理视为合规会变得贫瘠——一个风险管理而非道德反思的过程。我们所缺少的不是另一本规则手册,而是一个道德或人类指南针。

更深层次的问题不是机器是否能思考,而是人类是否还能选择。自动化算法已经塑造了我们阅读的内容、投资的地点以及我们信任的人或物。我们每天都离不开的屏幕,同时影响着情绪和选举。当决策外包给数据模型时,道德责任就从人类转移到了机械。危险不在于机器发展出过多的智能,而在于我们停止行使自己的智能。

技术专家经常用计算术语来描述伦理:对齐、安全层、反馈循环。但良知不是一个需要调整的参数。它是一种活生生的能力,通过同理心、文化和经验而成长。一个孩子学习是非对错不是通过逻辑,而是通过关系——通过被爱、被纠正和被原谅。同样地,他们学习责任:行为会带来后果,责任与选择密不可分。那是人类道德成长的精髓,无法通过计算来复制。

人工智能将迫使我们重新审视人类尊严——一个比任何技术都古老的概念,然而奇怪的是,它在大多数关于人工智能的对话中却缺席了。尊严坚持认为一个人的价值是内在的,不能用数据点或经济产出来衡量。这是一项与优化逻辑相悖的原则。在一个建立在参与度指标之上的世界里,尊严提醒我们,并非所有可以量化的东西都应该被量化。

资本在此处扮演着尤其重要的角色。获得资金的就会被建造。几十年来,投资者一直奖励速度和规模——不惜一切代价的增长。但今天出现的技术并非中立工具;它们是镜子,反映并放大我们的价值观。如果我们的系统或,那么当社会变得更加分散和分裂时,我们不应该感到惊讶。

伦理尽职调查应像财务尽职调查一样常规化。在询问一项技术可能变得多大之前,我们应该问它会激励什么样的行为,它会创造什么样的依赖,以及它会抛弃谁。那不是道德理想主义或利他主义;那是务实的远见。信任将是人工智能时代的稀缺商品,一旦失去,它将不容易被买回(或编码)回来。

我们时代的挑战是使道德智能与机器智能保持同步。我们应该利用技术来拓展同理心、创造力和理解力——而不是将人类的复杂性简化为预测模式。诱惑在于构建能够预测每一个选择的系统。更明智的道路是保留使选择有意义的自由。

所有这一切并非要美化过去或抵制创新。技术总是拓展人类的潜力,这通常是件好事。今天,我们必须确保人工智能拓展人类的潜力——而不是稀释它。这最终将取决于机器学习了什么,而是取决于我们记住了什么——道德责任不可推卸,以及良知不像代码,不能自动运行。

未来十年的道德项目不是教机器辨别是非。而是提醒我们自己。我们是第一代能够创造出无需我们即可进化的智能的世代。这应该激发的不是恐惧,而是谦逊。没有同理心的智能只会让我们更聪明,而非更智慧;没有良知的进步只会让我们更快,而非更好。

如果每项技术都承载着一种哲学,那么我们的哲学应该是:人类尊严不是一个过时的概念,而是一个设计原则。未来将由我们道德想象力的深度塑造,而非我们算法的巧妙程度。

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。

Last modified: November 11, 2025