(SeaPRwire) – 当人们听到“社会工程学”这几个词时,他们通常会想到政府或反对政党所谓的邪恶设计。如今,我们普遍感觉到社会动荡,这是由某种隐形力量引起的,我们很容易指责别人。我不禁感觉,在一定程度上,我们在指责风车,而社交工程的真正来源可能就在我们的口袋里,在我们的腿上,在各种各样的设备里,很快就会在家里出现高度拟真的社交机器人。
时代在以惊人的速度来袭。2023年10月,生产高级机器人的机器人公司波士顿动力公司宣布,它已将ChatGPT人工智能赋予了它生产的功能性犬型机器人Spot。Spot除了许多设计用于数字维护货车的功能外,现在也加入了具有社交互动能力的机器人行列,连接上互联网并由人工智能驱动。
这都引发了一个问题:我们希望机器人的智能程度如何?当然,我们都希望机器人能够完成各种任务,但我们真的想用智能机器人和AI来取代生活中的人吗?
社交机器人是第二种直接瞄准我们社交本性的技术,第一种是社交媒体。这些是可以说话、倾听、学习的语音激活机器人,就像孩子一样,它们可以记住你告诉它们的一切,并可以精细调整到你的喜好和需求。想象一下阿莱克斯加强版——它有实体形态,能够阅读和响应情绪。它们将在家中执行广泛的家务任务,教学,娱乐,以及表面上“爱我们”。
由于Spot像所有加载了生成AI的设备一样,它已经在互联网上训练过人类生成的数据,所以它可以利用大量信息,将其分类,并能够就任何主题提供大体连贯的评论。但是,由于它连接到互联网,所以它那小小的金属头脑里很可能充满了不准确信息和误导信息,以及性别和种族偏见。现在Spot成为AI军备竞赛中快速将生成AI装入机器人的一员,带着所有bug。
社交机器人不仅仅想帮助我们。它们的设计目的是说服我们爱它们,相信它们也爱我们。不管这听起来有多么可笑,研究已经显示,所有年龄段的人都可以对交互式机器人形成深厚的依恋,我们的大脑很容易被欺骗相信它们至少有一定程度的生命,我们也很容易受它们影响,即使它们犯错误。这些机器人被专门设计为朋友、老师、保姆、治疗师,以及,是的,甚至是情人。它们可以读取我们的情绪和肢体语言,假装展示自己的情绪。它们通过假装关心我们来吸引我们,满足我们的依赖性需求。
这些机器人对于孤独、隔离的人来说可能是救星。它们可以娱乐、教导儿童,并监测儿童,为自闭症儿童提供教授基本社交技巧的专门程序。它们可以为常见心理疾病提供认知行为治疗的版本,并且对残疾人和老年人来说是多媒体功能的真正高手,包括记录、编辑和创建家庭事件或原始片段的视频。
高级机器人装备有AI,所以它们的能力列表是无限的。由于它们连接到互联网,你几乎可以问它任何问题,并很可能会得到答案。但是,这些机器人也可能出问题。根据麻省理工学院的科学家说,它们的恶意网络内容可能会被破坏,甚至可能被黑客控制说和做“有害”的事情。给Spot这样的机器人装载生成AI意味着它们将面临与GAI技术相同的限制和问题,而GAI技术在准确性、幻觉和无法理解人类语言或区分真伪方面仍存在重大问题。
解决生成AI的bug可能需要几年时间,诉讼(已经有几起)需要通过法院,新的版权法需要制定以保护作者和出版商免受盗用其材料牟利的危害,生成AI的最佳应用也需要浮现。但是,波士顿动力公司现在给Spot装载了ChatGPT,我们可以预料其他公司也将争相将其装入自己的机器人,以乘坐其周围期待的浪潮。
就像社交机器人利用我们作为社会生物的需要连接一样,AI通常也几乎没有道德约束。到目前为止,AI和机器人公司一直处于“自律”状态,这相当于没有监督。
如果有一个指导这个行业的总体意识形态,其当前流行词是“加速”。人们认为,通过加速新AI产品的开发和推出速度,将给人类带来巨大利益。对于认为AI可以解决人类一些最难解决的问题的人来说,这是理所当然的 – 但对于预言人类末日的人来说,这是一个警告。
作为一个技术乐观主义者,我认为最终这些技术将为整个社会带来巨大利益,但我们所有人都需要深呼吸,也许需要稍微踩下刹车,让法律法规跟上科学进度。算法和AI将继续渗透到我们生活的每个细微缝隙。随着AI自主性的增强,控制或解决问题将更加困难。没有人希望他们孩子的机器人教师从深网吸收的材料中发狂。当AI出错时,必须有责任和改进。
尽管阴谋论产业信息复杂体不断引起我们的戒备,但我们可能正在看错方向来解释我们广泛的控制感。被有缺陷的算法统治可能更加隐蔽,也可能更危险,如同独裁统治。
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。