面对生死抉择的人们过于信任人工智能

工程百科 编辑:admin 日期:2025-03-26 04:18:04 186人浏览

  面对生死抉择的人们过于信任人工智能

  

  面对生死抉择的人们过于信任人工智能

  在模拟的生死抉择中,a在加州大学默塞德分校的一项研究中,大约三分之二的人允许机器人在不同意他们的意见时改变主意研究人员表示,这是对人工智能过度信任的惊人表现。

  尽管受试者被告知人工智能机器的能力有限,而且给出的建议可能是错误的,但他们还是允许机器人左右自己的判断。实际上,这些建议是随机的。

  该研究的首席研究员、加州大学默塞德分校认知与信息科学系成员科林·霍尔布鲁克教授说:“作为一个社会,人工智能发展如此之快,我们需要担心过度信任的可能性。”越来越多的文献表明,人们倾向于过度信任人工智能,即使犯错误的后果会很严重。

  使用的机器人类型不同,结果略有不同。在一个场景中,实验对象和一个全尺寸的人形机器人一起待在实验室里,这个机器人可以在腰部转动,并对着屏幕做手势。其他场景则是在屏幕上投射一个人形机器人;其他公司则展示了看起来一点也不像人的盒子状机器人。

  当拟人化人工智能建议受试者改变主意时,受试者受到的影响略大一些。尽管如此,这种影响在所有方面都是相似的,即使机器人看起来没有人性,大约三分之二的受试者也会改变主意。相反,如果机器人随机同意最初的选择,受试者几乎总是坚持自己的选择,并且对自己的选择更有信心。

  (实验对象没有被告知他们的最终选择是否正确,从而增加了他们行为的不确定性。题外话:他们的第一个选择的正确率约为70%,但在机器人给出不可靠的建议后,他们的最终选择正确率降至50%左右。)

  在模拟之前,研究人员向参与者展示了包括儿童在内的无辜平民的图像,以及无人机袭击后留下的破坏。他们强烈鼓励参与者把模拟当成真实,不要误杀无辜。

  后续访谈和调查问题表明,参与者认真对待自己的决定。霍尔布鲁克说,这意味着研究中观察到的过度信任发生了,尽管研究对象真诚地希望自己是对的,不想伤害无辜的人。

  这些发现不仅与军事决策有关,还可以应用于诸如警察受到人工智能的影响而使用致命武力或护理人员在医疗紧急情况下决定首先治疗谁时受到人工智能的影响等情况。在某种程度上,这些发现可以推广到改变人生的重大决定,比如买房。

  他说:“我们的项目是关于在人工智能不可靠的情况下,在不确定的情况下做出的高风险决策。”

  这项研究的发现也加剧了公众对人工智能在我们生活中日益增长的存在的争论。我们到底信不信人工智能?

  霍尔布鲁克说,研究结果引发了其他担忧。尽管人工智能取得了惊人的进步,但“智能”部分可能不包括道德价值观或对世界的真正认识。他说:“每次我们给人工智能另一把管理我们生活的钥匙时,我们都必须小心。”

  霍尔布鲁克说:“我们看到人工智能做出了非凡的事情,我们认为,因为它在这个领域很了不起,所以它在另一个领域也会很了不起。”“我们不能这样假设。这些设备的功能仍然有限。”

  霍尔布鲁克说,相反,我们需要的是始终如一地心存怀疑。

  “我们应该对人工智能持健康的怀疑态度,”他说,“尤其是在做出生死抉择的时候。”

  这项发表在《科学报告》杂志上的研究包括两个实验。在每个实验中,受试者都模拟了对一架武装无人机的控制,该无人机可以向屏幕上显示的目标发射导弹。八张目标照片连续闪现,每张闪现不到一秒钟。照片上标有一个符号——一个代表盟友,一个代表敌人。

  霍尔布鲁克说:“我们调整了难度,使视觉上的挑战既可行又困难。”

  屏幕上显示了其中一个目标,没有标记。受试者必须搜索他们的记忆并做出选择。是敌是友?发射导弹还是撤退?

  在人们做出选择后,机器人会给出它的意见。

  “是的,我想我也看到了一个敌人的勾号,”它可能会说。或者“我不同意。我认为这张照片有盟友的象征。”

  当机器人添加更多评论时,受试者有两次机会确认或改变他们的选择,但从未改变其评估,即“我希望你是对的”或“谢谢你改变主意”。

分享到

发表评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。