我们唯一剩下的隐私就是我们脑子里的东西,很快就会被公开

热点资讯 编辑:admin 日期:2025-03-06 16:15:58 154人浏览

  

  你的大脑可能是你最大的资产——也是你最私人的资产。但很快,你的大脑数据可能会成为新一波智力干扰和虚假信息的中心——这可能会超过对生成人工智能的恐惧。

  虽然可以读取甚至影响大脑模式和脑电活动的神经技术在监测神经系统状况的医学背景下已经存在了一段时间,但消费类设备很快就会成为主流。苹果的Vision Pro将于2月2日发布,它通过虹膜跟踪摄像头提供基本的神经技术,而meta的神经智能手表预计将于2025年初发布。

  Illustration: Dionne Gain

  这些是bci——脑机接口——可以观察大脑活动,并与大脑互动。还有埃隆·马斯克(Elon Musk)的Neuralink,该公司刚刚宣布成功植入大脑,例如,它可以让瘫痪的人打字,或者玩电子游戏。

  这个消费神经技术的新时代将预示着前所未有的虚假信息、影响和干扰。

  作为数据收集拼图的最后一块,神经技术和它收集的大脑数据为那些拥有和访问这些信息的人提供了对个人思想和情感的洞察。它超越了点赞、滑动和点击,捕捉无意识的反应、个人偏见、感觉、偏好和情绪状态。

  神经技术的引入将加剧虚假信息的传播。ChatGPT等生成式人工智能算法利用大量训练数据,利用提示生成“新”内容流,可以迅速创造和传播针对个人的虚假信息。然而,神经技术和人工智能将以现有的大量数据为基础,定制和调整内容,以迎合每个人的特定感受和当前的情绪状态——提供创建由大脑数据推动的反馈循环的能力。一个简单的例子是,当你在浏览新闻时,你会对阅读仇恨言论的声明产生积极的情绪反应。然后,社交媒体平台可以设置它的算法,向你的大脑提供更多相同的内容,以再次引发积极的反应。

  正如杜克大学(Duke University)法学教授尼塔?法拉哈尼(Nita Farahany)所解释的那样,这项技术的商业化带来了严重的风险。“你有同样的科技公司可以访问……大脑数据(也)驱动着人们所处的环境,就像一个沉浸式或空间计算环境,在那里人们几乎就像在一个由外国对手操作的矩阵中。”

  到目前为止,围绕解决这些危险的许多政策对话都集中在内容审核等领域,以及直接处理那些能够传播人工智能生成的虚假信息的平台。然而,随着神经技术的引入,个体的认知自由和恢复能力可以通过对大脑数据输入做出反应的算法的改变来操纵。

  研究新兴技术的伦理、法律和社会影响的顶尖学者法拉哈尼说:“我担心这是一种阴险的方式,以一种非常难以抵制甚至察觉的方式真正获得社会控制。”“对我来说,认知自由是一项国家安全要求,要求各国开始将大脑数据嵌入产品,并说大脑数据具有独特的敏感性和独特的价值……它需要存在于设备上。”它需要生活在个人手中。”

  2024年将是历史上规模最大的选举年——全球超过50%的人口将参加投票——为了保护民主,虚假信息将是首要考虑的问题。然而,迄今为止,全球努力仍在努力解决这一问题。如果不采取紧急行动,由大脑数据和生成式人工智能驱动的虚假信息和干扰加剧的风险将对全球数字格局和民主构成严重挑战。

  现在,为消费者广泛采用神经技术做准备是至关重要的。当它在商业上可用时,必须有适当的保护措施。我们必须认识到大脑数据的重要性——可以说是现有数据中最私密的形式——并特别关注它的收集、存储和使用。这包括控制数据和使用数据。

  任何组织都不应该无限制地或不受管制地访问我们的数据,以及我们的感受和反应。这带来的影响力——无论是收集我们大量数据并运营我们的社交媒体信息流的大型科技公司,还是持有我们许多其他重要凭证的政府,还是任何其他团体——都太大了。

  例如,我们可以确保大脑数据保留在设备上,并被处理,只有操作交互所需的数据——比如是否向左或向右滑动,或点击——被访问,其余的留在用户那里。更新国际人权以考虑认知自由也将是重要的一步。不管它是如何实现的,我们必须确保对我们的大脑数据及其使用进行严格的监管——无论是现在还是将来。如果不这样做,将面临严重侵犯隐私、歧视行为、虚假信息浪潮和失去最后边界的风险;我们的认知自由。

  Miah Hammond-Errey博士是悉尼大学美国研究中心的主任,Tom Barrett是新兴技术研究助理。Miah Hammond-Errey博士也是“技术与安全”播客的主持人。

分享到

发表评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。