, , , ,

公众对 AI 的信任度下降事关国家安全


公众对人工智能的信任正在迅速下降,专家警告说,这种怀疑正在成为一个国家安全问题。近期调查显示,美国人对人工智能的看法比对气候科学或科学整体更为消极,而对人工智能研究人员的信任度远低于对气候专家。随着人工智能系统在国防、基础设施和日常生活中变得越来越重要,重建公众信心不仅仅是科技行业面临的挑战——它更关乎国家韧性和安全。

人工智能信任危机:数据说话

Annenberg 公共政策中心和 TUN – 大学网络(The University Network)的调查显示,美国公众对人工智能的信任度正在大幅下降。这些数据揭示了一个令人担忧的趋势:

  • 只有少数美国人对人工智能科学家表示信心,信任度远低于对气候科学家或科学整体的信任度。
  • 对人工智能的负面看法正在上升,这源于对失业、隐私侵犯、偏见和缺乏透明度的恐惧。
  • 受访者更倾向于认为人工智能会对社会造成伤害而非带来好处,并且许多人担心人工智能的发展速度会超越伦理保障。

ScienceBlog.com 的报告进一步强调了这种信任差距,指出美国人对人工智能科学家的信任度低于对气候专家的信任度,尤其是在老年人和受教育程度较低的人群中,这种差距更为显著。对人工智能潜在的滥用、缺乏监管以及对民主的影响是他们关注的焦点。

对国家安全的潜在风险

Defense One(Patrick Tucker)撰文指出,公众对人工智能的信任下降不仅仅是一个公共关系问题,它对国家安全构成了直接威胁。随着美国军方和政府机构将人工智能应用于关键功能——网络防御、情报分析、基础设施管理——公众的怀疑可能削弱其采用和有效性。

如果公民和盟友不信任人工智能驱动的系统,他们可能会抵制或破坏其使用,从而阻碍从紧急响应到防御准备的方方面面。此外,对手可能会利用这种不信任来传播虚假信息、扰乱行动或破坏社会凝聚力。

信任差距产生的原因

导致信任差距的原因是多方面的,主要围绕透明度、伦理和社会问题以及沟通不足。

透明度和问责制

许多人工智能系统被称为“黑盒子”,这意味着它们的决策过程即使对它们的创造者来说也难以完全解释。这种不透明性助长了怀疑和恐惧。用户难以理解系统是如何工作的,从而难以信任其决策的公正性和可靠性。

伦理和社会担忧

一些引人关注的失败案例——例如,存在偏见的算法导致错误的逮捕,或人工智能生成的虚假信息——已经侵蚀了公众的信心。这些事件表明,人工智能并非总是能够可靠、公正地运行,从而引发了人们对其潜在危害的担忧。

沟通不足

科学家和技术人员经常难以有效地沟通人工智能的工作原理、其局限性以及风险管理措施。专业术语和复杂的算法往往难以被大众理解,这阻碍了公众对人工智能的认知和信任。

重建信任的途径

专家认为,重建公众对人工智能的信任需要采取多方面的努力,并应集中于提高透明度、加强监管、促进公众参与和提升教育水平。

  • 提高透明度: 开放“黑盒子”,明确沟通人工智能系统的工作原理和治理方式。这包括解释数据的使用、算法的决策过程以及潜在的偏见来源。
  • 加强监管: 实施独立的审计、公开报告以及对滥用或造成伤害的问责机制。这有助于确保人工智能系统的开发和应用符合伦理规范和社会价值观。
  • 促进公众参与: 将社区纳入人工智能政策、设计和部署决策,以确保技术服务于公共利益。这有助于确保人工智能的应用符合公众的需求和期望。
  • 提升教育水平: 提升人工智能素养,使人们能够更好地理解和批判性地评估人工智能在社会中的作用。这有助于消除误解,促进知情决策。

结论

人工智能的未来,以及国家安全,取决于公众的信任。随着人工智能不断融入国防、基础设施和日常生活的方方面面,领导者必须立即采取行动,弥合信任缺口。透明度、问责制和真正的公众参与不仅仅是伦理上的要求,更是确保安全和具有韧性的社会所需的战略必要性,尤其是在这个智能机器时代。

 


发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注