[返回博论天下首页]·[所有跟帖]·[ 回复本帖 ] ·[热门原创] ·[繁體閱讀]·[版主管理]
人工智能在战争中的威力
送交者: 国华P[♂★★声望品衔10★★♂] 于 2024-08-22 15:36 已读 1353 次 2 赞  

国华P的个人频道

曾经人们谈虎色变。随着科技发展,特别是中国大陆在AI的迅猛进步,如今人类则言必谈人工智能,尤其是当人工智能可直接用于军事目的的时候。仿佛无所不能的AI的确太重要了 - 人工智能有可能通过提高态势感知、精确瞄准和快速决策来增强军事能力(下图 Medium)。在国防和安全领域,人工智能可能会改变威慑和胁迫的做法,对国家之间的权力、感知和说服计算至少有三种互补作用。


人工智能将改变威慑和胁迫等式。威慑的核心是通过威胁将实施惩罚或报复行动来影响对手的行为。威慑的目的是要让对手对可能付出的代价产生恐惧,使对手放弃特定行动。威慑旨在阻止对手在未来采取特定行动,而胁迫则旨在迫使对手改变目前的行为。

无论是威慑或胁迫,参与这一动态的行为者都必须向对手传达威胁,让对手重新考虑采取具体行动的意愿。胁迫演算中的每一个动作和反动作都会带来重大的升级风险,可能引发意想不到的后果。因此,决策者必须明智地考虑每一步,利用历史、心理和背景来传达可信的威胁,劝阻对手不要越过红线。

胁迫的基本要素包括:能力、感知和说服(下图 The Law Studies)。能力包括几个方面:胁迫行为者(国家)的军事能力、经济财富、技术进步、外交关系、自然资源和文化影响力都在其中。不仅要拥有看得见摸得着的硬实力,让对手知晓自己拥有的能力也至关重要。此外,能力还让我们了解对手/敌国的看法,包括他们的恐惧、意识形态、动机和行为动机,以及胁迫行为者(国家)使用何种方法手段来说服对手/敌国以得到他们想要的结果。然而,胁迫行为者驱动合作、竞争和冲突的动态能力可能会变得越来越不稳定,因为人工智能在解释行为者的防御或进攻企图时给决策者提供的参考不明确。例如,如果一个胁迫行为者已经认定对方是敌意对抗的,那么人工智能提供的参考很可能会加深这样的偏见误解,即视竞争对手的军事态势越来越来越具攻击性,而非防御性质。偏见的加深意味着,外交在缓和紧张局势中发挥作用将变得更有限,更具挑战性。


随着AI越来越多地融入到有能力造成巨大伤害的军事能力中,人工智能固有的不可解释性,面临重大挑战。由于人工智能在解释行为者的防御或进攻企图时往往模棱两可,决策者将不得不依靠自己的理解去推测对手是进攻还是防守。例如,如果人工智能情报、监视和侦察(IRS)套件分析中共在南海的军事演习后,认为那是袭击台湾的前奏,并建议美国部署航母群来阻止共军的行动。由于人工智能ISR套件处理的数据已远超人类,美国决策者很可能采纳其部署航母群的建议的。而这时北京方面无法确定美国部署航母群的真实意图(下图 BREAKING DEFENSE),是对其军事演习的回应,还是出于其他(准备真枪实弹地大打出手)目的。这给美国的战略动机增加了更多的迷雾。这种你来我往的猜疑与误解,会使双方的敌视螺旋上升,直至发生直接冲突。


另一个令人十分担忧的是,人工智能会否夸大对手的敌人形像,促使人们对形势做最坏的评估,从而证明给对手施以惩罚或使用暴力是合理的。这并非危言耸听,而是有实例的支持 -- 有偏见的数据使得特定族裔群体成为警务执法过度的对像。在军事领域,源自数据收集、训练和应用的算法偏见则会产生致命的后果。人类可能会设计塑造人工智能,但这项新技术反过来会决定人类未来的决策方向。

人们对同一事物的看法存在偏差。包括人工智能在内的任何技术修复都无法克服人类内心深处的这种偏见。无论提供人工智能的多失量数据集有多复杂,它都不能将对手简化为数据,因为数据无法重现任何与情感氛围有关的独特感觉。因此,人工智能有可能通过提高态势感知、精确瞄准和快速决策来增强军事能力,但它无法消除各国对彼此安全的不确定感(下图 IOL)。充其量,政治、国防军事中越来越多地采用人工智能可能有助于决策者对同一事物的看法大致相同。


随着各国相信人工智能可以加强其在国际体系中的地位而竞相引入,世界有可能将更加动荡不安 – 由于每个国家都无法真正了解竞争对手的意图,因而都在做最坏的准备,这就增加了误判及发生冲突的机会。之所以如此,是因为现有的人工智能算法,不具备测量坦克、导弹或潜艇等物理武器平台的能力,这增加了威慑的不确定性。

第三,随着人工智能的采用,说服艺术也可能变得更加复杂(下图 THE DEBRIEF/TC)。人工智能可诱导人类购买产品、观看特定视频,对一些事物产生共鸣。随着人工智能系统在包括高度机密和敏感的环境中变得更加个性化、无处不在和简单易懂,决策者的偏见可能会影响他们眼中的现实和拟定相应的行动步骤。文职和军事领导人总相信自己掌控着信息环境。其实,人工智能完全可以改变他们的体验 -- 因为对手错误信息和虚假宣传的误导。因此,我们人工智能驱动的说服诱导工具也会影响我们自己对信息环境的认知体验,以及我们如何训练和应对胁迫。



人工智能在军事领域的日益普及对威慑实践构成了重大挑战。由于人工智能缺乏可解释性,决策者很难准确解读对方的意图,从而增加了误解和升级的风险。采用人工智能初期阶段,它可能会强化敌我之间的偏见和敌意,助长相互不信任,并可能引发冲突。虽然人工智能广泛增强了一国的军事能力,但它无法消除加剧国家间的根本不安全因素。随着各国争相夺取人工智能驱动的战略优势,国与国关系的波动性和彼此竞争/对抗升级的风险在增加。最终,随着人工智能在我们的战争机器中日益普遍,对彼此意图的不确定性和恐惧可能酿成悲剧,因而凸显了谨慎决策的必要性。

参考资料

Motwani, N. (2024). How AI Will Impact Deterrence. THE NATIONAL INTEREST. 链接 https://nationalinterest.org/blog/techland/how-ai-will-impact-deterrence-211155 

喜欢国华P朋友的这个贴子的话, 请点这里投票,“赞”助支持!
[举报反馈]·[ 国华P的个人频道 ]·[-->>参与评论回复]·[用户前期主贴]·[手机扫描浏览分享]·[返回博论天下首页]
国华P 已标注本帖为原创内容,若需转载授权请联系网友本人。如果内容违规或侵权,请告知我们。

所有跟帖:        ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )


用户名:密码:[--注册ID--]

标 题:

粗体 斜体 下划线 居中 插入图片插入图片 插入Flash插入Flash动画


     图片上传  Youtube代码器  预览辅助

打开微信,扫一扫[Scan QR Code]
进入内容页点击屏幕右上分享按钮

楼主本栏目热帖推荐:

>>>>查看更多楼主社区动态...






[ 留园条例 ] [ 广告服务 ] [ 联系我们 ] [ 个人帐户 ] [ 版主申请 ] [ Contact us ]