专栏名称: 人机与认知实验室
北京邮电大学人机交互与认知工程实验室 联系方式:[email protected]
目录
相关文章推荐
51好读  ›  专栏  ›  人机与认知实验室

人工智能、战争风险与人道主义法

人机与认知实验室  · 公众号  ·  · 2025-01-03 09:14

正文

请到「今天看啥」查看全文


人工智能( AI )技术在军事领域的应用引发了对战争风险和人道主义法的广泛关注。随着 AI 在自动化武器系统、无人机作战和决策支持等方面的使用日益增加,出现了对武器自主性失控、误伤平民以及国际法合规性等问题的担忧。传统的人道主义法强调保护无辜民众和战俘,但 AI 武器可能因决策过程的不透明或误判而挑战这些法律的实施。此外, AI 在战争中的使用可能加剧冲突的不可预测性,导致对冲突升级和跨国界行动的伦理和法律争议。因此,亟需制定国际法律框架和监管机制,确保 AI 在军事中的应用符合国际人道法原则,避免其带来更多的人道主义危机和战争风险。

一、 人工智能与战争风险

人工智能( AI )技术的快速发展在许多领域带来了革命性的变化,但也引发了对 战争风险 军事冲突 的深刻担忧。 AI 的军事化应用,特别是在 AI 武器系统、决策支持和信息战等领域,可能对全球安全、国际秩序和人道主义法造成巨大影响。

AI 武器系统,如以色列“福音”人工智能系统(利用数据和算法提供加沙地带地道、火箭炮等军事目标的坐标)、“薰衣草”机器学习系统(用来“计算”一名巴勒斯坦人是武装人员的概率),可能是 AI 技术在军事领域应用的最具争议和潜在风险的案例,这两个系统能够在少量人类干预(甚至没有人类干预)的情况下进行目标识别、决策(是否攻击)。

AI 武器系统如果没有得到严格的监督和控制, 可能会失控 ,导致无差别的攻击,甚至可能在没有明确命令的情况下发动战争。例如,“福音”与“薰衣草” AI 系统在判断目标时可能出现误判,攻击无辜平民或误伤友军,从而引发更大规模的冲突。 AI 武器的使用引发了关于 责任归属 的问题。如果 AI 系统导致了军事冲突中的伤亡,难以确定责任归属是开发者、操作员还是使用这些武器的国家。没有人类在决策链中的介入,可能让战争行为脱离了人类的伦理和道德判断。

AI 技术的军事化可能导致全球范围内的 军备竞赛 ,尤其是在拥有强大技术能力的国家之间。各国为了争夺 AI 技术的优势,可能投入大量资源研发先进的 AI 武器、无人机、网络攻击系统等。这种竞赛不仅加剧了全球的紧张局势,还可能导致一些国家发展出具有不稳定性和无法预见后果的技术。在 AI 技术的军备竞赛中,某些国家可能比其他国家更早获得突破性进展,这种技术不对称可能加剧国际紧张局势。如果一个国家拥有远超其他国家的 AI 军事技术优势,可能会产生“技术优先”的误判,即认为它能够在冲突中迅速取得胜利,进而采取更具攻击性的军事政策。 AI 的快速决策和自动反应能力使得一些国家可能更倾向于采取 先发制人的战略 ,在一场战争中, AI 系统可以根据敌方的举动迅速做出反应,这可能促使国家在没有充分评估后果的情况下发起攻击,从而加速冲突的升级。

AI 技术不仅限于传统武器,还广泛应用于 网络战 信息战 。随着 AI 的进步,网络攻击变得更加高效和智能化,这意味着可能会出现更具破坏性的网络冲突。 AI 可以自动识别网络系统中的漏洞,开发出更高效、更隐蔽的攻击方式。自动化的网络攻击可以摧毁敌方的基础设施、通信系统和军事指挥控制系统,从而在不需要传统军事打击的情况下,造成大规模的战略损害,随着 AI 技术的进步,网络攻击的规模和影响可能会超出我们目前的想象。 AI 还可以用于 信息操控 虚假信息的传播 。在现代战争中,信息战已经成为重要的战斗领域, AI 可以自动生成和传播虚假新闻、社交媒体上的误导性信息或通过深度伪造( deepfakes )技术制造假象,操控舆论和社会情绪。这种信息战不仅限于军队之间,也可能影响到普通民众的认知,甚至激化社会内部的冲突。

AI 的广泛使用可能导致 多方冲突 的风险上升。在复杂的军事局势中, AI 系统可能引发误解和误判,特别是在没有人类决策者介入的情况下。一个国家的 AI 防御系统可能误将敌国的某个活动识别为攻击,从而发动反击,而这种反击可能并不是敌对行动的真实意图。 AI 系统的判断往往基于既定的算法和数据,但这些算法可能无法充分应对复杂和动态的战场环境。 AI 技术可能使得多个国家间的军事对抗更加迅速和激烈。在某些情况下, AI 的自动化响应可能加速冲突的发生,尤其是在军事冲突初期,判断是否应当升级冲突的决策将更加依赖于机器,而非人类的理性和判断力。这可能导致全球范围内更加频繁的局部冲突和暴力行为。

随着 AI 在军事中的应用增多,战争的不可预见性也将大大增加。 AI 系统的行为和反应往往是 复杂和不透明的 ,这使得战争中的局势更加难以预测和控制。系统之间的相互作用,尤其是当各方使用不同的 AI 技术时,可能导致意想不到的结果,从而使战争的后果变得更加不确定。

为了应对 AI 在军事领域带来的风险,国际社会必须加强 全球治理 ,采取措施确保 AI 技术的使用符合国际法、道德规范和人道主义原则。国际社会需要推动通过新的 国际条约 协议 ,对 AI 在军事中的使用进行严格规范。例如,可以在《联合国武器公约》框架下增加针对自动化武器的条款,规定某些类型的 AI 武器不被允许使用,或要求各国对其军事 AI 系统的开发和部署进行透明披露。 AI 技术的发展和应用必须接受更加严格的 审查 监管 。这包括对军事 AI 技术的开发者进行道德审查和技术审查,确保它们不会被用于违反国际法的目的。同时,国际社会也需要共同研究和发展 AI 伦理标准,避免技术被滥用。

尽管 AI 有可能在未来加剧战争的风险,但它也有潜力在某些领域 促进和平 。如 AI 可以用于军事冲突前的预警和分析、减少误伤、提高战场上的医疗救援效率等方面。最终, AI 在军事中的应用是否带来更多的战争或和平,将取决于国际社会如何管理、监管和规范这些技术。总之, AI 技术与战争之间的关系是复杂且充满潜在风险的,如何平衡技术进步与安全风险,是当前国际社会面临的一项重大挑战。

二、 人工智能战争与人道主义法

人工智能( AI )战争与人道主义法 之间的关系日益成为国际法和伦理学领域的一个重要话题。随着 AI 在军事领域的应用逐渐深入,尤其是自动化武器系统、无人机、网络攻击等的广泛使用,国际社会和法律界正在积极讨论如何在新的技术背景下,确保人道主义法得到遵守,保护平民免受战争暴行,并防止战争中的过度暴力。

1 、人道主义法,也称战争法,主要包括《日内瓦公约》及其附加议定书等国际条约,旨在保护战争中的平民、战俘和其他非战斗人员的基本人权,并限制武力的使用。人道主义法的核心原则包括:

1 )区分原则 :区分战斗人员和非战斗人员,以及军事目标与民用目标,不得对无辜的平民和民用设施进行攻击。

2 )比例原则 :即使用武力时应确保军事目的的必要性与可能的平民伤害之间的比例合理,避免过度伤害。

3 )必要性原则 :只使用必要的力量来实现军事目标,不得过度杀伤。

4 )人道原则 :对所有遭遇战争的人都应给予基本的尊重和保护,尤其是受伤人员和战俘。

2 AI 在战争中的应用为军事行动带来了深远的变革,但它也给人道主义法带来了一些挑战和新的问题

(1) 自动化武器系统与责任归属

随着 AI 技术的进步,自动化武器系统(例如无人机、自动化战斗机器人)能够在没有人类干预的情况下执行军事任务,包括目标识别、攻击决策等。若这些系统在战争中造成了平民伤亡或其他违反人道主义法的行为,确定责任归属变得尤为复杂。 谁应负责? 如果 AI 武器系统错误判断目标并导致平民死亡或其他不当行为,责任应该由谁承担?是制造商、操作员、还是使用这些武器的国家? 算法偏见 AI 系统依赖于训练数据和算法,可能存在偏差,导致错误的决策。如 AI 在区分平民与战斗人员时,可能会误判并造成不必要的平民伤害。 应对措施 包括: 开发透明的责任机制 ,确保在设计和部署 AI 武器系统时,必须有清晰的责任框架,确保发生错误时可以追究相关责任。 道德与伦理审查 ,加强对 AI 技术的伦理审查,确保系统设计符合国际人道主义法和伦理标准。

(2) AI 在目标识别与区分原则的执行

AI 技术在目标识别方面有可能提高作战效率,但也可能加剧对平民和非战斗人员的误伤风险。尽管 AI 能够处理大量数据并做出快速决策,但它的判断并不总是像人类那样能够感知复杂的战场环境。 误伤风险 AI 系统可能无法充分理解非战斗人员的复杂情况,如平民是否参与敌对行动,或是某个建筑物是否属于军事目标。 复杂战场环境 :战场环境复杂多变, AI 系统可能无法有效应对一些模糊的情境,导致误伤、误判,甚至故意对平民进行攻击。 应对措施 包括: 加强算法的透明度与审查 ,确保 AI 系统在开发时能够进行充分的测试,特别是对于判断目标的准确性和对不同环境的适应性。 人类监督机制 ,尽管 AI 可以在一定程度上自动执行任务,但应确保每个关键决策环节都能有人类审查和干预,以避免 AI 失误或滥用。

(3) AI 与战争中的比例原则

在传统的战争法框架中,比例原则要求使用武力时必须确保军事目标的必要性和对平民的伤害之间的比例合理。然而, AI 武器的使用可能会使得军事行动更加精准、快速,但也可能降低对平民伤害的敏感度,尤其是在信息不对称的情况下。 战斗的精准性 AI 可以使得军事目标打击更加精准,从而减少非战斗人员的伤亡。但如果 AI 系统对比例的判断出现偏差,可能会导致过度使用武力,甚至无差别攻击。 快速决策与判断 AI 的自动化决策可能让攻击行动更加迅速,从而减少了人类在判断比例和必要性时的考虑时间,可能在没有充足判断的情况下做出过度反应。 应对措施 包括: AI 与人类的协同决策 AI 应当作为辅助工具,而不是完全取代人类决策。确保人类决策者能够充分考虑战争中的伦理和法律限制。 战争后果的评估机制 ,在 AI 武器使用前,必须进行彻底的后果评估,确保其行动符合比例原则。

(4) 网络战与信息战的法律挑战

AI 不仅限于物理武器的应用,还广泛应用于网络战和信息战。 AI 在这两个领域的使用可能导致新的法律挑战,特别是如何确保对敌方网络攻击或信息战的合法性。 网络攻击的合法性 AI 可以自动化网络攻击,可能针对敌方的基础设施、军事通信系统等进行破坏。然而,这种攻击可能会波及到民用设施,造成不必要的平民伤亡,违反国际人道主义法的保护平民原则。 信息战中的虚假信息 AI 也可用于自动化虚假信息的传播或操控舆论,这可能加剧社会动荡和暴力冲突。 应对措施 包括: 建立网络战国际规范 ,国际社会应加强对网络战的法律规范,确保 AI 技术不会被滥用于破坏国际秩序或侵犯无辜平民的权益。 虚假信息的管控 ,发展信息战的国际监管机制,确保 AI 技术不会被用于散布虚假信息,特别是在冲突区域。

3 、国际社会的应对措施

为了确保 AI 战争符合国际人道主义法,国际社会需要采取一系列措施:

1 )加强国际合作与治理 :各国应通过联合国等国际组织加强合作,制定针对 AI 军事化的国际公约或协议,规范 AI 武器的研发、使用和监控。

2 )技术透明度与监管 :制定更加严格的国际监管标准,确保 AI 武器系统和技术的开发过程是透明的,并且符合法律和伦理要求。

3 )制定 AI 伦理和法律框架 :国际社会应尽早制定适应 AI 技术的伦理和法律框架,确保技术发展与人道主义法的目标相一致。

随着 AI 技术在军事领域的广泛应用,确保这些技术遵守国际人道主义法变得尤为重要。 AI 战争的兴起为传统的战争法带来了新的挑战,尤其是在责任归属、目标识别、比例原则和网络战等方面。为了确保 AI 战争不违背人道主义法,国际社会需要加大对 AI 技术的监管力度,并推动全球合作,以确保技术发展与全球和平、伦理和人道主义的目标相符。

三、 以军依赖“福音”和“薰衣草” AI 系统决策引发的担忧

以色列军队在战争中依赖人工智能系统(如“福音”和“薰衣草”)进行决策的问题,的确引发了不少深刻的伦理和操作风险。这种情况不仅暴露了人工智能在高度复杂和动态的战场环境中应用的局限性,还反映了情报分析和战术决策中所面临的一些深层次问题。

1 、人工智能与情报分析的风险

人工智能,尤其是依赖机器学习的工具,能够处理和分析大量数据,但这些系统的准确性和可靠性是有限的。尤其是在情报分析领域,人工智能的准确度高度依赖于训练数据和算法模型。如果这些系统没有足够的背景信息或者语言理解能力,可能会导致严重的误判。例如,您提到的阿拉伯语分析工具的准确性问题就是一个显著的例子。人工智能系统很难像人类情报员一样理解语言中的暗示、俚语或文化背景,这可能导致误解或错误地评估目标的重要性。

2 、情报来源的模糊性

情报来源模糊化问题是一个严重的隐患。如果军方高层收到的情报没有明确标注其来源(是人工智能分析还是人员判断),就很难评估其可靠性。这可能导致决策者过度依赖技术系统的判断,而忽视了这些系统可能存在的漏洞或错误。在高强度冲突中,这种不透明性可能加剧错误决策的风险,尤其是在急需迅速反应的情况下。

3 、降低判断标准的风险

“薰衣草” AI 系统确认目标的标准从至少两个不同渠道降至一个,甚至只依据目标是否是男性。这种简化判断标准的做法,反映了在极端压力下,情报员和决策者可能依赖自动化系统做出快速决策。然而,这种“过度依赖”人工智能而忽视人工审核的做法,尤其是在不完整或模糊的情报情况下,可能会导致平民伤亡的增加。在一些情况下,基于性别、年龄或简单特征的判断可能完全不符合实际情况,从而导致误伤。

4 、人工智能系统的审查和监督问题

人工智能在军事决策中的应用,尤其是在战场环境中,需要严格的审查和监督机制。这些系统缺乏足够的审查可能会加剧冲突中的平民伤亡问题。尽管人工智能可以在某些情况下加快决策过程,但战争中的决策通常涉及复杂的伦理、法律和人道主义问题,这些问题不能简单地交给算法来处理。因此, AI 系统的应用需要有严密的伦理审查和权力监督,确保其在紧急情况下不会导致不必要的暴力升级或平民伤亡。

5. 对人工智能的过度依赖

在高强度的战争环境中,尤其是在情报员和军事人员超负荷工作的情况下,依赖人工智能进行快速决策是可以理解的。然而,这种过度依赖可能会导致对人工智能潜在错误的忽视。如果人工智能的判断缺乏足够的背景理解或者无法在复杂的现实中做出准确的决策,那么依赖这些系统可能会带来灾难性的后果,特别是在涉及生命安全和伦理决策的情况下。

6. 战争中的伦理与人道主义问题

最为严重的是,依赖不完善的人工智能工具做出的军事决策,可能引发对平民的严重伤害。在过去的战争中,平民往往成为冲突的最大受害者。尽管国际法要求各方避免针对无辜平民,但如果决策系统未能有效区分敌我,或者在没有充分验证的情况下启动攻击,这种行为可能违反人道主义法则。

总而言之,虽然人工智能在战争中的应用有其优势,比如数据处理和实时决策支持,但在实际操作中,存在诸多隐患。情报分析的准确性问题、过度依赖 AI 判断、缺乏有效审查机制等,都可能对战局产生极其严重的负面影响。为了防止这种情况的恶化,必须对人工智能的使用设立更加严格的审查和监督制度,确保 AI 系统的决策能够在充分评估和验证的基础上作出,并保持对平民生命和人道主义法则的最大尊重。另外,这也提醒我们,技术(尤其涉及 AI 部分)的应用并非万能,尤其是在涉及战争和生死存亡的问题时,人类的判断和道德责任仍然不可或缺。


附录说明:

1 以军情报部门“ 8200 部队”主管约西·萨里埃尔主导研发机器学习软件“福音”。这一人工智能系统运用数百种预测性算法,可供士兵快速查询以军积累多年的巨大数据池。

“福音”人工智能系统利用数据和算法,可提供加沙地带地道、火箭炮等军事目标的坐标。相关结果经验证后会放入获称“目标库”的数据库中。“目标库”包括巴勒斯坦伊斯兰抵抗运动(哈马斯)和黎巴嫩真主党相关人员及设施的精确坐标,可定位至具体地道和楼层。“福音”所用数据来自截取的通信信息、卫星图像以及无人机、 F-35 战斗机和海底地震监测系统传输的海量信号,还有收录手机号、社交媒体档案、已知联络信息、网络聊天群和内部文件的数据库。

为保证数据真实,情报分析员需经由至少两个不同渠道确认数据,之后数据还要获得一名高级别军官和一名合规军事律师“验证”才能录入“目标库”。

一名不愿公开姓名的以军前高层人士说,以军利用“福音”可经由数年间加沙地带卫星图像的微小变化判断哈马斯是否埋设火箭炮或挖通新地道,相关工作时长由先前的一周压缩至 30 分钟内。

据报道,以军 2023 10 7 日在哈马斯突袭后对加沙地带发起“铁剑”行动,“目标库”所列军事目标很快被炸光。以军为持续打击哈马斯,大量依赖“福音”给出的目标。

实际上,以军并未掩饰对“福音”的使用。以军 2023 11 2 日发表声明称,“福音”已协助以军轰炸加沙地带 1.2 万个目标,数百次袭击“可在刹那间实施”。了解情况的以色列历史学者亚当·拉兹估算,以军在密集轰炸高峰期平均每分钟可打击两个目标,速度“惊人”。以军前总参谋长阿维夫·科哈维 2023 年接受采访时也称,“福音”赋予以军“类似电影《黑客帝国》”的实时情报装置,先前以军的“目标库”年均新入 50 个目标,而“福音”一天就能生成约 100 个目标。

2 除了“福音”,以军还利用“薰衣草”机器学习系统来“计算”一名巴勒斯坦人是武装人员的概率。按照这篇报道说法,以军用拒绝公开的手段掌握巴勒斯坦人在家中的实时照片,运用面容识别技术与“薰衣草”中已知武装人员照片交叉比对。然而,即便比对看似精确,也无法区分对方是否已脱离武装组织,其亲人可能一并遭到空袭。

以军依赖“福音”和“薰衣草”作决策引发担忧。以军高层收到的情报并未区分其来自人员分析还是人工智能系统,这会导致军方高层难以评估情报真实性。以军部分人工智能系统所用的阿拉伯语分析工具准确度也不高,无法像人类那样区分关键暗语的真实含义。

更严重的是,人工智能在战争环境中的应用缺乏审查,可能加剧平民伤亡。本轮巴以冲突爆发初期,约 300 名以军情报员日夜超负荷工作,判定军事目标。确认目标的依据标准从至少两个不同渠道降至一个,甚至有时只要目标是男性即可。

还有一次,以军下令用软件估算轰炸加沙地带北部约 50 座建筑可能造成的平民伤亡,但所用统计方法“过于简单”,要求情报员计算那一地区接收邻近信号塔信号的手机数量,来代表那里的实际人员总数,再计算其与当地预估居民总人数的比例,只要不高于 25% 便可实施轰炸。

以军自诩这种方法可以减少平民伤亡。然而,这样估算可能忽略不少平民,准确度远不及人工估算。但由于人工估算耗时显著增加,以军更青睐人工智能。

关注以军在巴勒斯坦被占领土过度使用暴力的以色列人权组织“打破沉默”先前称,以军在本轮冲突中为杀死一名哈马斯低级别成员,可以冒空袭导致 15 名平民伤亡的风险;如果针对的目标为哈马斯中高级成员,可接受的平民伤亡代价可能呈“指数级”增加。







请到「今天看啥」查看全文