Skip to main content

讲话 特别程序

比勒陀利亚大学人权法教授暨法外处决、即审即决或任意处决问题特别报告员克里斯托夫•海恩斯于2014年5月13日至16日在瑞士日内瓦《常规武器公约》缔约国非正式专家会议上的发言

2014年5月13日

自主武器系统和人权法

主席,
各位阁下,
女士们,先生们,

去年5月,我曾就致命自主武器系统与国际人道主义法的关联问题向人权理事会进行报告,现在,通常只应对国际人道主义法的《常规武器公约》也愿意考量该问题的人权方面。这都表明,国际社会对该问题需要一个全面办法有了令人欢迎的认可。

诸位可能已经注意到,我在今天文件的标题中并未使用“致命”字眼。相较谈论致命自主武器系统的特定案例,我想从总体层面谈谈自主武器系统的使用,这包括致命和非致命武力;自主武器系统和非致命自主武器系统。原因如下:

据我所知,我们大家的共同担忧在于对人类使用自主武力。国际人道主义法及由之引申的《常规武器公约》应对的武装冲突多为对人类使用致命武力的情况。故意使用非致命武力是个特例。本会议因而旨在应对致命自主武器系统。然而在人权背景下,如果涉及对人类使用武力,一般让人想到的是非致命武力。致命武力才是国际执法标准的特例。

鉴于自主武器系统是一种武器平台,它们可被用于部署多种致命或致命性较低的武器。因此,在考虑人权背景中可能通过自主武器平台使用武力时,我们的讨论不应仅限于致命武力,而是应考虑包括致命武力和致命性较低武力在内的所有武力使用形式。在此背景下,即便使用武力本身可能并未侵犯生命权,但仍可能违反了部分关于人身安全的其他权利。

的确,一个系统在什么样的情况下才能被称之为自主系统仍无定论。一个被广泛使用的自主武器系统定义即“一旦激活,即可在无进一步人类干预的情况下自动选择和攻击目标的系统”。然而,最好应将自主性看做持续不断的机器决策过程。无论怎样界定,全自主系统所呈现的部分问题也可能表现出较低的自主性。因而在这个阶段——在明确定义尚未形成之前——将自主武器系统看做自主性程度较高的机械系统会较为有帮助。然而我们应清晰认识到,事关重大的自主性还与所谓的关键功能相关——即使用武力。

我将在7个主要标题下探讨自主武器系统与人权的关联:

1) 人权法可能适用于自主武器系统的情况

过去数年中关于自主武器系统的法律辩论大多将人权排除在外,而是将主要关注点放在了国际人道主义法上。然而,不从人权视角考虑自主武器系统使用武力的影响是错误的。考虑到科技的迅速发展,使用武力的系统必然将迫于压力更加趋向自主化。

人权法适用于所有使用武力的情况;它是武装冲突中对国际人道主义法的补充,在没有武装冲突时,它则适用于被国际人道主义法排除在外的内容。为了全面了解如何应对这些武器可能被引入的情况,人权视角应被作为核心考量。通过自主武器系统使用武力是否为人权法所允许,如果是,那么这种许可是在什么情况下给出的?

人权法可能在3种情况下适用于自主武器系统:

a) 武装冲突

人权法在武装冲突中使用武力问题上与国际人道主义法互补,且受到一系列限定。这些限定条款包括:在武装冲突中,人权法需根据更详细且在多个方面更为宽容的国际人道主义法法律规则条款予以确定。然而,即便权利内容可能因背景情况各异,其重点始终是使冲突双方在武装冲突中都能保有生命权和尊严权等人权。就此,应根据这些权利来解读国际人道主义法。

b) 反恐和其他不构成武装冲突处境下的行动

此外,在未达到武装冲突标杆的处境中(如在远离已有战场且与武装冲突并无关联的地理区域),对自主武器系统的使用要求应仅由人权法进行监管。有人辩称在过去十年乃至更久的时间中,武装无人机曾在该情境下被多次使用。自主武器系统可能也面对着同样的情况。这种情况应被看做国际人权法和国际执法标准的适用范围,而非适用国际人道主义法。

c) 国内执法

当然,人权法是警察执法等国内执法的相关法律机制。我们可以根据实际情况想象到,假如开发并向国家军队提供自主武器系统,那这些军队就会被部署在使用自主武器系统的执法行动中。同样的,国家执法官员也可能在某个时间决定使用配有致命或致命性较低武器的自主武器系统。在这种情况下,使用武力显然受国际人权法管辖。

一个急速发展的行业正时刻准备为国内执法专门制造生产自主武器系统。由此类公司的部分营销文案中即可搜集到其可能用途,包括将自主武器系统用于控制人群(如装甲机器人平台和向示威者发射催泪瓦斯或橡胶子弹的发射器,从空中进行强力电击,以及用颜料标识被认定的滋事者)。这种武器平台还可能配备火器或轻武器。

自主武器系统在国内执法中的其他用途可能包括逮捕特定肇事者群体,如越狱者、犀牛或其他大型动物偷猎者;或在高安保级别监狱或边境地区等特定建筑周围提供周边保护,如安装可释放催泪瓦斯的固定装置体系。这种体系还可被用于管线巡查。

近期发布的“暴乱机器人(riobot)”(目前在使用武力方面尚不具自主性)被宣传为特别适合针对非洲矿产行业的袭击。

人质处境则呈现了十分流行的(不像其他空想一样)假设——如我们可预见的,在人类狙击手无法足够快速地做出反应时,自主武器系统可根据指令,基于面部识别技术在刹那间向暴露自己的劫持人质者进行致命武力打击。

各国和私营制造商一定会向世界各地的买家提供这种技术,正如私营安保企业已成为全球产业一样。在部分情况下,这意味着获得武器的国家或其他行动方未必具备先进的技术能力或处理这种武器的经验,继而可能会使其落入装备不良或不负责任的警察、保安或其他执法官员手中。

2) 武器法和人权法

国际人权法对武力和火器的使用进行了严格限制,但与此同时,它对可被制造和使用武器的种类的限制并不多。然而在多数情况下,国际人道主义法规定的非法武器也不能被用于执法。

国际人道主义法有一个特殊分支,即武器法。武器法负责处理在武装冲突中武器是否应被看做非法的问题。国际人道主义法与人权法相关的机制之一即《日内瓦公约第一附加议定书》第三十六条。本条规定,所有缔约国都必须对新武器进行审查,“以确定在某些或所有情况下,该新的武器的使用是否为本议定书或适用于该缔约一方的任何其他国际法规则所禁止”。引述中的“任何其他国际法规则”可被解读为:为通过第三十六条的审查,在适用的人权法之下这类武器的可能用途也必须被考虑在内,这也包括尊严权。

另一影响武器合法性的国际人道主义法规则即所谓的“马顿斯条款”。该条款规定“在并无有效法律规定的情况下,人类仍受人道原则的保护和公众良知要求。”显然,在人权时代中,人权法的基础价值观也将影响对马顿斯条款的解读。有人认为,超过一定自主程度的武器应被认定违反人道原则和公众良知要求。今天,人权价值构成“公众良知”的重要部分,一些国家也因其对武器系统自主性的研究出名,并对其活跃的人权文化深以为傲。

马顿斯条款表明,缺乏明确禁止并不意味着对该类行为或武器的许可。这是否意味着国家有责任证明对这种技术的使用绝对合法呢?我们应参考国际环境法所遵循的办法。预防性原则表明,在就某一行动或政策是否会造成伤害缺乏科学共识时,希望引入该行动或政策一方应承担举证责任。

鉴于高自主性的武器可能最终被用于执法,复杂性不断增加,在部分情况下所谓致命性较低的武器杀伤力不断增加,且不会降低现有标准的适用性,我们应就执法中的武器问题制定一个类似第三十六条的体系。

3) 受到潜在威胁的人权

可能因引入和使用自主武器系统执行武力(致命或非致命)而受到伤害的人权主要包括生命权和人类尊严权。尽管这两种权利为主要关注点,我们也应注意自由权和人身安全权;免受非人道待遇权;享有公正行政行动权;以及补偿权。

这些权利被主要人权条约广泛承认,且在大多数情况下构成国际惯例法的一部分。接下来,我将谈谈自主武器系统对单个权利的可能影响。为使大家更易查证,我所谈及的权利都载于《公民权利和政治权利国际公约》(ICCPR)中(未被《公民权利和政治权利国际公约》承认的尊严权将被单独列示)。

我还将提及联合国《执法人员行为守则》(行为守则)及《执法人员使用武力和火器的基本原则》(基本原则)。基本原则及行为守则将为执法人员使用武力制定原则,并要求他们在此过程中尊重人权和道德考量。

这些执法国际准则的累积影响表明了在人权体制构成价值和使用自主武器系统之间以各种方式存在的基础不兼容性。总的来说,人权法中对自主武器系统的使用空间规定较之国际人道主义法更小。人们对自主武器系统的控制程度越低(即,人类就此问题的自主性让步越大),则上述需考量权利被侵犯的担忧就越深。

a) 生命权

《公民权利和政治权利国际公约》第六条第一款规定:“人人有固有的生命权。这个权利应受法律保护。不得任意剥夺任何人的生命。”“任意”这个词既有法律含义也有道德含义。国家机构在诉诸武力时解读这项权利的首要软法律根据为前面提到的行为守则和基本原则。

国际人权法为使用武力制定了一系列规则。这些规则与国际人道主义法使用的标题类似,但内容有着巨大差异。被囊括在内的必要性和成比例性原则在人权法下都有特定含义。人权法不认可“战斗人员特权”或“附带损害”等概念。

人权法背景下的“必要性”指武力仅应被用作最后手段,且应遵从一个分阶段办法予以实施。非暴力或较低程度的暴力手段必须尽可能根据人权法使用。逮捕存在威胁的个人并对其进行审判为人权法规范。针对个人的武力仅可在该个人存在紧迫暴力威胁的情况下使用——这通常指几秒甚至一瞬间。尽管目标的敌意与关注点在于状态或行为的国际人道主义法无关,其往往在人权背景中扮演着举足轻重的角色。

“成比例性”在人权背景下也有着独特含义。该背景下的成比例性为可能被用作达到特定合法目标的武力设立了最高标准,即:被伤害的利益不得大于受保护的利益。事实上,“必要”的武力行为并不意味着其具有“成比例性”。因而举例来说,鉴于保护财产不应成为蓄意取人性命的理由,一个不具直接危险的逃亡小偷不应被杀害,即便这意味着他可能会逃脱。

基本原则9具体关注火器问题:

执法官员不应该对人使用火器,除非为了自卫或保护他人免受迫在眉睫的死亡或严重伤害威胁,为了避免实施危及生命且特别严重的犯罪行为,为了逮捕表现出这种危险并抗拒执法者权威的人员、或为了防止其逃脱,并且只能用在较不极端的方法不足以实现这些目标时。在任何事件中,只有以保护生命为目的且完全不可避免的情况下才可以故意使用致命火器。

总而言之:故意使用致命武力只有在应对迫在眉睫的生命威胁且严格必要时才能被允许。

警察在使用致命武力时,经常提出还击致死可被视作合理自卫的说辞,但这种说法不适用于自主武器系统(或其他无人系统)。故意使用致命武力只能用于保护人类生命的情况,而不是保护机器等物体。

人权法对使用武力的要求明显比国际人道主义法更严格。需要对各起案件分别进行评估,不仅要按照国际人道主义法的要求评估每一场袭击,还要评估每一次针对具体个人动用武力的行为。武装冲突背景下遇到的同样问题——机器是否有能力、或将会有能力按照国际人道主义法要求作出使用武力的定性评估——依然在执法时使用武力的情况中大量存在,而额外的考量也适用。例如,很难想象机器能够充分肯定地确认某个具体个人有意发动袭击,从而批准使用致命武力。允许机器决定是否对他人采取自卫构成了巨大的侵犯生命权风险。

另外也可以认为,用机器决定生死问题本质上是任意的,这种观点的基础在于国际人权法不言自明的假设:使用致命武力的最终决定必须合理且由人类作出。机器不能像人类那样“推理”,因此不能自主做出“合理”决定。《世界人权宣言》第1条进一步规定,“人人……赋有理性和良心,并应以兄弟关系的精神相对待。”这种语言或许已经过时,但很明显,人权法强调人类理性和互动。

b)人类尊严权
               
尊严权普遍被视为整个人权事业的核心。《世界人权宣言》第1条规定:“人人生而自由,在尊严和权利上一律平等。他们赋有理性和良心,并应以兄弟关系的精神相对待。”

尽管尊严并未在《公民权利和政治权利国际公约》中被承认为一项独立的权利,但它是该条约所载多种权利的组成部分。它也在多项条约中被承认为独立的权利,这个概念影响了对其他权利的解读方法。例如,我认为生命权的概念不能脱离尊严的概念来理解,因为值得保护的正是生命的价值。

在使用武力的背景下,尊严权主要用于保护被针对的人,而非意外受到伤害者。在武装冲突和执法行动中都应如此。国际人道主义法首先是为了保护战斗人员的尊严,这值得我们牢记。

出于上述原因,我们可以认为,针对武装冲突背景下平民伤亡及其生命权问题,民间社会“杀人机器人”运动作出的大部分坚决且有时十分专断的强调可被认为是片面的。自主武器系统一个严重但不够被重视的问题是,它可能对被针对者的尊严造成影响。在未能区分战斗人员/平民的执法过程中,自主武器系统对被针对者尊严的潜在影响更加突出。

我们经常听到——在本次会议的前几天也不例外——尊严权等考量可能是重要的道德概念,但和法律无关,因此不能用法律限制各国的行动。这是不对的。有如下理由。

首先,如上所述,尊严权是一项合法权利,也是国际人权规定的核心组成,可以通过机制执行。这项权利也在国内层面对生命权的保护中发挥了重要作用,有时超越生命权,有时则支撑生命权。例如,在著名的德国空中安全案中,德国宪法法院裁定,允许国防部授权射落符合9/11恐怖主义袭击模式的民用飞机的立法违宪,因为这尽管能拯救生命,但会对机上人员的尊严权构成侵犯。

在其他案件中,法院裁决或立法者认为,死刑(或至少在死刑执行方面)侵犯了尊严权。这同样适用于不得保释的无期徒刑。

此外,如上所述,国际人道主义法和人权的补充性意味着,尊严权等人权规则需要在解读国际人道主义法规定的过程中得到考量。例如,马顿斯条款就明显是开放式的条款,也欢迎这类解读。

最后,如果审议中明确排除了道德规范,国际秩序的前景就变得十分暗淡。无视道德规范的方法带来了一种秩序的幽灵:它越来得不到人类基本价值观的支持,而它本应该为人们的利益服务。生命和尊严权等人权规范必须被赋予道德标准方面的内容。

在此基础上,人们倾向于在尊严岌岌可危时过度地将法律纳为己用。如上所述,“暴乱机器人”(Riobot)正在研发之中,具体是为了控制非洲矿场的动乱。目前,它使用武力还不具有自主性,但增加这一功能并非科技上的重大进步。我们可以想象,如果矿工像牲畜一样被自主机器人唤来呼去,他们会对这种侮辱作出何种反应,这也在他们的伤口上平添了羞辱。

有人认为,用机器来决定你的生死是一种终极的侮辱。这可以延伸到让机器对使用一般武力作出决定的情况。人权和人格尊严的前提是平等关注并尊重每个个人的理念。在某些情况下,自主武器系统或许可被用来攻击财产,但人类不应该仅仅被当成物体对待。

算法杀人意味着人们被视为可替换的实体,就像害虫或物体、像令人厌烦的东西而非天生具有尊严的个人。实施武力等影响深远的决定——尤其是致命武力——只应该由人类经过适当考虑后作出,当事人应该实时发问:对于当前的具体案件是否真的没有其他替代方案,谁来为结果承担责任。机器是冷血且没有道德和生命的,它无法理解杀死或伤残一个人的意义。对人类使用武力的影响极为深远,因此每一次动用武力——按照国际人道主义法的措辞来说则是每一次袭击——要求由人类来重新决定是否应逾越这个界限。

我并非心理学家,也不想深入细节,但是我们很难不去思考心理学家的如下说法是什么意思:人类内心的正常活动依赖于种种事物,尤其是希望的可能性。我们之所以可以忍受艰难的现实,往往只是因为我们相信——经常只有很小的几率——最坏的事情不会发生。正是因为如此,不得假释的终身监禁在许多司法系统中都被视为残酷而不人道,无法令人接受。所有人在任何时刻都可能面对必然会以科技置人于死地的机器人,了解了这一点,也就排除了任何例外的可能性,不可能再有偶尔的良心发现或最后一秒的回心转意。许多情况下,尊严依赖于希望,而高度的致命机器自主性会对我们的集体价值观造成严重损害。

在此背景下,时间似乎发挥着核心作用。不论是用于规范未来可能发生的这种情况的法律(例如德国空中安全法),还是用于确定何时允许自主武器系统使用可致死武力的计算机算法,两者共同的问题是,它们均在假设的基础上提前采取这种行动,但又没有切实的紧迫性证明这种影响深远的决定是不可避免的。立法者和科学家在书桌前或实验室内依据理论概率,做出攸关生死、影响到有血有肉的人类的决定,这样做的风险在于轻视了关键问题,还导致人们可以更轻易、更常规地越过界限,对他人使用武力。

这并不是说,那些不得不在现实场景中使用武力的决策者可以任意裁量是否使用这种武力、应该使用多少武力。法律应规定具体指标,如必要性和适度性。然而,这些是一般性原则,而非关乎如何在具体案件中应用这类原则的先验测定方法。决策权应留给在实地对情况有了解的人类,他们应该明白如何承受其行动带来的后果。不论是法律或算法,都不应该让对人动用武力成为必然,这是人类不容逃避的责任。

除了生命权和尊严权,自主武器系统开火还会牵涉到几项其他人权。以下将简略予以讨论。

c) 人身安全权

《公民权利和政治权利国际公约》第9(1)条规定:  

人人有权享有人身自由和安全。任何人不得加以任意逮捕或拘禁。除非依照法律所确定的根据和程序,任何人不得被剥夺自由。

本条款的安全权包含了威胁生命和未威胁生命的伤害,例如逮捕期间造成的伤害。因此,通过自主武器系统使用致命或较不致命的武力可能违反了第9条。

人权事务委员会正在开展一项进程,旨在通过关于第9条的一般性意见(第35号),它在第12段中声明:“‘任意性’的概念并不等同于‘违法’,当必须作更广义的解释,使之包括不适当、不公正、缺乏可预见性和缺乏适当的法律程序等要素,以及合理性、必要性和适度性等要素。”这种对禁止“任意”剥夺自由的理解类似于对剥夺生命权的理解。我们似乎没有什么理由不把它延伸到第9条所保护的身体安全。

d) 反对不人道的待遇权

《公民权利和政治权利国际公约》第7条规定:

任何人均不得加以酷刑或施以残忍的、不人道的或侮辱性的待遇或刑罚。特别是对任何人均不得未经其自由同意而施以医药或科学试验。

由于机器并非人类,我们可以说,若没有直接的人为参与和适当程度的控制,机器对人类使用武力从本质或定义上来看都是“不人道”的待遇。同样的论点也适用于关于动物的体系——比如训练狗——也就是在没有严格人为控制的情况下用动物对抗人类。

e) 公正的行政行动

世界各地的法律系统承认每个人享有公正行政行动的权利。它要求,受行政决定影响的人员至少应该“被人倾听”,它还要求有人会将想法付诸眼前的行动。

正如其他领域的法律一样,这类法条也很少明确指出必须由人类而非机器来做出这些决定,不过到目前为止没有必要清楚区分。这似乎是行政法未曾言明的假设。这种方法为“当局使用武力应经过审议”的观念提供了支持,它是人类持续考虑过程的一部分,与机器决策相反。因为执法官员使用武力往往是不可逆的,普通的上诉程序也不提供保护,因此,受影响者至少必须能对施展行政权力的人动之以情。

目前有一种思潮正在兴起:在武装冲突中使用武力是一种行政行为,需要人为审查;这在执法环境中应该更加容易,因为享有公正行政行动的权利早已确立。

应该注意到,为了应对技术发展,一些国家正在限制行政权力的计算机化。例如,欧盟第95/46/EC号指令的第15条规定,人人有权“不受制于仅根据自动数据处理就对其产生法律影响的决策”。

f) 获得补救权

《公民权利和政治权利国际公约》在第2(3)条规定,缔约国必须“保证任何一个被侵犯了……权利或自由的人,能得到有效的补救”。某项权利遭到侵犯却未能得到补救在很多情况下本身就是侵犯权利行为。

根据这一方法,对有理由认为是非法造成的死亡事件缺少问责本身即侵犯生命权。正如接下来将要讨论的,自主武器系统的问责真空确实可能出现。

4) 权利和举证责任方面的限制

大多数人权在原则上都是有限的。但是,任何侵犯都应尽量以不严重的干涉行为出现。侵犯权利者必须表明侵犯是出于合理理由,并且是为此目标采取的适度行为。如果一个国家使用了在表面上看来限制了上述权利的武器系统,那么为了显示其在人权法中属合理行为的举证责任当然在于国家。特别是,如果武器发射系统的自主程度违反了所涉权利,举证责任落在当事国身上,它应该表明为何不安排人类——或远程控制系统。

5) 问责制和透明度

在使用武装无人机的背景下,问责制和透明度已成为国际人道主义法之下的核心问题。人权法同样要求各国“确保权利或自由……遭到侵犯的所有人员得到有效补救”……。我不会再重复那些要求,但我只想说,适用于武装无人机的考量也同样适用于自主武器系统的使用,例如在武装冲突的范畴之外。鉴于当前武装无人机有极高的隐秘性且不受惩罚,在此背景下发展自主武器系统尤其令人担忧。

然而,我们应该注意到,自主武器系统方面的问责制在武装无人机问题的基础上增加了额外障碍。许多评论指出,在武装冲突背景下,如果使用自主系统直接造成人类死亡而构成犯罪,就不能确定追责对象。同样的考量可能也更加适用于执法背景中的情况。

透明度也是一个主要问题。自主武器系统的一大问题在于,尽管这类武器随时会改变战争、执法和我们生活的世界各方各面的性质,人们对各国研发这类武器的情况知之甚少。我要借此机会称赞今天到场的国家展现出对此开展辩论的意愿。然而还需更多努力。各国应该向全世界披露它们计划在何种程度上发展自主系统并用于何种目的,但不需要谈及技术细节。它们至少应该表达意见,指出其如何看待这类研发的界限。

6) 生命和尊严权之间可能的冲突

此前表述的主要问题是,自主武器系统可能侵犯生命和尊严权。如果生命权和尊严权产生冲突——使用自主武器系统保护其中一项权利,却侵犯另一项权利——这又怎么办?

这种说法是在有关武装冲突讨论的背景下提出的,例如罗恩·阿尔金(Ron Arkin)就曾指出,自主武器系统可能在某些具体情况下或从全局来看拯救了生命,例如它允许更精准地对合法目标进行武力攻击。很明显,这是颇具分量的观点。我们可能也会看到在执法背景下提出类似的说法。

然而,即便可以证明机器能用自己的方式拯救生命,但这未必是辩论的终点。生命权是至高的权利,但人类尊严权也是如此,用自主武器系统拯救平民等人的生命可能以被针对者的尊严为代价。

牺牲个人而造福大众,或牺牲个人生命和尊严而造福他人生命和尊严,都违背人权精神。如果不是这样,人们就不会反对纯粹的功利主义观点,即如果一个人的身体(例如此人的器官)能拯救许多人的生命,那么将其杀死是可以接受的。因此,对自主武器系统采用“数字游戏”的方法应该特别警惕,不论是面对或承受死亡,有无尊严是举足轻重的区别。我们还可以提问,如果延续某些生命的过程是贬损生命价值的,那么这样做的意义何在?

不过,对尊严的强调也不能让辩论告一段落。考虑到死亡的不可逆性,以及生命权的基础性,当不得不真正作出决策时,没有人会否认拯救生命的重要性。

当生命权和尊严权产生冲突时,哪种权利应占据主导?对此作出选择的难度不亚于选择更倾向于哪个结果:是少数人以没有尊严的方式死亡,还是更多人以有尊严的方式死亡?

我不能轻易给出答案,也在尝试着寻找程式性的答案:哪种权利处于权利系统的顶层,哪种权利产生的伤害可能比益处更多。用符合我们语境的话来说,并不存在一种权利高于另一种权利的“自动”偏好。但是生命权和尊严权是不可减损的价值观,优先对待其中一项,必然会导致长期不可接受的损失。

在我看来,找到对策的最快速方法可能是在保护生命与尊严之间做出某种妥协。也就是说,我们应该接受,人类不能也不应该完全掌控每一个决定。在某些情况下,需要由科技来增强我们的决定,从而拯救生命。不过,如果这种授权超出一定程度,人类尊严受到的威胁就太高了。

某些发言人一直在提倡一种观念:我们真正需要的是让各国承担义务,确保对使用武力实行“有意义的人为控制”或“适当程度的人为控制”。接下去会再次提到这个观念,它可能代表着这两种权利之间的妥协,并保留每种权利的精髓。

7)结论

国际人道主义法的现有条款文字中存在着自主武器系统研发和使用方面的显著问题。我已在其他地方详述过其中一些问题,我认为自主武器系统在切实达到区分性、适度性和预警性要求时会面对这些问题。如果国际人道主义法未曾言明的前提被推到风口浪尖——当武装冲突期间涉及关乎生死的决定时,人类是主要决策者——上述问题会越来越多。  

人权法中的使用自主武器系统问题进一步增加了令人担忧的理由。如上所述,自主武器系统在许多方面与人权法相对立,这种现象比国际人道主义法更严重。

迄今为止的大部分讨论都围绕着实例。反对使用自主武器系统的人提出明确的案例,反映使用某些形式的自主武器系统不可接受,而支持使用的人则提出另外的例子,指出没有理由不允许使用这类武器。 

例如,大多数人都同意,在快速变化的人群控制行动中大规模地将使用武力之决策权给予机器,尤其是使用致命或“较不致命的”武力,并不适合人权法。同时,先进技术加上人为控制能够拯救生命的可能性不容忽视。由电脑决定是否扣动扳机,即便是在致命武力迫在眼前时,并不一定意味着侵犯人权规范。

为了说明这一点,我们来稍微进一步演示一下之前提到的扣押人质的场景。假设有一大群人质遭到扣押,例如尼日利亚女学生被博科圣地绑架。在其他一切途径无果而终之后,一群狙击手部署到位,瞄准这些劫持人质者。因为这里涉及许多移动的目标,狙击手很难同时射击,但不这样做就十分危险。于是一台中央计算机协调所有人在对准目标后同时开火。我认为,这里对瞄准所做的决定涉及足够多的人为控制,这样或许就使开火行为合法了。

使用案例是有利的,因为它使问题更加真实。不过,将讨论局限于这类交流很明显不会让我们走得很远。我们必须要问,如何用一种有原则的根据辨别这种情况。会议讨论很清楚地提出,“有意义的人为控制”提供了一种可采用的流行标准,以区分自主性越来越高的武器系统可接受和不可接受的使用方式,这值得我们探索进一步使用这种标准的内容和含义。 

如果高度自主的系统被用于人群控制,每次开火就几乎不含有人为控制了,而在狙击手的案件中,每一次个别瞄准的决定是由人类做出的。一定程度的机器自主可能会防止允许狙击手伤害人质。机器自主在到达一定程度后能够补充并增进人类自主,但超过某个点(有时称为“充分自主”),天平就开始倾斜,会削弱本来只应该由人类行使的职能。

对每一次开火如果没有某些形式的有意义人为控制,很难说自主武器系统能够在符合人权法的情况下得到合理使用。为了将有关国际社会适当回应自主武器系统问题的辩论带入更高水平,我们急迫需要清晰描绘“有意义”或“适当水平”的人为控制所应包含的内容。

最后,关于什么样的论坛适于讨论这一概念的拟定和自主武器系统带来的其他挑战,我想提出我的意见。考虑到国际人道主义法,自主武器系统明显会造成深远的后果,当前通过常规武器公约开展的进程和其他进程极为重要。然而,务必要牢记人权维度,并将其融入这些进程之中。在各场人权论坛中讨论自主武器系统问题也同样重要,我会在6月请求人权理事会和其他相关联合国机构与国际机构继续关注这个议题。与此同时,常规武器公约正在考量的这个问题的重要性必须得到强调。

技术会继续发展,并继续推动人为控制的界限。希望对关乎生死的决定维持人为控制的人也必须同样不懈地保护这种宝贵准则,因为它一旦失去就再也无法重拾。

关于这项任务授权的更多信息(包括本次演讲)请见 http://www.icla.up.ac.za/un

标签

该页的其他语文版本: