场合
人权理事会第五十三届会议高级别会外活动
自
联合国人权事务高级专员福尔克尔·蒂尔克
我很高兴我们能够共同讨论人权和人工智能。
我们都知道,当前世界及各地人权状况正在经受着深刻的考验。三重地球危机正在威胁人类的生存。旧的冲突已经持续多年,而且仍然没有结束的迹象。新的危机还在不断爆发,其中许多对全球产生了深远影响。我们仍未摆脱2019冠状病毒病大流行的影响,它暴露并加深了世界各地的大量不平等现象。
今天我们面对的问题是,应该对人工智能和新兴技术施加何种限制,这是当前社会、政府和私营部门面临的最紧迫的问题之一。
近几个月,我们看到并关注生成式人工智能的显著发展,ChatGPT 和其他程序现在可以向更广泛的用户群体开放。
我们都知道人工智能拥有为人类带来巨大裨益的潜力。它可以增强战略远见和预测,使获得知识的机会民主化,有力推动科技进步,并提高处理大量信息的能力。
但是为了利用这一潜力,我们必须确保收益大于风险,并且我们需要加以限制。
当我们谈论限制时,我们真正谈论的是监管。
为了行之有效、符合人道以及将人置于新技术开发的核心,任何解决方案,即任何监管措施,都必须以尊重人权为基础。
人工智能监管的发展正在受到两种不同思想流派的影响。
第一种是仅基于风险,重点关注人工智能开发者的自我监管和自我评估。基于风险的监管形式侧重于识别和减轻风险以达成结果,而不是依靠详细规则。
这种方法将很多责任转移给私营部门。有人会说这责任太重了——我们从私营部门那里听到过此类说法。
它还导致存在明显的监管空白。
另一种是将人权嵌入到人工智能的全生命周期。这种方法自始至终践行人权原则,从数据的收集和选择到由此生成的模型、工具和服务的设计、开发、配置和使用。
这并不是向未来发出的警告——我们已经目睹了人工智能的有害影响,而不仅仅是生成式人工智能。
人工智能有可能加强独裁统治。
它可以操控致命性自主武器。
它可以构成进行社会控制、监视和审查的更有力工具的基础。
例如,面部识别系统可用于公共空间的大规模监视,进而毁掉任何隐私概念。
刑事司法系统中用于犯罪预测的人工智能系统已被证实会加剧歧视并损害权利,包括无罪推定。
受害者和专家,包括在座的大多数,已经在过去相当长的时间内给世界敲响了警钟,但人工智能的决策者和开发者对这些关切还没有采取足够或迅速的行动。
我们亟需各国政府和公司采取紧急行动。在国际层面,联合国可在召集主要利益攸关方并就相关进展提供建议方面发挥核心作用。
绝对不能浪费时间。
世界在气候变化问题上踟蹰了太久。我们不能再犯同样的错误。
那么监管是如何运转的?
首先应该从人们遭受过的伤害和可能经受的伤害着手。
我们需要倾听受影响群体以及已经花费多年时间识别和应对伤害的人的声音。女性、少数群体、边缘化群体尤其受到人工智能偏见的影响。我们必须作出认真努力,让她们加入有关治理的所有讨论。
我们还需要注意到,人工智能在滥用权力或隐私侵犯风险较高的公共和私人服务中的使用,例如司法、执法、移民、社会保护或金融服务。
其次,相关法规必须要求在人工智能系统使用之前、期间和之后评估其人权风险和影响。还需要透明度保证、独立监督和有效补救措施,特别是针对国家本身使用人工智能技术。
未按照国际人权法运作的人工智能技术必须被禁止或暂停,直到保障措施落实到位。
再次,需要实施现有的法规和保障措施,例如数据保护、竞争法和部门(包括健康、技术或金融市场)法规框架。如果在更广泛的监管和制度环境中对人权不够尊重,仅在人工智能的开发和使用上应用人权视角,其所产生的影响将是有限的。
从次,我们需要抵制诱惑,不能放任人工智能行业声称自我监管就足够了,或者声称应该由他们来定义适用的法律框架。我认为我们已经从社交媒体平台中吸取了这方面的教训。虽然他们的意见很重要,但重中之重是必须让完整的民主进程(由所有利益攸关方制定的法律)在这个问题上发挥作用。在这个问题上,世界各地的所有人都将受到长远的影响。
与此同时,公司必须根据《工商企业与人权指导原则》履行尊重人权的责任。公司对他们竞相投放市场的产品负责。我的办事处正在与许多公司、民间社会组织和人工智能专家合作,制定有关如何应对生成式人工智能的指导。但在这些方面需要做的工作还有很多。
最后,虽然这不是一个快速解决办法,但探索建立一个针对特别高风险技术的国际咨询机构可能很有价值,它可以就监管标准如何与普遍人权和法治框架保持一致提供视角。该机构可以公开分享其审议结果,并就人工智能治理提出建议。联合国秘书长也在《全球数字契约》中向明年的未来峰会提出了这一建议。
人权框架提供了重要的基础,可以为挖掘人工智能巨大潜力的努力提供保护,同时预防和减轻随之而来的巨大风险。
我期待与各位讨论这些问题。