Skip to main content

声明与讲话 人权事务高级专员办事处

蒂尔克呼吁细致治理人工智能风险,着眼人民权利

2023年11月30日

发言人

联合国人权事务高级专员福尔克尔·蒂尔克

场合

“生成式人工智能与人权”峰会

尊敬的朋友们、同事们:

这是一个重大的历史性时刻。《世界人权宣言》发表75周年之际,正值人工智能领域迎来快速变革时期,特别是生成式人工智能。

生成式人工智能的出世呈现出技术进步的矛盾局面。一方面,我们生活、工作和解决一些最复杂挑战的方式可能被彻底改变。而另一方面,可能损害人类尊严和权利的风险进一步加深。至关重要的是确保人权植根于人工智能的整个生命周期,同时需要政企齐心协力建立有效的风险管理框架和操作护栏。

我尤其对数字技术重塑社会和影响全球政治的能力日益感到不安。2024年有近70场选举计划举行,覆盖到全球40亿人所居住的国家,而数字平台上的虚假信息和造谣诽谤可能会对其造成影响。在虚假信息和操纵行为面前,我们必须竖立起一个坚不可摧的支柱。

必须对人工智能可能产生变革性影响的多个领域进行全面评估,包括对非歧视、政治参与、获得公共服务的潜在威胁,以及对公民自由的侵蚀。这就是为什么今天我很高兴地看到B-Tech项目发布了《生成式人工智能人权危害分类法》,这有助于更​​广泛地了解当前和潜在的风险。

最重要的是,需要实现对生成式人工智能的治理,并且必须立足于人权。生成式人工智能治理还需要能够促进负责任的商业行为,并对企业造成的损害负责。

受到广泛使用的《联合国工商企业与人权指导原则》以及《经合组织负责任商业行为尽责管理指南》不仅可以为国家和企业提供坚实的屏障,还能为负责任的人工智能发展奠定基础。仅靠这两项文件还不足以应对人工智能带来的挑战。由于人工智能技术可能被国家或犯罪团伙滥用,因此需要制定一系列法律、监管和多边框架。而这些框架必须植根于国际人权规范,包括那些明确企业和投资者人权责任的现有标准。

我们注意到,虽然现在人们正普遍认识到人工智能治理的必要性,但当前推进的多项政策倡议大多存在不一致的问题,而且通常未能给予人权应有的重视。这有可能导致整个监管格局支离破碎,对道德操守和可接受风险的定义各不相同。

B-Tech生成式人工智能项目等结构性倡议,可以让人们更清楚地了解人工智能对人权造成的潜在影响,并让国家和企业明确需要采取的行动,从而为更具连贯性的治理指明道路。

各国需要保护每个人免受由人工智能造成的人权侵害。这意味着所有国家需要调整其监管框架,使其符合国际人权法规定的义务。

企业需要确保其人工智能算法、操作流程和业务模式尊重人权。需要积极开展尽职调查,关注最易受到侵害的人群,并将防止侵犯人权置于设计和商业决策的中心。

针对受到人工智能人权侵害的受害者,我的办事处将继续呼吁重视 提供有效补救。科技公司必须认识到自身肩负的责任,以及建立有效补救制度所带来的社会效益。归根结底,在确保补救人权伤害方面,各国承担着最基本的责任,包括应当强行要求企业采取适当行动。

生成式人工智能并非是一个地方级或国家级现象。它将对每个人产生影响,因此需要全球协作方法。需要确保将保护人民权利置于全球协作方法的核心位置。这不仅需要进行对话,更需要采取行动——利用集体智慧并在既定框架的指导下。这一合作应当将国家、企业、民间社会和个人团结在一起,担负起一个共同的使命:确保人工智能符合人类的最大利益,并与人类共建一个未来世界,让技术不仅服务于有钱有势的人,还要能够普遍提升人类的尊严和权利。

谢谢大家。

该页的其他语文版本: