查看原文
其他

【观天下事】OECD/G20 人工智能原则

译者 朱朱 大数据和人工智能法律研究 2023-01-13


B D A I L C 

 欢 迎 关 注 


编者按

2019年5月22日OECD 以及伙伴国正式通过人工智能政策指引,这是政府间组织首次就人工智能发展和治理制定国际化准则,以确保人工智能设计的鲁棒性、安全、公平和可靠。6月9日闭幕的G20 贸易和数字部长会议发表了《关于贸易和数字经济的声明》,就人本主义的未来社会、数据自由流动、治理创新、数字经济的安全性等方面表达了共同立场,在声明附录一中采纳了OECD的人工智能原则。



Iris Grace




OECD/G20 人工智能原则


译 / 朱朱

 

1.1   包容性增长、可持续发展和福祉

利益相关方应积极促进对可信任AI的责任监管, 以追求有益于人类和地球的后果,提升人类的能力和创造性,增加对代表性不足群体的包容性,缩小经济、社会、性别和其他方面的不平等, 保护自然环境,以实现包容性增长、可持续发展与福祉。

 

1.2   以人为本的价值和公平

a)在AI的全生命周期,都应尊重法治、人权和民主价值。具体包括自由、尊严、自治、隐私和数据保护, 以及平等、多元、公平、社会正义和国际社会认可的劳工权利。

b)为此目的,AI行动者应当采取和场景相适应、符合先进技术的机制和防护措施,比如人类决策的能力。

 

1.3   透明和可解释性

AI 行动者应当致力于AI系统的透明性和负责任的披露。为此目的,他们应当提供和场景相适应,符合先进技术的有意义的信息,以

i.实现对AI系统的全面了解。

ii.让利益相关方意识到她是在和AI互动。

iii.赋能受AI系统影响者对结论的理解。

iv.赋能受AI系统不利影响者,使其得基于以平实易于理解的语言描述的AI参数信息以及预测、推荐、决策逻辑的信息挑战AI做出的结论。


1.4   鲁棒性、安全和可靠

a)AI 系统应当在全生命周期都具有鲁棒性、安全和可靠,因此在通常使用、可预见的使用和误用,甚至其他不利条件下,AI系统都应运作良好,不会带来不合理的安全风险。

b)为此目的, AI行动者应当保障AI全生命周期中数据集、处理和决策的可追溯性,以实现和场景相适应的、符合先进技术的对AI 决策的分析以及对询问的回应。

c)AI 行动者应当基于他们的角色、场景以及行动的能力,采取系统性的风险管理模式,对AI系统全生命周期的每个阶段的风险予以回应解决,包括隐私,数据安全,可靠性以及偏见问题。


1.5   可问责

AI 行动者应当基于他们的角色、场景和符合先进技术的方式对AI系统的良好运行负责,并尊重上述原则。





本文仅作学习交流之用


Jean-Marie Toulgouat



往期荐读




编辑:钟柳依


欢迎点击“阅读原文”

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存