当前,人工智能治理面临的挑战是如何梳理浩繁的文献,找出针对特定组织量身定制的人工智能治理实施方案。本文基于NIST于2023年发布的AI风险管理框架,旨在在加强人工智能治理方面做出尝试,以便对读者,尤其是GRC(治理、风险与合规)领域的专业人士提供实用参考。
评估AI风险
AI系统设计有不同程度的自主运行能力。与之相关的最主要风险有哪些?
AI的十五个最大的风险如下:
缺乏透明度
偏见和歧视
隐私问题
伦理困境
安全风险
权力集中
对AI的依赖性
取代就业
经济不平等
法律和监管挑战
AI军备竞赛
人际关系的丧失
虚假信息和操纵
意想不到的后果
存在性风险值得注意的是,AI可能会因其使用的组织性质而产生独特风险,超出普遍存在的风险范畴。
AI可信度
NIST规定了可信AI应具备以下特征:
合法有效且可靠
安全无害
安全且具有韧性
可追责且透明
可解释且可理解
隐私增强
公平对待且妥善管理有害偏见根据NIST的说法,“高度安全但不公平的系统,准确但不透明且不可解释的系统,以及不准确但安全、隐私增强和透明的系统都是不可取的。风险管理的综合方法要求在可信度特征之间取得平衡。”其中的关键词是“权衡取舍”。
AI风险管理框架核心
NIST规定的RMF框架包括四个功能,如下所示:
治理
映射
测量
管理
治理作为跨领域功能,旨在贯穿并指导其他三个功能。执行AI RMF核心功能时,应考虑到多学科视角,可能还需要听取组织外部的意见。
以下是AI治理的关键建议步骤:
01、在风险度量中应考虑可信AI的七个特征。
02、每个特征应根据环境背景进行定量或定性评估,最好是定量评估并以百分比表示。基于风险管理成本效益分析,或者监管/行业要求寻求平衡。
03、应从多学科利益相关者视角,包括内外部利益相关者,考虑AI系统的可信特征,特别是那些造成重大的社会经济后果的AI系统。
04、每项风险管理框架核心职能的类别和子类别应作为指导方针,并在行使每项职能时加以应用。
05、重要的是,这些指导方针应基于环境背景考虑,而不是一个严格的检查清单。
06、审计人员应将AI审计视为“管理审计”或“社会审计”,并运用相应的原则,而非财务审计或内部审计原则。这一点适用于所需审计的AI组件。
AI原则实际应用的案例研究
下文简要介绍了微软如何利用人工智能伦理委员会管理其AI开发的案例研究。2018年3月,微软宣布成立一个由AI和研究小组的总裁和执行副总裁领导的人工智能与工程研究伦理委员会(AETHER)。截止2019年初,AETHER扩展为AI、伦理和工程与研究成果的委员会。AETHER分为七个工作组:
1、敏感用途
用于评估自动化决策对人们生活的影响
2、偏见和公平性
用于评估对少数群体和弱势人群的影响
3、可靠性和安全性
以确保AI系统对抗攻击具有鲁棒性
4、人类注意力和认知
监控算法注意力窃听和说服能力
5、可理解性和解释性
为机器学习和深度学习模型提供透明度
6、人类与AI的交互与协作
提高人类在AI系统的参与度
7、工程最佳实践
为AI系统开发生命周期的每个阶段提供最佳实践
微软成立AETHER的决定向其员工、用户、客户和合作伙伴发出非常明确的信号,即微软打算将其技术标准提高到一个更高的水平。
行业特定指南可以加强AI治理
AI为人类带来了许多好处和优势,但仍然需要对相关风险进行全面管理。因此,遵循全面的框架将避免组织做出临时性的决定,并确保各利益相关者之间建立更好的信誉和信任。
随着AI的不断发展,监管机构正在制定各种开放框架以适应不同的环境和行业。像ISACA这样的专业机构可以利用其专业知识和知识库,通过制定行业特定指南补充这些框架。