建立 AI 治理
学习目标
完成本单元后,您将能够:
- 列出与 AI 相关的一些风险。
- 解释什么是 AI 治理。
- 清点组织当前的 AI 使用情况。
- 评估组织的 AI 风险。
- 列出 AI 风险化解策略示例。
AI 的风险
如果不承认技术带来的风险,几乎无法谈论 AI。我们都听说过安全威胁、对不准确和偏见的担忧、数据泄露的可能性、对声誉伤害的担忧等等。
这项技术正在飞速发展,使情况更加复杂。根据 Salesforce 的 Trends in AI for CRM report(CRM AI 趋势报告),68% 的人认为 AI 的进步使公司的可信度变得更加重要,这一点毫不奇怪。
但在许多情况下,AI 变革的速度超过了组织适应变化的能力。这是 AI 倡导者和 Coral Cloud 度假村高管 Alex 担心的一件事情。Coral Cloud 如何确保以值得信赖的方式采用 AI?
治理的必要性
正如您可能已经猜到的那样,对 AI 的信任从根本上与其治理息息相关。让我们来学习一下什么是 AI 治理。
AI 治理是一系列策略、流程和最佳实践,可帮助组织确保以负责任且可扩展的方式开发、使用和管理 AI 系统,以最大限度地提高收益并降低风险。
在本单元中,我们将跟随 Alex 与 Coral Cloud AI 领导团队合作建立 AI 治理。您的组织可能已经有一个或多个专门监督治理的小组。如果您不打算通过 AI 委员会集中 AI 治理,请确保任何现有的内部管理机构都具备必要的 AI 相关专业知识,以增强现有实践并解决任何差距。
负责任的 AI 的开发原则
在 Coral Cloud 开始创建他们的治理计划之前,Alex 鼓励领导团队退后一步,思考如何专注于他们负责任地开发 AI 的承诺。他们的指导原则是什么?
许多采用 AI 的组织发现,建立负责任的 AI 原则很有帮助。通过一套 AI 原则,企业可以明确他们对 AI 的立场,并考虑该技术对员工、客户和整个社会的影响。这个指导原则在员工之间建立了共识,这样您的 AI 原则可以在企业的各个层面得以应用。
要获得灵感,了解一下 Salesforce 信赖的 AI 原则。但记住,您组织的 AI 原则应与您的企业使命和价值观保持一致。与其他组织有一点重叠是正常的,但要制定自己的一套原则、获得利益相关者的支持并公开承诺这些价值观,不能跳过这些工作。
审视监管环境
Coral Cloud 的领导团队已准备好深入研究治理,但每个人心中都有几个问题:AI 法规呢?法律到底如何要求?
目前,围绕 AI 的法规是由不同地区和行业不同的新兴准则和政策拼凑而成的。政府和监管机构正在追赶技术的快速发展,这使得准确预测几年后的规则手册成为一项挑战。
尽管存在不确定性,但您可以采取一些积极主动的步骤。按照本单元中的最佳实践,随时了解 AI 监管趋势。通过查看监管机构和行业小组的更新,您可以及早了解潜在的立法变化,并在出现新要求时提供支持和资源。
清点组织的 AI 使用情况
为了推动 Coral Cloud 的治理工作,Alex 建议他们对组织目前如何使用 AI 进行编目。
在您知道风险来源之前,很难正确评估风险。因此,最好清点所有 AI 工具以了解它们与业务流程的集成程度。
-
识别 AI 技术:列出当前使用的所有 AI 技术,包括从简单的自动化工具到复杂的机器学习模型的所有内容。不要忽视集成到第三方服务和软件中的 AI。
-
记录用例:对于每种 AI 技术,记录其特定用例。了解每个 AI 解决方案的作用及其使用原因有助于您评估其影响和重要性。
-
映射数据流:跟踪数据如何流入和流出每个 AI 应用程序。这包括输入数据源、AI 修改或分析的内容以及将输出数据发送到什么位置。
-
建立所有权:将每个 AI 工具的所有权分配给特定的个人或团队。了解每个工具的负责人可确保问责制并简化未来的审计和评估。
-
定期更新:使 AI 清单成为动态文档,进行更新以反映新的 AI 部署或对现有部署的更改。这样可以保持清单的相关性,并有助于实现持续的合规性。
Coral Cloud 的领导团队坚信,他们的清单可以揭示该组织目前使用 AI 的所有官方途径。但是未经授权的使用呢?也称为影子 AI,未经批准的 AI 工具会给企业带来重大风险。查看 CIO Magazine 文章,了解如何防止影子 AI 造成灾难。
评估 AI 风险
现在 Coral Cloud 有了自己的 AI 清单,团队可以开始评估组织的 AI 风险。这是建立治理的关键步骤,但也可以帮助您为法规要求做好准备。一些政策(例如欧盟 AI 法案)采用基于风险的方法来管理技术。因此,如果您尽早实施风险评估流程,您就可以更好地遵守法规。
以下是 Alex 和 AI 领导团队评估组织的 AI 风险的方法。
识别风险因素并分类
查看 AI 清单。对于每个用例,集体讨论潜在风险。让组织各部门的利益相关者参与进来,因为他们可能会看到您没有考虑过的风险。获得列表后,将风险分类到各逻辑组,例如技术、道德、运营、声誉、法规等。使用对您的业务有意义的类别。
评估影响和可能性
对于每种风险,评估风险发生时对您的业务的潜在影响,然后确定每种风险发生的可能性。这些因素的评级分为低、中或高。历史数据、行业基准和专家意见在进行这些评估时很有价值。
确定风险优先级
使用影响和可能性确定风险优先级。一种常见的方法是使用风险矩阵,该矩阵绘制了影响的可能性,从而帮助您重点关注高影响、高概率的风险。
如果您不确定如何开始,请从美国国家标准与技术研究院 (NIST) AI 资源中心网站下载 Google DeepMind AI Risk Management Framework(Google DeepMind AI 风险管理框架)模板,或进行一些研究以在线查找其他示例。请记住,每个组织都必须开发一个与其特定环境相关的框架,特定环境可能包括地理区域、行业、用例和法规要求。
制定风险化解策略
现在,Coral Cloud 的 AI 委员会已经完成了评估,他们已准备好实施一些策略来帮助化解所有这些风险。以下是针对不同类型风险的一些保护措施示例,但请记住,这并不是一个详尽的列表。
风险类型 |
常见风险化解策略 |
---|---|
技术和安全 |
|
数据和隐私 |
|
道德和安全 |
|
运营 |
|
合规和合法 |
|
Alex 和 Coral Cloud 的 AI 领导团队的其他成员都知道,避免所有与 AI 相关的风险是不可能的。相反,他们的目标是开发流程和工具,让他们的组织相信可以有效地识别和管理风险。如果您想了解如何在组织中实施 AI 治理,请查看世界经济论坛的实施和自我评估指南。
改进您的治理实践
Coral Cloud 的 AI 委员会知道治理是一个持续的过程。以下是该组织提高其管理风险的能力并更好地适应不断变化的监管环境可以采取的措施。
-
培训和教育:实施 AI 合规性培训并衡量教育计划的成功。培养合乎道德的 AI 文化,并鼓励团队考虑其工作的广泛影响。
-
监控和回顾:定期监控已实施的风险管理策略的有效性,并根据需要进行调整。随着新风险的出现,且现有策略需要改进,这一点至关重要。
-
文档和报告:保留所有风险化解活动的详细记录。此文档对于法规遵循至关重要,对内部审计也很有用。为治理计划制定度量,并向利益相关者报告结果。
接下来,是时候深入研究 AI 战略中最令人兴奋的要素之一了:识别 AI 用例并确定其优先级。