Skip to main content

计划您的信任策略

学习目标

完成本单元后,您将能够:

  • 通过评估项目的 AI 风险来创建风险概况。
  • 根据风险概况实施防范护栏。

从信任开始

AI 伴随着一定的风险。那么如何知道您的 AI 解决方案是道德的、安全的、负责任的呢?通过建立信任策略。

项目的信任策略是您减轻信任风险的计划,例如保护敏感数据的安全、满足法规要求和保护公司的声誉。

定义信任策略的第一步是为项目创建风险概况。风险概况告知您如何管理项目风险并对其进行优先排序。它涵盖了风险的类型和级别,负面影响的可能性,以及每种风险的破坏程度或成本。有效的风险概况可以告诉您哪些风险要优先考虑。

风险方面

回答这三个主要风险方面的问题,以创建您的风险概况:数据泄露、法规要求和声誉损失。举例来说,看看 Becca 是如何为她的项目回答这些问题的。

风险方面

描述

要问的问题

Becca 的回答

数据泄露

当安全信息意外暴露时,就会发生数据泄漏。这可能是因为网络攻击、未经授权的访问以及将敏感数据暴露给外部 AI 模型而发生的。为了防止数据泄露,需要安全地存储数据,并确保只有授权用户才能访问。此风险方面还包括保护敏感数据,如个人标识信息 (PII)。

  • 在您的项目中,数据泄露的可能性有多大?
  • 您使用了哪些敏感数据?

Becca 知道 Coral Cloud 有一个安全的数据存储系统。然而,她的项目中包括了人,或者说人的交互,有人通过告诉 Einstein 为客人登记入住来触发登记流程。

Becca 认为这里存在数据泄露的可能性,因为执行用户可以找到客人的住宿地点和日期。如果泄露给未经授权的人,那将是危险的信息。

Becca 的项目包含敏感数据,如全名、联系信息和信用卡信息。

法规要求

确保您的项目符合您所在的司法管辖区和行业的法律要求。如果您没有遵守所有的规定,您可能会面临罚款、名誉损害和其他法律后果。您在第一单元中确定的法律团队可以帮助您确定并满足所有法规。

  • 您的项目需要符合哪些规定?

由于 Coral Cloud 在欧盟运营,Becca 的项目需要遵守《通用数据保护法规》(GDPR)。Becca 联系了法律团队,请他们研究一下她还需要遵守哪些规定。

声誉损失

由于您的 AI 项目与您的客户互动,它代表了公司的声音。由于数据集有害影响或技术攻击,AI 有时会产生有害或不真实的响应。

  • 如果您的项目表现不佳,对您的声誉有什么影响?

如果 AI 生成的欢迎邮件包含攻击性语言,Coral Cloud 将被视为有侮辱性和不友好。他们将失去宝贵的现有和潜在客户。在酒店行业,Becca 知道声誉损失是一个严重的问题。

创建风险概况

基于她对不同风险方面的评估,Becca 为她的项目创建了一个风险概况。1 分代表风险非常低,5 分代表风险非常高。

风险类型

负面影响程度

负面影响可能性

中断或成本

数据泄露

4:如果数据泄露,会损害客人的安全和隐私。

3:Coral Cloud 的数据是安全存储的,但应该采取其他控制措施来进一步解决这一风险。

4:失去客户的信任

法规要求

5:Coral Cloud 面临罚款、其他法律后果以及失去客户信任。

5:如果 Becca 的项目不符合规定,Coral Cloud 很可能会面临负面后果。

5:法律后果,罚款,失去客户信任

声誉损失

5:如果 Coral Cloud 的声誉受到损害,他们就会失去潜在的客人和利润。

4:Becca 需要完善她的提示,并实施其他方法来避免声誉损失。

4:失去客户的信任

根据风险概况,Becca 决定优先考虑法规要求,然后是声誉损失,最后是数据泄露。她开始计划如何管理每一种风险。

护栏类型

既然您知道了自己的风险,那就采用 AI 护栏吧。AI 护栏是确保您的 AI 项目合法和有道德地运作的机制。您需要护栏来防止 AI 因有偏见的决策、有毒的语言和暴露的数据而造成损害。保护您的项目免受技术攻击有必要使用护栏。

AI 护栏有三种类型:安全护栏、技术护栏和道德护栏。

安全护栏

这些护栏确保项目符合法律法规,保护私人数据和人权。常用工具包括安全数据检索、数据屏蔽和零数据保留。

安全数据检索意味着您的项目仅访问执行用户有权访问的数据。例如,如果一个无法访问财务记录的人触发了 AI 模型的响应,则模型不应该检索与财务记录相关的数据。数据屏蔽意味着在将敏感数据公开给外部模型之前,用占位符数据替换敏感数据。这确保了敏感数据不会有泄露的危险。模型提供程序强制执行零数据保留策略,意味着数据不会存储在任务的即时需要之外。因此,在生成响应后,所使用的数据将消失。

技术护栏

这些护栏保护项目免受黑客的技术攻击,例如提示注入和越狱,或其他强制模型暴露敏感信息的方法。网络攻击可能导致项目产生不真实或有害的响应。

道德护栏

这些护栏让您的项目与人的价值观保持一致。这其中包括毒性和偏见筛查。

毒性是指 AI 模型产生仇恨、辱骂和亵渎 (HAP) 或淫秽内容。偏见是指 AI 反映了有害的刻板印象,比如种族或性别刻板印象。您可以想象,那将是灾难!由于 AI 学习它的响应,毒性和偏见可能是数据向模型引入了不想要的语言和想法的信号。毒性检测可以识别可能含有毒语言的响应,因此您可以手动检查并进行调整以减少毒性。

现在您知道护栏是什么以及它们如何保护您的项目免受风险。接下来,我们来了解 Becca 是如何在她的信任策略中采用护栏的。

Coral Cloud 的信任策略

根据所使用的系统,实施信任策略看起来会有所不同。由于 Becca 使用的是 Salesforce,她的信任策略建立在 Einstein 信任层之上。信任层是一组功能、流程和策略的集合,旨在保护数据隐私,提高 AI 的准确性,并促进整个 Salesforce 生态系统负责任地使用 AI。当您使用 Einstein 生成式 AI 功能创建项目时,例如 Becca 项目中的提示生成器,它会自动通过信任层。

Becca 定义了一个信任策略,使用信任层中的功能来处理每个风险方面。她也会想象期望的结果。以下是她的信任策略摘录。

该图描述了 Einstein 信任层如何安全地处理提示并生成响应。

风险方面

Becca 的信任策略

信任层中的功能

结果

数据泄露

  • 阻止未经授权的用户访问受保护的信息。
  • 通过数据屏蔽保护客人姓名、联系信息和信用卡信息。
  • 安全的数据检索和基础训练
  • 数据屏蔽
  • 无法访问预订详细信息的用户不能使用提示访问预订详细信息。
  • 敏感信息永远不会进入第三方 LLM。

声誉损失

  • 使用系统策略告诉 AI 解决方案如何处理意外提示。这样可以保护解决方案免受技术攻击,避免产生不正确或有害的响应。
  • 提示防御
  • 技术攻击之所以不起作用,是因为提示防御策略。例如,如果一个不在 Coral Cloud 系统中的人试图办理登记入住,AI 解决方案将不会产生响应。

在 Becca 最终确定她的信任策略之前,她与法律和安全团队会面,以确保没有漏洞。

后续步骤

有了信任策略,Becca 完成了她的项目计划!她已经准备好进入构建阶段,她将在 Salesforce 中实现她的项目。在将 Data Cloud 连接到 Copilot 和提示生成器中继续关注 Becca 的项目吧。

构建项目时,请记住风险不是一次性的任务。实施项目之后,要持续监控和审计风险。监控可以帮助您及早发现有问题的趋势并进行调整。详细了解毒性评分和反馈,以确定您的解决方案哪里出了问题,并进行调整以消除风险因素。

总结

本模块介绍了准备 AI 项目时的重要步骤。现在您知道了如何确定项目的利益相关者、设定目标和选择技术解决方案。您了解了如何准备高质量的数据并符合项目的要求。您知道了信任策略如何减轻项目的风险,以及为什么监控风险很重要。

有了这些新知识,您可以成功地启动一个 AI 项目了!在开始部署之前,请确保完成实施 AI 的变更管理

资源

在 Salesforce 帮助中分享 Trailhead 反馈

我们很想听听您使用 Trailhead 的经验——您现在可以随时从 Salesforce 帮助网站访问新的反馈表单。

了解更多 继续分享反馈