Skip to main content
Dreamforce 将于 9 月 17 日至 19 日来到旧金山。立即注册,使用代码 DF24TRAIL20 节省 20%

认识 Einstein 信任层

学习目标

完成本单元后,您将能够:

  • 探讨 Salesforce 的首要价值观——信任。
  • 描述对可信赖的生成式 AI 的疑虑。
  • 解释 Salesforce 创建 Einstein 信任层的原因。
备注

本模块介绍了 Einstein 信任层未来的一些功能。此处提及的未发布的服务或功能目前不可用,可能无法按时提供或根本无法提供。客户应根据目前可用的功能做出购买决策。

开始之前

我们知道您渴望了解 Salesforce 在推出全新生成式人工智能 (AI) 工具的同时如何保护您的公司和客户的数据。但在开始之前,请确保赢得以下徽章——生成式 AI 基础知识提示基础知识大语言模型——以便熟悉 LLM、提示、基础训练、幻觉、有毒语言等术语。您可以在“资源”部分找到这些徽章的链接,以及 Salesforce 使用的 AI 术语词汇表。

生成式 AI、Salesforce 和信任

生成式 AI 让所有人都兴奋不已,因为它以全新的方式释放了他们的创造力。使用生成式 AI 可谓乐趣十足,例如用 Midjourney 打造您的宠物专属的超级英雄形象,或用 ChatGPT 创建海盗写的诗歌。各公司也对生成式 AI 感到兴奋,因为它有助于提高生产力。根据 Salesforce 的研究,员工估计生成式 AI 平均每周将帮助他们节省 5 个小时的时间。对于全职员工来说,这相当于每年能节省整整一个月的时间!

但在兴奋之余,您可能会有一些疑问,例如:

  • 我如何利用生成式 AI 工具并确保我的数据和客户数据的安全?
  • 我如何知道不同的生成式 AI 提供商正在收集哪些数据以及如何使用这些数据?
  • 我如何能确保我不会在无意中用个人或公司数据来训练 AI 模型?
  • 我如何验证 AI 生成的回复是准确、无偏差且可信的?

Salesforce 和信任

在 Salesforce,我们一直在关注人工智能和安全方面的问题。事实上,我们已经全力投身 AI 领域近十年。2016 年,我们推出了 Einstein 平台,将预测型 AI 引入到我们的云端。随后,在 2018 年,我们开始将资金投入大语言模型 (LLM)。

我们一直致力于打造生成式 AI 解决方案,旨在帮助客户更高效地使用数据,提高企业、员工和客户的生产力和效率。而且,由于信任是我们的首要价值观,我们认为仅提供生成式 AI 的技术功能远远不够。我们相信,具备负责任、可追溯、透明、赋能和包容的品质是我们的职责。正因为如此,当 Salesforce 打造生成式 AI 工具时,我们秉持着信任这一价值观。

进入 Einstein 信任层。我们构建信任层的目的是帮助您和您的同事在组织中安全、可靠地使用生成式 AI。让我们来看看为使其生成式 AI 成为行业内最安全的解决方案,Salesforce 做了哪些努力。

什么是 Einstein 信任层?

Einstein 信任层通过将数据和隐私控制权限无缝集成到最终用户体验中,提升了生成式 AI 的安全性。这些控制权限使 Einstein 能够安全地基于您的客户和公司数据提供 AI,而不会带来潜在的安全风险。简单来说,信任层是一系列网关和检索机制,共同实现了可信赖、开放的生成式 AI。

Einstein 信任层流程。

Einstein 信任层让用户从生成式 AI 中获益,而不必担心损害数据安全和隐私控制权限。它包括一组保护数据的功能,如安全数据检索、动态基础训练、数据屏蔽和零数据留存,因此您不必担心数据会被滥用。有毒语言检测的作用是检查提示和回复,以确保它们的准确性和适用性。为了更好地追溯责任,审计跟踪追踪提示过程中的每一步。在下一单元中,您将了解有关这些功能的更多信息。

我们设计了开放模型生态系统,以便您能够安全地访问 Salesforce 内外的许多大语言模型 (LLM)。信任层位于 LLM 与您的员工和客户之间,以确保在您的业务用例(包括销售电子邮件、工作摘要和联系中心的服务回复)中使用生成式 AI 时,您的数据始终安全。

在接下来的单元中,我们将深入探讨提示过程和回复过程,以让您了解 Einstein 信任层是如何保护数据的。

资源