Skip to main content
欢迎参加 3 月 5 日至 6 日在旧金山举行的 TDX AI 代理时代开发者大会,或通过 Salesforce+ 参与。立即注册

认识 Einstein 信任层

学习目标

完成本单元后,您将能够:

  • 探讨 Salesforce 的首要价值观——信任。
  • 描述对可信赖的生成式 AI 的疑虑。
  • 解释 Salesforce 创建 Einstein 信任层的原因。
备注

本模块介绍了 Einstein 信任层未来的一些功能。此处提及的未发布的服务或功能目前不可用,可能无法按时提供或根本无法提供。客户应根据目前可用的功能做出购买决策。

开始之前

我们知道您渴望了解 Salesforce 在推出全新生成式人工智能 (AI) 工具的同时如何保护您的公司和客户的数据。但是,在开始之前,您应该熟悉这些徽章中涉及的概念和术语。

The Einstein 生成式 AI 术语还涵盖了本徽章中使用的许多术语,如 LLM、提示、落地训练、幻觉、有毒语言等。

生成式 AI、Salesforce 和信任

生成式 AI 让所有人都兴奋不已,因为它以全新的方式释放了他们的创造力。使用生成式 AI 可谓乐趣十足,例如用 Midjourney 打造您的宠物专属的超级英雄形象,或用 ChatGPT 创建海盗写的诗歌。各公司也对生成式 AI 感到兴奋,因为它有助于提高生产力。根据 Salesforce 的研究,员工估计生成式 AI 平均每周将帮助他们节省 5 个小时的时间。对于全职员工来说,这相当于每年能节省整整一个月的时间!

但在兴奋之余,您可能会有一些疑问,例如:

  • 我如何利用生成式 AI 工具并确保我的数据和客户数据的安全?
  • 我如何知道不同的生成式 AI 提供商正在收集哪些数据以及如何使用这些数据?
  • 我如何能确保我不会在无意中用个人或公司数据来训练 AI 模型?
  • 我如何验证 AI 生成的回复是准确、无偏差且可信的?

Salesforce 和信任

在 Salesforce,我们一直在关注人工智能和安全方面的问题。事实上,我们已经全力投身 AI 领域近十年。2016 年,我们推出了 Einstein 平台,将预测型 AI 引入到我们的云端。随后,在 2018 年,我们开始将资金投入大语言模型 (LLM)。

我们一直致力于打造生成式 AI 解决方案,旨在帮助客户更高效地使用数据,提高企业、员工和客户的生产力和效率。而且,由于信任是我们的首要价值观,我们认为仅提供生成式 AI 的技术功能远远不够。我们相信,具备负责任、可追溯、透明、赋能和包容的品质是我们的职责。正因为如此,当 Salesforce 打造生成式 AI 工具时,我们秉持着信任这一价值观。

进入 Einstein 信任层。我们构建信任层的目的是帮助您和您的同事在组织中安全、可靠地使用生成式 AI。让我们来看看为使其生成式 AI 成为行业内最安全的解决方案,Salesforce 做了哪些努力。

什么是 Einstein 信任层?

Einstein 信任层通过将数据和隐私控制权限无缝集成到最终用户体验中,提升了生成式 AI 的安全性。这些控制权限使 Einstein 能够安全地基于您的客户和公司数据提供 AI,而不会带来潜在的安全风险。简单来说,信任层是一系列网关和检索机制,共同实现了可信赖、开放的生成式 AI。

Einstein 信任层流程。

Einstein 信任层让用户从生成式 AI 中获益,而不必担心损害数据安全和隐私控制权限。它包括一组保护数据的功能,如安全数据检索、动态基础训练、数据屏蔽和零数据留存,因此您不必担心数据会被滥用。有毒语言检测的作用是检查提示和回复,以确保它们的准确性和适用性。为了更好地追溯责任,审计跟踪追踪提示过程中的每一步。在下一单元中,您将了解有关这些功能的更多信息。

我们设计了开放模型生态系统,以便您能够安全地访问 Salesforce 内外的许多大语言模型 (LLM)。信任层位于 LLM 与您的员工和客户之间,以确保在您的业务用例(包括销售电子邮件、工作摘要和联系中心的服务回复)中使用生成式 AI 时,您的数据始终安全。

在接下来的单元中,我们将深入探讨提示过程和回复过程,以让您了解 Einstein 信任层是如何保护数据的。

资源

在 Salesforce 帮助中分享 Trailhead 反馈

我们很想听听您使用 Trailhead 的经验——您现在可以随时从 Salesforce 帮助网站访问新的反馈表单。

了解更多 继续分享反馈