认识 Einstein 信任层
学习目标
完成本单元后,您将能够:
- 探讨 Salesforce 的首要价值观——信任。
- 描述对可信赖的生成式 AI 的疑虑。
- 解释 Salesforce 创建 Einstein 信任层的原因。
Trailcast
如果您想收听本模块的录音,请使用以下播放器。听完这段录音后,记得返回每个单元,查看资源,然后完成相关评估。
开始之前
我们知道您渴望了解 Salesforce 在推出全新生成式人工智能 (AI) 工具的同时如何保护您的公司和客户的数据。但是,在开始之前,您应该熟悉这些徽章中涉及的概念和术语。
The Einstein 生成式 AI 术语还涵盖了本徽章中使用的许多术语,如 LLM、提示、落地训练、幻觉、有毒语言等。
生成式 AI、Salesforce 和信任
生成式 AI 让所有人都兴奋不已,因为它以全新的方式释放了他们的创造力。使用生成式 AI 可谓乐趣十足,例如用 Midjourney 打造您的宠物专属的超级英雄形象,或用 ChatGPT 创建海盗写的诗歌。各公司也对生成式 AI 感到兴奋,因为它有助于提高生产力。根据 Salesforce 的研究,员工估计生成式 AI 平均每周将帮助他们节省 5 个小时的时间。对于全职员工来说,这相当于每年能节省整整一个月的时间!
但在兴奋之余,您可能会有一些疑问,例如:
- 我如何利用生成式 AI 工具并确保我的数据和客户数据的安全?
- 我如何知道不同的生成式 AI 提供商正在收集哪些数据以及如何使用这些数据?
- 我如何能确保我不会在无意中用个人或公司数据来训练 AI 模型?
- 我如何验证 AI 生成的回复是准确、无偏差且可信的?
Salesforce 和信任
在 Salesforce,我们一直在关注人工智能和安全方面的问题。事实上,我们已经全力投身 AI 领域近十年。2016 年,我们推出了 Einstein 平台,将预测型 AI 引入到我们的云端。随后,在 2018 年,我们开始将资金投入大语言模型 (LLM)。
我们一直致力于打造生成式 AI 解决方案,旨在帮助客户更高效地使用数据,提高企业、员工和客户的生产力和效率。而且,由于信任是我们的首要价值观,我们认为仅提供生成式 AI 的技术功能远远不够。我们相信,具备负责任、可追溯、透明、赋能和包容的品质是我们的职责。正因为如此,当 Salesforce 打造生成式 AI 工具时,我们秉持着信任这一价值观。
进入 Einstein 信任层。我们构建信任层的目的是帮助您和您的同事在组织中安全、可靠地使用生成式 AI。让我们来看看为使其生成式 AI 成为行业内最安全的解决方案,Salesforce 做了哪些努力。
什么是 Einstein 信任层?
Einstein 信任层通过将数据和隐私控制权限无缝集成到最终用户体验中,提升了生成式 AI 的安全性。这些控制权限使 Einstein 能够安全地基于您的客户和公司数据提供 AI,而不会带来潜在的安全风险。简单来说,信任层是一系列网关和检索机制,共同实现了可信赖、开放的生成式 AI。
Einstein 信任层让用户从生成式 AI 中获益,而不必担心损害数据安全和隐私控制权限。它包括一组保护数据的功能,如安全数据检索、动态基础训练、数据屏蔽和零数据留存,因此您不必担心数据会被滥用。有毒语言检测的作用是检查提示和回复,以确保它们的准确性和适用性。为了更好地追溯责任,审计跟踪追踪提示过程中的每一步。在下一单元中,您将了解有关这些功能的更多信息。
目前 LLM 的数据屏蔽对代理禁用。对于嵌入的生成式 AI 功能,如 Einstein 服务回复、Einstein 工作摘要数据屏蔽是可用的,并且您可以在 Einstein 信任层设置中进行配置。
我们设计了开放模型生态系统,以便您能够安全地访问 Salesforce 内外的许多大语言模型 (LLM)。信任层位于 LLM 与您的员工和客户之间,以确保在您的业务用例(包括销售电子邮件、工作摘要和联系中心的服务回复)中使用生成式 AI 时,您的数据始终安全。
在接下来的单元中,我们将深入探讨提示过程和回复过程,以让您了解 Einstein 信任层是如何保护数据的。
资源
- 文档:Einstein 生成式 AI 术语
- 博客:了解 Salesforce 的受信 AI 原则
- 博客:生成式 AI:负责任开发的 5 大准则
- Trailhead:负责任地创建人工智能
- Trailhead:生成式 AI 基础知识
- Trailhead:自然语言处理
- Trailhead:大语言模型
- Trailhead:提示基础知识