Skip to main content
The Trailblazer Community will undergo maintenance on Saturday, November 15, 2025 and Sunday, November 16, 2025. Please plan your activities accordingly.

Einstein Trust Layer の概要

学習の目的

この単元を完了すると、次のことができるようになります。

  • Salesforce の最大の価値である信頼について話し合う。
  • 信頼と生成 AI に関する懸念について説明する。
  • Salesforce が Einstein Trust Layer を作成した理由を説明する。

Trailcast

このモジュールの音声録音をお聞きになりたい場合は、下記のプレーヤーを使用してください。この録音を聞き終わったら、必ず各単元に戻り、リソースを確認して関連付けられている評価を完了してください。

メモ

このモジュールでは、Einstein Trust Layer の将来的な機能についても言及します。ここに記載されている未リリースのサービスや機能は現時点では利用できず、リリースが遅延または中止になる可能性もあります。お客様は、現在利用可能な機能に基づいて購入をご決定ください。

始める前に

Salesforce では、最新の生成型人工知能 (AI) ツールをロールアウトする中で、お客様がその会社や顧客のデータがどのような方法で保護されるのか知りたがっていることを認識しています。ただし、受講する前に、以下のバッジで説明されている概念と用語を理解しておく必要があります。

「Einstein 生成 AI 用語集」に、LLM、プロンプト、グラウンディング、ハルシネーション、有害な言葉など、このバッジで使用する多数の用語も記載されています。

生成 AI と Salesforce と信頼

まったく新しい方法で創造力をかき立てる生成 AI に誰もが注目しています。生成 AI にはいろいろな楽しみ方があります。たとえば、Midjourney を使ってペットをスーパーヒーローに仕立てた画像を作成することや、ChatGPT を使って海賊の口調で詩を綴ることもできます。生成 AI によって生産性が向上するため、企業は大きな期待を寄せています。Salesforce Research によると、従業員は生成 AI によって週に平均 5 時間節約できると予測しています。フルタイム従業員の場合、1 年の丸 1 か月分に相当します。

期待が高まる一方で、次のような疑問が浮かんでくるかもしれません。

  • 生成 AI ツールを活用しながら、各自のデータと顧客のデータの安全性を確保するにはどうすればよいか?
  • さまざまな生成 AI プロバイダーがどのデータを収集して、どのように使用するかはどうすればわかるか?
  • 個人データや企業データを誤って引き渡し、AI モデルのトレーニングに使用されないようにするにはどうすればよいか?
  • AI が生成した応答が正確で、バイアスがなく、信頼できるものであることを検証するにはどうすればよいか?

Salesforce と信頼

Salesforce でも、人工知能とセキュリティについて上記の質問を問い続けてきました。実際のところ、AI に 10 年近くの歳月を費やしています。2016 年、クラウドに予測 AI を導入する Einstein プラットフォームを立ち上げました。その直後の 2018 年に、大規模言語モデルへの投資を開始しています。

Salesforce では、お客様がそのデータを効率的に使用できるようにし、企業、従業員、顧客の生産性と効率性を高めることができる AI ソリューションの構築に尽力してきました。そして、信頼を最大の価値とする私たちは、生成 AI の技術的な機能を提供するだけでは不十分と考えています。私たちには責任を担い、説明責任を果たし、透明性を維持し、人々の力になり、インクルーシブである義務があると考えています。そのため、Salesforce では生成 AI ツールを構築するときも、信頼という価値を常に念頭に置いています。

ここで登場するのが Einstein Trust Layer です。Salesforce では、お客様がその組織で生成 AI を安全かつ安心して使用できるようにする目的で Trust Layer を構築しました。では、その生成 AI を業界一安全なものにするための Salesforce の取り組みを見ていきましょう。

Einstein Trust Layer とは?

Einstein Trust Layer は、エンドユーザーエクスペリエンスにシームレスに統合するデータコントロールとプライバシーコントロールで生成 AI のセキュリティを強化します。このコントロールによって Einstein が顧客データと企業データに安全にグラウンディングした AI を提供できるようになり、潜在的なセキュリティリスクを引き起こすことがありません。Trust Layer の一番シンプルな形態は、一連のゲートウェイと取得メカニズムを連携させ、信頼できるオープンな生成 AI を可能にするものです。

Einstein Trust Layer のプロセス。

Einstein Trust Layer を使用すると、お客様がデータのセキュリティコントロールやプライバシーコントロールを阻害することなく、生成 AI のメリットを活用できます。このレイヤーは、安全なデータ取得、動的グラウンディング、データマスキング、データ保持ゼロなど、データを保護する機能のツールボックスを備えているため、データの行方を案じる必要がありません。有害言語検出では、プロンプトや応答をスキャンして正確性を確認し、適切な内容であることを保証します。さらに説明責任を高めるために、監査履歴でジャーニーの各ステップのプロンプトを追跡します。上記の機能については後続の単元で詳しく学習します。

LLM のデータマスキングは現在エージェントでは無効になっています。Einstein サービス返信や Einstein 作業概要などの埋め込み型生成 AI 機能ではデータマスキングを使用できるため、Einstein Trust Layer の設定画面で設定できます。

Salesforce では、オープンモデルエコシステムを設計して、Salesforce の内外からさまざまな大規模言語モデルに安全にアクセスできるようにしています。Trust Layer は LLM と従業員や顧客の間に存在し、セールスメール、作業概要、コンタクトセンターのサービス返信など、あらゆるビジネスユースケースで各自のデータの安全性を確保しながら、生成 AI を使用できるようにします。

後続の単元ではプロンプトジャーニーと応答ジャーニーに着目し、Einstein Trust Layer で各自のデータをどのように保護するか学習します。

リソース

Salesforce ヘルプで Trailhead のフィードバックを共有してください。

Trailhead についての感想をお聞かせください。[Salesforce ヘルプ] サイトから新しいフィードバックフォームにいつでもアクセスできるようになりました。

詳細はこちら フィードバックの共有に進む