Skip to main content

Einstein Trust Layer の概要

学習の目的

この単元を完了すると、次のことができるようになります。

  • Salesforce の最大の価値である信頼について話し合う。
  • 信頼と生成 AI に関する懸念について説明する。
  • Salesforce が Einstein Trust Layer を作成した理由を説明する。
メモ

このモジュールでは、Einstein Trust Layer の将来的な機能についても言及します。ここに記載されている未リリースのサービスや機能は現時点では利用できず、リリースが遅延または中止になる可能性もあります。お客様は、現在利用可能な機能に基づいて購入をご決定ください。

始める前に

Salesforce では、最新の生成型人工知能 (AI) ツールをロールアウトする中で、お客様がその会社や顧客のデータがどのような方法で保護されるのか知りたがっていることを認識しています。受講する前に必ず「生成 AI の基本」「プロンプトの基本事項」「大規模言語モデル」のバッジを取得して、LLM、プロンプト、グラウンディング、ハルシネーション、有害な言葉などの用語を理解しておいてください。「リソース」セクションに上記の各モジュールと、Salesforce で使用する AI の用語集へのリンクが記載されています。

生成 AI と Salesforce と信頼

まったく新しい方法で創造力をかき立てる生成 AI に誰もが注目しています。生成 AI にはいろいろな楽しみ方があります。たとえば、Midjourney を使ってペットをスーパーヒーローに仕立てた画像を作成することや、ChatGPT を使って海賊の口調で詩を綴ることもできます。生成 AI によって生産性が向上するため、企業は大きな期待を寄せています。Salesforce Research によると、従業員は生成 AI によって週に平均 5 時間節約できると予測しています。フルタイム従業員の場合、1 年の丸 1 か月分に相当します。

期待が高まる一方で、次のような疑問が浮かんでくるかもしれません。

  • 生成 AI ツールを活用しながら、各自のデータと顧客のデータの安全性を確保するにはどうすればよいか?
  • さまざまな生成 AI プロバイダーがどのデータを収集して、どのように使用するかはどうすればわかるか?
  • 個人データや企業データを誤って引き渡し、AI モデルのトレーニングに使用されないようにするにはどうすればよいか?
  • AI が生成した応答が正確で、バイアスがなく、信頼できるものであることを検証するにはどうすればよいか?

Salesforce と信頼

Salesforce でも、人工知能とセキュリティについて上記の質問を問い続けてきました。実際のところ、AI に 10 年近くの歳月を費やしています。2016 年、クラウドに予測 AI を導入する Einstein プラットフォームを立ち上げました。その直後の 2018 年に、大規模言語モデルへの投資を開始しています。

Salesforce では、お客様がそのデータを効率的に使用できるようにし、企業、従業員、顧客の生産性と効率性を高めることができる AI ソリューションの構築に尽力してきました。そして、信頼を最大の価値とする私たちは、生成 AI の技術的な機能を提供するだけでは不十分と考えています。私たちには責任を担い、説明責任を果たし、透明性を維持し、人々の力になり、インクルーシブである義務があると考えています。そのため、Salesforce では生成 AI ツールを構築するときも、信頼という価値を常に念頭に置いています。

ここで登場するのが Einstein Trust Layer です。Salesforce では、お客様がその組織で生成 AI を安全かつ安心して使用できるようにする目的で Trust Layer を構築しました。では、その生成 AI を業界一安全なものにするための Salesforce の取り組みを見ていきましょう。

Einstein Trust Layer とは?

Einstein Trust Layer は、エンドユーザーエクスペリエンスにシームレスに統合するデータコントロールとプライバシーコントロールで生成 AI のセキュリティを強化します。このコントロールによって Einstein が顧客データと企業データに安全にグラウンディングした AI を提供できるようになり、潜在的なセキュリティリスクを引き起こすことがありません。Trust Layer の一番シンプルな形態は、一連のゲートウェイと取得メカニズムを連携させ、信頼できるオープンな生成 AI を可能にするものです。

Einstein Trust Layer のプロセス。

Einstein Trust Layer を使用すると、お客様がデータのセキュリティコントロールやプライバシーコントロールを阻害することなく、生成 AI のメリットを活用できます。このレイヤーは、安全なデータ取得、動的グラウンディング、データマスキング、データ保持ゼロなど、データを保護する機能のツールボックスを備えているため、データの行方を案じる必要がありません。有害言語検出では、プロンプトや応答をスキャンして正確性を確認し、適切な内容であることを保証します。さらに説明責任を高めるために、監査履歴でジャーニーの各ステップのプロンプトを追跡します。上記の機能については後続の単元で詳しく学習します。

Salesforce では、オープンモデルエコシステムを設計して、Salesforce の内外からさまざまな大規模言語モデルに安全にアクセスできるようにしています。Trust Layer は LLM と従業員や顧客の間に存在し、セールスメール、作業概要、コンタクトセンターのサービス返信など、あらゆるビジネスユースケースで各自のデータの安全性を確保しながら、生成 AI を使用できるようにします。

後続の単元ではプロンプトジャーニーと応答ジャーニーに着目し、Einstein Trust Layer で各自のデータをどのように保護するか学習します。

リソース

Salesforce ヘルプで Trailhead のフィードバックを共有してください。

Trailhead についての感想をお聞かせください。[Salesforce ヘルプ] サイトから新しいフィードバックフォームにいつでもアクセスできるようになりました。

詳細はこちら フィードバックの共有に進む