Skip to main content
From 16:00 UTC on January 17, 2026, to 20:00 UTC on January 17, 2026, we will perform planned maintenance on the Trailhead, myTrailhead, and Trailblazer Community sites. During the maintenance, these sites will be unavailable, and users won't be able to access them. Please plan your activities around this required maintenance.

エージェントのガードレールを定義する

学習の目的

この単元を完了すると、次のことができるようになります。

  • Agentforce の信頼性を確保するガードレールについて説明する。
  • Agentforce プロジェクトに付随する潜在的なリスクを特定する。
  • プロジェクトのリスク緩和策を定義する。

Trailcast

このモジュールの音声録音をお聞きになりたい場合は、下記のプレーヤーを使用してください。この録音を聞き終わったら、必ず各単元に戻り、リソースを確認して関連付けられている評価を完了してください。

自律型 AI のリスク

自律型 AI エージェントは組織に価値をもたらし、カスタマーエクスペリエンスを向上させる極めて強力なツールです。その一方で、リスクを伴います。例として、セキュリティ脅威、データ侵害、風評被害、金銭的損失、バイアス、ハルシネーション、透明性や説明責任の問題などが挙げられます。

こうしたリスクにも関わらず、自律型 AI を組織に安全にリリースすることは可能です。適切に計画し、Salesforce Platform を使用すれば、信頼できる AI エージェントのスイート全体を構築して実装できます。

信頼できる AI エージェント

「信頼できるエージェント型 AI」で、Agentforce の卓越した特長の 1 つがガードレールの重視であることを学習します。ガードレールは、各エージェントの動作の境界を定義し、エージェントが実行できることと実行できないことの概要を示します。エージェントの動作やしくみに関するガイドラインは自然言語で指定できます。

AI エージェントのガードレールのほか、Salesforce Platform に組み込まれた Einstein Trust Layer により、エージェントのアクションが会社のセキュリティ標準やコンプライアンス標準に合致していることが保証されます。このレイヤーに有害性を検出するメカニズムが組み込まれているため、エージェントが不適切あるいは有害なアクティビティに関与できないようになっています。

この単元では、Nora が Coral Cloud の AI 評議会と協力して、自律型 AI のユースケースに付随するリスクを特定し、そのリスクに対処する計画を立てるところを見ていきます。

ガバナンスも重要

AI エージェントに対する Salesforce のガードレールは強力で堅牢ながら、Nora は Coral Cloud のすべてのガードレールがテクノロジー自体に備わっているわけではないことを認識しています。そのため、テクノロジー以外で何が起きるかにも同様に注意を払う必要があります。

Coral Cloud では AI 計画の作成時に、チームが AI ガバナンスの実践を確立しました。これは、AI エージェントの包括的なリスク緩和策を計画するうえで役立ちます。

AI 評議会は Coral Cloud の AI ガバナンスの一環として、新しい AI プロジェクトのすべてに安全性レビューの実施を義務付けています。この規定は、組織を AI のリスクから守るためのビジネスプロセスで、テクノロジー機能ではありません。Nora は安全性レビューをスケジュールして、会社がプロジェクトのガードレールとガバナンスについて真剣に検討できるようにします。

オブジェクションに対処する

組織によっては、リスク緩和策を講じれば開発プロセスが遅れると認識しているため、リスクの問題に取り組むのが難しいことがあります。ただし、前もってリスクに対処しておくことは極めて重要です。リスクを検討しておかなければ、本番に移行する前に AI プロジェクトが取り止めになるかもしれません。

AI の設計やプロトタイプの作成にリスク管理を組み込めば、プロジェクトを加速させ、倫理上、法律上、規制上、セキュリティ上の必須要件を満たすことができます。あるユースケースでリスクの管理法を学べば、その教訓を次のユースケース、さらにその次のユースケースへと速やかに転用することができます。

エージェントがどのようなもので、ビジネスにどのような形で役立つのかを専門用語を使わずに説明すれば、確固たる基盤を構築することができます。こうした基盤を後続のプロジェクトに適用できるため、その後の AI をスムーズかつ効率的に実装することができます。

リスクに関する会話の進め方

では、リスクに関する協議にはどのようにアプローチすればよいのでしょうか? おそらく多くの組織でお馴染みの「人、ビジネス、テクノロジー、データ」フレームワークを使用することをお勧めします。このカテゴリと考慮事項は、Agentforce プロジェクトに付随する潜在的なリスクや懸念事項を特定するうえで役立ちます。

カテゴリ

考慮事項

人材

  • 能力強化: ロールと責任、雇用、トレーニング、スキルアップ
  • 文化と実務: 人間中心の AI 設計、変更管理、採用

ビジネス

  • 価値: メリット、目標、KPI、メトリクス
  • 運用: 組織構造、処理能力管理、プロセスとワークフロー、AI ガバナンス、DevOps 計画

テクノロジー

  • AI ツール: AI インフラストラクチャ、アプリケーション、API、プロンプト、セキュリティ対策
  • AI モデル: モデルの選択、トレーニングの考慮事項、管理、コスト

データ

  • 品質: 使用適合性、正確性、完全性、アクセス可能性、最新性など
  • 計画: データ管理、インフラストラクチャ、ガバナンス、分析

「人、ビジネス、テクノロジー、データ」フレームワークの四分割を示すインフォグラフィック

リスクと懸念事項を特定する

Nora はこのフレームワークを使用して、Coral Cloud の予約管理ユースケースに付随するリスクと懸念事項について協議します。Coral Cloud の AI 評議会の関係者が、各カテゴリのリスクと懸念事項を特定します。このリストは包括的なものではありません。どのユースケースにも固有のリスクと懸念事項が付随します。

カテゴリ

リスク

人材

  • 拒否: お客様がエージェントを信頼していない、または AI の使用が認められているかどうか定かでないという理由で、エージェントと話すことを拒む。
  • 悪用: お客様がエージェントに敵対的である、またはエージェントを巧みに操ろうとする。
  • 文化: AI がサービス業務に及ぼす潜在的な影響に対する不安が従業員の士気に影響する。

ビジネス

  • 適合性: エージェントの範囲が、ビジネス組織またはチームのプロセスに適合していない。
  • レポート: 一部の業務を担う AI エージェントの導入により、現在のチームの KPI の正確性が損なわれている。
  • インセンティブ: エージェントへの業務の割り振りにより、報酬/報奨体系に影響が及んでいる。
  • 運用: エスカレーションのプロセスが明確でない、非効率的である、煩わしい。
  • エージェントのパフォーマンス: 会社の適切なポリシーが AI エージェントの応答にきちんと適用されていない。

テクノロジー

  • 正確性: ハルシネーションによって応答の質が低下している、またはナレッジが不完全である。
  • 信頼性: エージェントが生成する応答のばらつきが大きすぎる。
  • 監査: テクノロジー運用部門がエージェントの応答の正確性を追跡できない。
  • 遅延: エージェントが速やかに応答できない。

データ

  • アクセス: データの権限が理解または適用されていない。そのため、データがお客様に公開されるおそれがある。
  • プライバシー: 必要なデータをプライバシーポリシーに従って使用できない。
  • コンプライアンス: お客様の契約上の制約がデータに適用されるか不明である。たとえば、お客様が事業を運営する国以外にデータを持ち出せない可能性がある。
  • 目的適合性: データがエージェントの目的と一致していない、またはデータの権限がユースケースと一致していない。
  • 倫理: モデルデータのバイアスにより、不適切な応答が生成される可能性がある。

Nora の事例では、会社のナレッジ記事が限定的であることが、採用計画に影響を及ぼしています。Coral Cloud はまた、上記の多数のリスクに直面する可能性があります。結局のところ、エージェントの応答がリゾートのポリシーに従っていない場合や、エージェントがどの程度役に立っているか従業員が把握できないような場合には、5 つ星のエクスペリエンスを実現するのは容易ではありません。

リスク緩和策を定義する

Coral Cloud の AI 評議会がリスクと懸念事項をカタログにまとめていたため、Nora とそのチームは各リスクの緩和策についてブレインストーミングすることができます。ガードレールを考案しながら、そのガードレールが人、ビジネス、テクノロジー、データのどれに関連するか分類していきます。

以下は、Coral Cloud が特定した 2 つのリスクに対して提案されたガードレールの例です。

リスクカテゴリ

リスク

提案されたガードレール

人材

お客様の拒否: ユーザーがエージェントを信頼していないため、エージェントと話したがらない。

  • 人的面のガードレール: コミュニケーション計画を作成し、お客様向けの説明会を実施する。
  • テクノロジー面のガードレール: AI が対応していることがすぐにわかるようにエージェントを設計する。
  • テクノロジー面のガードレール: エージェントのようこそメッセージを設定して、その機能やサポートの方法に対する適切な期待を明らかにする。

ビジネス

エスカレーションの問題: エージェントからサービス担当への引き継ぎに一貫性がない、非効率的である、お客様を煩わせる。

  • ビジネス面のガードレール: AI からサービス担当へのエスカレーションの条件とコンテキストを定義する。
  • テクノロジー面のガードレール: エージェントとのそれまでのやり取りのサマリーがサービス担当に引き継がれるように Agentforce を設定する。
  • テクノロジー面のガードレール: エージェントへの指示に、エスカレーションをトリガーすべきキーワード、言語、リクエストを明確に説明する。

Nora はすでに予約管理の実装の範囲を絞り込む計画を立てています。さらに、エージェントにビジネスについて質問するお客様が適切な期待を抱くようにするための対策を講じることもできます。たとえば、エージェントのようこそメッセージに、予約関連の質問に答えることを目的としているという免責事項を追記することが考えられます。さらに、ほかのサービスに関する情報を入手できる最適な場所へのリンクも記載します。

文書化と実験

Nora と AI 評議会が具体的なリスク緩和策を立てたら、ユースケースのリスクとガードレールを文書にまとめます。規制を遵守するうえで Coral Cloud のリスク緩和策を記録しておくことは重要であり、内部監査にも役立ちます。

反復処理を行うことは文書化と同じぐらい重要です。テクノロジー面のガードレールが効果的であることを確認するために、Sandbox 環境にアクセスし、Agentforce でセキュリティ対策の設定を試行します。実際にガードレールを設定し、さまざまなシナリオでどのように機能するかテストします。こうしたアプローチによって不備や問題を早い段階で特定し、必要な調整を行えるようになります。文書化と実際的な試行を組み合わせれば、AI エージェントのリスク緩和策を講じることができます。

初歩的なガバナンス計画が設定されたため、Nora はプロジェクトのもう 1 つの重要な要素に進むことができます。次は、Coral Cloud のエージェントが実行する作業を記述します。

リソース

Salesforce ヘルプで Trailhead のフィードバックを共有してください。

Trailhead についての感想をお聞かせください。[Salesforce ヘルプ] サイトから新しいフィードバックフォームにいつでもアクセスできるようになりました。

詳細はこちら フィードバックの共有に進む