Skip to main content

責任ある生成 AI の作成

学習の目的

この単元を完了すると、次のことができるようになります。

  • 生成 AI の責任ある開発の 5 つの原則を挙げる。
  • Salesforce 製品の信頼される生成 AI 機能を挙げる。
  • 倫理的なリスクを特定し、対策を作成するためのベストプラクティスについて説明する。

新しい種類の人工知能、生成 AI

つい最近までは AI といえばそれは予測 AI のことでした。この種類の人工知能では、既存のデータセットを参照し、手元にある情報に基づいて何が正しいかについて限定的な予測を行うことに重点が置かれていました。そこに新しく登場したのが予測ではなく生成を行う AI です。主な違いは、予測 AI がトレンドを分析するのに対して、生成 AI は新しいコンテンツを作成するという点です。

生成 AI は画期的な各種機能を備えていて、まるで生身のサポートエージェントと話しているようにボットとリアルタイムで会話を行うこともできますし、マーケター、プログラマー、創造的な先駆者のために応用することも可能です。さらに、生成 AI が大きな話題となったことで、多くのユーザーが集まって 生成 AI で何ができるかを探る試みが行われています。そのため今後、私たちの日常生活でも 生成 AI が大きな役割を果たすようになり、多くの人が 生成 AI に触れることが増える可能性があります。

あらゆる新興テクノロジーには未知の要素が伴います。意図的な悪用であるか意図しないバイアスであるかにかかわらず、生成 AI にもリスクがあるため、このテクノロジーを最大限に活用するためにはリスクを理解してそれに対処する必要があります。

リスクを知る

Salesforce では、責任と信頼を伴う方法でテクノロジーを設計、開発、配布することを重視しています。そのために、作成したものによる意図した結果と意図しない結果を予測しています。

生成 AI で起こりうるリスクをいくつか確認しておきましょう。

正確さ

生成 AI モデルは予測を行うことに長けています。生成 AI モデルは同じカテゴリに属するものの例を大量に収集することで新しいコンテンツを作成します。ただし、モデルが有名な著者の文体で新しい文を作成することができたとしても、その文が事実上正しいかどうかを知る方法はありません。その場合に、ユーザーが AI の予測を検証済みの事実だと思ってしまうと問題になります。これは機能でもありバグでもあります。これによってモデルは初期の想像力を捉えたクリエイティブな機能を得ることになりますが、一方で、正しそうに見えるものは実際に正しいものと間違えやすくなってしまいます。 

バイアスと有害性

人間のやり取りにはある程度の有害性が伴うことがあります。有害性とは中傷を行ったり、偏見を支持したりといった人を傷つける行為です。このため、有害性を認識して除外しなければ AI にもその有害性が再現されます。さらには見つかったバイアスが増幅されることもあります。これは、予測を行うためにかけ離れたデータは除外されることが多いためです。AI ではマイノリティコミュニティがそれに該当すると判断される可能性があります。 

プライバシーと安全性

生成 AI の機能の中でも特に魅力的なのは、人間の行動を再現できることと、それを高速で大規模に行えることの 2 つです。このような機能には大きな可能性があります。一方で不都合なこともあります。このテクノロジーを悪用すれば、あっという間に大きな損害を与えることも簡単だということです。モデルはトレーニングデータを「漏洩」しがちであり、そこで表現されている人のプライベートな情報がさらされてしまうことがあります。また、生成 AI を使用して本物らしいフィッシングメールを作成したり、セキュリティを回避するために音声を再現したりすることすら可能です。 

混乱

AI では多くのことができるため、意図したとおりに機能したとしても社会に対するリスクがあります。経済の混乱、仕事や責任の変化、モデルの稼働に必要な高い計算能力によるサステナビリティに関する懸念などのすべてが、私たちが共有する世界に影響を及ぼします。 

最も重要な信頼

信頼は、Salesforce にとって最も重要な価値であり、生成 AI アプリケーションを構築してリリースする際にも揺るぎのない指針となります。この作業のガイドとして、Salesforce では責任をもって生成 AI を開発するための原則が作成されました。これは、このテクノロジーの可能性を活用しつつ、落とし穴に陥らないようにするために役立ちます。

正確性: 生成 AI は他のモデルと同じように、トレーニングに使用されたデータに基づいて予測を行います。つまり、正確な結果を得るためには良質なデータが必要だということです。また、人々は AI の出力が不正確で不確実である可能性を認識する必要があるということです。

安全性: バイアス、説明可能性、堅牢性を評価し、否定的な結果に対する意図的なストレステストを行うことで、有害性や誤解を招くデータによる危険からお客様を守ることができます。Salesforce は、トレーニングに使用されるデータ内に存在する個人識別情報 (PII) のプライバシーも保護します。さらに、その他の害悪を防ぐ対策も作成します (コードを自動的に本番組織に転送するのではなく Sandbox に公開するなど)。

誠実性: お客様のデータは Salesforce の製品ではありません。モデルのトレーニングと評価を行うためにデータを収集するときには、データの来歴を尊重し、データの使用に対する同意を得ていること (オープンソース、ユーザーからの提供など) を確認する必要があります。また、ユーザーが AI を使用したり AI と話したりするときには、透かしや免責事項などによってそのことを通知し、よくできたチャットボットを人間のエージェントと間違えることがないようにすることも重要です。

能力強化: プロセスを完全に自動化するのが適している場合もありますが、人間をサポートする目的で AI を使用した方がよい場合や、人間の判断が必要な場合もあります。Salesforce では、人間の作業を強化または簡易化し、お客様が作成したコンテンツの真正性を理解するためのツールやリソースを提供する AI を開発することで人間の能力を強化することを目指しています。 

サステナビリティ: AI モデルに関しては、大きいほど良いとはかぎりません。場合によっては、より小さくて適切にトレーニングされたモデルの方が大きくてトレーニングが十分でないモデルよりもパフォーマンスが高くなります。アルゴリズムの性能と長期的なサステナビリティの適切なバランスを取ることは、生成 AI を私たちの未来に取り入れるための鍵となります。

ガイドラインに従った AI に関するアクション

では、上記のコミットメントはどのように実現されるのでしょうか? Salesforce は次のようなアクションを実行しています。

Einstein Trust Layer: Einstein Trust Layer を Salesforce プラットフォームに統合することで、エンドユーザーエクスペリエンスにシームレスに統合されたデータコントロールとプライバシーコントロールによって Salesforce の 生成 AI のセキュリティを強化します。詳細は、ヘルプの「Einstein Trust Layer」を参照してください。

製品設計の意思決定: ユーザーが AI を使用するときには、信頼性の高いインサイトや、ニーズを満たすためのサポートを得ることができ、不正確な情報や誤解を招く情報を共有するリスクがないと信頼できるようにする必要があります。 

Salesforce では信頼を製品に組み込んでいます。ボタンの色から出力自体の制限事項まであらゆることを精査し、お客様が競争力を保つために使用する機能を損なうことなくお客様をリスクから保護するためにできるかぎりのことを行っています。 

意識的な干渉: ユーザーは各自のユースケースにとって最適な判断をするために必要な情報を常に持っている必要があります。Salesforce では、押しつけがましくないけれども意識的に適用される干渉によって、ユーザーが先手を打てるようにしています。この場合の「干渉」とは、内省を促すために作業実行の通常のプロセスを中断することです。たとえば、ユーザーがバイアスについて学ぶためのアプリケーション内ガイダンスポップアップや、検出された有害性にフラグを付け、カスタマーサービスエージェントが回答を送信する前に見直しを促すことなどです。

レッドチーム演習: Salesforce ではレッドチーム演習を行っています。これは、ユーザーによるシステムの使用や誤用を予測してテストすることによってシステムの脆弱性を意図的に見つけようとするプロセスです。それによって Salesforce の 生成 AI 製品が厳しい状況にも耐えられることを確認しています。Salesforce がどのようにして製品に信頼を組み込んでいるかについての詳細は、Trailhead の「Einstein Trust Layer」を参照してください。

製品をテストする 1 つの方法は予防のためにプロンプトインジェクション攻撃を実行することです。この攻撃では、すでに確立済みの指示や境界を AI モデルに無視させるように特別に設計されたプロンプトを作成します。このような実際のサイバーセキュリティの脅威を予測することは、実際の攻撃に耐えるようにモデルを改善するために不可欠です。

許容される使用に関するポリシー: AI はさまざまな用途に関係するため、Salesforce では AI 製品に固有のポリシーを設定しています。これによって、許容される使用のガイドラインを透明性のあるやり方で設定し、お客様とエンドユーザーの信頼を得ることができます。この方法は目新しいものではありません。Salesforce にはすでに顔認識や人間になりすましたボットの禁止などを含む、ユーザーを保護するための AI ポリシーがありました。 

現在、Salesforce では、お客様が引き続き Salesforce のテクノロジーを信頼できるように、既存の AI ガイドラインを 生成 AI にも対応するように更新しています。更新されたルールを参照すれば、Salesforce がさらに高度な AI 製品や機能を提供していく中で、各自のユースケースがサポートされるかどうかがわかるようになっています。詳細は、「Acceptable Use Policy (許容される使用に関するポリシー)」を参照してください。 

生成 AI によって人々やプログラムが連携する方法が大きく変化しました。すべての答えが揃っているわけではありませんが、次のようなベストプラクティスをお勧めします。

コラボレーションする

職務横断的なパートナーシップ (社内部門間または公的機関と民間機関の間など) は責任ある進歩を推進するために不可欠です。Salesforce のチームは、より信頼性の高い生成 AI を作成するという業界全体の取り組みに貢献するために、国家人工知能諮問委員会 (NAIAC)NIST リスクマネジメントフレームワークなどの外部の委員会やイニシアチブに積極的に参加しています。

多様な視点を含める

製品のライフサイクルを通じて、多様な視点を取り入れることで、リスクを効果的に予測してそれに対するソリューションを開発するために必要な幅広いインサイトを得ることができます。Consequence Scanning のような演習を行うことで、今日の生成 AI の状況や今後の方向性についての会話に欠かせない声を製品に取り入れていることを確認できます。

最も高度な AI でも、このテクノロジーによって仕事、コマース、その他のあらゆるものがどのように形成されていくかは予測できません。ただし、力を合わせることで私たちは人間中心の価値を信頼の基盤として、そこからより効率的で拡張可能な未来を築いていくことができます。

リソース

Salesforce ヘルプで Trailhead のフィードバックを共有してください。

Trailhead についての感想をお聞かせください。[Salesforce ヘルプ] サイトから新しいフィードバックフォームにいつでもアクセスできるようになりました。

詳細はこちら フィードバックの共有に進む