Skip to main content
Build the future with Agentforce at TDX in San Francisco or on Salesforce+ on March 5–6. Register now.

データやアルゴリズムからのバイアスの排除

学習の目的

この単元を完了すると、次のことができるようになります。

  • データセットから除外されている要因や、過多になっている要因を特定する。
  • 操作バイアスを軽減する事前策を立てておくことの利点を説明する。
  • 新たなバイアスが結果に入り込んでいないことを確認するプランを立てる。

バイアスのリスクの管理

AI プロジェクトに取り組む際に考慮すべき各種のバイアスについて説明しました。ここから難関に差し掛かります。これらのバイアスが生じるリスクをどのように防止または管理するかです。トレーニングデータからバイアスを魔法のごとく消し去ることはできません。バイアスによって除外されるものをなくすことは社会面と技術面の両方の問題です。データを修正することのほか、AI 商品をどのように計画して実行するかについてチームで予防策を講じておくことが考えられます。 

事前策の実施

最初の単元で説明したとおり、責任ある商品製作の第一歩は、倫理的な文化を構築することです。この 1 つの方法として、ワークフローに事前策を組み込みます。 

事前策は事後策の反対で、「何らかの問題が生じる」前に対処できるようにすることです。チームメンバーがプロジェクトの計画段階で、危惧をなかなか提起しないことが少なくありません。AI のように慎重を期すべき領域では、あなたやそのチームが、抱いている疑念を率直に伝え、容易ではない発言も積極的にしていくことが極めて重要です。こうしたことを伝え合うミーティングを開き、期待を適切かつ現実的なものにすることで、プロジェクトに対する当初の熱意に推された無謀とも思われる願望を和らげることができます。 

データセットから排除されている要因や過多の要因を特定する

データセットに反映されている根深い社会的要因や文化的要因を検討します。前の単元で詳述したとおり、データセットの時点でバイアスがあれば AI のレコメンデーションシステムに影響を及ぼす可能性があり、集団を過少または過多に反映することになるおそれがあります。

技術的な点では、データのバイアスに次の数通りの方法で対処できます。ただし、以下の技法は包括的な手段ではありません。

バイアスの内容: マジョリティに適用される統計パターンが、マイノリティ集団には適さない可能性がある。

対処法: 画一的なアルゴリズムではなく、集団別のアルゴリズムの作成を検討します。

バイアスの内容: 人々がデータセットから排除されており、そうした排除がユーザーに影響を及ぼしている。状況や文化は大切ですが、データにその影響を反映させることが不可能なこともあります。

対処法: 研究者が未知の未知と呼ぶものを探します。これは、予測に対するモデルの確信度はかなり高いが、実際にはその予測が間違っている場合に生じる誤りです。未知の未知の反対は既知の未知で、これは間違っている予測に対するモデルの確信度が低いことです。モデルがコンテンツを生成する場合と同様に、要求に対して事実とまったく異なる情報を生成する可能性があります。

トレーニングデータの定期的な評価

前述のとおり、AI システムの開発ではまず、トレーニングデータの水準に着目します。プロセスのできるだけ早い段階で、データの質の問題に対処するよう細心の注意を払う必要があります。CRM Analytics をはじめとするデータ準備ツールで極端な値、データの重複、異常値、データの冗長性に対処しておきます。

モデルをリリースする前に必ずプレリリースを試行して、システムがバイアスのかかった予測や判断を行い、現実世界の人々に影響を及ぼさないようにします。きちんとテストして、害悪が生じないようにします。商品が各種のコミュニティで機能することに対する説明責任を果たしておけば、リリース時に慌てることはありません。 

モデルをリリースしたら、アルゴリズムの学習の基になるデータと、システムが提示するレコメンデーションを定期的にチェックするシステムを開発します。データには半減期があるものと考えます。データが万人に対して無期限に機能することはありません。技術的な面では、システムに取り込まれるデータが多いほど、アルゴリズムの学習量が増大します。やがて、商品を開発した人が予見していなかったパターンや、望んでいなかったパターンをシステムが特定して照合することがあります。 

社会的な面では、文化的な価値は時間とともに変化します。アルゴリズムの出力が、そのシステムを使用するコミュニティの価値体系に適合しなくなることがあります。こうした課題に対処可能な 2 つの方法は、見落とされた点を修正する有料のコミュニティレビュープロセスを設置することと、個人やユーザーがオプトアウトしたり、本人についてのデータを修正したりするためのメカニズムを商品に組み込むことです。コミュニティレビュープロセスには、開発中のアルゴリズムシステムの影響を受ける可能性があるコミュニティの人々も含めます。また、組織の目標を達成するためにシステムを実装、管理、使用する人々が参加するセッションを開催します。「UX Research Basics (ユーザーエクスペリエンス調査の基本)」に進むと、各自のツールが使用される状況について理解する目的で、コミュニティレビュープロセスの実行やユーザー調査の実施に利用できる手法について学習できます。

結論

AI は世の中に役立つ可能性があるもので、人間が発見できない腫瘍を検出したり、家族が気付く前にアルツハイマー病を特定したり、先住民族の言語を保存するといった潜在性を秘めています。このモジュールを通して、AI システムの威力とともにその不透明性について説明してきました。AI によって社会に害悪以上の恩恵をもたらしたいのであれば、そのリスクを認識し、AI システムが責任をもって設計、開発、使用されるように対策を講じる必要があります。

私たち技術者は、自らのアプローチに誠実かつ慎重であっても、その行程で予期せぬ事態に遭遇することがあります。データセット、モデル、その文化的状況間の相互作用を常に予測することはできません。データセットに私たちが認識していないバイアスがかかっていることが多々あります。そのため、何らかの害悪をもたらす結果が生み出されることがないように、トレーニングデータとモデルの予測を検証することは私たちの責任です。

倫理的な AI システムを開発することは社会技術的なプロセスです。このシステムを、技術の実装という観点だけでなく、全チームによる開発方法や、そのシステムを使用する社会的状況の点からも検討します。さらに、このプロセスに携わる人々も検討し、性別、人種、民族、年齢の点でどの程度コミュニティを反映しているかを確認します。AI 商品を構築する人々と、こうしたシステムで生じるバイアスは、相互につながっています。

安全で、社会に役立つ AI を具現化するためには、その中核に位置するのが人間であることを心に留めておく必要があります。AI はツールであり、その使い方は私たちが選択します。各人の役割に関係なく、その些細な判断が、重大かつ永続的な結果をもたらす可能性があります。Salesforce では、私たちはためになることをうまくやれると確信しています。他者に害悪を及ぼすことなく、収益をもたらし、実際にそのプロセスでポジティブな影響を与えることができます。 

リソース

Salesforce ヘルプで Trailhead のフィードバックを共有してください。

Trailhead についての感想をお聞かせください。[Salesforce ヘルプ] サイトから新しいフィードバックフォームにいつでもアクセスできるようになりました。

詳細はこちら フィードバックの共有に進む