Skip to main content
Build the future with Agentforce at TDX in San Francisco or on Salesforce+ on March 5–6. Register now.

データの倫理、プライバシー、実践を知る

学習の目的

この単元を完了すると、次のことができるようになります。

  • データの収集と分析に関連する倫理的な考慮の重要性を定義して説明する。
  • データのプライバシー、同意、機密性の保証に関連する倫理的な問題を理解する。
  • データを保護するためのいろいろな方法や、GDPR、CCPA など、さまざまなデータ保護関連の法律や規制の枠組みを理解する。

倫理、データ、そして AI

データの収集と分析は、AI と機械学習にとって重要な要素ですが、倫理的な懸念もあります。データの重要性とアクセス性が高まると、データの収集、分析、使用に伴う倫理的な意味を考慮することが重要になります。 

データの収集と分析における倫理的問題の例をいくつか示します。

  • プライバシー違反: 本人からの同意を得ずに個人情報を収集、分析したり、収集の目的以外に個人情報を利用したりすること。
  • データの侵害: 個人や組織に金銭的損失をもたらしたり、評判を損ねたりする可能性のある機密データへの不正アクセスや機密データの漏洩。
  • バイアス: 不公平または差別的な結果を引き起こす可能性のある体系的な誤差や不正確さがデータ、アルゴリズム、または意思決定プロセスに含まれていること。

データのプライバシー、同意、機密性の保証

これらの倫理的な問題に対応するためには、責任のある倫理的な方法でデータが収集、分析、使用されるように保証することが重要です。そのためには、データのプライバシー、同意、機密性を確保するための戦略が必要です。 

データのプライバシーと機密性を促進するのに役立つ戦略の一例を示します。

  • 暗号化: 機密データを暗号化して保護することで、認証済みのユーザーのみがアクセスできるようにします。
  • 匿名化: 個人を特定できる情報をデータから削除して、データが特定の個人に紐付けられないようにします。
  • アクセスコントロール: 機密データへのアクセスを認証済みのユーザーに限定し、データが意図された目的のみに使用されるようにします。

データに基づく意思決定におけるバイアスと公正さへの対応

データに基づく意思決定における課題の 1 つは、不公平または差別的な結果に繋がる可能性のあるバイアスの存在です。バイアスは、データの収集からアルゴリズムによる意思決定まで、データライフサイクルのどのフェーズにも入り込む可能性があります。 

バイアスに対応して公正さを促進するためには、次のようなさまざまな戦略が必要です。

  • データソースの多様化: バイアスに対処する重要な方法の 1 つは、データを多様なデータソースから収集することを保証することです。これにより、データが対象となる集団を代表していることが保証され、あるデータソースにバイアスが存在していても、他のデータソースによって打ち消されます。
  • データ品質の向上: バイアスに対処するための別の重要な戦略は、データの質を向上させることです。たとえば、データが正確かつ完全で、対象となる集団を代表していることを確認します。また、データに含まれる可能性のある誤差やバイアスを特定して修正します。
  • バイアス監査の実施: データやアルゴリズムを定期的に見直し、それらに含まれているバイアスを特定して対処することも、バイアスに対応するための重要な戦略です。たとえば、データを分析してバイアスの可能性があるパターンやトレンドを特定し、バイアスを是正するための措置を執ります。
  • 公平性のためのメトリクスの導入: 公平性を促進するための重要な戦略としては、アルゴリズムや意思決定プロセスの設計に公平性のためのメトリクスを導入することも挙げられます。たとえば、ある意思決定が異なる集団に与える影響を測定して、その意思決定が公平でバイアスがかかっていないことを保証するための措置を執ります。
  • 透明性の促進: 透明性を促進することも、バイアスに対応して公平性を促進するための重要な戦略です。たとえば、データやアルゴリズムを一般に公開して、意思決定がどのようなプロセスを経て行われたかを説明します。また、関係者にフィードバックを求めて、それらを意思決定プロセスに反映させます。

これらの戦略を採用することで、組織はデータに基づく意思決定プロセスが公平でバイアスがかかっていないことを保証できます。

AI 機械学習が責任のある倫理的な方法で開発およびリリースされるようにするためには、倫理的な枠組みやガイドラインを整備することが重要です。では、データと AI に関連する規制の枠組みを詳しく見ていきましょう。

データ保護に関する法律や規制は、責任のある倫理的な方法でデータが収集、分析、使用されることを保証するために重要です。 

データ保護に関する 4 つの重要な法律と規制を紹介します。

  • カリフォルニア州消費者プライバシー法 (CCPA): カリフォルニア州で事業を展開し、カリフォルニア州の居住者から個人データを収集する企業に適用される一連の規制。
  • 医療保険の相互運用性と説明責任に関する法律 (HIPAA): 医療機関に適用され、米国において保護される医療情報の使用と開示について規定した一連の規制。
  • 一般データ保護規則 (GDPR): 欧州連合市民の個人データを扱うすべての企業に適用される一連の規制。
  • 欧州連合人工知能法 (EU AI 法): 許容できないリスクのあるシステムを禁止し、リスクの高いアプリケーションに特定の法的要件を課す包括的な AI 規制。

政府機関はこれらの法律や規制を執行する責任を持ちます。具体的には、苦情やデータ侵害の調査、監査や査察の実施、コンプライアンス違反に対する罰金や罰則の適用、そしてデータの保護やデータ保護関連の法律や規制への準拠に関する指導や助言の提供などを行います。

データライフサイクル管理のベストプラクティス

効果的なデータライフサイクル管理の実現には、データが責任のある倫理的な方法で収集、保存、使用されることを保証するさまざまなベストプラクティスが求められます。 

データライフサイクル管理のベストプラクティスをいくつか示します。

  • データが責任のある倫理的な方法で収集および使用されることを保証するためのデータガバナンスポリシーと手順の実装
  • データライフサイクルの弱点や脆弱性を特定するための定期的な監査と評価の実施
  • データが正確かつ完全で、対象となる集団を代表していることの保証
  • データの安全な保管と認証済みユーザーのみへのアクセスの許可
  • データが意図された目的のみに使用され、責任のある倫理的な方法でのみ共有されることの保証
  • データを保護するための適切な保護措置の実施
  • データ保持ポリシーの実施と、不要になったデータの確実な削除

これらのベストプラクティスに従うことで、組織は責任を持って倫理的にデータを管理し、個人と組織のプライバシーと機密性を保護していることを保証できます。

AI は、学習と予測を行うために膨大なデータを使用します。データの重要性を理解することは、イノベーションと成功を促進する効果的な AI モデルを開発するためには不可欠です。個人や組織は、基本的な概念を理解することで、倫理的で責任のある利用を保証しつつ、イノベーションと成功を促進するためにデータと AI を効果的に活用できます。

リソース 

Salesforce ヘルプで Trailhead のフィードバックを共有してください。

Trailhead についての感想をお聞かせください。[Salesforce ヘルプ] サイトから新しいフィードバックフォームにいつでもアクセスできるようになりました。

詳細はこちら フィードバックの共有に進む