Tune in to Trailblazers Innovate for Salesforce product news,
demos, and latest roadmaps. Register here.
close
進行状況の追跡を始めよう
Trailhead のホーム
Trailhead のホーム

人工知能の基本の学習

学習の目的

この単元を完了すると、次のことができるようになります。

  • 機械学習と人工知能 (AI) を定義する。
  • バイアスが AI にどのように影響するのかを理解する。
  • AI にバイアスがかかる可能性のある実例を挙げる。

AI の概要

人工知能は、人間の知能を補い、人間の能力を増強し、従業員、顧客、パートナー、そしてコミュニティにより良い結果をもたらす実用的なインサイトを提供することができます。 

Salesforce では、AI の制作者だけでなく、万人がその恩恵を受けるべきと考えています。私たちは、AI の技術的な性能を提供するだけでは十分ではありません。お客様が Salesforce の AI を万人にとって安全かつ受容的な方法で使用できるようにすることに対しても重要な責任を担っています。私たちはこの責任を重要視し、AI を安全で的確かつ倫理的な方法で開発し使用するために必要なツールを従業員、お客様、パートナー、コミュニティに提供することに尽力しています。

AI と機械学習の違い

AI が何なのかよくわからない場合は、このモジュールを受講する前に、「人工知能の基本」モジュール (「Salesforce Einstein でスマートに」トレイルの一部) で、AI の概要と、AI による顧客関係の変革について学習してください。 

機械学習と人工知能が同義語として使用されることがよくありますが、両者は同じ意味ではありません。AI の責任ある制作を細かく見ていく前に、これらの用語の意味を復習しておきましょう。

機械学習 (ML)

私たちが機械学習というときは、コンピュータに細かな手順が明示的にプログラミングされていなくても、例から「学習」できる特定の技法を意味します。現在の機械学習アルゴリズムは、1 種類の質問にうまく答えることを目指しています。このため、機械学習アルゴリズムは、病気の診断、株式市況の予測、音楽のおすすめなどの取り組みで最前線を行っています。

人工知能 (AI)

人工知能は、コンピュータに複雑なタスクを実行し、人的行為に見えるように動作するよう教示する取り組みを表す包括的な用語です。通常 AI は、組み込まれている環境から合図を受けて操作を実行します。チェスをするロボットから、カスタマーサポートの質問に対応可能なチャットボット、実際の路上をインテリジェントにドライブする自動運転車まで、すべてが AI に該当します。

AI がアルゴリズムで構成されていることもあります。アルゴリズムとは、コンピュータが実行可能なプロセスや一連のルールです。AI のアルゴリズムはデータから学習できます。提供されたデータからパターンを認識し、従うべきルールやガイドラインを生成できます。データの例には、入力履歴と出力履歴 (すべてのメールを入力し、スパムメールを識別して出力する場合など) や、A から B への対応付け (ある英単語を同義のスペイン語に対応付ける場合など) があります。アルゴリズムをトレーニングデータで訓練したものがモデルです。モデルをトレーニングするために使用するデータを、トレーニングデータセットといいます。モデルがうまく機能しているかどうかをテストするために使用するデータを、テストデータセットといいます。トレーニングデータセットとテストデータセットのどちらも、入力データと予想される出力データで構成されます。モデルが実際に意図したことを実行しているかどうかをテストするために、テストデータセット (同等ながら異なるデータセット) を使用してモデルを評価します。

AI におけるバイアスの課題

ここまでは、テクノロジの開発による幅広い倫理的な影響について説明してきました。ここからは AI に目を向けます。バイアスや公平な判断について、AI には独自の課題が生じています。 

不透明性

モデルが特定の予測をする理由を私たちは常に把握しているわけではありません。『The Black Box Society』(ブラックボックス社会) の著者である Frank Pasquale 氏は、こうした透過性の欠如をブラックボックス現象と説明しています。AI を制作する企業はシステムのバックグラウンドプロセスについては説明できますが、モデルのどこにバイアスが存在する可能性があるかなど、リアルタイムで何がどのような順序で起こっているのかを伝えるのは当の企業でも至難の業です。

透過性を高め、深層学習ベースの画像認識アルゴリズムが物体をどのように認識するのかを理解するある取り組みで、Google はリバースエンジニアリングを実施して、写真の物体を見つけるのではなく、物体を生成させました。 

あるケースで、AI にダンベルの画像を生成するよう指示したところ、手と腕が付いたダンベルの画像が作成されました。この AI がダンベルと手と腕を 1 つの物体と認識していたためです。この AI に提供されたトレーニングデータの大半に含まれる画像は、ダンベルそのものではなく、誰かがダンベルを持っているものでした。画像出力からエンジニアは、アルゴリズムに 1 つのダンベル以上のものを含む追加トレーニングデータが必要なことを認識しました。

スピード、規模、大量のデータセットへのアクセス

AI システムは、特定の結果を最適化するようトレーニングされます。AI はトレーニングデータのバイアスも学習し、将来の予測モデルの構築に取り入れます。モデルがなぜそのような予測をするのか把握することが不可能ではないにしても困難であるため、モデルにどの程度のバイアスがかかっているのかを特定するのも容易いことではありません。モデルがバイアスのかかったデータに基づいて予測を行えば、害悪の及ぶ重大な結果が生じるおそれがあります。

Oscar Schwartz 氏が電気電子技術者協会に寄稿した「Untold History of AI (AI の知られざる歴史)」シリーズの一例を見てみましょう。1979 年、ロンドン大学セントジョージ校医学部が、入学志願者の一次審査にアルゴリズムを導入しました。同校の学部長が開発したこのアルゴリズムは、人間の審査員を模倣することで時間のかかる審査を能率化するだけでなく、志願者全員に同じ審査プロセスを適用して選考過程を改善することを目的としていました。このシステムは、90 ~ 95% の確率で人間の審査員と同じ選考を行いました。実際のところ、名前と出生地に基づいて志願者を「白色人種」と「非白色人種」に分類し、非ヨーロッパ系の名前の人々にはかなり低いスコアを付けるというやり方で、バイアスが体系化され常態化されていました。このシステムが包括監査の対象になるまでに、何百人もの志願者が面接に進む前に不合格になっていました。

機械学習の技法は 1979 年から進歩しています。けれども、技法の不透過性が高まっている昨今では、受容性や透過性を念頭にこうしたツールを制作することが一層重要になっています。さもなければ、常態化したバイアスにより、意図しなくとも特定の人々の教育面や経済面の機会が制限されることになりかねません。AI は魔法ではありません。あなたが与えたデータに基づいて学習するものです。データセットにバイアスがかかっていれば、モデルがそのバイアスを増幅します。 

開発者、設計者、研究者、商品マネージャ、ライターなど、AI システムの制作に携わる全員が、害悪を及ぼす社会的バイアスを助長させないようにする必要があります(次のモジュールで見ていくとおり、あらゆるバイアスが罪悪を及ぼすわけではありません)。チームは当初から協力して、AI 商品に倫理を組み込み、その商品の社会的状況を理解するための調査を実施する必要があります。こうした調査では、システムの潜在的な利用者だけでなく、システムの決定によってその生活に影響が及ぶ人々からも話を聞くようにします。面接の進め方については、モジュールの後半で取り上げます。

リソース