Skip to main content
Build the future with Agentforce at TDX in San Francisco or on Salesforce+ on March 5–6. Register now.

AI の脅威と防御について学ぶ

学習の目的

この単元を完了すると、次のことができるようになります。

  • AI の日常的な用途のリスクと防御策を挙げる。
  • システム、ユーザー、ビジネスの保護におけるサイバーディフェンダーの役割を説明する。

私たちが人工知能 (AI) の領域に踏み込んでいく中で、その倫理面の考慮事項やセキュリティプロトコルを理解することが一層重要になっています。前述のとおり、AI は飛躍的な利便性とともに潜在的なリスクをもたらします。

では、AI のサイバー攻撃と防御という重要なトピックに進む前に、この両面性について簡単に触れておきましょう。

AI のサイバー攻撃と防御

どの映画を観るか提案したり、自宅を監視したり、子どもの宿題を手伝ったりといった AI の役割が日常生活に浸透していく中で、こうした利便性には一連のリスクが伴うことを認識する必要があります。私たちがテクノロジーの進化を目の当たりにしている間に、それを悪用しようと目論む人々の手口も進化しています。

AI の日常的な使用におけるリスクを理解する

まず、AI システムそのものへの攻撃が存在します。

  • アルゴリズムの汚染: AI に悪質な情報を読み込ませれば、誤った応答が生成されるおそれがあります。車載 GPS が運転手を意図的に誤った方向に誘導すれば、思ってもいない場所に到着します。
  • データの改ざん: たとえば、スマートキッチンが参照するレシピの材料が変更されれば、期待外れの料理が出来上がる可能性があります。
  • 不正アクセス: 自宅の音声起動ホームアシスタントに第三者が秘密のコマンドをささやけば、自宅が勝手にコントロールされることになりかねません。

横並びの 2 つのフローチャート。左側のフローチャートに、データセット、学習アルゴリズム、機械学習モデルという AI 学習モデルのフェーズが示されています。右側のフローチャートにも同じフェーズが示されていますが、データセットフェーズで汚染攻撃を受け、最後のフェーズが汚染されています。

第二に、ユーザーに直接影響するリスクが存在します。

  • デジタルなりすまし: 誰かの容姿や音声を不気味なほどそっくりに再現可能なディープフェイクについて聞いたことがあるのではないでしょうか。信頼している友人や家族からのメッセージを偽装する目的で、なりすましが使用されることがあります。
  • AI を悪用した詐欺: 一見正当なように思えても、どこかおかしいと感じるメールやテキストを受け取ったことはありませんか? AI は、ユーザーを騙して機密情報を聞き出す目的で、極めて巧妙な詐欺メッセージを生成することができます。
  • スマートマルウェア: ユーザーの行動に応じて学習可能なウイルスまたは有害なソフトウェアです。たとえば、ユーザーがオンラインショッピングを頻繁に利用する場合、マルウェアがその支払情報を狙っているかもしれません。

最後に、職場や地域社会に影響を及ぼす可能性のあるリスクも存在します。

  • 企業データの改ざん: ビジネスが AI を頼りに事業を運営している場合には、その AI が操作され、会社の利益に反する行為が実行されるおそれがあります。
  • 風評被害: AI を使って顧客とやりとりしているビジネスは、その AI システムが侵害され、信頼が失われる可能性があります。

AI の安全性と倫理性の確保においては、ユーザーが重要な役割を果たします。対策の中にはエンドユーザーが関与できないものもありますが、自宅や職場における AI のエクスペリエンスの安全面と倫理面の健全性を確保するために、各自の影響が及ぶ範囲で措置を講じることができます。具体的には以下のような対策を実践します。 

  • 情報を得る: 使用する AI 駆動型のアプリケーションやサービスのプライバシーポリシーと利用規約に目を通します。どのようなデータが収集され、どのように使用されるか正確に把握します。
  • 定期的に更新する: アプリケーションやソフトウェアを常に最新の状態に維持します。毎回更新して、最新のセキュリティパッチだけでなく、AI システム内の倫理的な考慮事項に対処するためのパッチも適用します。
  • セキュリティ設定を有効にする: 特に AI 駆動型サービスが個人データにアクセス可能な場合には、二要素認証など選択可能なセキュリティオプションをすべて適用します。
  • レビューや監査を実施する: AI システムと共有しているデータを定期的に点検します。不要な情報は削除し、データの公開が制限されるように設定を調整します。
  • 懐疑的になる: メッセージや動画がどこかおかしいと感じたら、その直感に従います。共有や操作を行う前に、情報を慎重に検証します。
  • 他者を教育する: AI を使用する際の倫理面やセキュリティ面の考慮事項についての知識やインサイトを友人や家族と共有します。
  • 問題を報告する: バイアスのかかった内容や倫理に反する行為を見つけたら報告します。問題を報告するかどうかは、AI の問題のある行為を見つけた状況に左右されます。
    • サービスプロバイダー: 最初の連絡先は、AI サービスを提供している企業や組織です。大半のプラットフォームは、セキュリティ上や倫理上の問題を報告するメカニズムを設けています。
    • 規制当局: 深刻な事案、特にプライバシーや差別に関わる事案は、米国の連邦取引委員会 (FTC) や雇用機会均等委員会 (EEOC)、あるいは国際的管轄区域の同様の機関など、関連する政府当局や規制当局に問題を報告する必要のある場合があります。
    • 内部チャネル: AI システムが職場での使用を目的に雇用主から提供されている場合は、IT 部門または指定されている倫理委員会 (存在する場合) に問題を報告します。
    • 開発者グループ: オープンソースのソフトウェアの場合は、通常 GitHub などのリポジトリ経由で開発者に直接問題を報告できます。

こうした対策を講じることで、AI 分野の安全性と倫理的責任を重んじる文化に貢献できます。スマートなテクノロジーの恩恵を享受するだけでなく、賢明に使用することにも留意します。

AI を中心とする世界に深く入り込んでいく中で、私たちのデジタル未来を守るためには、こうした具体的な脅威を認識して緩和することが極めて重要です。 

AI とサイバー防御

AI は、あらゆる課題を突きつける一方で、サイバーセキュリティにおける画期的な解決策ももたらします。AI に長けたサイバーディフェンダーは、さまざまな技法やテクノロジーを駆使して、AI ベースの攻撃を積極的に防御できます。では、サイバー防御の実践に AI を役立てる方法について詳しく見ていきましょう。

サイバーセキュリティの役割 

保護や防御の技法やテクノロジー 

AI システムを保護する

  • 行動分析: AI が一般的なユースケースに潜む異常なパターンを見つけ出し、潜在的な脅威や攻撃を示す可能性がある逸脱にフラグを立てます。
  • 堅牢性トレーニング: AI モデルを悪意のある入力にさらして、攻撃に抵抗できるようトレーニングし、システムの耐性を高めます。
  • モデルの監視: モデルを継続的に監視して、トレーニング時の動作と実際の動作に違いがないかチェックすれば、バックドア攻撃や、データ汚染から生じる異常を検出できます。
  • データの検証: AI はトレーニングデータの整合性をリアルタイムで検証して、悪意のあるデータや汚染されたデータを発見し、モデルに影響を与える前に除外できます。

人々を守る

  • ディープフェイク検出: 高度な AI アルゴリズムをトレーニングすれば、動画、音声、画像から人間が見落としがちな微妙なズレを検出して、ディープフェイクを特定できます。
  • リアルタイムのフィッシング検知: AI はメールやその他の形態のコミュニケーションをすばやくスキャンして、フィッシングの兆候を見つけ出すことができます。AI は膨大なフィッシングデータを分析して、フィッシングの洗練された新たな手口をとらえることができます。
  • 適応型脅威インテリジェンス: AI を搭載したサイバーセキュリティシステムでは、AI を悪用したマルウェアの変形戦術に対応できます。このためには、AI が新しいパターンを認識しながら、継続的に学習して進化していく必要があります。
  • エンドユーザー行動分析 (EUBA): AI が普段のユーザープロファイルを分析すれば、通常とは異なる行動をリアルタイムで検知できます。この方法は、侵害された AI システムによってもたらされる潜在的な脅威から保護する場合に役立ちます。

ビジネスミッションを防御する

  • 予測分析: AI は過去のデータのパターンを分析して、将来のセキュリティ脅威を予測できます。ビジネスがこのプロアクティブなアプローチを実践すれば、脅威が顕在化する前に対抗できるため、そのミッションを堅持できます。
  • 自動応答システム: 何らかの脅威を検知した時点で、AI が応答を自動化し、システムの隔離、バックアップの開始、アラートの送信など、ビジネスが適切なアクションを検討して決定できるようにします。脅威が生じた場合は一刻を争うことが多く、自動化によって人間よりも速やかに対応できます。
  • 統合型脅威インテリジェンス: AI は、各システムのさまざまな脅威インテリジェンスソースを、ガイダンスに組み込まれた (有効となる可能性が最大の) アクション可能な推奨事項を統合して、特定の脅威に効率的に対処できます。
  • セマンティック分析: AI はコミュニケーションのコンテキストや意味を理解して、プロンプトインジェクション攻撃や、AI 駆動の意思決定プロセスを操作しようとするその他の試みの微妙な兆候を検知できます。

サイバーセキュリティが AI の機能を活用すれば、AI に対する脅威や、AI による悪意のある攻撃がもたらす無数の脅威を積極的かつ効率的に防御できます。こうした課題は絶えず進化しているものの、AI をサイバーセキュリティに統合すれば、現代のデジタル時代に応じた適応性が高く、堅牢で、動的な防御メカニズムを生み出すことができます。

AI を使ってネットワークを監視している人

今後の道筋を立てる

人工知能とサイバーセキュリティを掛け合わせればパラダイムシフトが起きることについては、サイバーセキュリティのどの専門職も強く同意しています。AI の複雑性と潜在性によってテクノロジーのあり方が見直されるだけでなく、スキルの強化、知識の習得、パフォーマンスへの影響の点で新たな道が切り開かれます。

こうした推移の核にあるのは、AI にはその性能に匹敵するだけの脆弱性が潜んでいるという認識です。サイバーセキュリティの専門職にとっては、次のような広大なチャンスがもたらされることを意味します。

  1. 教育とトレーニング: AI モデルの複雑性が増すにつれ、理解を深める必要性が高まります。AI を中心とするサイバーセキュリティのコースや認定資格が、やがて「望ましいもの」から「不可欠なもの」になることが予想されます。
  2. スキルの増強: 昨日は十分とされたツールや技法では、明日の AI 駆動の脅威に対応できないかもしれません。脅威の検出と分析、インシデントへの自動応答計画、AI をリリース時の倫理的な考慮事項などの分野のスキルを継続的に構築していくことが極めて重要になります。
  3. 影響の拡大: AI が産業に統合されていく中で、サイバーセキュリティの役割がシステムを保護することから、ビジネスの軌道を方向付けることへと拡大されています。適切にセキュリティ保護された AI モデルは、ビジネスの成長を促し、ユーザーの信頼を高め、倫理面の遵守を保証します。

AI が促進する進歩によってもたらされる未来には、適応力とイノベーションが欠かせません。サイバーセキュリティの専門職が継続的な学習に取り組み、スキルを磨き、影響力のある貢献を目指すことで、AI の情勢をナビゲートするだけでなく、その方向性を定めることができます。

まとめ

このモジュールでは、仕事や生活における AI と、AI の倫理面やセキュリティ面への影響について説明しました。また、AI のサイバー攻撃とその防御策についても学習しました。こうした知識を身につけた今、AI のイノベーションを推進すると同時に、その防御を強化することができます!

サイバーセキュリティの各ロールを確認し、セキュリティの専門職の話を聞いてみたい方は、Trailhead の「サイバーセキュリティのキャリアパス」を参照してください。 

リソース

Salesforce ヘルプで Trailhead のフィードバックを共有してください。

Trailhead についての感想をお聞かせください。[Salesforce ヘルプ] サイトから新しいフィードバックフォームにいつでもアクセスできるようになりました。

詳細はこちら フィードバックの共有に進む