Skip to main content

ファインチューニングを使用してパフォーマンスを向上させる

学習の目的

この単元を完了すると、次のことができるようになります。

  • ファインチューニングのメリットを挙げる。
  • ファインチューニングの課題について説明する。
  • ファインチューニングを使用する状況について説明する。

ファインチューニングする理由

特定のタスクにおいて、そのタスク向けにファインチューニングされた小規模のモデルの方が、大規模で高価なモデルよりもパフォーマンスが優れていることがあります。また、ファインチューニングされたモデルによって元のモデルのパフォーマンスが向上することもあります。ファインチューニングの使用には、次のような利点があります。

タスク固有の専門知識が蓄積される

専門用語を使用できる

LLM は事前トレーニングで広範な語彙を習得しています。ただし、専門的なタスクの多くでは独自の用語や業界用語が使用されます。ファインチューニングではそうした用語を取り込んで強化し、モデルが専門用語を適切に使用できるようにします。

たとえば、医療記録に基づいて疾病を診断するための LLM があるとします。医療データでファインチューニングされているこの LLM は、必要な医療知識がないベースモデルよりはるかに優れたパフォーマンスを発揮します。ですから、専門的な分野や機密データを処理する場合、あるいは一般的なトレーニングデータでは不十分な独自の情報に対処する場合には、ファインチューニングが不可欠になります。

コンテキストに応じた理解を可能にする

一般的なモデルの場合は、特定の主題の詳細情報が不足していることがあります。タスク固有のコンテンツでファインチューニングすれば、主題に対するモデルの理解が深まり、ニュアンスをとらえられるようになるため、洞察力に富んだ正確な応答が示されます。

コスト効率

計算処理を節減する

GPT-4 規模のモデルをゼロからトレーニングしようとすれば、膨大な計算リソースと時間を要します。トレーニング済みモデルを利用してファインチューニングを行えば、事前トレーニングの段階で実施された計算の大半を効率的に再利用して、時間やリソースを節約できます。

データ効率を向上させる

通常、ファインチューニングで必要なデータセットは、ゼロからトレーニングする場合よりも少量です。特に膨大なデータを収集することが困難あるいは高額になる特殊なタスクにとっては、この点が極めて重要です。

カスタマイズと柔軟性

特定の用途に合わせる

どのようなビジネスや用途にも固有の要件があるものと思われます。ファインチューニングによってカスタマイズが可能になり、たとえば、パーソナライズされたマーケティングコンテンツの生成、あるいはプラットフォームでユーザーが作成したコンテンツの理解など、特定のユースケースにモデルを適合させることができます。

データの機密性を確保し、コンプライアンスを推進する

機密データを扱うビジネスや、厳格な規制環境で事業を運営するビジネスは、プライバシーに関する要件の尊重、コンテンツガイドラインの遵守、業界規制に準拠した適切な応答の生成などを徹底するために、モデルをファインチューニングする必要のある場合があります。

語調やスタイルを調整する

モデルが特定の語調 (丁重、カジュアル、共感的など) で対応するようにしたい場合は、その目的に応じた語調のデータでファインチューニングします。

ユーザーエクスペリエンスを向上させる

次のようなアプリケーションのモデルがファインチューニングされている場合には、正確で関連性が高く、コンテキストに応じた応答が生成されるため、ユーザーエクスペリエンスが向上し、顧客満足度が高まります。

  • チャットボット
  • バーチャルアシスタント
  • カスタマーサポートシステム

倫理面と安全面の考慮事項

バイアスを軽減する

モデルの一般的な動作や出力にバイアスがかかっている、または問題があることが判明した場合、厳選したデータセットでファインチューニングすれば、こうしたバイアスを軽減できます。

不要な出力を除外する

子ども向けのアプリケーションなど、特定の出力が望ましくない場合は、ファインチューニングでモデルの出力を常に安全な範囲内に絞り込むことができます。

機密データを除外する

データセットを作成するときは、機密データが含まれないように注意します。機密データを含めたほうが良い結果が得られることもありますが、データが誤った方法や状況で使用されるおそれがあるためです。

継続的な改善

フィードバックループを繰り返す

モデルをリリースしたら、ユーザーとモデルのやり取りを (プライバシーに関する規範を遵守したうえで) 収集し、フィードバックとして使用できます。こうしたフィードバックに基づいて定期的にファインチューニングを行えば、モデルが常にユーザーのニーズに適したものになり、継続的に改善されていきます。

競争上の優位性

差別化を図る

市場の複数の企業がよく似たベースモデルを使用している可能性がある場合、ファインチューニングを実施すれば、そのモデルから特定の顧客やタスクに適した独自のバリエーションを作成して、差別化を図ることができます。

ファインチューニングを使用する状況

LLM をファインチューニングするかどうかの判断は、具体的なユースケース、付随するコスト、その分野の専門性の程度など、複数の要因に左右されます。

質問への回答やドキュメントの要約といった一般的なタスクについては、GPT-3.5 など API 経由で簡単に利用できるトレーニング済みモデルで満足のいく結果を得ることができます。こうした API を活用することは、コスト効率が高い解決策です。

他方、大量のデータ処理を伴うタスクや特定のレベルの専門知識を要するタスクについては、ファインチューニングが役立つものと思われます。ファインチューニングによってモデルが強化され、特定分野の専門知識を踏まえてテキストが生成されるため、出力の質が大幅に向上します。

課題と考慮事項

ファインチューニングがそれほど優れたものであるならば、ありとあらゆる専門分野ですべての LLM がファインチューニングされないのはなぜでしょうか? その答えは、ファインチューニングのプロセスや基準にさまざまな要素が関与するためです。検討すべき短所として、次の点が挙げられます。

過学習

ファインチューニングの重大な懸念は、モデルが小規模のデータセットで過度に忠実にトレーニングされることです。そうなると、そのデータセットでは極めて優れたパフォーマンスを発揮するかもしれませんが、未知のデータではパフォーマンスが低下するおそれがあります。

破滅的忘却

ファインチューニングが不適切な場合、モデルが以前の一般的な知識を「忘れ去り」、専門分野以外で役に立たなくなることがあります。

データセットのバイアス

ファインチューニングのデータセットにバイアスがかかっていると、そのバイアスがモデルに反映される可能性があります。その結果、モデルが不正確性やバイアスをそのまま学習することになります。バイアスの原因には、選択、サンプリング、ラベル、歴史的バイアスなど、さまざまなものが考えられます。

  • 選択バイアス: ファインチューニング用に選択したデータが、問題空間の多様性を適切に反映していない。
  • サンプリングバイアス: 対象の母集団の一部の集団が他の集団よりも選ばれる確率が低くなる方法でデータが収集されている。
  • ラベルバイアス: ファインチューニングのデータセットに付けられた注釈やラベルが、主観的な意見やステレオタイプの影響を受けている。
  • 歴史的バイアス: 本質的に不公平な、あるいは問題のある歴史的または社会的な不平等がデータに反映されている。

ハイパーパラメーターの選択

ファインチューニング時に使用するハイパーパラメーターの設定が不適切な場合、モデルのパフォーマンスが損なわれたり、トレーニング不能になったりすることがあります。

まとめ

ファインチューニングは、特定のタスクでモデルが「機能」すれば良いというものではありません。パフォーマンスを最適化し、高い関連性を確保し、コスト効率を達成し、機能面と倫理面の両方を満たす出力になるよう調整することを目的とします。ファインチューニングを検討するときは、以下の点を考慮します。

  • タスクに専門知識が必要か?
  • ファインチューニングに使用する専門的なデータセットがあるか?
  • リソース、時間、計算能力があるか?

リソース

Salesforce ヘルプで Trailhead のフィードバックを共有してください。

Trailhead についての感想をお聞かせください。[Salesforce ヘルプ] サイトから新しいフィードバックフォームにいつでもアクセスできるようになりました。

詳細はこちら フィードバックの共有に進む