Skip to main content

Vorbereiten der Optimierung

Lernziele

Nachdem Sie diese Lektion abgeschlossen haben, sind Sie in der Lage, die folgenden Aufgaben auszuführen:

  • Erläutern der Vorbereitung des Datensets für die Optimierung
  • Beschreiben des Optimierungsprozesses in groben Zügen

Vorbereiten Ihres Datensets

Der erste Schritt besteht darin, das aufgabenspezifische Datenset auf die Optimierung vorzubereiten. Dies kann die Datenbereinigung, Textnormalisierung und Konvertierung der Daten in ein Format beinhalten, das mit den Eingabeanforderungen des LLMs kompatibel ist (mit anderen Worten: Datenkennzeichnung). Es ist wichtig sicherzustellen, dass die Daten für die Aufgabe und den Bereich repräsentativ sind und eine Reihe von Szenarien abdecken, denen das Modell erwartungsgemäß in der Produktion begegnen wird. So machen Sie Ihr Datenset bereit für die Optimierung:

Datenerfassung

Sammeln Sie relevante Daten für den spezifischen Bereich oder die Aufgabe. Dies kann die Erfassung von Benutzerinteraktionen oder die Verwendung domänenspezifischer Daten beinhalten.

Datenbereinigung

Entfernen Sie irrelevante Daten, indem Sie Fehler korrigieren und möglicherweise sensible Informationen anonymisieren.

Aufteilen des Datensets

Unterteilen Sie Ihre Daten in Trainings-, Validierungs- und Testsets. Das Modell wird mit dem Trainingsset trainiert, Hyperparameter werden anhand des Validierungssets optimiert, und die Leistung wird anhand des Testsets bewertet.

Konfigurieren Ihres Modells

Die Auswahl des geeigneten Basismodells und der Optimierungsmethode hängt von der speziellen Aufgabe und den verfügbaren Daten ab. Es stehen verschiedene LLM-Architekturen zur Auswahl, darunter GPT-3.5 Turbo, BERT und RoBERTa, die jeweils ihre eigenen Stärken und Schwächen haben. Auch die Optimierungsmethode kann je nach Aufgabe und Daten variieren, z. B. Wissenstransfer, sequenzielle Optimierung oder aufgabenspezifische Optimierung.

Auswählen des Modells

Berücksichtigen Sie folgende Punkte bei der Auswahl Ihres Basismodells:

  • Passt das Modell zu Ihrer speziellen Aufgabe?
  • Input- und Output-Größe des Modells
  • Größe Ihres Datensets
  • Ist die technische Infrastruktur für die Rechenleistung geeignet, die für die Optimierung benötigt wird?

Auswählen der Architektur

Passen Sie bestimmte Komponenten je nach Aufgabe an, z. B. die letzte Schicht für Klassifizierungsaufgaben. Hinweis: Die Kernarchitektur des Modells bleibt gleich.

Auswahlmöglichkeiten für Hyperparameter

Bestimmen Sie Werte für die Lernrate, die Batchgröße, die Anzahl der Epochen und Regularisierungsparameter. Manchmal ist eine geringere Lernrate besser, da aggressive Aktualisierungen dazu führen können, dass das Modell sein vortrainiertes Wissen vergisst.

Optimieren Ihres Modells

Nachdem das LLM und die Optimierungsmethode ausgewählt wurden, muss das vortrainierte Modell in den Speicher geladen werden. Bei diesem Schritt werden die Gewichtungen des Modells auf der Grundlage der vortrainierten Werte initialisiert, was den Optimierungsprozess beschleunigt und sicherstellt, dass das Modell bereits ein allgemeines Sprachverständnis erlernt hat.

Initialisieren mit vortrainierten Gewichtungen

Beginnen Sie mit den Gewichtungen aus dem vortrainierten Modell. Dies ist echter Wissenstransfer, da Wissen aus dem vorherigen Training genutzt wird.

Adaptives Lernen

In einigen fortgeschrittenen Szenarien können Sie Techniken anwenden, die die Lernrate für verschiedene Schichten anpassen. So könnten beispielsweise frühere Schichten (die allgemeine Merkmale erfassen) mit geringeren Lernraten aktualisiert werden als spätere Schichten.

Regularisierung

Techniken wie Dropout, Weight Decay oder Schichtnormalisierung können entscheidend sein, um eine Überanpassung zu verhindern, insbesondere wenn das Optimierungs-Datenset relativ klein ist.

Überwachen und Bewerten Ihres Modells

Dieser Schritt beinhaltet das Training des vortrainierten LLMs mit dem aufgabenspezifischen Datenset. Beim Trainingsprozess werden die Gewichtungen und Parameter des Modells optimiert, um die Verlustfunktion zu minimieren und die Leistung für die Aufgabe zu verbessern. Beim Optimierungsprozess können mehrere Trainingsrunden mit dem Trainingsdatenset, die Validierung auf Grundlage des Validierungsdatensets und die Optimierung der Hyperparameter notwendig sein, um die Leistung des Modells zu verbessern.

Verfolgen von Verlusten und Metriken

Überwachen Sie während des Trainings kontinuierlich den Verlust in Ihren Trainings- und Validierungsdatensets. Dies hilft beim Erkennen von Überanpassung oder Problemen beim Training.

Vorzeitiger Abbruch

Brechen Sie das Training ab, wenn sich die Leistung bei Verwendung des Validierungsdatensets zu verschlechtern beginnt (auch wenn sich die Leistung mit dem Trainingsset verbessert), da dies ein Zeichen für Überanpassung ist. So verhindern Sie, dass das Modell zu stark an die Trainingsdaten angepasst wird.

Bewertungsmetriken

Verwenden Sie geeignete Metriken (wie z. B. Genauigkeit, F1-Score, BLEU-Score), um die Leistung des Modells auf der Grundlage des Testdatensets zu beurteilen. Die verwendeten Metriken hängen von der jeweiligen Aufgabe ab, z. B. Klassifizierung, Regression, Generierung usw.

Anpassungen nach der Optimierung

Nach Abschluss der Optimierung muss die Leistung des Modells anhand des Testdatensets bewertet werden. Mit diesem Schritt wird sichergestellt, dass das Modell gut auf neue Daten verallgemeinert und bei der spezifischen Aufgabe gute Ergebnisse liefert. Zu den üblichen Bewertungsmetriken gehören Richtigkeit, Genauigkeit und Erinnerung.

Kalibrierung

Passen Sie die Ergebnisse des Modells an, damit sie die tatsächlichen Wahrscheinlichkeiten besser widerspiegeln. Manchmal ist ein optimiertes Modell unter Umständen zu selbstbewusst oder zu wenig selbstbewusst bei seinen Vorhersagen.

Feedbackschleife

Richten Sie ein System ein, bei dem Endnutzer Feedback zu den Modellergebnissen geben können. Dieses Feedback kann für weitere Optimierungsrunden genutzt werden, um das Modell kontinuierlich zu verbessern.

Bereitstellen Ihres Modells

Nachdem das optimierte Modell bewertet wurde, kann es in Produktionsumgebungen eingesetzt werden. Der Bereitstellungsprozess kann die Integration des Modells in ein größeres System, die Einrichtung der erforderlichen Infrastruktur und die Überwachung der Modellleistung in realen Szenarien umfassen.

Modellgröße

Überlegen Sie, ob Sie nach der Optimierung eine Modelldestillation oder ein Modell-Pruning durchführen, um das Modell zu verkleinern, ohne die Leistung wesentlich zu beeinträchtigen. Dies kann sich je nach dem Bereitstellungsort Ihres Modells, wie z. B. auf Edge-Geräten, Webservern und so weiter, ändern.

Zusammenfassung

Das Konzept der Optimierung klingt vielleicht einfach, doch in der Praxis ist dazu eine Reihe sorgfältig durchdachter Schritte und Entscheidungen erforderlich. Jede Phase, von der Datenvorbereitung bis zur Bereitstellung, kann die Effektivität und Effizienz des Modells im angestrebten Bereich bzw. bei der angestrebten Aufgabe erheblich beeinflussen.

Teilen Sie Ihr Trailhead-Feedback über die Salesforce-Hilfe.

Wir würden uns sehr freuen, von Ihren Erfahrungen mit Trailhead zu hören: Sie können jetzt jederzeit über die Salesforce-Hilfe auf das neue Feedback-Formular zugreifen.

Weitere Infos Weiter zu "Feedback teilen"