Skip to main content
Besuchen Sie uns auf der TDX in San Francisco oder bei Salesforce+ vom 5. bis 6. März, um die Entwicklerkonferenz für die Ära der AI-Agenten zu erleben. Jetzt registrieren.

Das Technologie-Ökosystem der generativen KI

Lernziele

Nachdem Sie diese Lektion abgeschlossen haben, sind Sie in der Lage, die folgenden Aufgaben auszuführen:

  • Nennen wichtiger Faktoren, die zur schnellen Entwicklung generativer KI beitragen
  • Beschreiben der Arten von Technologie im Technologiestapel von generativer KI
  • Beschreiben häufiger Bedenken, die Unternehmen im Zusammenhang mit generativer KI haben

Turboantrieb für das Training generativer KI

Die generative KI hat in scheinbar sehr kurzer Zeit eine Menge an Fähigkeiten dazu gewonnen. Die unglaublich schnellen Fortschritte sind im Wesentlichen auf drei wichtige Faktoren zurückzuführen. Der erste ist die Verfügbarkeit riesiger Mengen von Trainingsdaten. Wie bereits erwähnt, sind die mehr als eine Milliarde Webseiten im Internet eine hervorragende Quelle für geschriebenen Text. Aber Daten sind nur dann gut, wenn man die Möglichkeit hat, sie zu nutzen. Hier kommt der zweite wichtige Faktor ins Spiel: besseres Training.

Wie in Künstliche Intelligenz – Grundlagen dargestellt, entwerfen Wissenschaftler neuronale Netze, die komplexe mathematische Formeln nutzen, um KI-Modelle zu trainieren. Die Architektur neuronaler Netze ist ein Forschungsgebiet, das sich ständig weiterentwickelt. Im Jahr 2017 veröffentlichten Wissenschaftler bei Google eine bahnbrechende Arbeit über das Trainieren großer Sprachmodelle. Sie schlugen eine neue KI-Architektur, Transformer genannt, vor. Wie Sie sich vorstellen können, sind die Details dieser Arbeit ziemlich kompliziert. Stark vereinfacht gesagt, war die neue Architektur in der Lage, wichtige Beziehungen zwischen Wörtern zu erkennen, unabhängig davon, wie weit sie innerhalb eines Textblocks voneinander entfernt waren. Sie konnte diese Verbindung auch nach der Verarbeitung einer Vielzahl von Wörtern aufrechterhalten.

Die neue Transformer-Architektur bringt uns zum dritten wichtigen Faktor für den raschen Fortschritt der generativen KI: die Rechenleistung. Für die mathematischen Berechnungen beim Trainieren von KI-Modellen wird eine Menge Rechenleistung benötigt. In der Vergangenheit sah das Design von KI-Modellen vor, dass eine Reihe von Berechnungen nacheinander ausgeführt werden mussten. Die Transformer-Architektur ist anders – sie basiert auf vielen separaten, gleichzeitigen Berechnungen.

So kann ein Computerprozessor die erste Berechnung durchführen, während ein anderer Prozessor gleichzeitig die zweite Berechnung vornimmt. Dieses parallele Rechnen verkürzt die zum Trainieren eines Transformers notwendige Zeit erheblich. Dazu kommt, dass in den letzten Jahren Prozessoren, die parallel rechnen können, sehr viel leistungsfähiger und zahlreicher geworden sind.

Die drei Faktoren Daten, Architektur und Rechenleistung haben zusammen die richtigen Bedingungen geschaffen, um sehr leistungsfähige große Sprachmodelle zu trainieren. Eines der größten LLMs ist das Sprachmodell GPT (kurz für Generative Pre-trained Transformer). Es handelt sich dabei um ein bereits trainiertes Modell, das zum Generieren textbezogener Inhalte verwendet werden kann.

Entstehendes Ökosystem

Schon jetzt gibt es Hunderte von Websites im Internet, auf denen Sie generative KI nutzen können. Wenn Sie eine dieser Seiten besuchen, befinden Sie sich an der Spitze eines Eisbergs aus Technologien. Und diese Technologien können aus vielen verschiedenen Quellen stammen. Sehen Sie sich den Technologiestapel an, der es möglich macht, fantastische generative KI-Erlebnisse für die breite Masse zu bieten.

Dieses florierende Ökosystem von Technologieunternehmen ist gerade in den letzten Jahren unglaublich rasant gewachsen. Einige Unternehmen werden sich auf ein bestimmtes Segment spezialisieren. Ein Unternehmen, das Basismodelle anbietet, könnte sich beispielsweise auf das Training neuer, leistungsfähigerer Modelle konzentrieren, um sich von der Konkurrenz abzuheben. Andere Unternehmen werden Lösungen entwickeln, die mehrere Schichten des Technologiestapels umfassen, und werden ihr eigenes LLM für die Verwendung in ihrer Anwendung erstellen.

Viele Unternehmen fangen gerade erst an zu verstehen, welche Möglichkeiten ihnen KI eröffnet. Angesichts der beispiellosen Nachfrage nach KI-Technologien gibt es für Unternehmen unzählige Möglichkeiten, sich in mehreren Schichten des KI-Technologiestapels zu profilieren.

Häufige Bedenken im Zusammenhang mit generativer KI

Die generative KI wird unsere Interaktion mit Computern in vielerlei Hinsicht verändern. Bei jeder bahnbrechenden Technologie ist es wichtig zu verstehen, wo ihre Grenzen liegen und ob man Bedenken haben sollte. Hier sind einige der Hauptbedenken im Zusammenhang mit generativer KI:

Halluzinationen:

Wie Sie ja bereits wissen, ist generative KI eigentlich eine andere Form der Vorhersage, und manchmal sind Vorhersagen falsch. Vorhersagen der generativen KI, die von einer erwarteten, auf Fakten basierenden Antwort abweichen, werden als Halluzinationen bezeichnet. Sie können aus verschiedenen Gründen auftreten, z. B. wenn die Trainingsdaten unvollständig oder verzerrt waren oder das Modell nicht gut konzipiert wurde. Nehmen Sie sich also bei jedem KI-generierten Text die Zeit zu prüfen, ob der Inhalt sachlich korrekt ist.

Datensicherheit

Unternehmen können proprietäre Daten an zwei Stellen im Lebenszyklus der generativen KI weitergeben. Erstens bei der Feinabstimmung eines Basismodells. Zweitens, wenn das Modell tatsächlich zur Verarbeitung einer Anfrage mit sensiblen Daten verwendet wird. Unternehmen, die KI-Dienste anbieten, müssen nachweisen, dass Vertrauen oberstes Gebot ist und sämtliche Daten stets geschützt werden.

Plagiat:

LLMs und KI-Modelle für die Bildgenerierung werden in der Regel mit öffentlich verfügbaren Daten trainiert. Es besteht die Möglichkeit, dass das Modell einen Stil erlernt und diesen Stil nachahmt. Unternehmen, die Basismodelle entwickeln, müssen Maßnahmen ergreifen, um Variationen in die generierten Inhalte zu bringen. Möglicherweise müssen sie auch die Trainingsdaten kuratieren, um Datenvorlagen auf Wunsch der Inhaltsersteller zu entfernen.

Benutzer-Spoofing:

Es ist einfacher denn je, ein glaubwürdiges Online-Profil mit einem KI-generierten Bild zu erstellen. Solche Fake-Benutzer können mit echten Benutzern (und anderen Fake-Benutzern) sehr realistisch interagieren. Das macht es für Unternehmen schwierig, Bot-Netzwerke zu identifizieren, die ihre eigenen Bot-Inhalte fördern.

Nachhaltigkeit

Die zum Trainieren und Betreiben von AI-Modellen benötigte Rechenleistung ist immens und kann CO2-Emissionen, Wasserverschmutzung und andere Umweltauswirkungen verursachen. Je größer die Modelle werden, desto größer wird auch ihr CO2-Fußabdruck. Aus diesem Grund arbeiten wir daran, die Nachhaltigkeit von AI sicherzustellen, indem wir effiziente AI-Modelle entwickeln, eine Vorreiterrolle bei Transparenz einnehmen und den Energiesektor durch erneuerbare Energien und eine modernisierte Netzinfrastruktur dekarbonisieren.

Zusammenfassung

Generative KI kann Unternehmen und auch Privatpersonen bei allen möglichen sprachbasierten Aufgaben unterstützen. Das Zusammenspiel von großen Datenmengen, einer cleveren KI-Architektur und riesiger Rechenleistung hat die Entwicklung der generativen KI und das Wachstum des KI-Ökosystems auf Hochtouren gebracht.

Ressourcen

Teilen Sie Ihr Trailhead-Feedback über die Salesforce-Hilfe.

Wir würden uns sehr freuen, von Ihren Erfahrungen mit Trailhead zu hören: Sie können jetzt jederzeit über die Salesforce-Hilfe auf das neue Feedback-Formular zugreifen.

Weitere Infos Weiter zu "Feedback teilen"