Das Technologie-Ökosystem der generativen KI
Lernziele
Nachdem Sie diese Lektion abgeschlossen haben, sind Sie in der Lage, die folgenden Aufgaben auszuführen:
- Nennen wichtiger Faktoren, die zur schnellen Entwicklung generativer KI beitragen
- Beschreiben der Arten von Technologie im Technologiestapel von generativer KI
- Beschreiben häufiger Bedenken, die Unternehmen im Zusammenhang mit generativer KI haben
Turboantrieb für das Training generativer KI
Die generative KI hat in scheinbar sehr kurzer Zeit eine Menge an Fähigkeiten dazu gewonnen. Die unglaublich schnellen Fortschritte sind im Wesentlichen auf drei wichtige Faktoren zurückzuführen. Der erste ist die Verfügbarkeit riesiger Mengen von Trainingsdaten. Wie bereits erwähnt, sind die mehr als eine Milliarde Webseiten im Internet eine hervorragende Quelle für geschriebenen Text. Aber Daten sind nur dann gut, wenn man die Möglichkeit hat, sie zu nutzen. Hier kommt der zweite wichtige Faktor ins Spiel: besseres Training.
Wie in Künstliche Intelligenz – Grundlagen dargestellt, entwerfen Wissenschaftler neuronale Netze, die komplexe mathematische Formeln nutzen, um KI-Modelle zu trainieren. Die Architektur neuronaler Netze ist ein Forschungsgebiet, das sich ständig weiterentwickelt. Im Jahr 2017 veröffentlichten Wissenschaftler bei Google eine bahnbrechende Arbeit über das Trainieren großer Sprachmodelle. Sie schlugen eine neue KI-Architektur, Transformer genannt, vor. Wie Sie sich vorstellen können, sind die Details dieser Arbeit ziemlich kompliziert. Stark vereinfacht gesagt, war die neue Architektur in der Lage, wichtige Beziehungen zwischen Wörtern zu erkennen, unabhängig davon, wie weit sie innerhalb eines Textblocks voneinander entfernt waren. Sie konnte diese Verbindung auch nach der Verarbeitung einer Vielzahl von Wörtern aufrechterhalten.
Die neue Transformer-Architektur bringt uns zum dritten wichtigen Faktor für den raschen Fortschritt der generativen KI: die Rechenleistung. Für die mathematischen Berechnungen beim Trainieren von KI-Modellen wird eine Menge Rechenleistung benötigt. In der Vergangenheit sah das Design von KI-Modellen vor, dass eine Reihe von Berechnungen nacheinander ausgeführt werden mussten. Die Transformer-Architektur ist anders – sie basiert auf vielen separaten, gleichzeitigen Berechnungen.
So kann ein Computerprozessor die erste Berechnung durchführen, während ein anderer Prozessor gleichzeitig die zweite Berechnung vornimmt. Dieses parallele Rechnen verkürzt die zum Trainieren eines Transformers notwendige Zeit erheblich. Dazu kommt, dass in den letzten Jahren Prozessoren, die parallel rechnen können, sehr viel leistungsfähiger und zahlreicher geworden sind.
Die drei Faktoren Daten, Architektur und Rechenleistung haben zusammen die richtigen Bedingungen geschaffen, um sehr leistungsfähige große Sprachmodelle zu trainieren. Eines der größten LLMs ist das Sprachmodell GPT (kurz für Generative Pre-trained Transformer). Es handelt sich dabei um ein bereits trainiertes Modell, das zum Generieren textbezogener Inhalte verwendet werden kann.
Entstehendes Ökosystem
Schon jetzt gibt es Hunderte von Websites im Internet, auf denen Sie generative KI nutzen können. Wenn Sie eine dieser Seiten besuchen, befinden Sie sich an der Spitze eines Eisbergs aus Technologien. Und diese Technologien können aus vielen verschiedenen Quellen stammen. Sehen wir uns den Technologiestapel genauer an, der es möglich macht, fantastische generative KI-Erlebnisse für die breite Masse zu bieten.
- Ganz unten im Eisberg befinden sich die Anbieter von Rechenhardware. Das Training eines LLMs kann eine unglaubliche Menge an Rechenleistung erfordern, selbst bei einem Transformer. Auch bei der tatsächlichen Modellnutzung nach dem Training ist für die Verarbeitung von Anfragen Rechenleistung notwendig. Technisch gesehen können Sie KI-Modelle auf jeder beliebigen Rechenhardware trainieren, ideal sind jedoch Prozessoren, die sich durch ihre Leistungsfähigkeit bei parallelem Rechnen auszeichnen. Der derzeit größte Name im Bereich der KI-Rechenleistung ist Nvidia.
- In der nächsten Schicht des Stapels folgen die Cloud-Plattformen, die es Entwicklern ermöglichen, Rechenhardware in einem Cloud-Bereitstellungsmodell zu nutzen. Entwickler können Rechenzeit für ein bestimmtes Projekt mieten, und die Plattformen können Anfragen für Rechenzeit effizient über ein Verbundsystem verteilen. Google, Amazon, Microsoft und Oracle sind die wichtigsten Technologieanbieter in diesem Bereich.
- KI-Modelle, einschließlich LLMs, bilden die nächste Schicht. Diese Modelle werden mithilfe wissenschaftlicher Verfahren sorgfältig ausgearbeitet und mit einer Kombination aus öffentlichen und privat kuratierten Daten trainiert. Entwickler können sich über eine Anwendungsprogrammierschnittstelle (API) mit LLMs verbinden und so die volle Leistung von NLP in ihren eigenen Anwendungen nutzen. Das trainierte und verfügbare KI-Modell wird als Basismodell bezeichnet. Da der Zugriff auf diese Modelle über eine API erfolgt, können Entwickler ganz nach Bedarf problemlos von einem Basismodell zu einem anderen wechseln. Beispiele für Basismodelle sind GPT4, Claude, Stable Diffusion und LLaMA.
- Die nächste Schicht bildet die Infrastrukturoptimierung, bei der es um die Bereitstellung von Tools und Diensten geht, die ein effizienteres und qualitativ hochwertigeres Modelltraining ermöglichen. Ein Dienst könnte zum Beispiel perfekt kuratierte Datensets für das Training anbieten. Ein anderer könnte Analysen bereitstellen, um die Genauigkeit der generierten Inhalte zu prüfen. Dies ist auch der Punkt, an dem Basismodelle mit spezialisierten, proprietären Daten feinabgestimmt werden können, um die Anforderungen eines bestimmten Unternehmens besser zu erfüllen. In diesem Bereich des KI-Ökosystems tummeln sich viele Unternehmen und bieten eine Vielzahl von Optimierungsdiensten an.
- Jetzt sind wir schließlich wieder an der Spitze des Eisbergs angelangt: den Anwendungen. Entwickler aller Art können Optimierungsdienste und Basismodelle für ihre Anwendungen nutzen. Es gibt bereits LLM-gestützte eigenständige Tools sowie Plug-Ins für Mainstream-Anwendungen.
Dieses florierende Ökosystem von Technologieunternehmen ist gerade in den letzten Jahren unglaublich rasant gewachsen. Einige Unternehmen werden sich auf ein bestimmtes Segment spezialisieren. Ein Unternehmen, das Basismodelle anbietet, könnte sich beispielsweise auf das Training neuer, leistungsfähigerer Modelle konzentrieren, um sich von der Konkurrenz abzuheben. Andere Unternehmen werden Lösungen entwickeln, die mehrere Schichten des Technologiestapels umfassen, und werden ihr eigenes LLM für die Verwendung in ihrer Anwendung erstellen.
Viele Unternehmen fangen gerade erst an zu verstehen, welche Möglichkeiten ihnen KI eröffnet. Angesichts der beispiellosen Nachfrage nach KI-Technologien gibt es für Unternehmen unzählige Möglichkeiten, sich in mehreren Schichten des KI-Technologiestapels zu profilieren.
Häufige Bedenken im Zusammenhang mit generativer KI
Die generative KI wird unsere Interaktion mit Computern in vielerlei Hinsicht verändern. Bei jeder bahnbrechenden Technologie ist es wichtig zu verstehen, wo ihre Grenzen liegen und ob man Bedenken haben sollte. Hier sind einige der Hauptbedenken im Zusammenhang mit generativer KI:
Halluzinationen: Wie Sie ja bereits wissen, ist generative KI eigentlich eine andere Form der Vorhersage, und manchmal sind Vorhersagen falsch. Vorhersagen der generativen KI, die von einer erwarteten, auf Fakten basierenden Antwort abweichen, werden als Halluzinationen bezeichnet. Sie können aus verschiedenen Gründen auftreten, z. B. wenn die Trainingsdaten unvollständig oder verzerrt waren oder das Modell nicht gut konzipiert wurde. Nehmen Sie sich also bei jedem KI-generierten Text die Zeit zu prüfen, ob der Inhalt sachlich korrekt ist.
Datensicherheit: Unternehmen können proprietäre Daten an zwei Stellen im Lebenszyklus der generativen KI weitergeben. Erstens bei der Feinabstimmung eines Basismodells. Zweitens, wenn das Modell tatsächlich zur Verarbeitung einer Anfrage mit sensiblen Daten verwendet wird. Unternehmen, die KI-Dienste anbieten, müssen nachweisen, dass Vertrauen oberstes Gebot ist und sämtliche Daten stets geschützt werden.
Plagiat: LLMs und KI-Modelle für die Bildgenerierung werden in der Regel mit öffentlich verfügbaren Daten trainiert. Es besteht die Möglichkeit, dass das Modell einen Stil erlernt und diesen Stil nachahmt. Unternehmen, die Basismodelle entwickeln, müssen Maßnahmen ergreifen, um Variationen in die generierten Inhalte zu bringen. Möglicherweise müssen sie auch die Trainingsdaten kuratieren, um Datenvorlagen auf Wunsch der Inhaltsersteller zu entfernen.
Benutzer-Spoofing: Es ist einfacher denn je, ein glaubwürdiges Online-Profil mit einem KI-generierten Bild zu erstellen. Solche Fake-Benutzer können mit echten Benutzern (und anderen Fake-Benutzern) sehr realistisch interagieren. Das macht es für Unternehmen schwierig, Bot-Netzwerke zu identifizieren, die ihre eigenen Bot-Inhalte fördern.
Nachhaltigkeit: Die zum Trainieren von KI-Modellen benötigte Rechenleistung ist immens, und die Prozessoren, die die Berechnungen durchführen, haben einen hohen Strombedarf. Je größer die Modelle werden, desto größer wird auch ihr CO2-Fußabdruck. Sobald ein Modell trainiert ist, benötigt es glücklicherweise nur relativ wenig Energie für die Verarbeitung von Anfragen. Außerdem wächst die Nutzung erneuerbarer Energien fast so schnell wie die Einführung von KI!
Zusammenfassung
Generative KI kann Unternehmen und auch Privatpersonen bei allen möglichen sprachbasierten Aufgaben unterstützen. Das Zusammenspiel von großen Datenmengen, einer cleveren KI-Architektur und riesiger Rechenleistung hat die Entwicklung der generativen KI und das Wachstum des KI-Ökosystems auf Hochtouren gebracht.
Ressourcen
-
Trailhead: Einstein und generative KI: Schnelleinstieg
-
Trailhead: Verantwortungsbewusste Entwicklung künstlicher Intelligenz
-
Hilfe: Einstein Generative AI