Upgraden von KI mit realen Daten
Lernziele
Nachdem Sie diese Lektion abgeschlossen haben, sind Sie in der Lage, die folgenden Aufgaben auszuführen:
- Beschreiben der Vorteile der Agentforce-Datenbibliothek
- Definieren von vier Schlüsselkonzepten im Zusammenhang mit KI-Datentransformation und -Organisation
- Erläutern, wie die Setup- und Laufzeitprozesse der Agentforce-Datenbibliothek funktionieren.
Bevor Sie beginnen
Bevor Sie mit diesem Modul starten, sollten Sie diese empfohlenen Inhalte durcharbeiten.
Warum sollte KI in Daten verankert sein?
Ihre Daten spielen eine entscheidende Rolle dabei, dass KI-Systeme präzise und effektiv funktionieren. Wenn Sie einem Kunden eine falsche Antwort geben, könnte ihn dies von künftigen Einkäufen abhalten. Wenn Sie Kundendienstmitarbeitern falsche Informationen an die Hand geben, werden sie Kunden möglicherweise eher frustrieren als unterstützen. Wenn Sie Ihren Vertriebsmitarbeitern veraltete Empfehlungen geben, verfehlen sie vielleicht ihre Umsatzziele, und wertvolle geschäftliche Chancen bleiben ungenutzt.
Daten sind zwar das Rückgrat jedes erfolgreichen KI-Systems, doch KI-Modelle sind von Natur aus Generalisten: Sie werden anhand riesiger Datensätze trainiert, die ihnen eine breite Wissensbasis vermitteln. Aufgrund dieser breiten Wissensbasis verfügen sie nicht über die erforderlichen Fachkenntnisse, um bestimmte Aufgaben auszuführen oder technische Fragen zu Ihren individuellen Anwendungsfällen zu beantworten.
Die Verankerung in realen Daten erweitert den Einsatzbereich von KI-Modellen über ihre statischen Trainingsdatensätze hinaus. Wenn Sie Ihr KI-Modell auf verifizierte Informationsquellen wie Ihre Salesforce-Wissensdatenbank, Ihre hochgeladenen Dateien oder Websites stützen, kann das LLM präzisere Antworten auf Kundenanfragen geben, Agenten bessere Antworten vorschlagen, ausgefeilte Suchzusammenfassungen bereitstellen und vieles mehr.

Die Herausforderung von Unternehmensdaten
Die meisten Unternehmen speichern ihre Wissensdatenbanken in unstrukturierten Formaten wie Sammlungen von Videos, Bildern, Dokumenten, E-Mails, Sensordaten, Social-Media-Beiträgen, Audiodateien und vielem mehr – Formate, die sich nicht ohne Weiteres in Tabellenkalkulationen oder Datenbanken einfügen lassen. Diese Daten machen fast 90 % der Unternehmensdaten aus und sind schwieriger zu durchsuchen, enthalten jedoch wertvolle Erkenntnisse wie Kundenfeedback, Wahrnehmungen, Meinungen, Tonfall und Stimmung. Also wie können Sie das Potenzial dieser Daten nutzbar machen?
Hier kommt die Agentforce-Datenbibliothek ins Spiel, ein leistungsstarkes Tool, mit dem Sie KI auf Ihre realen Daten stützen können. Mit der Agentforce-Datenbibliothek können Sie Ihre Wissensdatenbank ganz einfach mit den KI-Funktionen von Salesforce verbinden und so sicherstellen, dass Sie aktuelle, KI-generierte Inhalte erhalten, die auf Ihr Unternehmen und Ihre Anwendungsfälle zugeschnitten sind. Wenn Sie eine Agentforce-Datenbibliothek einrichten, erhalten Sie die Tools, die Sie benötigen, um große Mengen unstrukturierter oder halbstrukturierter Daten in besser nutzbare, durchsuchbare Inhalte umzuwandeln. Sehen wir uns das genauer an.
Umwandeln von Daten für die effektive Nutzung mit großen Sprachmodellen (LLMs)
Agentforce-Datenbibliotheken machen es einfach, Agenten und große Sprachmodelle (LLMs) mit Ihren unstrukturierten Daten zu verknüpfen, indem sie mehrere Konfigurationsschritte in Data 360 und dem Prompt-Generator automatisieren. Dazu gehören das Übertragen von Datenströmen an Data 360, das Zuordnen von Datenobjekten und das Erstellen eines Suchindexes und eines Abrufprogramms. Im Ergebnis arbeiten Ihre KI-Tools so stets mit den aktuellsten und relevantesten Informationen.
Bevor Sie die einfachen Schritte zum Einrichten einer Datenbibliothek lernen, wollen wir uns einige wichtige Konzepte ansehen: Kontextbildung, Segmentierung, Indizierung und Abrufprogramm.
Kontextbildung
Kontextbildung bedeutet, dass Sie einem Prompt domänenspezifisches Wissen oder Kundeninformationen hinzufügen, um dem LLM den Kontext zu geben, den es benötigt, um präziser auf eine Frage oder Aufgabe zu antworten. Wie bereits erwähnt, können Ihre Quellen für die Kontextbildung Wissensartikel, hochgeladene Dateien, Websites, Gesprächsprotokolle und vieles mehr sein. Allerdings kann das Durchsuchen langer und komplexer Dokumente zeitaufwändig und ressourcenintensiv sein, und LLMs haben eine maximale Token- oder Wortgrenze für die Textmenge, die sie in einem Durchgang verarbeiten können.
Segmentierung und Indizierung
Zum Beheben dieses Problems werden Datenquellen in kleinere Einheiten aufgeteilt, die als Segmente (chunks) bezeichnet werden. Anschließend durchsuchen wir die Segmente und geben nur die relevantesten Informationen an das LLM zurück, damit es diese berücksichtigen kann.

Nachdem die Daten in Segmente aufgeteilt sind, werden sie organisiert und in einem Suchindex kategorisiert. Das Speichern von Informationen in einem organisierten Suchindex erleichtert und beschleunigt das Abrufen bestimmter Daten, wenn diese benötigt werden. Wenn Daten auf diese Weise in Segmente aufgeteilt und organisiert werden, werden Suchvorgänge effizienter, die Relevanz der Ergebnisse verbessert sich und es können sehr große Datensätze verarbeitet werden.
Stellen Sie sich einen großen Online-Shop mit Millionen Produkten vor. Ein gut organisierter Shop-Katalog oder eine gut strukturierte Website-Taxonomie ermöglicht es Kunden, die gesuchten Produkte schnell über Kategorien wie Name, Typ, Marke oder sogar bestimmte Merkmale zu finden. Daten in kleinere Teile aufzuteilen und sie in einem Suchindex zu organisieren, ist wie das Erstellen eines Katalogs für Ihre Inhalte. LLMs können diesen Katalog oder Index dann verwenden, um die richtigen Informationen zum Beantworten von Benutzeranfragen zu finden.
Abrufer
Abrufer fungieren als Zeiger zwischen Daten und Merkmalen. Sie sind dafür ausgelegt, relevante Daten automatisch aus verschiedenen Datenbanken, Systemen oder Plattformen zu extrahieren und bereitzustellen. Wenn ein Benutzer eine Frage stellt, bestimmt der jeder Datenbibliothek zugewiesene Abrufer, auf welche Datensätze in Data 360 die Salesforce-KI-Tools zugreifen können. Dies macht Abrufer besonders wichtig für Anwendungen wie Suchmaschinen, Frage-Antwort-Systeme und Empfehlungssysteme.
Sie haben gerade einige Grundlagen zur Datenorganisation in der KI gelernt. Als Nächstes wollen wir uns ansehen, wie diese Prozesse während der Einrichtung und zur Laufzeit der Datenbibliothek ablaufen.
Was geschieht beim Setup?
Wenn Sie eine Datenbibliothek erstellen, beginnen sofort die Prozesse, die Ihre Daten mit Ihren KI-Agenten und Funktionen verbinden. Zunächst wird ein Datenstrom erstellt, gefolgt vom Data Lake und den Datenmodellobjekten. Diese Objekte werden dann einander zugeordnet, und die Datensegmentierung beginnt. Die für die Segmentierung erforderliche Zeit hängt von Faktoren wie der Anzahl, Größe und Komplexität der Wissensartikel oder hochgeladenen Dateien sowie der Anzahl der für die Segmentierung ausgewählten Wissensfelder ab. Nachdem die Segmentierung abgeschlossen wurde und der Suchindex bereitsteht, wird ein Abrufer erstellt. Jede Agentforce-Datenbibliothek verfügt über einen eigenen Abrufer, der auf denselben Suchindex verweisen kann, aber unabhängig arbeitet.

Was geschieht zur Laufzeit?
Sobald der Abrufer eingerichtet und der Suchindex vollständig vorbereitet ist, ist das System bereit, Benutzeranfragen zur Laufzeit zu bearbeiten.
Zur Laufzeit wird die Abfrage des Benutzers zur Prompt-Vorlage hinzugefügt, die auf den Abrufer verweist, der mit den relevanten Daten verbunden ist. Das System durchsucht dann den Suchindex, um die relevantesten Informationen zu finden, und integriert diese wieder in den Prompt. Das LLM erhält diesen angereicherten Prompt, der die Anfrage des Benutzers, die hinzugefügten Informationen und die Anweisungen zum Prompt enthält, und generiert dann eine Antwort. Der Serviceplaner überprüft diese Antwort, um sicherzustellen, dass sie sich an den Promptanweisungen orientiert. Schließlich erhält der Endnutzer eine Antwort, die die Anfrage präzise beantwortet und mit relevanten, domänenspezifischen Informationen kontextualisiert ist, die auf die jeweilige Aufgabe zugeschnitten sind.

Fazit
Gut gemacht! In dieser Lektion haben Sie gelernt, warum es wichtig ist, KI in Ihren Daten zu verankern, und Sie haben sich mit einigen Fachbegriffen und technischen Prozessen befasst. Jetzt ist es an der Zeit, uns mit dem Setup zu befassen – dabei können Sie erfahren, wie einfach der Vorgang sein kann!
