Skip to main content

Nutzung von großen Sprachmodellen in Salesforce

Lernziele

Nachdem Sie diese Lektion abgeschlossen haben, sind Sie in der Lage, die folgenden Aufgaben auszuführen:

  • Auswählen der richtigen LLM-Option für Ihr Unternehmen
  • Beschreiben der Beschränkungen der verfügbaren LLM-Optionen

Auswahl des besten LLMs

Die Wahl des richtigen Modells für die richtige Aufgabe hilft Ihnen, generative KI schneller einsetzen zu können. Salesforce bietet Bereitstellungsmöglichkeiten für jedes relevante LLM und unterstützt Unternehmen gleichzeitig dabei, ihre Datenschutz-, Sicherheits-, Residenz- und Compliance-Ziele einzuhalten.

Viele LLMs müssen eventuell abhängig von den Anwendungsfällen genutzt werden. Kunden möchten LLMs wahrscheinlich unterschiedlich einsetzen, weil sie unterschiedliche Anforderungen hinsichtlich der Datenresidenz haben.

Das richtige LLM für die richtige Aufgabe Freigegebene LLMs mit Vertrauensebene: Daten bleiben bei gemeinsamer Moderation in Salesforce. Von Salesforce gehostet: Global auf Hyperforce, AWS, Anthropic, Salesforce, Cohere. Eigenes Modell nutzen (BYOM): Ihr Modell, Ihre Infrastruktur, Amazon SageMaker, Vertex AI.

Verwenden von Salesforce freigegebener LLMs

Von Salesforce freigegebene LLMs stellen eine Möglichkeit dar, über das Internet auf LLMs zuzugreifen. Salesforce und sein Partner OpenAI haben mit dieser Entwicklung Pionierarbeit geleistet. Salesforce nutzt ein sicheres Gateway, um Aufforderungen zur Beantwortung über das Internet an seine hervorragenden LLMs zu schicken.

Mit Einstein können Kunden von Salesforce AI Research entwickelte Salesforce-LLMs zur Unterstützung fortschrittlicher Funktionen wie die Codegenerierung und Anleitung bei der Geschäftsprozessautomatisierung nutzen und damit die Art und Weise, wie Unternehmen mit ihrer CRM-Software interagieren, grundlegend verändern. Salesforce-LLMs, einschließlich CodeGen, CodeT5+ und CodeTF, helfen Unternehmen, die Produktivität zu steigern, die Talentlücke zu schließen, die Implementierungskosten zu senken und Vorfälle besser zu erkennen.

Verwenden von Salesforce gehosteter Drittanbieter-LLMs

Sie können Modelle auch innerhalb von Salesforce hosten.

Im Zuge des Engagements von Salesforce für ein offenes Ökosystem ist Einstein so konzipiert, dass LLMs von Amazon, Anthropic, Cohere und anderen gehostet werden können – und zwar komplett innerhalb der Salesforce-Infrastruktur. Einstein wird dabei helfen, Kundenaufforderungen und -antworten in der Salesforce-Infrastruktur zu verwalten. Darüber hinaus haben Salesforce und OpenAI eine gemeinsame Vertrauenspartnerschaft zur Bereitstellung von Inhalten über die Einstein-Vertrauensebene geschlossen.

Bring Your Own Model (BYOM)

Wenn Sie bereits in Ihr eigenes Modell investieren, ist für Sie wahrscheinlich die Option zur Nutzung des eigenen Modells "Bring Your Own Model" (BYOM) sinnvoll.

Sie profitieren von Einstein auch dann, wenn Sie Ihre eigenen domänenspezifischen Modelle außerhalb von Salesforce trainiert haben und die Daten in Ihrer eigenen Infrastruktur speichern. Diese Modelle, ob sie nun über Amazon SageMaker oder Google Vertex AI laufen, werden über die Einstein-Vertrauensebene direkt mit Einstein verbunden. In diesem Szenario bleiben Kundendaten innerhalb der Vertrauensgrenzen des Kunden.

Die BYOM-Optionen ändern sich rasant! Prüfen Sie regelmäßig, ob es neue Aktualisierungen für die Ressourcen gibt.

Ressourcen

Teilen Sie Ihr Trailhead-Feedback über die Salesforce-Hilfe.

Wir würden uns sehr freuen, von Ihren Erfahrungen mit Trailhead zu hören: Sie können jetzt jederzeit über die Salesforce-Hilfe auf das neue Feedback-Formular zugreifen.

Weitere Infos Weiter zu "Feedback teilen"