Skip to main content
Build the future with Agentforce at TDX in San Francisco or on Salesforce+ on March 5–6. Register now.

Planen Ihrer Vertrauensstrategie

Lernziele

Nachdem Sie diese Lektion abgeschlossen haben, sind Sie in der Lage, die folgenden Aufgaben auszuführen:

  • Erstellen eines Risikoprofils durch Bewerten der AI-Risiken Ihres Projekts
  • Implementieren von Leitplanken auf Grundlage des Risikoprofils

Erste Schritte mit Trust

AI birgt gewisse Risiken. Wie können Sie also sichergehen, dass Ihre AI-Lösung ethisch, sicher und verantwortungsvoll ist? Indem Sie eine Vertrauensstrategie entwickeln.

Die Vertrauensstrategie Ihres Projekts ist Ihr Plan zur Minderung von Vertrauensrisiken, indem Sie beispielsweise sensible Daten sichern, gesetzliche Vorschriften einhalten und den Ruf Ihres Unternehmens schützen.

Der erste Schritt bei der Festlegung Ihrer Vertrauensstrategie besteht darin, ein Risikoprofil für Ihr Projekt zu erstellen. Ein Risikoprofil enthält Angaben dazu, wie Sie die Risiken eines Projekts managen und priorisieren. Es beinhaltet die Art und den Schweregrad von Risiken, die Wahrscheinlichkeit negativer Auswirkungen und das Ausmaß von Störungen oder Kosten für jede Art von Risiko. Ein effektives Risikoprofil zeigt Ihnen, welche Risiken Sie priorisieren sollten.

Risikobereiche

Beantworten Sie Fragen zu drei Hauptrisikobereichen, um Ihr Risikoprofil zu erstellen: Datenlecks, gesetzliche Anforderungen und Rufschädigung. Sehen Sie sich als Beispiel an, wie Becca diese Fragen für ihr Projekt beantwortet.

Risikobereich

Beschreibung

Zu stellende Fragen

Beccas Antwort

Datenlecks

Datenlecks liegen vor, wenn sichere Informationen versehentlich preisgegeben werden. Dies kann durch Cyberangriffe, unbefugten Zugriff und die Offenlegung sensibler Daten für externe AI-Modelle geschehen. Um Datenlecks zu verhindern, sollten Sie Ihre Daten sicher speichern und sicherstellen, dass nur autorisierte Benutzer darauf zugreifen können. Zu diesem Risikobereich gehört auch der Schutz sensibler Daten, wie z. B. personenbezogener Informationen.

  • Welche Möglichkeiten für Datenlecks gibt es bei Ihrem Projekt?
  • Welche sensiblen Daten verwenden Sie?

Becca weiß, dass Coral Cloud über ein sicheres System zur Datenspeicherung verfügt. Ihr Projekt beinhaltet jedoch einen Human-in-the-Loop, also eine menschliche Interaktion, bei der jemand den Check-in-Prozess auslöst, indem er Einstein mitteilt, dass ein Gast eingecheckt werden soll.

Becca sieht hier die Gefahr von Datenlecks, da der ausführende Benutzer feststellen kann, wo sich der Gast aufhält und an welchen Terminen. Das sind gefährliche Informationen, wenn sie an Unbefugte weitergegeben werden.

Beccas Projekt umfasst sensible Daten wie vollständige Namen, Kontaktinformationen und Kreditkartendaten.

Gesetzliche Anforderungen

Vergewissern Sie sich, dass Ihr Projekt die gesetzlichen Anforderungen des Landes und der Branche einhält, in der Sie tätig sind. Wenn Sie nicht alle Vorschriften einhalten, könnten Geldstrafen, Rufschädigung und andere rechtliche Konsequenzen drohen. Das Rechtsteam, das Sie in der ersten Lektion ermittelt haben, kann Ihnen helfen, alle Vorschriften festzustellen und einzuhalten.

  • Welche Vorschriften muss Ihr Projekt einhalten?

Da Coral Cloud in der EU tätig ist, muss Beccas Projekt die Datenschutz-Grundverordnung (DSDVO) einhalten. Becca bittet das Rechtsteam zu prüfen, welche sonstigen Vorschriften sie beachten muss.

Rufschädigung

Da Ihr AI-Projekt mit Ihren Kunden interagiert, repräsentiert es das Unternehmen. AI kann aufgrund von toxischen Datensätzen oder technischen Angriffen manchmal schädliche oder unwahre Antworten generieren.

  • Wie wirkt sich eine schlechte Projektleistung auf den Unternehmensruf aus?

Wenn die AI-generierten Willkommens-E-Mails beleidigende Formulierungen enthalten, wird Coral Cloud als beleidigend und unfreundlich wahrgenommen. Das Unternehmen wird dadurch wertvolle Bestandskunden und potenzielle Kunden verlieren. Becca ist sich dessen bewusst, dass der Reputationsverlust im Gastgewerbe ein schwerwiegendes Problem ist.

Erstellen eines Risikoprofils

Auf der Grundlage ihrer Bewertung der verschiedenen Risikobereiche erstellt Becca ein Risikoprofil für ihr Projekt. 1 steht für einen sehr geringen Risikowert, 5 steht für ein sehr hohes Risiko.

Art von Risiko

Schweregrad negativer Auswirkungen

Wahrscheinlichkeit negativer Auswirkungen

Störungen oder Kosten

Datenlecks

4: Datenlecks gefährden die Sicherheit des Gäste und den Schutz ihrer Daten.

3: Die Daten von Coral Cloud sind sicher gespeichert, es sollten jedoch weitere Kontrollen eingeführt werden, um dieses Risiko zu verringern.

4: Verlust von Kundenvertrauen

Gesetzliche Anforderungen

5: Coral Cloud drohen Geldstrafen, andere rechtliche Konsequenzen und der Verlust von Kundenvertrauen.

5: Wenn Beccas Projekt die Vorschriften nicht erfüllt, sind negative Konsequenzen für Coral Cloud sehr wahrscheinlich.

5: Rechtliche Konsequenzen, Geldstrafen und Verlust von Kundenvertrauen

Rufschädigung

5: Wird der Ruf von Coral Cloud geschädigt, verliert das Unternehmen potenzielle Gäste und Einnahmen.

4: Becca muss ihre Aufforderung optimieren und andere Maßnahmen zum Schutz vor Rufschädigung implementieren.

4: Verlust von Kundenvertrauen

Auf der Grundlage des Risikoprofils beschließt Becca, den gesetzlichen Anforderungen Priorität einzuräumen, gefolgt von Rufschädigung und Datenlecks. Sie beginnt zu planen, wie die einzelnen Risiken gemanagt werden sollen.

Arten von Leitplanken

Nachdem Sie nun Ihre Risiken kennen, sollten Sie AI-Leitplanken implementieren. AI-Leitplanken sind Mechanismen, die sicherstellen, dass Ihr AI-Projekt rechtlich und ethisch einwandfrei arbeitet. Sie brauchen Leitplanken, um zu verhindern, dass AI durch verzerrte Entscheidungen, toxische Sprache und offengelegte Daten Schaden anrichtet. Leitplanken sind notwendig, um Ihr Projekt vor technischen Angriffen zu schützen.

Es gibt drei Arten von AI-Leitplanken: Sicherheitsleitplanken, technische Leitplanken und ethische Leitplanken.

Sicherheitsleitplanken

Diese Leitplanken stellen sicher, dass das Projekt Gesetze und Vorschriften einhält sowie private Daten und Menschenrechte geschützt werden. Zu den gängigen Tools dafür gehören der sichere Datenabruf, die Datenmaskierung und die Null-Datenspeicherung.

Sicherer Datenabruf bedeutet, dass Ihr Projekt nur auf Daten zugreift, für die der ausführende Benutzer eine Zugriffsberechtigung hat. Wenn z. B. eine Person, die keinen Zugriff auf Finanzdatensätze hat, eine Reaktion des AI-Modells auslöst, sollte das Modell keine Daten im Zusammenhang mit Finanzdatensätzen abrufen. Datenmaskierung bedeutet, dass sensible Daten durch Platzhalterdaten ersetzt werden, bevor sie für externe Modelle zugänglich gemacht werden. Auf diese Weise wird sichergestellt, dass sensible Daten nicht durch Datenlecks offengelegt werden. Modellanbieter setzen Null-Datenaufbewahrungsrichtlinien um, was bedeutet, dass Daten nicht länger gespeichert werden als sie unmittelbar für die vorliegende Aufgabe benötigt werden. Sobald eine Antwort generiert wurde, verschwinden die verwendeten Daten also.

Technische Leitplanken

Diese Leitplanken schützen das Projekt vor technischen Angriffen durch Hacker, wie z. B. Prompt Injection und Jailbreaking, oder vor anderen Methoden, die das Modell zur Offenlegung sensibler Informationen zwingen. Cyberangriffe können dazu führen, dass Ihr Projekt unwahre oder schädliche Antworten generiert.

Ethische Leitplanken

Diese Leitplanken sorgen dafür, dass Ihr Projekt mit menschlichen Werten in Einklang steht. Dazu gehört das Überprüfen auf Toxizität und Verzerrung.

Von Toxizität spricht man, wenn ein AI-Modell hasserfüllte, beleidigende und ordinäre oder obszöne Inhalte generiert. Verzerrungen liegen vor, wenn AI schädliche Stereotypen widerspiegelt, wie z. B. Stereotypen in Bezug auf die ethnische Herkunft oder das Geschlecht. Wie Sie sich vorstellen können, ist das katastrophal! Da AI ihre Antworten erlernt, können Toxizität und Verzerrung ein Zeichen dafür sein, dass Ihre Daten unerwünschte Sprache und Ideen in Ihr Modell eintragen. Die Toxizitätserkennung identifiziert Antworten, die möglicherweise toxische Sprache enthalten, sodass Sie sie manuell überprüfen und Anpassungen vornehmen können, um die Toxizität zu verringern.

Sie wissen jetzt, was Leitplanken sind und wie sie Ihr Projekt vor Risiken schützen. Als Nächstes sehen wir uns an, wie Becca Leitplanken in ihrer Vertrauensstrategie implementiert.

Die Vertrauensstrategie von Coral Cloud

Die Umsetzung Ihrer Vertrauensstrategie sieht unterschiedlich aus, je nachdem, welches System Sie verwenden. Da Becca Salesforce einsetzt, basiert ihre Vertrauensstrategie auf der Einstein-Vertrauensebene. Die Vertrauensebene ist eine Sammlung von Funktionen, Prozessen und Richtlinien mit dem Zweck, den Datenschutz sicherzustellen, die AI-Genauigkeit zu verbessern und die verantwortungsvolle Nutzung von AI im gesamten Salesforce-Ökosystem zu fördern. Wenn Sie ein Projekt mit Funktionen von Einstein Generative AI erstellen, wie etwa in Beccas Projekt dem Prompt Builder (Aufforderungsgenerator), durchläuft es automatisch die Vertrauensebene.

Becca verwendet Funktionen der Vertrauensebene, um eine Vertrauensstrategie zu definieren, die alle Risikobereiche abdeckt. Außerdem visualisiert sie das gewünschte Ergebnis. Hier ist ein Auszug aus ihrer Vertrauensstrategie.

Dieses Diagramm zeigt, wie die Einstein-Vertrauensebene sicher Aufforderungen verarbeitet und Antworten generiert.

Risikobereich

Beccas Vertrauensstrategie

Funktionen in der Vertrauensebene

Ergebnis

Datenlecks

  • Verhindern, dass unbefugte Benutzer auf geschützte Informationen zugreifen
  • Schutz von Gästenamen, Kontaktinformationen und Kreditkartendaten durch Datenmaskierung
  • Sicherer Datenabruf und Kontextbildung
  • Datenmaskierung
  • Benutzer, die keinen Zugriff auf Reservierungsdaten haben, können die Aufforderung nicht verwenden, um auf Reservierungsdaten zuzugreifen.
  • Sensible Informationen gelangen niemals in LLMs von Drittenanbietern.

Rufschädigung

  • Verwenden von Systemrichtlinien, um der AI-Lösung mitzuteilen, wie sie sich bei unerwarteten Aufforderungen verhalten soll. Dies schützt die Lösung vor technischen Angriffen, die sie dazu verleiten, falsche oder schädliche Antworten zu geben.
  • Aufforderungsabsicherung
  • Technische Angriffe sind aufgrund der Richtlinien zur Aufforderungsabsicherung nicht möglich. Wenn zum Beispiel eine Person, die nicht im System von Coral Cloud ist, einzuchecken versucht, wird die AI-Lösung keine Antwort generieren.

Bevor Becca ihre Vertrauensstrategie finalisiert, bespricht sie sich mit ihrem Rechts- und Sicherheitsteam, um sicherzustellen, dass es keine Lücken gibt.

Nächste Schritte

Da nun auch die Vertrauensstrategie fertig ist, hat Becca die Planung ihres Projekts abgeschlossen. Sie ist nun bereit, die Phase "Erstellen" einzuleiten, in der sie ihr Projekt in Salesforce implementieren wird. Verfolgen Sie Beccas Projekt in Verbinden von Data Cloud mit Copilot und Prompt Builder (Aufforderungsgenerator) weiter.

Denken Sie bei der Erstellung Ihres Projekts daran, dass das Risikomanagement keine Aufgabe ist, die man einmal erledigt und dann abhakt. Wenn Sie Ihr Projekt implementiert haben, sollten Sie Ihr Risiko laufend überwachen und prüfen. Die Überwachung hilft Ihnen, problematische Trends frühzeitig zu erkennen und Anpassungen vorzunehmen. Prüfen Sie die Toxizitätswerte und das Feedback, um festzustellen, wo Ihre Lösung Mängel hat, und nehmen Sie Anpassungen vor, um Risikofaktoren zu beseitigen.

Zusammenfassung

In diesem Modul werden die wichtigsten Schritte bei der Vorbereitung Ihres AI-Projekts erläutert. Sie wissen nun, wie Sie Projektbeteiligte identifizieren, Ziele festlegen und eine technische Lösung wählen. Sie wissen, wie Sie Daten hoher Qualität vorbereiten und die Anforderungen Ihres Projekts erfüllen. Und Sie wissen, wie eine Vertrauensstrategie die Risiken für Ihr Projekt mindert und warum es wichtig ist, Risiken zu überwachen.

Mit all diesem neuem Wissen sind Sie bestens gerüstet, um ein erfolgreiches AI-Projekt zu beginnen! Bevor Sie mit der Einführung beginnen, sollten Sie unbedingt das Modul Änderungsmanagement für die AI-Implementierung absolvieren.

Ressourcen

Teilen Sie Ihr Trailhead-Feedback über die Salesforce-Hilfe.

Wir würden uns sehr freuen, von Ihren Erfahrungen mit Trailhead zu hören: Sie können jetzt jederzeit über die Salesforce-Hilfe auf das neue Feedback-Formular zugreifen.

Weitere Infos Weiter zu "Feedback teilen"