Erkunden von Agentforce-Schutzplanken und -Vertrauensmustern
Lernziele
Nachdem Sie diese Lektion abgeschlossen haben, sind Sie in der Lage, die folgenden Aufgaben auszuführen:
- Beschreiben der Platform-Leitlinien
- Beschreiben der Agentforce-Leitlinien
- Erläutern, wie die Agentforce-Leitlinien angepasst werden
- Erläutern der Vertrauensmuster, die bei Salesforce beim Erstellen von Agenten zur Anwendung kommen
Trailcast
Wenn Sie sich eine Audioaufzeichnung dieses Moduls anhören möchten, nutzen Sie den nachstehenden Player. Denken Sie nach dem Anhören dieser Aufzeichnung daran, zur jeweiligen Lektion zurückzukehren, sich die Ressourcen anzusehen und die zugehörigen Aufgaben zu absolvieren.
Sicherstellen von Vertrauen mithilfe von Leitlinien
KI entwickelt sich schnell. Und angesichts der raschen Veränderungen ist es ganz natürlich, dass man sich etwas unsicher fühlt. Bei Salesforce sind sich unser Produktteam und das Office of Ethical and Humane Use (OEHU) bewusst, dass es unerlässlich ist, das Vertrauen in unsere Produkte aufrechtzuerhalten, und gehen die Risiken und Bedenken im Zusammenhang mit agentenbasierter KI wie folgt an:
- Identifizierung der erforderlichen Kontrollen zum Aufbau eines vertrauenswürdigen Agenten
- Entwickeln einer Teststrategie
- Hinzufügen ethischer Leitplanken, die in das Produkt integriert sind
- Anbieten besserer ethischer Führung für unsere Kunden
Durch die Integration dieser Sicherheitsvorkehrungen in unsere Produkte und die Bereitstellung klarer ethischer Richtlinien können Unternehmen verantwortungsbewusst mit KI-Technologie umgehen und so für alle Beteiligten Sicherheit und Zuverlässigkeit gewährleisten.
Lassen Sie uns nun auf einige Details eingehen, beginnend mit den Plattform-Leitplanken, die globale Kontrollen für alle unsere Produkte bieten.
Plattform-Leitplanken
Salesforce bietet eine umfassende Reihe von Richtlinien, Leitlinien und Protokollen, die einen sicheren, ethischen und konformen Betrieb der Plattform gewährleisten sollen. Zu diesen Leitplanken gehören:
-
Richtlinien für die akzeptable Nutzung (Acceptable Use Policy, AUP): Allgemeine Regeln für die Nutzung von Salesforce-Diensten durch Kunden, die Aktivitäten untersagen, die der Plattform oder ihren Nutzern schaden könnten.
-
Richtlinien für die akzeptable Nutzung von KI (AI Acceptable Use Policy, AI AUP): Spezifische Regeln für die Nutzung von Salesforce-KI-Technologien durch Kunden, die sicherstellen, dass unsere Produkte in verantwortungsvoller Weise genutzt werden.
-
Richtlinien zur Eindämmung von Modellen: Klare Regeln für die Verwendung von KI-Modellen. Diese Regeln stellen sicher, dass KI-Modelle innerhalb bestimmter Grenzen verwendet werden, um zu verhindern, dass sie missbraucht werden oder unbeabsichtigte Auswirkungen haben.
Diese Kontrollen schaffen ein Framework, das die Integrität, Sicherheit und ethischen Standards der Plattform gewährleistet. Beispielsweise besagt die AUP, dass Sie die Plattform nicht für Spam oder Phishing nutzen dürfen. Die AI AUP besagt, dass KI keine rechtlichen oder wichtigen Entscheidungen treffen darf, ohne dass ein Mensch die endgültige Entscheidung trifft. Richtlinien zur Eindämmung von Modellen können die Arten von Daten einschränken, auf die ein KI-Modell zugreifen kann, um Datenlecks oder Missbrauch zu verhindern.
Agentforce-Leitplanken
Agentforce-Leitplanken sind eine Reihe von Regeln, Richtlinien und bewährten Methoden, die für eine bestimmte Salesforce Cloud oder ein bestimmtes Salesforce-Produkt sowie für den geschäftlichen Einsatz entwickelt wurden und sicherstellen sollen, dass Agenten die lokalen Gesetze und Standards einhalten. Agentforce umfasst ethische Schutzmaßnahmen zur Minimierung von KI-Halluzinationen und Sicherheitsvorkehrungen zur Verhinderung von Bedrohungen und böswilligen Angriffen, wie beispielsweise Prompt Injections.

Select Type (Typ auswählen)
Salesforce bietet einsatzbereite Agenten für bestimmte Clouds und häufige Anwendungsfälle. Verschiedene Agententypen können eigene Einstellungen und Schutzplanken aufweisen, die das Verhalten der Agenten definieren. Beispielsweise verwendet der Typ Agentforce-Serviceagent (ASA) Themenanweisungen, um zu bestimmen, wann eine Unterhaltung vom KI-Agenten an einen menschlichen Kundendienstmitarbeiter eskaliert werden soll. Der Agententyp Absatzentwicklung (Sales Development Rep, SDR) verfügt über vom Administrator definierte Interaktionsregeln für die Bedingungen, unter denen der Agent mit der Bearbeitung eines Leads beginnen kann, sowie für die Art und den Zeitpunkt, zu dem E-Mails vom Agenten gesendet werden können.
Thema, Themenanweisungen und Aktionen
Jeder Agent umfasst eine Reihe vordefinierter Themen und Aktionen.
Themen sind eine Kategorie von Aktionen, die mit einem bestimmten Auftrag zusammenhängen und von Agenten ausgeführt werden sollen. Themen enthalten Aktionen, also die für die Aufgabe verfügbaren Werkzeuge, und Anweisungen, die dem Agenten sagen, wie er Entscheidungen treffen soll. Zusammen definieren die Themen den Umfang der Funktionen, die Ihr Agent ausführen kann. Salesforce bietet eine Bibliothek von Standardthemen für häufige Anwendungsfälle.
Themenanweisungen legen Leitlinien für das Agentenverhalten fest und stellen Kontext zur Verfügung, der erforderlich ist, damit Agenten ihre Aufträge effektiv ausführen können. Jedes Thema ist eine Kategorie von Aktionen, die mit einem bestimmten Auftrag zusammenhängen und Aktionen (Werkzeuge) sowie Anweisungen (Leitlinien zur Entscheidungsfindung) enthalten. Anweisungen helfen Agenten dabei, Entscheidungen darüber zu treffen, wie die Aktionen in einem Thema für verschiedene Anwendungsfälle eingesetzt werden sollen. Diese Anweisungen sind normalerweise in der Form "Immer …", "Niemals …", "Wenn x, dann y …" oder "Als erster Schritt …" formuliert, um ein klares und einheitliches Verhalten zu gewährleisten.
Aktionen sind die Weise, in der Agenten Dinge erledigen. Agenten enthalten eine Bibliothek von Aktionen, die eine Reihe von Aufträgen darstellen, die ein Agent ausführen kann. Wenn ein Benutzer beispielsweise einen Agenten um Hilfe beim Verfassen einer E-Mail bittet, startet der Agent eine Aktion, die die E-Mail entwirft und überarbeitet und sich dabei auf relevante Salesforce-Daten stützt. Salesforce bietet eine Reihe von vorkonfigurierten Aktionen, und diese Aktionen werden als Standardaktionen bezeichnet. Der Vorteil der standardmäßigen Einbeziehung von Standardthemen und -aktionen besteht darin, dass Ihr Agent sofort bereit ist, Benutzern bei vielen gängigen Aufgaben zu helfen.
Anpassen von Schutzplanken
Für eine detailliertere Steuerung verwenden Sie Agent-Themenanweisungen, um Grenzen zu schaffen, den Kontext festzulegen und das Verhalten des Agenten zu definieren. Sie können die Anweisungen für ein Standard-Agententhema ändern oder ein benutzerdefiniertes Thema von Grund auf neu erstellen.
Diese Schutzplanken werden von Ihrem Administrator kontrolliert und in der Regel von Ihrer internen Führungsebene oder wichtigen Entscheidungsträgern genehmigt. Dadurch wird sichergestellt, dass die Richtlinien verbindlich sind und die Werte und Compliance-Anforderungen Ihres Unternehmens widerspiegeln.
Einstein-Vertrauensebene
KI-Agenten sind zudem in die Einstein-Vertrauensebene integriert, bei der es sich um eine sichere, nativ in Salesforce integrierte KI-Architektur handelt.
Die Vertrauensebene wurde für Unternehmenssicherheitsstandards entwickelt und ermöglicht Ihnen, von generativer KI zu profitieren, ohne die Sicherheit Ihrer Kundendaten zu gefährden. Gleichzeitig können Sie vertrauenswürdige Daten nutzen, um die Antworten der generativen KI zu verbessern.
-
Kontextbildung: Die Vertrauensebene stellt sicher, dass generative Aufforderungen auf den Unternehmensdaten fußen und durch sie angereichert werden.
-
Null-Datenspeicherung: Ihre Daten werden zu keiner Zeit bei einem Drittanbieter eines LLMs gespeichert.
-
Toxizitätserkennung: Potenziell schädliche LLM-Antworten werden erkannt und gekennzeichnet.
-
AI-Überwachung: AI-Interaktionen werden in Ereignisprotokollen erfasst, sodass Sie die Ergebnisse jeder einzelnen Benutzerinteraktion für Sie transparent sind.
Vertrauensmuster von Agenten
Über alle unsere Produkte hinweg implementieren wir verschiedene wichtige Vertrauensmuster und standardisierte Produktdesigns, um die Sicherheit zu verbessern. Hier einige Beispiele:
Vertrauensmuster |
Beispiel |
|---|---|
Verringern von Halluzinationen |
Wir verwenden Themenklassifizierung, um Benutzereingaben bestimmten Themen zuzuordnen. Dies verringert das Risiko, dass ein Agent falsche oder irrelevante Informationen generiert. |
Beschränken der Häufigkeit von durch Agenten generierten E-Mails |
Wir beschränken der Häufigkeit von durch Agenten generierten E-Mails, um eine Überforderung von Benutzern zu vermeiden und sicherzustellen, dass die Kommunikation relevant bleibt. |
Achten der Privatsphäre von Benutzern |
Wir haben eine Funktion zur Abmeldung in die CRM-Software integriert, die es Benutzern ermöglicht zu steuern, wie oft sie Kommunikation von KI-Agenten erhalten. |
Entwurfsbedingte Transparenz |
Wir stellen sicher, dass KI-generierte Inhalte direkt und in transparenter Weise kenntlich gemacht werden. |
Erleichtern der reibungslosen Weiterleitung zwischen KI und menschlichen Mitarbeitern |
Wir erleichtern den reibungslosen Übergang von Agenten zu Menschen. Zu den Beispielen gehören die Einbeziehung eines Vertriebsleiters bei KI-generierten E-Mails oder die Bereitstellung eines Dashboards für die Beaufsichtigung durch Menschen. |
Bewährte Vorgehensweisen zur Implementierung
Befolgen Sie beim Implementieren der Agentforce-Schutzplanken in Ihrer Organisation diese bewährten Methoden.
Bewährte Vorgehensweise |
Beispiel |
|---|---|
Verstehen der Richtlinien |
Erstellen Sie eine Liste der Richtlinien, die Ihre Branche, Ihre Geografie und Ihren Anwendungsfall betreffen. Verwenden Sie diese, um Grenzen dafür festzulegen, was der Agent ausführen und nicht ausführen kann. Diese können dabei helfen zu bestimmen, welche Themen Ihrem Agenten zugewiesen werden können. |
Implementieren robuster Sicherheitsmaßnahmen |
Schränken Sie den Zugriff der Agenten auf das erforderliche Mindestmaß ein, das zum Erledigen der zugewiesen Aufgaben erforderlich ist. Achten Sie darauf, dass die Agenten die Anforderungen an den Datenschutz und die behördlichen Bestimmungen einhalten. Verwenden Sie Themenanweisungen, um die Regeln festzulegen, denen der Agent folgen muss. |
Unterstützung menschlicher Kontrolle |
Legen Sie klare Leitlinien dafür fest, wie und wann an einen menschlichen Mitarbeiter übergeben werden soll. Verwenden Sie Themenanweisungen, um diese Leitlinien zu etablieren. |
Überwachen und Überprüfen |
Über das anfängliche Testing hinaus, hilft fortlaufende Überwachung dabei sicherzustellen, dass sich die Agenten wie vorgesehen verhalten. Verwenden Sie die Prüfprotokoll-Funktion der Einstein-Vertrauensebene, um detaillierte Einsichten in KI-Aktionen und -Ergebnisse zu erhalten. |
Achten der Privatsphäre von Benutzern |
Verwenden Sie die Abmeldefunktion, um Benutzern das Steuern der Kommunikationshäufigkeit und den Schutz ihrer Privatsphäre zu ermöglichen. |
Durchführen regelmäßiger Bewertungen |
Führen Sie regelmäßig Bewertungen hinsichtlich Voreingenommenheit, Erklärbarkeit und Robustheit durch, um Sicherheit und Zuverlässigkeit fortlaufend zu überwachen. |