Definieren der Leitlinien von Agenten
Lernziele
Nachdem Sie diese Lektion abgeschlossen haben, sind Sie in der Lage, die folgenden Aufgaben auszuführen:
- Beschreiben der Leitlinien, die helfen, die Vertrauenswürdigkeit von Agentforce sicherzustellen
- Identifizieren potenzieller Risiken, die mit Ihrem Agentforce-Projekt einhergehen
- Definieren von Strategien zur Risikominderung für das Projekt
Trailcast
Wenn Sie sich eine Audioaufzeichnung dieses Moduls anhören möchten, nutzen Sie den nachstehenden Player. Denken Sie nach dem Anhören dieser Aufzeichnung daran, zur jeweiligen Lektion zurückzukehren, sich die Ressourcen anzusehen und die zugehörigen Aufgaben zu absolvieren.
Die Risiken autonomer KI
Autonome KI-Agenten sind unglaublich leistungsstarke Tools, die Ihrem Unternehmen Mehrwert bieten und die Kundenerfahrung verbessern können. Allerdings gehen mit ihnen Risiken einher. Zu diesen Risiken zählen Sicherheitsbedrohungen, Datenverstöße, Rufschädigung, finanzielle Verluste, Voreingenommenheit, Halluzinationen sowie Probleme hinsichtlich Transparenz und Rechenschaftspflicht.
Trotz der Risiken ist es möglich, autonome KI auf sichere Weise in Ihrem Unternehmen bereitzustellen. Mit der richtigen Planung und der Hilfe der Salesforce Platform können Sie einen ganzen Satz vertrauenswürdiger KI-Agenten entwickeln und implementieren.
Vertrauenswürdige KI-Agenten
In Trusted Agentic AI (Vertrauenswürdige agentenbasierte KI) erfahren Sie, dass eins der herausragenden Merkmale von Agentforce sein Schwerpunkt auf Leitlinien ist. Diese Leitlinien definieren die operativen Grenzen für jeden Agenten und legen fest, was er tun darf und was nicht. Sie können in natürlicher Sprache Richtlinien für das Verhalten des Agenten und seine Arbeitsweise festlegen.
Über die Sicherheitsvorkehrungen des KI-Agenten hinaus stellt die in die Salesforce Platform integrierte Einstein-Vertrauensebene sicher, dass die Handlungen des Agenten den Sicherheits- und Compliance-Standards Ihres Unternehmens folgen. Sie enthält Mechanismen für die Schadens- und Toxizitätserkennung, die verhindern, dass die Agenten unangemessene oder schädliche Aktivitäten ausführen.
Begleiten Sie in dieser Lektion Nora, wie sie gemeinsam mit dem KI-Rat von Coral Cloud die Risiken identifiziert, die mit ihrem Anwendungsfall für autonome KI verbunden sind, und einen Plan zur Bewältigung dieser Risiken entwickelt.
Governance nicht aus dem Blick verlieren
Die Salesforce-Leitlinien für KI-Agenten sind leistungsstark und robust, aber Nora ist sich bewusst, dass nicht alle Sicherheitsvorkehrungen von Coral Cloud in der Technologie selbst liegen. Was außerhalb der Technologie geschieht, ist ebenso wichtig.
Als Coral Cloud seine KI-Strategie entwickelte, führte das Team eine KI-Governance-Praxis ein, die ihm hilft, für seinen KI-Agenten eine umfassende Strategie zur Risikominimierung zu entwerfen.
Ein Beispiel für KI-Governance: Bei Coral Cloud schreibt der KI-Rat vor, dass alle neuen KI-Projekte einer Sicherheitsüberprüfung unterzogen werden. Dies ist ein Geschäftsprozess (keine technische Funktion), der hilft, die Organisation vor KI-Risiken zu schützen. Nora plant die Sicherheitsüberprüfung, damit das Unternehmen beginnen kann, sich eingehender mit den Sicherheitsvorkehrungen und der Governance des Projekts auseinanderzusetzen.
Einwände überwinden
In einigen Organisationen kann es schwierig sein, das Thema Risiko anzusprechen, da die Auffassung vorherrscht, dass Maßnahmen zur Risikominderung den Entwicklungsprozess verlangsamen. Es ist jedoch entscheidend, Risiken bereits im Voraus anzugehen, da das KI-Projekt sonst möglicherweise eingestellt wird, bevor es die Produktionsphase überhaupt erreicht.
Durch die Integration des Risikomanagements in die Konzeption und Prototypentwicklung von KI können Sie Ihre Projekte beschleunigen und sicherstellen, dass sie die erforderlichen ethischen, rechtlichen, behördlichen und sicherheitstechnischen Anforderungen erfüllen. Wenn Sie lernen, wie Sie Risiken für einen Anwendungsfall bewältigen, können Sie diese Erkenntnisse umgehend auf den nächsten Anwendungsfall und die später folgenden übertragen.
In weniger technischen Begriffen zu erläutern, was ein Agent ist und was er für Ihr Unternehmen leisten kann, kann Ihnen helfen, eine solide Grundlage zu schaffen. Diese Grundlage kann auf zukünftige Projekte anwendet werden und ermöglicht so im weiteren Verlauf eine reibungsärmere und erfolgreichere Implementierung von KI.
Risikodiskussion: das richtige Framing
Wie gehen Sie also Gespräche über Risiken an? Wir empfehlen, das PBTD-Framework (People, Business, Technology, and Data/Menschen, Geschäft, Technologie und Daten) zu verwenden, mit dem viele Unternehmen vertraut sind. Diese Kategorien und Überlegungen können Ihnen dabei helfen, mögliche Risiken und Bedenken im Zusammenhang mit Ihrem Agentforce-Projekt zu identifizieren.
Kategorie |
Überlegungen |
|---|---|
Menschen |
|
Geschäft |
|
Technologie |
|
Daten |
|

Risiken und Bedenken identifizieren
Nora nutzt dieses Framework, um Risiken und Bedenken im Zusammenhang mit dem Coral Cloud-Anwendungsfall "Reservierungsverwaltung" zu erörtern. Stakeholder aus dem Coral Cloud-KI-Rat benennen die Risiken und Bedenken für jede Kategorie. Beachten Sie, dass diese Aufstellung nicht vollständig ist und jeder Anwendungsfall seine eigenen Risiken und Probleme mit sich bringt.
Kategorie |
Risiken |
|---|---|
Menschen |
|
Geschäft |
|
Technologie |
|
Daten |
|
Im Fall von Nora kann man sehen, wie die Einschränkungen in den Wissensartikeln ihres Unternehmens Einfluss auf ihre Einführungsstrategie haben können. Aber Coral Cloud könnte sich möglicherweise auch vielen der aufgeführten Risiken ausgesetzt sehen. Schließlich wird es kaum möglich sein, ein Fünf-Sterne-Erlebnis zu bieten, wenn sich ein Agent in seinen Antworten nicht an den Richtlinien des Urlaubsresorts orientiert oder die Mitarbeiter keine Möglichkeit haben, die Nützlichkeit der Agenten nachzuverfolgen.
Strategien zur Risikominimierung definieren
Nachdem der KI-Rat von Coral Cloud die Risiken und Bedenken katalogisiert hat, können Nora und ihr Team nun Strategien zur Risikominderung für jedes einzelne Risiko erarbeiten. Bei ihrer Entwicklung potenzieller Leitlinien kategorisieren sie sie im Einzelnen, um festzulegen, ob sie sich auf Menschen, Geschäft, Technologie oder Daten bezieht.
Hier sehen Sie Beispiele für mögliche Leitlinien für zwei der von Coral Cloud identifizierten Risiken.
Risikokategorie |
Risiko |
Potenzielle Leitlinien |
|---|---|---|
Menschen |
Ablehnung durch Kunden: Die Nutzer möchten nicht mit dem Agenten sprechen, weil sie ihm nicht vertrauen. |
|
Geschäft |
Eskalationsprobleme: Die Übergabe vom Agenten an Kundendienstmitarbeiter ist uneinheitlich, ineffizient oder für den Kunden frustrierend. |
|
Nora hat bereits einen Plan, um den Umfang der Implementierung ihres Reservierungsmanagements einzugrenzen. Außerdem kann sie Maßnahmen ergreifen, um Kunden, die einen Mitarbeiter nach dem Unternehmen fragen, die richtigen Erwartungen zu vermitteln. In diesem Fall könnte das so aussehen, dass der Begrüßung des Agenten eine Erklärung hinzugefügt wird, die klarstellt, dass dessen Zweck die Beantwortung von Fragen zur Reservierung ist. Und fügen Sie anderen Diensten einen Verweis auf die beste Quelle für Informationen hinzu.
Dokumentieren und experimentieren
Wenn Nora und der KI-Rat die Maßnahmen zur Risikominimierung abgeschlossen haben, dokumentieren sie die Risiken und Leitlinien für ihren Anwendungsfall. Die Erfassung der von Coral Cloud getroffenen Maßnahmen zur Risikominimierung ist für die Einhaltung gesetzlicher Vorschriften wichtig und für interne Audits nützlich.
Beachten Sie, dass Iteration ebenso wichtig ist wie Dokumentation. Zur Sicherstellung, dass Ihre technologiebezogenen Sicherheitsvorkehrungen wirksam sind, wechseln Sie in Ihre Sandbox-Umgebung und versuchen Sie, die Sicherheitsvorkehrungen in Agentforce zu konfigurieren. Probieren Sie es in der Praxis und testen Sie, wie sich die Leitlinien in verschiedenen Szenarien bewähren. Dieser Ansatz hilft Ihnen, etwaige Lücken oder Probleme frühzeitig zu erkennen und die erforderlichen Anpassungen vorzunehmen. Durch die Kombination von Dokumentation mit praktischen Experimenten können Sie Strategien zur Risikominderung für Ihren KI-Agenten entwickeln.
Mit einem etablierten vorläufigen Governance-Plan ist Nora nun bereit, sich einem weiteren wesentlichen Bestandteil des Projekts zu widmen: die Aufgaben zu beschreiben, die der Agent von Coral Cloud ausführen soll.