Skip to main content

Entdecken Sie, wie Salesforce vertrauenswürdige agentenbasierte KI aufbaut

Lernziele

Nachdem Sie diese Lektion abgeschlossen haben, sind Sie in der Lage, die folgenden Aufgaben auszuführen:

  • Definieren, was vertrauenswürdige KI-Agenten sind.
  • Beschreiben der wichtigsten Risiken, die mit Agenten einhergehen.
  • Erläutern der Leitprinzipien von vertrauenswürdigen KI-Agenten.

Trailcast

Wenn Sie sich eine Audioaufzeichnung dieses Moduls anhören möchten, nutzen Sie den nachstehenden Player. Denken Sie nach dem Anhören dieser Aufzeichnung daran, zur jeweiligen Lektion zurückzukehren, sich die Ressourcen anzusehen und die zugehörigen Aufgaben zu absolvieren.

Bevor Sie beginnen

Wir empfehlen Ihnen, sich diese Badges anzusehen, um ein besseres Verständnis der Governance- und Vertrauensstrategien für KI-Lösungen zu erlangen.

Was sind vertrauenswürdige KI-Agenten?

Bei Salesforce stellt Vertrauen den zentralen Wert dar. Und das gilt auch für unsere KI-Agenten. Die agentenbasierte KI von Salesforce basiert auf den Salesforce-Richtlinien für verantwortungsvolle KI, die die Grundlage für die Bewältigung der neuen Herausforderungen bilden, die mit dem raschen Wachstum von KI-Agenten auf unserer Plattform verbunden sind.

Werte und Leitprinzipien sind zwar von entscheidender Bedeutung, doch ist es ebenso wichtig, sie durch konkrete Maßnahmen zu untermauern. Salesforce hat mit der Implementierung der Einstein-Vertrauensebene, der Agentforce-Leitlinien und der Vertrauensmuster genau das getan. Darüber hinaus setzen wir Red-Teaming-Tests ethischer Aspekte und Richtlinien zur akzeptablen Nutzung von KI (AUP) ein, um sicherzustellen, dass KI-Systeme innerhalb sicherer und ethischer Parameter arbeiten. Diese Maßnahmen stärken nicht nur die Werte des Unternehmens, sondern bilden auch eine solide Grundlage für den Aufbau und die Aufrechterhaltung des Vertrauens in KI-Technologien.

Bevor wir darüber sprechen, wie Salesforce Ihnen beim Aufbau einer vertrauenswürdigen Agentforce helfen kann, sollten wir sicherstellen, dass Sie einige Begriffe verstehen.

Agentforce

Agentforce ist die Marke für die Agentenschicht der Salesforce Platform, und sie umfasst Agenten für den Kunden- und den Mitarbeiterkontakt.

Agenten

Agenten sind autonom, zielorientiert und führen Aufgaben und Geschäftsinteraktionen mit minimalen menschlichen Eingaben aus. Sie können eine Aufgabe oder eine Abfolge von Aufgaben beginnen und abschließen, Gespräche in natürlicher Sprache führen und auf sichere Weise relevante Antworten aus Geschäftsdaten liefern. Agenten können eingesetzt werden, um einen Salesforce-Benutzer im Arbeitsablauf zu unterstützen und mit ihm zusammenzuarbeiten. Sie können außerdem im Auftrag eines Benutzers oder Kunden handeln. Sie können auf Ihrer Salesforce-Benutzeroberfläche oder in Ihren Kundenkanälen zur Verfügung gestellt werden.

Agentenbasierte KI

Agentenbasierte KI stellt ein KI-System dar, das KI-Agenten in die Lage versetzt, autonom tätig zu werden, Entscheidungen zu treffen und sich an Veränderungen anzupassen. Es fördert die Zusammenarbeit zwischen KI-Agenten und Menschen, indem es Tools und Dienste bereitstellt, die das Lernen und die Anpassung erleichtern.

Leitprinzipien für eine verantwortungsvolle agentenbasierte KI

Salesforce verpflichtet sich, Agenten verantwortungsbewusst zu entwickeln und einzusetzen. Dies sind unsere wichtigsten Grundsätze.

Fehlerfreiheit

Unsere Schlussfolgerungsmaschine, das Gehirn hinter Agentforce, verwendet Themenklassifizierung, um die Anfrage eines Benutzers bestimmten Themen zuzuordnen. Das Thema umfasst eine Reihe von Anweisungen, Geschäftsrichtlinien und Aktionen, die ein Agent ausführen kann. Dadurch bleibt der Agent bei der Aufgabe, die er ausführen soll.

Mithilfe des Kontextbildungs-Prozesses – einschließlich relevanter Kontextinformationen aus Ihrer Salesforce-Organisation in der Aufforderung – nutzen die Agenten die Daten Ihrer Organisation in Salesforce als Grundlage für ihre Antworten, um deren Genauigkeit und Relevanz zu verbessern. Dadurch können Agenten die Salesforce-Daten Ihres Unternehmens bei der Erstellung ihrer Antworten optimal nutzen.

Sicherheit

Unsere Agenten verfügen über integrierte Sicherheitsvorkehrungen, um unbeabsichtigte Folgen zu verhindern und sichere Antworten zu gewährleisten.

  • Wir haben Systemrichtlinien, um den Umfang der Antworten der Agenten zu begrenzen und sicherzustellen, dass sie beim Thema bleiben und auf sichere und ethische Weise antworten. Sehen Sie sich dazu den Abschnitt über Aufforderungsabsicherung im Hilfethema Einstein-Vertrauensebene an.
  • Die Einstein-Vertrauensebene erkennt schädliche Inhalte in der Antwort des Agenten und protokolliert diese im Audit-Trail, sodass Sie diese überwachen und entsprechend reagieren können.
  • Wir verfolgen eine Null-Datenspeicherungsstrategie gegenüber Drittanbietern von großen Sprachmodellen (LLM), um sicherzustellen, dass Ihre Daten nicht außerhalb der Vertrauensgrenze von Salesforce gespeichert werden. Die Null-Datenspeicherungsstrategie und unsere vertraglichen Vereinbarungen mit den LLM-Anbietern stellen sicher, dass Ihre Daten nicht für das Training der LLMs von Drittanbietern verwendet werden.

Ehrlichkeit

Wir respektieren die Quelle von Daten und holen die Zustimmung zu ihrer Verwendung ein. Wir sind transparent in Bezug auf KI-generierte Inhalte und geben an, wenn Inhalte von einer KI erstellt wurden. Wir fügen Standardhinweise hinzu, wenn die KI die Antwort generiert, damit dies für die Nutzer transparent ist.

Unterstützung

Wir konzentrieren uns auf die Partnerschaft zwischen Personen und KI. KI muss Menschen unterstützen, insbesondere bei Aufgaben, die menschliches Urteil erfordern. Einige Aufgaben lassen sich vollständig automatisieren, aber für andere ist menschliche Aufsicht erforderlich. Wir befähigen Menschen, risikoreiche Entscheidungen zu treffen, während wir Routineaufgaben automatisieren und so sicherstellen, dass Menschen und KI effektiv zusammenarbeiten.

Nachhaltigkeit

Wir streben die Entwicklung effizienter KI-Modelle an, um die Umweltbelastung zu reduzieren. Kleinere, gut trainierte Modelle können die Leistung größerer Modelle oftmals übertreffen. Wir verwenden außerdem effiziente Hardware und Rechenzentren mit geringem CO2-Ausstoß. Agenten verwenden optimierte Modelle wie xLAM und xGen-Sales, die auf bestimmte Aufgaben zugeschnitten sind und eine hohe Leistung bei minimaler Umweltbelastung gewährleisten.

Symbole, die Genauigkeit, Sicherheit, Ehrlichkeit, Unterstützung und Nachhaltigkeit darstellen

Indem wir diese Grundsätze befolgen, entwickeln wir Agenten, die zuverlässig, sicher, transparent, unterstützend und nachhaltig sind. Bei Salesforce setzen wir uns dafür ein, KI zu nutzen, um die menschlichen Fähigkeiten zu verbessern und zugleich unsere Grundwerte zu wahren.

Schlüsselrisiken und Einwände

In dem Maß, da KI-Systeme autonomer werden, steigt auch ihr Potenzial für Missbrauch und unbeabsichtigte Folgen. Die Gewährleistung eines ethischen und transparenten Betriebs dieser Systeme ist entscheidend, um das Vertrauen der Nutzer zu erhalten und vor Schaden zu schützen. Dies sind einige der Schlüsselrisiken, die berücksichtigt werden müssen.

Unbeabsichtigte Folgen

Die autonomen Aktionen von KI-Agenten können zu unerwarteten und potenziell schädlichen Ergebnissen führen. Dazu können beispielsweise die Erstellung voreingenommener oder beleidigender Inhalte, das Treffen falscher Entscheidungen oder die Interaktion mit Benutzern in einer Weise gehören, die nicht mit den ethischen Richtlinien von Salesforce vereinbar ist. Wechselwirkungen zwischen der Programmierung der KI und den gelernten Mustern können zu unerwarteten oder unerwünschten Handlungen führen, das Vertrauen untergraben und Sicherheitsbedenken hervorrufen.

Sicherheit und Datenschutz

Sicherheit und Datenschutz sind von größter Bedeutung, insbesondere weil Agenten mit vertraulichen Daten umgehen. Wenn bei der Entwicklung keine angemessenen Sicherheitsvorkehrungen getroffen werden, kann dies zu einer unbeabsichtigten Offenlegung vertraulicher Daten führen und das Vertrauen der Nutzer beeinträchtigen.

Ethische und rechtliche Aspekte

Agenten müssen sich an Richtlinien und gesetzliche Anforderungen halten. Es ist von entscheidender Bedeutung, dass Agenten ethisch handeln und Gesetze einhalten, um rechtliche Probleme zu vermeiden und das Vertrauen zu wahren.

Verlust der menschlichen Kontrolle

Da Agenten immer autonomer werden, kann es für Menschen schwierig sein, die Aufsicht aufrechtzuerhalten. Dies kann zu Fehlern, Verstößen gegen ethische Grundsätze und Schäden für die Nutzer und den Ruf der Plattform führen.

Automatisierungseffekt (Automation Bias)

Benutzer können den Ergebnissen der KI zu viel Vertrauen schenken und davon ausgehen, dass diese immer genau und zuverlässig sind. Die Retrieval-Augmented Generation (RAG) kann diese Verzerrung verstärken, indem sie KI-Ergebnisse selbst dann als äußerst maßgeblich und glaubwürdig erscheinen lässt, wenn sie fehlerhaft sind. Dieses übermäßige Vertrauen kann zu Fehlern führen.

Erhöhter Missbrauch durch Benutzer

Je mehr Benutzer mit generativer KI interagieren, desto größer wird die Gefahr des Missbrauchs. Benutzer könnten KI für schädliche Zwecke missbrauchen oder ihre ordnungsgemäße Verwendung missverstehen, was zu Problemen wie der Erstellung unangemessener Inhalte oder der Verletzung der Privatsphäre führen kann.

Wir wenden eine Reihe von Strategien zur Risikominderung an. Wir integrieren Sicherheitsvorkehrungen in unsere Plattform und Produkte, führen kontradiktorische Tests (Adversarial Testing) mithilfe von Red-Teaming durch und entwickeln Richtlinien zur akzeptablen Nutzung von KI, die zu Ihrem Schutz beitragen. Wir bieten Ihnen auch die Möglichkeit, die Sicherheitsvorkehrungen im Produkt anzupassen, um sicherzustellen, dass diese die Werte und Compliance-Anforderungen Ihres Unternehmens widerspiegeln. Wir behandeln diese Themen ausführlicher in den nächsten zwei Lektionen.

In dieser Lektion haben wir Sie mit autonomen Agenten und den damit verbundenen Risiken bekannt gemacht. Sie haben sich auch mit den grundlegenden Prinzipien und Praktiken für die Entwicklung von KI-Agenten befasst und erfahren, wie Sicherheitsvorkehrungen bei Salesforce gestaltet werden. In der nächsten Lektion erfahren Sie, wie Agentforce-Leitlinien und Vertrauensmuster verwendet werden, um vertrauenswürdige agentenbasierte KI zu implementieren.

Ressourcen

Teilen Sie Ihr Trailhead-Feedback über die Salesforce-Hilfe.

Wir würden uns sehr freuen, von Ihren Erfahrungen mit Trailhead zu hören: Sie können jetzt jederzeit über die Salesforce-Hilfe auf das neue Feedback-Formular zugreifen.

Weitere Infos Weiter zu "Feedback teilen"