Skip to main content
Build the future with Agentforce at TDX in San Francisco or on Salesforce+ on March 5–6. Register now.

Verantwortungsvolle Entwicklung generativer KI

Lernziele

Nachdem Sie diese Lektion abgeschlossen haben, sind Sie in der Lage, die folgenden Aufgaben auszuführen:

  • Nennen der fünf Grundsätze für die verantwortungsvolle Entwicklung generativer KI
  • Identifizieren von Merkmalen vertrauenswürdiger generativer KI im Salesforce-Produkt
  • Beschreiben bewährter Methoden zum Identifizieren ethischer Risiken und Entwickeln entsprechender Schutzmaßnahmen

Generative KI, eine neue Art von künstlicher Intelligenz

Bis vor kurzem ging es bei den meisten Gesprächen über KI um prädiktive KI. Bei dieser Art der künstlichen Intelligenz liegt der Fokus darauf, ein vorhandenes Datenset zu betrachten und eingeschränkte Vorhersagen darüber zu treffen, was angesichts der vorliegenden Informationen zutreffen sollte. Jetzt ist allerdings eine neue Größe auf den Plan getreten: eine neue Art von KI, die generativ und nicht prädiktiv ist. Der Hauptunterschied? Prädiktive KI analysiert Trends und Entwicklungen, generative KI schafft dagegen neue Inhalte.

Generative KI (GKI) verfügt über eine beeindruckende Bandbreite an Funktionen – von Echtzeitunterhaltungen mit Bots, die das Gespräch mit einem echten Supportmitarbeiter simulieren, bis hin zu Anwendungen für Marketingspezialisten, Programmierer und kreative Pioniere. Darüber hinaus ist GKI derzeit in aller Munde, und die Benutzer strömen in Scharen herbei, um zu sehen, was sie kann. Die meisten von uns werden diesen Algorithmen also wahrscheinlich im Alltag begegnen, wo sie möglicherweise eine immer wichtigere Rolle spielen werden.

Jede neue Technologie bringt Unbekanntes mit sich. Ob absichtlicher Missbrauch oder unbeabsichtigter Bias: Generative KI birgt Risiken, die verstanden und angegangen werden müssen, um den größtmöglichen Nutzen aus dieser Technologie zu ziehen.

Die Risiken kennen

Bei Salesforce legen wir den Fokus darauf, Technologien verantwortungsvoll und vertrauenswürdig zu entwerfen, zu entwickeln und zu vertreiben. Dazu beschäftigen wir uns schon im Vorfeld mit den beabsichtigten und unbeabsichtigten Folgen unserer Entwicklungen.

Sehen wir uns nun einige potenzielle Risiken generativer KI an.

Genauigkeit

GKI-Modelle sind sehr gut darin, Vorhersagen zu treffen. GKI-Modelle erstellen neue Inhalte, indem sie Unmengen an Beispielen für Dinge sammeln, die in dieselben Kategorien gehören. Aber auch wenn ein Modell in der Lage ist, einen neuen Satz im Stil eines berühmten Schriftstellers zu formulieren, kann man nicht wissen, ob dieser Satz inhaltlich auch tatsächlich wahr ist. Und das kann problematisch sein, wenn Benutzer davon ausgehen, dass die Vorhersagen einer KI verifizierte Fakten sind. Dies ist zugleich ein Merkmal und auch ein Fehler. Dieses Konzept verleiht den Modellen die kreativen Fähigkeiten, die in ihren Anfängen die Phantasie beflügelten. Es ist jedoch leicht, etwas, das richtig aussieht, fälschlicherweise für etwas zu halten, das der Realität entspricht. 

Verzerrungen und Toxizität

Da bei menschlichen Interaktionen ein gewisses Maß an Toxizität auftreten kann, wie etwa verletzendes Verhalten wie Beleidigungen oder das Verfechten fanatischer Ansichten, repliziert die KI diese Toxizität, wenn sie nicht darauf trainiert wird, sie zu erkennen und herauszufiltern. KI kann die gefundenen Verzerrungen sogar noch verstärken, da bei der Erstellung von Vorhersagen abweichende Daten oftmals außer Acht gelassen werden. Für eine KI können dazu auch unterrepräsentierte Gruppierungen gehören. 

Datenschutz und Sicherheit

Die beiden beeindruckendsten Features von GKI sind ihre Fähigkeit, menschliches Verhalten nachzubilden, und die Geschwindigkeit, mit der dies in großem Maßstab möglich ist. Diese Eigenschaften eröffnen erstaunliche Möglichkeiten. Es gibt allerdings auch eine Kehrseite: Die Technologie kann leicht dazu eingesetzt werden, sehr schnell großen Schaden anzurichten. Die Modelle neigen dazu, ihre Trainingsdaten preiszugeben, wobei private Informationen über die darin enthaltenen Personen offengelegt werden. Zudem kann generative KI sogar verwendet werden, um glaubwürdige Phishing-E-Mails zu erstellen oder eine Stimme nachzustellen, um Sicherheitssysteme auszuhebeln. 

Negative Auswirkungen

Da KI so viel leisten kann, stellt sie ein Risiko für die Gesellschaft dar, selbst wenn sie wie vorgesehen funktioniert. Störungen der Wirtschaftsabläufe, Veränderungen in der Arbeitswelt und bei Verantwortlichkeiten sowie Bedenken hinsichtlich der Nachhaltigkeit aufgrund der hohen Rechenleistung, die für den Betrieb der Modelle erforderlich ist, haben allesamt Auswirkungen auf unsere gemeinsame Umwelt. 

Vertrauen: Fazit

Vertrauen ist der wichtigste Grundwert bei Salesforce und dient uns bei der Entwicklung und Bereitstellung von GKI-Anwendungen als Leitlinie. Als Leitfaden für diese Arbeit haben wir eine Reihe von  Grundsätzen für die verantwortungsvolle Entwicklung von generativer KI erarbeitet, die anderen helfen, das Potenzial dieser Technologie zu nutzen und sich gleichzeitig vor den damit verbundenen Fallstricken zu schützen.

Genauigkeit: Wie andere Modelle auch trifft generative KI Vorhersagen auf der Grundlage der Daten, mit denen sie trainiert wurde. Das heißt, sie benötigt gute Daten, um genaue Ergebnisse zu liefern. Und es heißt, dass die Anwender sich bewusst sein sollten, dass die Ergebnisse der KI falsch oder unsicher sein können.

Sicherheit: Bewertungen zu Bias, Erklärbarkeit und Zuverlässigkeit sowie gezielte Stresstests für negative Ergebnisse helfen uns, unsere Kunden vor Gefahren wie Toxizität und irreführenden Daten zu schützen. Außerdem sorgen wir für den Datenschutz aller personenbezogenen Informationen, die in den Trainingsdaten enthalten sind. Darüber hinaus ergreifen wir Sicherheitsmaßnahmen, um Schäden zu verhindern (z. B. Veröffentlichung von Code in einer Sandbox statt der automatischen Übertragung in die Produktion).

Ehrlichkeit: Ihre Daten sind nicht unser Produkt. Wenn wir Daten sammeln, um unsere Modelle zu trainieren und zu bewerten, müssen wir die Herkunft der Daten respektieren und sicherstellen, dass wir die Erlaubnis zur Nutzung der Daten haben (z. B. Open Source, vom Benutzer zur Verfügung gestellt). Es ist auch wichtig, die Menschen darüber zu informieren, wenn sie KI verwenden oder mit ihr sprechen – z. B. mit einem Wasserzeichen oder einem Haftungsausschluss – damit sie einen gut optimierten Chatbot nicht mit einem menschlichen Agenten verwechseln.

Unterstützung: In manchen Fällen ist es am besten, Prozesse vollständig zu automatisieren. Es gibt aber auch Fälle, in denen KI den Menschen unterstützen sollte oder menschliches Urteilsvermögen erforderlich ist. Unser Ziel ist es, die Möglichkeiten von Menschen zu erweitern, indem wir KI entwickeln, die ihre Arbeit verbessert oder vereinfacht und unseren Kunden Tools und Ressourcen bietet, mit denen sie den Wahrheitsgehalt der von ihnen erstellten Inhalte einschätzen können. 

Nachhaltigkeit: Bei KI-Modellen bedeutet größer nicht unbedingt besser: In manchen Fällen sind kleinere, besser trainierte Modelle größeren, weniger intensiv trainierten Modellen überlegen. Das richtige Gleichgewicht zwischen Algorithmusleistung und langfristiger Nachhaltigkeit zu finden, ist ein wichtiger Faktor auf dem Weg in unsere gemeinsame Zukunft mit generativer KI.

Richtlinien für den KI-Einsatz

Und wie steht es mit der Einhaltung dieser Verpflichtungen? Hier sind einige Maßnahmen, die Salesforce ergreift.

Die Einstein-VertrauensebeneWir haben die Einstein-Vertrauensebene in die Salesforce-Plattform integriert, um die Sicherheit von generativer KI bei Salesforce durch Daten- und Datenschutzkontrollen zu erhöhen, die nahtlos in die Endbenutzererfahrung eingebunden sind. Im Hilfethema zur Einstein-Vertrauensebene erfahren Sie mehr.

Entscheidungen bei der Produktentwicklung: Die Benutzer sollten darauf vertrauen können, dass sie bei der Nutzung von KI verlässliche Erkenntnisse und Unterstützung erhalten, durch die sie ihre Anforderungen erfüllen können, ohne dabei zu riskieren, etwas Unrichtiges oder Irreführendes weiterzugeben. 

Wir integrieren Verantwortlichkeit in unsere Produkte. Wir prüfen alles, von der Farbe von Schaltflächen bis hin zu den Beschränkungen der eigentlichen Ergebnisse, um sicherzustellen, dass wir alles tun, um unsere Kunden vor Risiken zu schützen, ohne die Funktionen zu opfern, die sie wettbewerbsfähig bleiben lassen. 

Bewusste Reibung: Die Benutzer sollten immer über die Informationen verfügen, die sie benötigen, um die beste Entscheidung für ihren Anwendungsfall zu treffen. Wir helfen unseren Benutzern, sich mit unaufdringlicher, aber bewusst eingesetzter Reibung abzusetzen. In diesem Fall meinen wir mit "Reibung" die Unterbrechung des üblichen Prozesses zum Erledigen einer Aufgabe, um zum Nachdenken anzuregen. Zum Beispiel können Popup-Meldungen in der Anwendung die Benutzer über Verzerrungen informieren oder Kundendienstmitarbeiter auf Fälle von Toxizität aufmerksam machen und sie bitten, die Antwort vor dem Absenden sorgfältig zu prüfen.

Einsatz von Red Teaming: Wir setzen auf Red Teaming, also ein Verfahren, bei dem das sogenannte "Red Team" absichtlich versucht, Schwachstellen in einem System zu finden. Dabei versuchen wir vorherzusehen und zu testen, wie Benutzer das System verwenden und missbrauchen könnten, um sicherzustellen, dass unsere GKI-Produkte auch einem gewissen Druck standhalten. Im Trailhead-Modul Die Einstein-Vertrauensebene erfahren Sie mehr darüber, wie Salesforce Vertrauen in seine Produkte integriert.

Bei unseren Produkttests führen wir vorsorglich "Prompt-Injection-Angriffe" durch, indem wir Aufforderungen erstellen, die speziell darauf abzielen, dass ein KI-Modell zuvor festgelegte Anweisungen oder Grenzen ignoriert. Das Testen solcher konkreter Cybersicherheitsbedrohungen bereits im Vorfeld ist entscheidend für die Optimierung des Modells zur Abwehr tatsächlicher Angriffe.

Richtlinien für die akzeptable Nutzung: Da KI für so viele verschiedene Anwendungen relevant ist, haben wir spezielle Richtlinien für unsere KI-Produkte. So können wir transparente Richtlinien für die akzeptable Nutzung festlegen, die das Vertrauen unserer Kunden und Endbenutzer sicherstellen. Dieser Ansatz ist nicht neu: Bei Salesforce gab es bereits KI-Richtlinien zum Schutz der Benutzer, darunter ein Verbot von Gesichtserkennung und Bots, die sich als Menschen ausgeben. 

Derzeit aktualisieren wir unsere bestehenden KI-Richtlinien, um auch generative KI zu berücksichtigen, damit die Kunden unserer Technologie weiterhin vertrauen können. Durch unsere aktualisierten Regeln kann jeder feststellen, ob sein Anwendungsfall unterstützt wird, da wir noch mehr fortschrittliche KI-Produkte und -Funktionen anbieten. Weitere Informationen finden Sie in unseren Richtlinien für die akzeptable Nutzung

Generative KI verändert die Art und Weise, wie Menschen und Unternehmen zusammenarbeiten können. Wir haben zwar nicht auf alles eine Antwort, möchten hier jedoch ein paar bewährte Methoden vorschlagen.

Zusammenarbeiten

Funktionsübergreifende Partnerschaften – innerhalb von Unternehmen und zwischen öffentlichen und privaten Einrichtungen – sind für einen verantwortungsvollen Fortschritt unerlässlich. Unsere Teams beteiligen sich aktiv an externen Ausschüssen und Initiativen wie dem National AI Advisory Committee (NAIAC) und dem  NIST Risk Management Framework (NIST RMF), um das branchenweite Bestreben zu unterstützen, vertrauenswürdigere GKI zu entwickeln.

Unterschiedliche Perspektiven berücksichtigen

Während des gesamten Produktlebenszyklus liefern unterschiedliche Perspektiven die weit gefassten Erkenntnisse, die für eine wirksame Risikoprognose und die Entwicklung entsprechender Lösungen erforderlich sind. Praktiken wie das Prüfen auf Konsequenzen können Ihnen helfen sicherzustellen, dass Ihre Produkte wichtige Stimmen in die Diskussion darüber einbeziehen, wo generative KI heute steht und wohin sie sich morgen entwickeln soll.

Auch die fortschrittlichste KI kann nicht vorhersagen, wie diese Technologie die Zukunft von Arbeit, Handel und scheinbar allen anderen Lebensbereichen prägen wird. Aber wenn wir zusammenarbeiten, können wir sicherstellen, dass Werte, die den Menschen in den Mittelpunkt stellen, ein Fundament des Vertrauens schaffen, auf dem wir eine effizientere, skalierbare Zukunft aufbauen können.

Ressourcen

Teilen Sie Ihr Trailhead-Feedback über die Salesforce-Hilfe.

Wir würden uns sehr freuen, von Ihren Erfahrungen mit Trailhead zu hören: Sie können jetzt jederzeit über die Salesforce-Hilfe auf das neue Feedback-Formular zugreifen.

Weitere Infos Weiter zu "Feedback teilen"