Skip to main content
Build the future with Agentforce at TDX in San Francisco or on Salesforce+ on March 5–6. Register now.

Beseitigen von Voreingenommenheit aus Ihren Daten und Algorithmen

Lernziele

Nachdem Sie diese Lektion abgeschlossen haben, sind Sie in der Lage, die folgenden Aufgaben auszuführen:

  • Bestimmen von Faktoren, die in Ihrem Datenset ausgeschlossen oder überrepräsentiert sind
  • Erklären des Nutzens des Abhaltens von Prä-Mortems, um Voreingenommenheit durch Interaktion (Interaction Bias) zu reduzieren
  • Festlegen eines Plans, um sicherzustellen, dass keine neue Voreingenommenheit in Ihre Ergebnisse einfließt

Umgehen mit den Risiken von Voreingenommenheit

Wir haben die verschiedenen Arten von Voreingenommenheit besprochen, die beim Arbeiten mit KI zu berücksichtigen sind. Nun zum schwierigen Teil: Wie können die Risiken, die diese Arten von Voreingenommenheit mit sich bringen, vermieden oder gemeistert werden? Sie können Ihre Trainingsdaten nicht auf magische Weise von Voreingenommenheit befreien. Die Beseitigung von Ausgrenzung ist sowohl ein gesellschaftliches als auch ein technisches Problem: Sie können als Team zusätzlich zum Ändern Ihrer Daten Vorkehrungen treffen, wie Sie Ihr Produkt planen und realisieren. 

Abhalten von Prä-Mortems

Wie wir in der ersten Einheit besprochen haben, beginnt die verantwortungsbewusste Entwicklung eines Produkts mit dem Aufbau einer Kultur der Ethik. Eine Methode hierzu ist das Integrieren von Prä-Mortems in Ihren Workflow. 

Ein Prä-Mortem ist das Gegenteil eines Post-Mortems, nämlich eine Gelegenheit, zu erkennen, was "schief gelaufen ist", bevor es passiert. Häufig zögern Teammitglieder, Vorbehalte in der Planungsphase eines Projekts mitzuteilen. In einem sensiblen Bereich wie der KI ist es von größter Bedeutung, dass Sie und Ihr Team offen für alle etwaigen Bedenken und bereit sind, sich unbehaglich zu fühlen. Das Abhalten einer solchen Besprechung kann den Wunsch dämpfen, in der anfänglichen Begeisterung für ein Projekt die Vorsicht in den Wind zu schlagen, indem maßvolle und realistische Erwartungen formuliert werden. 

Bestimmen ausgrenzender oder überrepräsentierter Einflussfaktoren in Ihrem Datenset

Berücksichtigen Sie die weitreichenden gesellschaftlichen und kulturellen Faktoren, die sich in Ihrem Datenset widerspiegeln. Wie wir in der vorherigen Einheit erläutert haben, kann jede Voreingenommenheit auf der Ebene Ihres Datensets Auswirkungen auf das Empfehlungssystem Ihrer KI haben und zu einer Über- oder Unterrepräsentation einer Gruppe führen.

Aus technischer Sicht gibt es verschiedene Möglichkeiten, wie Sie Voreingenommenheit in Ihren Daten vermeiden können. Die folgenden Techniken sind keineswegs allumfassend.

Sachlage: Statistische Muster, die für die Mehrheit gelten, können innerhalb einer Minderheitsgruppe hinfällig sein.

Vorgehensweise: Erwägen Sie, für verschiedene Gruppen unterschiedliche Algorithmen zu erstellen, anstatt einen einzigen, für alle geeigneten Algorithmus zu entwickeln.

Sachlage: Personen werden aus dem Datenset ausgeschlossen, und diese Ausgrenzung hat Auswirkungen auf Ihre Benutzer. Kontext und Kultur sind wichtig, aber oft es ist unmöglich, die Auswirkungen in den Daten zu erkennen.

Vorgehensweise: Suchen Sie nach dem, was Forscher als unbekannte Unbekannte bezeichnen. Dies sind Fehler, die passieren, wenn ein Modell in Bezug auf eine Vorhersage sehr zuversichtlich ist, die tatsächlich falsch ist. Unbekannte Unbekannte sind im Gegensatz zu bekannten Unbekannten falsche Vorhersagen, die das Modell mit geringer Konfidenz trifft. Ähnlich wie bei der Generierung von Inhalten durch ein Modell kann es Informationen produzieren, die nicht Ihrer Anforderung entsprechen.

Regelmäßiges Bewerten Ihrer Trainingsdaten

Wie bereits erwähnt, beginnt die Entwicklung eines KI-Systems auf der Ebene Ihrer Trainingsdaten. Sie sollten darauf achten, Probleme der Datenqualität so früh wie möglich im Prozess anzugehen. Stellen Sie sicher, dass Sie Extremwerte, Duplikate, Ausreißer und Redundanzen in CRM Analytics oder anderen Datenaufbereitungstools in Angriff nehmen.

Stellen Sie sicher, dass Sie vor der Freigabe Ihrer Modelle Vorabtests durchführen, damit Ihr System keine voreingenommenen Vorhersagen oder Urteile trifft und Menschen in der realen Welt nicht beeinträchtigt. Stellen Sie sicher, dass sie so getestet wurden, dass sie keinen Schaden anrichten. Sie möchten belegen können, dass Ihr Produkt in verschiedenen Communities funktioniert, damit Sie nach der Markteinführung keine Überraschungen erleben. 

Entwickeln Sie nach der Freigabe eines Modells ein System zur regelmäßigen Überprüfung der Daten, anhand derer Ihre Algorithmen lernen, und der Empfehlungen, die Ihr System gibt. Stellen Sie sich vor, dass Ihre Daten eine Halbwertszeit haben, denn sie werden nicht für alle Zielgruppen auf unbestimmte Zeit funktionieren. Auf technischer Seite gilt: je mehr Daten in ein System gelangen, desto lernfähiger wird ein Algorithmus. Dies kann das System veranlassen, Muster zu erkennen und abzugleichen, die von den Entwicklern des Produkts nicht vorhergesehen oder gewünscht wurden. 

Auf gesellschaftlicher Seite verändern sich kulturelle Werte im Laufe der Zeit. Die Ergebnisse Ihrer Algorithmen passen möglicherweise nicht mehr zu den Wertesystemen der Zielgruppen. Es gibt zwei Möglichkeiten zum Bewältigen dieser Herausforderungen. Dies sind zum einen bezahlte Überprüfungsprozesse für die jeweilige Zielgruppe, um die Aufsicht zu verbessern. Zum anderen können Sie in Ihrem Produkt Mechanismen einrichten, die es Einzelpersonen und Benutzern ermöglichen, sich von der Teilnahme auszuschließen oder Daten über sich selbst zu korrigieren. Die Überprüfungsprozesse für eine Zielgruppe sollten Personen aus den jeweiligen Zielgruppen einbeziehen, die von dem von Ihnen entwickelten algorithmischen System betroffen sein könnten. Sie sollten auch Sitzungen mit den Personen abhalten, die das System implementieren, verwalten und nutzen, damit sie die Ziele ihres Unternehmens erreichen. In unserem Modul Erforschen der Benutzererfahrung – Grundlagen erfahren Sie mehr über Methoden, mit denen Sie auf Zielgruppen bezogene Überprüfungsprozesse und Benutzerrecherchen durchführen können, um die Kontexte zu verstehen, in denen Ihr Tool eingesetzt wird.

Fazit

Künstliche Intelligenz kann eine Triebfeder für gute Zwecke sein und potenziell Tumore erkennen, die vom Menschen nicht erkannt werden können, und Alzheimer, bevor die eigene Familie es kann, oder indigene Sprachen bewahren. In diesem Modul haben wir die Leistungsfähigkeit von KI-Systemen, aber auch ihre Undurchsichtigkeit aufgezeigt. Wenn wir wollen, dass KI der Gesellschaft mehr nützt als schadet, müssen wir die Risiken erkennen und Maßnahmen ergreifen, die sicherstellen, dass KI-Systeme verantwortungsbewusst konzipiert, entwickelt und eingesetzt werden.

Auch wenn wir als IT-Experten gewissenhaft und überlegt vorgehen, wird es auf unserem Weg Überraschungen geben. Wir können nicht immer die Wechselwirkungen zwischen Datensets, Modellen und ihrem jeweiligen kulturellen Kontext vorhersagen. Datensets weisen oft Arten von Voreingenommenheit auf, die uns nicht bewusst sind. Es liegt in unserer Verantwortung, Trainingsdaten und Vorhersagen unserer Modelle auszuwerten und zu beurteilen, um sicherzustellen, dass sie keine negativen Ergebnisse liefern.

Die Entwicklung ethischer KI-Systeme ist ein gesellschaftlich-technischer Prozess. Betrachten Sie das Ganze nicht nur in Bezug auf die technische Umsetzung, sondern auch in Bezug auf die teamübergreifende Entwicklung und gesellschaftlichen Kontexte, in denen das System eingesetzt werden soll. Beobachten Sie, wer am Prozess beteiligt ist – wie sind Geschlecht, ethnische Zugehörigkeit und Alter repräsentiert? Die Entwickler von KI-Produkten und die durch diese Systeme verursachte Voreingenommenheit sind miteinander verbunden.

Um eine sichere, gesellschaftlich vorteilhafte KI zu realisieren, müssen wir uns daran erinnern, dass der Mensch immer im Mittelpunkt steht. KI ist ein Werkzeug und wir entscheiden, wie wir es einsetzen. Unabhängig von der Rolle einer Person können ihre scheinbar unbedeutenden Entscheidungen schwerwiegende und dauerhafte Folgen haben. Wir bei Salesforce sind fest davon überzeugt, dass wir erfolgreich sein und Gutes tun können. Sie können einen Gewinn erzielen, ohne anderen zu schaden, und sogar einen positiven Einfluss auf den Prozess haben. 

Ressourcen

Teilen Sie Ihr Trailhead-Feedback über die Salesforce-Hilfe.

Wir würden uns sehr freuen, von Ihren Erfahrungen mit Trailhead zu hören: Sie können jetzt jederzeit über die Salesforce-Hilfe auf das neue Feedback-Formular zugreifen.

Weitere Infos Weiter zu "Feedback teilen"