Skip to main content

Umsetzen von AI-Governance

Lernziele

Nachdem Sie diese Lektion abgeschlossen haben, sind Sie in der Lage, die folgenden Aufgaben auszuführen:

  • Nennen einiger Risiken im Zusammenhang mit AI
  • Erklären, was AI-Governance ist
  • Auflisten der aktuellen AI-Nutzung Ihres Unternehmens
  • Bewerten der AI-Risiken des Unternehmens
  • Aufzählen von Beispielen für Strategien zur Minderung von AI-Risiken

Die Risiken von AI

Man kann kaum über AI sprechen, ohne auch die mit dieser Technologie verbundenen Risiken zu erwähnen. Wir haben alle schon von den Sicherheitsbedrohungen, den Bedenken hinsichtlich Ungenauigkeiten und Verzerrungen, möglichen Datenschutzverletzungen, Ängsten vor Rufschädigung und mehr gehört.

Noch komplizierter wird das Ganze dadurch, dass sich die Technologie so rasant entwickelt. Da ist es kein Wunder, dass laut dem Salesforce-Bericht über Trends bei AI für CRM 68 % der Befragten der Meinung sind, dass durch die Fortschritte bei AI die Vertrauenswürdigkeit eines Unternehmens noch wichtiger wird.

In vielen Fällen übersteigt das Tempo der AI-Revolution jedoch die Fähigkeit von Unternehmen, sich an die Veränderungen anzupassen. Und genau das ist einer der Punkte, die Alex, unseren AI-Fürsprecher und Manager von Coral Cloud Resorts, beunruhigen. Wie kann Coral Cloud sicherstellen, dass das Unternehmen AI auf vertrauenswürdige Weise nutzt?

Governance als Notwendigkeit

Wie Sie wahrscheinlich schon geahnt haben, ist das Vertrauen in AI grundlegend an ihre Governance geknüpft. Sehen wir uns an, was AI-Governance ist.

Unter AI-Governance versteht man eine Reihe von Richtlinien, Prozessen und bewährten Vorgehensweisen, die Unternehmen helfen sicherzustellen, dass AI-Systeme verantwortungsvoll und skalierbar entwickelt, eingesetzt und verwaltet werden, sodass Vorteile maximiert und Risiken minimiert werden.

In dieser Lektion begleiten wir Alex dabei, wie er mit dem AI-Führungsteam bei Coral Cloud für AI-Governance sorgt. Vielleicht gibt es in Ihrem Unternehmen bereits eine oder mehrere Gruppen, die sich mit der Überwachung von Governance befassen. Wenn Sie nicht vorhaben, die AI-Governance mit einem AI-Gremium zentral zu steuern, sollten Sie sicherstellen, dass alle bestehenden internen Gruppierungen über das nötige AI-Fachwissen verfügen, um die bestehenden Praktiken zu erweitern und etwaige Lücken zu schließen.

Entwickeln von Grundsätzen für eine verantwortungsvolle AI

Bevor Coral Cloud mit der Erstellung seines Governance-Programms beginnt, fordert Alex das Führungsteam auf, einen Schritt zurückzutreten und darüber nachzudenken, wie sie sich ganz auf ihre Verpflichtung, eine verantwortungsvolle AI zu entwickeln, konzentrieren können. Was ist ihr Leitprinzip?

Viele Unternehmen, die AI einführen, finden es hilfreich, Grundsätze für die verantwortungsvolle AI-Nutzung zu formulieren. Mit einer Reihe von AI-Grundsätzen können Unternehmen ihren Standpunkt zu AI klar machen und die Auswirkungen der Technologie auf Mitarbeiter, Kunden und die gesamte Gesellschaft berücksichtigen. Dieses Leitprinzip schafft ein gemeinsames Verständnis unter den Mitarbeitern, so dass Ihre AI-Prinzipien auf jeder Ebene des Unternehmens angewendet werden können.

Eine Reihe blauer Symbole, die die fünf Salesforce-Grundsätze für vertrauenswürdige AI darstellen: verantwortungsvoll, verantwortlich, transparent, unterstützend und integrativ.

Lassen Sie sich von den Salesforce-Grundsätzen für vertrauenswürdige AI inspirieren. Denken Sie jedoch daran, dass die AI-Grundsätze Ihres Unternehmens auf seine Mission und Werte abgestimmt sein sollten. Einige Überschneidungen mit anderen Unternehmen sind durchaus normal. Machen Sie sich jedoch unbedingt die Mühe, eigene Grundsätze zu entwickeln, die Zustimmung der Beteiligten einzuholen und sich öffentlich zu diesen Werten zu verpflichten.

Hinweis

Grundsätze sind gut und schön, aber wie setzt man sie in eine verantwortungsvolle AI-Nutzung um? Die meisten Unternehmen beginnen mit Ad-hoc-Regelungen für AI und formalisieren diese dann nach und nach. Sehen Sie sich das Salesforce-Modell für AI-Ethikreife an, um mehr zu erfahren.

Erkunden der Vorschriftenlage

Das Führungsteam von Coral Cloud ist bereit, sich eingehend mit Governance zu befassen, es gibt jedoch ein paar Fragen, die alle beschäftigen: Wie sieht es mit AI-Vorschriften aus? Was ist eigentlich gesetzlich vorgeschrieben?

Derzeit sind die Vorschriften rund um AI ein Flickenteppich aus neu entstehenden Leitlinien und Richtlinien, die nach Region und Branche variieren. Regierungen und Aufsichtsbehörden bemühen sich, mit den rasanten Fortschritten der Technologie Schritt zu halten. Dies macht es schwierig, genau vorherzusagen, wie das Regelwerk kurz- und mittelfristig aussehen wird.

Trotz aller Ungewissheit können Sie einige proaktive Maßnahmen ergreifen. Befolgen Sie die bewährten Vorgehensweisen in dieser Lektion und halten Sie sich über die Trends bei der AI-Regulierung auf dem Laufenden. Wenn Sie Aktualisierungen von Regulierungsbehörden und Branchenverbänden lesen, bekommen Sie frühzeitig Einblick in potenzielle Gesetzesänderungen sowie Zugang zu Unterstützung und Ressourcen, für den Fall, dass neue Anforderungen entstehen.

Bestandsaufnahme der AI-Nutzung Ihres Unternehmens

Um die Governance-Bemühungen von Coral Cloud voranzutreiben, empfiehlt Alex, dass man eine Bestandsaufnahme der aktuellen AI-Nutzung im Unternehmen macht.

Man kann Risiken nur schwer richtig einschätzen, wenn man gar nicht weiß, woher sie kommen. Es ist daher eine gute Idee, alle AI-Tools zu inventarisieren, um das Ausmaß ihrer Integration in die Geschäftsprozesse zu verstehen.

  • Identifizieren von AI-Technologien: Erstellen Sie eine Liste aller derzeit verwendeten AI-Technologien, von einfachen Automatisierungstools bis hin zu komplexen Modellen für maschinelles Lernen. Denken Sie auch an AI, die in Services und Software von Drittanbietern integriert ist.
  • Dokumentieren von Anwendungsfällen: Dokumentieren Sie die spezifischen Anwendungsfälle für jede AI-Technologie. Wenn Sie verstehen, was die einzelnen AI-Lösungen leisten und warum sie eingesetzt werden, können Sie ihre Auswirkung und Bedeutung besser einschätzen.
  • Darstellen der Datenflüsse: Verfolgen Sie nach, wie Daten zu und von jeder AI-Anwendung fließen. Dazu gehören die Quellen der Eingabedaten, was die AI verändert oder analysiert und wohin sie Ausgabedaten sendet.
  • Feststellen der Verantwortung: Ordnen Sie die Verantwortung für jedes AI-Tool bestimmten Personen oder Teams zu. Wenn Sie wissen, wer für jedes Tool verantwortlich ist, können Sie die Verantwortlichkeit sicherstellen und zukünftige Prüfungen und Bewertungen vereinfachen.
  • Regelmäßige Updates: Machen Sie die AI-Bestandsaufnahme zu einem lebenden Dokument, das aktualisiert wird, damit es neue AI-Bereitstellungen oder Änderungen an bestehenden Bereitstellungen widerspiegelt. So bleibt die Bestandsaufnahme relevant und nützlich für Compliance-Zwecke.

Das Führungsteam von Coral Cloud ist zuversichtlich, dass die Bestandsaufnahme alle offiziellen Nutzungsarten von AI im Unternehmen aufzeigen wird. Aber was ist mit der nicht genehmigten Nutzung? Nicht genehmigte AI-Tools, auch Schatten-AI genannt, stellen ein erhebliches Risiko für das Unternehmen dar. Lesen Sie dazu den Artikel des CIO Magazine darüber, wie sich eine Katastrophe durch Schatten-AI verhindern lässt.

Hinweis

Wenn Ihr Unternehmen bereits eine größere Zahl von AI-Tools einsetzt, kann die Bestandsaufnahme einige Zeit dauern. Dies sollte Ihr Unternehmen aber nicht davon abhalten, AI-Anwendungsfälle zu erkunden und Experimente durchzuführen. Stellen Sie einfach sicher, dass Sie eine Risikobewertung für alle AI-Pilotprojekte durchführen, und arbeiten Sie parallel dazu an Ihrer unternehmensweiten AI-Prüfung weiter.

Bewerten von AI-Risiken

Nach der Erstellung der AI-Bestandsliste bei Coral Cloud kann das Team damit beginnen, die Risiken zu bewerten, die von AI für das Unternehmen ausgehen. Dies ist ein entscheidender Schritt für die Einführung von Governance, kann aber auch helfen, sich auf regulatorische Anforderungen vorzubereiten. Einige Richtlinien, wie z. B. der AI Act der EU, verfolgen einen risikobasierten Ansatz für Technologie-Governance. Wenn Sie also frühzeitig einen Risikobewertungsprozess implementieren, sind Sie besser in der Lage, die Vorschriften einzuhalten.

Im Folgenden erfahren Sie, wie Alex und das AI-Führungsteam die AI-Risiken des Unternehmens bewerten.

Identifizieren und Kategorisieren von Risikofaktoren

Prüfen Sie den AI-Bestand. Tragen Sie für jeden Anwendungsfall mögliche Risiken zusammen. Beziehen Sie Beteiligte aus verschiedenen Bereichen des Unternehmens ein, da sie eventuell Risiken sehen, an die Sie nicht gedacht haben. Wenn Sie eine Liste der Risiken haben, ordnen Sie die Risiken in logische Gruppen, wie z. B. technische, ethische, betriebliche, auf den Unternehmensruf bezogene, regulatorische Risiken usw.. Verwenden Sie dabei für Ihr Unternehmen sinnvolle Kategorien.

Bewerten der Auswirkungen und Wahrscheinlichkeit

Beurteilen Sie für jedes Risiko die möglichen Auswirkungen auf Ihr Unternehmen, für den Fall, dass das Risiko eintritt. Ermitteln Sie dann die Wahrscheinlichkeit für das Eintreten jedes Risikos. Die Risiken können als gering, mittel oder hoch eingestuft werden. Historische Daten, Branchen-Benchmarks und Expertenmeinungen sind für diese Einschätzungen hilfreich.

Priorisieren von Risiken

Priorisieren Sie die Risiken anhand ihrer Auswirkungen und Wahrscheinlichkeit. Eine gängige Methode ist die Verwendung einer Risikomatrix, in der die Wahrscheinlichkeit gegenüber der Auswirkung dargestellt wird. Dies hilft Ihnen, den Fokus auf Risiken mit großer Auswirkung und hoher Wahrscheinlichkeit zu legen.

Wenn Sie unsicher sind, wie Sie bei dieser Aufgabe vorgehen sollen, laden Sie die Google DeepMind-Vorlage für das AI Risk Management Framework von der Website des National Institute of Standards and Technology (NIST) AI Resource Center herunter oder suchen online nach anderen Beispielen. Beachten Sie, dass jede Organisation ein Framework entwickeln muss, das für ihren spezifischen Kontext relevant ist, zu dem unter anderem die geografische Region, Branche, Anwendungsfälle und gesetzliche Anforderungen gehören.

Entwickeln von Strategien zur Risikominderung

Nachdem das AI-Komitee von Coral Cloud seine Bewertung abgeschlossen hat, ist es nun bereit, Strategien zu implementieren, die dazu beitragen, all diese Risiken einzudämmen. Im Folgenden finden Sie einige Beispiele für Schutzmaßnahmen gegen verschiedene Arten von Risiken (bitte beachten Sie, dass dies keine vollständige Liste ist).

Art von Risiko

Gängige Strategien zur Risikominderung

Technologie und Sicherheit

  • Sicherheitsrichtlinien und -protokolle
  • Anomalieerkennungssysteme und Ausweichmöglichkeiten
  • Sichere AI-Infrastruktur, Mandanten und Hosting
  • Red Teaming-Tests der Cybersicherheit

Daten und Datenschutz

  • Zugriffskontrollen
  • Datenanonymisierungs- und Verschlüsselungstechniken
  • Regelmäßige Datenprüfungen
  • Richtlinien gegen Datenmissbrauch
  • Datenqualitätsstandards
  • Prozesse zur Datenbereinigung und -validierung

Ethik und Sicherheit

  • Verantwortungsvolle AI-Grundsätze
  • Richtlinien für die akzeptable Nutzung
  • Red Teaming-Tests ethischer Aspekte
  • Tools für die Verzerrungsbewertung und -minderung
  • Benchmarking der Modelle
  • Modelltransparenz, etwa durch Erklärbarkeit und Zitate
  • Wasserzeichen für AI-generierte Inhalte
  • Feedbackmechanismen
  • Prüfprotokolle

Operativ

  • Risikobewertungen
  • Vorfallreaktionspläne
  • Änderungsmanagement
  • Dokumentation und unternehmensweite Schulungen
  • Metriken und Überwachung
  • Interne Ethikprüfungen neuer AI-Produkte und -Funktionen

Compliance und Gesetze

  • Compliance-Protokolle und -Schulungen
  • Rechtsberatung und Verträge

Alex und der Rest des AI-Führungsteams von Coral Cloud sind sich bewusst, dass es unmöglich ist, alle AI-bezogenen Risiken zu vermeiden. Ihr Ziel ist es vielmehr, Prozesse und Tools zu entwickeln, die ihrem Unternehmen die Gewissheit geben, dass Risiken effektiv erkannt und gemanagt werden können. Wenn Sie wissen möchten, wie Sie AI-Governance in Ihrem Unternehmen implementieren, lesen Sie den Leitfaden zur Implementierung und Selbsteinschätzung des Weltwirtschaftsforums.

Verbessern Ihrer Governance-Praktiken

Der AI-Ausschuss von Coral Cloud weiß, dass Governance ein fortlaufender Prozess ist. Das Unternehmen hat folgende Möglichkeiten, seine Fähigkeiten in puncto Risikomanagement zu verbessern und sich besser an die sich verändernde Vorschriftenlage anzupassen.

  • Schulungen und Weiterbildung: Implementieren Sie Schulungen zu AI-Compliance und bewerten Sie den Erfolg des Weiterbildungsprogramms. Fördern Sie eine ethische AI-Kultur und ermutigen Sie Teams, die weiter reichenden Auswirkungen ihrer Arbeit zu bedenken.
  • Überwachung und Überprüfung: Überwachen Sie die Wirksamkeit der implementierten Risikomanagementstrategien regelmäßig und nehmen Sie bei Bedarf Anpassungen vor. Dies ist von entscheidender Bedeutung, wenn neue Risiken auftauchen und bestehende Strategien nachgeschärft werden müssen.
  • Dokumentation und Berichte: Führen Sie detaillierte Aufzeichnungen über alle Aktivitäten zur Risikominderung. Diese Dokumentation kann für die Einhaltung gesetzlicher Vorschriften wichtig und für interne Prüfungen nützlich sein. Entwickeln Sie Metriken für Governance-Initiativen und berichten Sie den Beteiligten über die Ergebnisse.

Als Nächstes geht es um eine der spannendsten Komponenten der AI-Strategie, und zwar um das Ermitteln und Priorisieren von AI-Anwendungsfällen.

Ressourcen

Teilen Sie Ihr Trailhead-Feedback über die Salesforce-Hilfe.

Wir würden uns sehr freuen, von Ihren Erfahrungen mit Trailhead zu hören: Sie können jetzt jederzeit über die Salesforce-Hilfe auf das neue Feedback-Formular zugreifen.

Weitere Infos Weiter zu "Feedback teilen"