Reggie Townsend, SAS „Trustworthy AI“ als Unternehmensmaxime: Verantwortung & Effizienz in Einklang bringen

KI? Ja, aber fair soll sie sein und im Idealfall die Interaktion von Unternehmen mit Verbrauchern verbessern. Wie sich das umsetzen lässt und welches Know-how dafür benötigt wird.

Die KI soll Unternehmen und Verbraucher näher zusammenführen (Bild: picture alliance / Westend61 | Fotoagentur WESTEND61)

Chancen und Risiken: In jeder Geschäftsentscheidung und jeder Technologie steckt beides – KI bildet hier keine Ausnahme. Um Krisensituationen zu meistern, brauchen Unternehmen nicht nur ein finanzielles Polster, sondern auch einen ethischen Rahmen. Das zeigt eine aktuelle Studie: Immerhin 82 Prozent der deutschen Führungskräfte investieren demnach in Planung und Strategie für mehr Resilienz, ein Faktor dafür ist unter anderem „Fairness und Verantwortung“ – das gilt insbesondere beim Einsatz neuer Technologien. 95 Prozent der Befragten bewerten Daten und Analytics als essenziell, um Resilienz zu erreichen. Allerdings meinen 76 Prozent, sie bräuchten Unterstützung durch externe Berater, um den Resilienz-Gap schließen zu können, insbesondere in den Bereichen Innovation (43 Prozent) und Curiosity (42 Prozent).

Unternehmen sollten daher vier Schlüsselfaktoren im Hinblick auf Datenethik beachten, wenn sie KI-Anwendungen implementieren:

  • Rückgriff auf Best Practices, bewährte Methoden, Tools und Kollaboration
  • Etablieren standardisierter Normen für Datenethik
  • Minimieren von negativen Auswirkungen auf marginalisierte Personengruppen
  • Konsistenter, koordinierter Ansatz über alle Unternehmensbereiche und Regionen hinweg

Können heißt nicht gleich Sollen

Spätestens, wenn anhand von Daten KI-basierte Entscheidungen getroffen werden sollen, sind Transparenz und Nachvollziehbarkeit Pflicht. Wenn Amazon mir ein Hemd empfiehlt, das mir nicht gefällt, ist das nicht weiter schlimm. Anders sieht es jedoch aus, wenn eine Bank ihrem Kunden aufgrund historischer Daten, die eine rassistische Verzerrung mitbringen, einen Kredit verweigert. Ebenso wenig ist es akzeptabel, wenn bestimmte gesellschaftliche Gruppen aufgrund von unausgewogenen Daten vom Gesundheitssystem unterversorgt werden.

Überall dort, wo Gesundheit, Sicherheit, Finanzen oder die persönliche Freiheit ins Spiel kommen, ist es zwingend erforderlich, dass die aus KI abgeleiteten Entscheidungen plausibel sind.

Es gilt, Vorannahmen zu verhindern, die vulnerable Personengruppen beispielsweise aufgrund von Geschlecht, Herkunft, Alter, körperlicher oder geistiger Einschränkungen benachteiligen könnten. Hierfür sind strenge Kontrollen und sorgfältige Regulierung erforderlich.

ChatGPT: Die „Jedermann-KI“ hat Grenzen
Kritisch wird die Verantwortungsfrage, wenn KI für die „breite Masse” bereitgestellt wird – wie jüngst im Fall der generativen KI ChatGPT. Gerade wenn diese im Geschäftskontext eingesetzt wird, müssen Unternehmen klar abgrenzen, was diese „Jedermann-KI” kann und darf – und in welchen Anwendungsfällen Profis mit Unterstützung von zuverlässiger und vor allem transparenter KI gefragt sind. Dabei ist die tatsächliche Nutzung der Technologie weniger verbreitet, als man vermuten könnte. Laut einer Befragung von forsa im Auftrag von SAS kennen lediglich zwei von drei Deutschen ChatGPT, die meisten allerdings nur vom Hörensagen.

Abb. 1: ChatGPT: Hype aus Hörensagen

Ethische Innovation – aber wie?

Unternehmen, die KI einsetzen, müssen sich in erster Instanz fragen: Steht der Mensch stets im Mittelpunkt?

Ebenso wichtig ist es, ein diverses Team mit der Entwicklung von KI-Anwendungen zu beauftragen. Dabei sollte immer wieder hinterfragt werden, ob Gefahr besteht, dass die Daten und die KI existierende Vorurteile reproduzieren oder sogar verstärken.

Ethische Aspekte sind nicht erst beim Einsatz von KI wichtig, sie sind an jedem Punkt des Technologielebenszyklus zu berücksichtigen – von der ersten Idee für ein Anwendungsszenario bis hin zur Überwachung der KI-Modelle. Ethisches Verhalten verringert das Risiko, unabsichtlich bestimmte soziale Gruppen zu vernachlässigen oder zu diskriminieren, was letztlich auch dem Ruf des Unternehmens schaden und zu Umsatzverlusten führen kann. Ein ethischer Umgang mit Daten, der auch aus regulatorischer Sicht immer stärker eingefordert wird, ist daher sowohl aus Kosten- als auch aus Imagegründen mehr als sinnvoll. Die potenziellen Strafzahlungen sind enorm: Vier bis sechs Prozent des Umsatzes können bei Datenschutzvergehen fällig werden. Ganz zu schweigen vom verlorenen Kundenvertrauen, das sich nicht mit Geld aufwiegen lässt.

Kein „One Size Fits All”

Was für ein einzelnes Unternehmen „verantwortungsvoll” bedeutet, hängt unmittelbar von der Branche oder sogar der jeweiligen Abteilung ab. Daher muss jede Organisation oder jeder Bereich im Unternehmen ein eigenes potenzielle Risikoprofil erstellen. Ein Leiter der Finanzabteilung hat ganz andere Risikoprioritäten und -ressourcen als ein Marketing Director – und KI kann für beide die Technologie sein, die dabei assistiert, das Unternehmen voranzubringen, ohne dass dies auf Kosten der Sicherheit geht.

Grundprinzipien für ethische (oder vertrauenswürdige) KI sind sicherlich: Menschlichkeit, Inklusion, Verantwortung, Stabilität, Transparenz sowie Datenschutz und Sicherheit. Die technische Voraussetzung für eine solche verantwortungsvolle KI ist eine durchgängige Cloud-native Analytics-Plattform wie SAS Viya, die jeden Schritt der Entscheidungsfindung transparent und überprüfbar macht – beispielsweise indem Anwender Vorannahmen aufgrund von Verzerrungen in den Daten (Bias) erkennen können. Die statistischen Modelle lassen sich also aktiv überwachen, die Einhaltung von Governance ist sichergestellt, und Verantwortlichkeiten sind klar. Bias kann während des gesamten KI-Prozesses in verschiedenen Formen auftreten. Daher benötigen KI-Plattformen unbedingt Funktionen, die solche Fehlentwicklungen bereits beim Datenmanagement und bei der Modellierung identifizieren.

Die erfolgreiche Einführung von KI hängt vor allem von drei Faktoren ab: die passenden Mitarbeiter, Technologien und Richtlinien. Wichtig ist, dass man in Deutschland ein breiteres Verständnis für KI schafft, um Angst und Verunsicherung zu begegnen. Diese resultieren oft aus einem Informationsmangel oder aus Kontroversen rund um Hype-Technologien, wie aktuell um die generative KI ChatGPT. Ein Großteil der Bevölkerung braucht also noch Grundlagenwissen darüber, was KI wirklich kann.

KI in der Medizin

Ein Beispiel aus dem SAS Umfeld, wie KI sinnvoll in der Medizin genutzt werden kann, ist das Massey Cancer Center der Virginia Commonwealth University (VCU). Dort arbeiten Forscher, Verwaltung und Bürger auf Datenbasis eng zusammen, um herauszufinden, wie Krebserkrankungen in sozial und wirtschaftlich benachteiligen Bevölkerungsgruppen auftreten. Die Auswertung sehr großer Datenmengen mithilfe der Analyseplattform von SAS bringt zutage, inwieweit einkommensschwache und vulnerable Bevölkerungsgruppen ein höheres Krebs- und Sterblichkeitsrisiko aufweisen. Datenmanagement, -analyse und -visualisierung laufen automatisiert ab, dadurch stehen die Forschungsergebnisse sehr schnell zur Verfügung. Wichtige Erkenntnisse zu Risikofaktoren und wirksamen Behandlungen lassen sich einfacher interpretieren und teilen.

In allen Phasen eines solchen Innovationsprozesses müssen ethische Fragen, muss ein klares Verantwortungsbewusstsein eine zentrale Rolle spielen. Verantwortungsvolle Innovation durch KI setzt wiederum vertrauenswürdige KI voraus: Das heißt, sie muss überprüfbar und erklärbar sein. Das ist gerade im Gesundheitswesen wichtig, weil es hier oft um Entscheidungen über Leben und Tod geht. Das Amsterdam University Medical Center (AUMC) hat beispielsweise ein sogenanntes Deep-Learning-Modell von SAS Viya darauf trainiert, Merkmale, die auf einen Tumor hinweisen, sofort zu erkennen und wichtige Informationen direkt an die zuständigen Ärzte weiterzugeben. Ziel ist eine schnellere Diagnose und eine rasche Entscheidung über lebensrettende Maßnahmen, etwa eine sofortige Operation.

Wo ist … der Data Scientist?

Womöglich wird man den einen KI-Ethikstandard weltweit niemals finden. Wichtig ist jedoch, eine harmonische Interoperabilität zwischen Systemen und Standards herzustellen, um das Vertrauen der Verbraucher in eine „Blackbox”-Technologie wie KI zu gewinnen.

Ein Faktor, der die breitflächige Einführung von KI aktuell behindert, ist der Mangel an Data Scientists. Die Demokratisierung von Analytics ist zwar in vollem Gange, dennoch werden Datenexperten weiterhin dringend benötigt. Einen Vorteil werden also vor allem die Regionen haben, denen es gelingt, Spitzentalente in diesem Bereich aufzubauen und zu halten.

Wie „Trustworthy AI“ aussehen kann, diskutiert auch ein aktuelles eBook.

 

Über die Person

Reggie Townsend ist Direktor des Bereichs Datenethik beim US-Softwarehaus SAS. Das weltweit tätige Unternehmen aus North Carolina mit knapp 12.000 Mitarbeitern und Kunden aus 150 Ländern gilt als Pionier in den Bereichen des Maschinellen Lernens und der Künstlichen Intelligenz. Townsend ist seit April 2022 Mitglied im National Artificial Intelligence Advisory Committee, das den US-Präsidenten bei Fragen rund um den ethischen Einsatz von KI berät.

Diskutieren Sie mit!     

Noch keine Kommentare zu diesem Artikel. Machen Sie gerne den Anfang!

Um unsere Kommentarfunktion nutzen zu können müssen Sie sich anmelden.

Anmelden

Weitere Highlights auf CONSULTING.de

Editors Choice

alle anzeigen
Bitte warten, Verarbeitung läuft ...