Dr. Andreas Schiel, VPU Umgang mit KI: Guter Rat ist teuer

(Bild: picture alliance / CHROMORANGE | Knut Niehus)
Was ist eigentlich Künstliche Intelligenz? Diese Frage ist überraschend schwer zu beantworten, weil schon eine allgemein anerkannte Definition des Begriffs Intelligenz fehlt. Der Physiker, KI-Forscher und Autor Max Tegmark hat zur Annäherung an das Thema KI eine pragmatische Definition von Intelligenz vorgeschlagen: Die Fähigkeit, komplexe Ziele zu erreichen. Diese Fähigkeit besitzen viele Computersysteme seit Jahrzehnten, wie Tegmark unter anderem am Beispiel des Zielverfolgungssystems eines mit Suchkopf ausgestatteten Marschflugkörpers erläutert, welches sich auch auf nicht vorab berechenbare Bewegungen eines Zielobjekts (etwa eines Flugzeugs) einstellen kann (vgl. Tegmark 2017).
Mit diesem Beispiel ist auch schon das faszinierende Potenzial, wie die Brisanz computerbasierter Intelligenz, erfasst: Automatisierte Systeme sind heute in der Lage, teilweise anspruchsvollste Aufgaben unabhängig von menschlicher Einflussnahme zu erfüllen. In vielen dieser Spezialgebiete sind sie dabei immer häufiger Menschen überlegen.
Und insofern, als dass sie ihre komplexen Ziele oftmals zuverlässig erreichen, können diese Systeme in der Tat als intelligent gelten.
KI mit Selbstbewusstsein wird wohl Science-Fiction bleiben
Weil aber Intelligenz von den meisten auch mit dem Vorhandensein eines Selbstbewusstseins verknüpft wird, gilt vielen maschinelle Intelligenz nicht nur wegen ihrer anorganischen Basis (Mikrochips statt Nervenzellen) als künstlich. Computer mögen rechnen und in gewisser Weise auch denken, aber sie verfügen über kein auch nur annähernd dem Menschen vergleichbares Bewusstsein. Dieser Zustand wäre allenfalls mit dem bisher unerreichten Entwicklungsgrad einer sogenannten starken KI (englisch: general AI) gegeben. Solche Systeme kennen wir aber bisher nur aus Filmen wie Stanley Kubricks 2001: Odyssee im Weltraum oder der dystopischen Reihe Terminator.
Bereits Alltag sind allerdings sogenannte schwache KIs (narrow AI), die auf Spezialanwendungen wie Dokumentenanalyse oder Gesichtserkennung auf der Basis von Massendaten „trainiert“ werden (machine learning). Besondere Aufmerksamkeit haben in den letzten Jahren auch Systeme des sogenannten reinforcement learnings erhalten. Dabei handelt es sich um KIs, die dynamisch und ohne speziell aufbereitete Daten Lösungsstrategien (etwa für bekannte Computerspiele) quasi spontan entwickeln können. Einige dieser Anwendungen erreichen mittlerweile ein Leistungsniveau, das von keinem menschlichen Akteur übertroffen werden kann. Das reinforcement learning, bei welchem Computersysteme ähnlich wie Menschen durch Versuch und Irrtum lernen, gilt manchen daher als Vorstufe einer möglichen starken KI, die sich Wissen aus unterschiedlichsten Bereichen aneignen und Lösungen für beliebige Themenbereiche entwickeln könnte.
Grundsätzlich vorstellbar ist das durchaus, da die jeder lernfähigen Künstlichen Intelligenz zu Grunde liegenden künstlichen neuronalen Netze menschlichen Gehirnzellen in Aufbau und Funktion verblüffend ähneln.
Experten wie Max Tegmark oder auch der Bestsellerautor Yuval Noah Harari betonen deshalb, dass die Grenze zwischen maschineller und menschlicher Intelligenz in Zukunft immer weiter verschwimmen dürfte – auch dann, wenn die superintelligente starke KI mit eigenem Bewusstsein für immer Science Fiction bliebe.
KI im Unternehmen und im Arbeitsalltag: Was ist wirklich neu?
Was aber bedeutet KI eigentlich für den Arbeitsalltag? Zunächst einmal bewirkt KI nichts anderes als die schon lange übliche Automatisierung bisher menschlicher Arbeitsaufgaben. Neu ist hierbei allerdings, dass nun nicht vorwiegend manuelle Fertigungsschritte automatisiert werden, wie im vergangenen Jahrhundert, sondern vor allem wissensbasierte Arbeitsaufgaben. Dadurch können zum Beispiel viele Aufgaben im Bereich von Verwaltung und Sachbearbeitung, aber auch analytische Aufgabenprofile wie Diagnostik oder Text- und Vertragsanalysen von Maschinen übernommen werden.
Gleichzeitig sollte aber nicht übersehen werden, dass auch in diesen Bereichen bereits seit langer Zeit Automatisierung von Abläufen stattfindet.
Dabei sollte man nicht nur an die vertraute Büro-Standardsoftware denken, sondern auch an die Standardisierung von Abläufen durch klassische Bürokratie: Seit Langem werden zum Beispiel Kundenanfragen oder Bewerbungen nach pauschalen Kriterien bearbeitet und mit Formbriefen beantwortet. Nichts anderes macht letztlich KI.
KI muss transparent sein
Eine häufig diskutierte Besonderheit ist die mangelnde Transparenz von durch die KI angewandten Entscheidungskriterien etwa bei der Auswahl von neuen Mitarbeitenden oder der Vergabe von Krediten. In solchen Fällen stellt sich spätestens im Falle von Beschwerden und Klagen die Frage, warum ein automatisiertes System bestimmten Personen den Vorzug gibt und andere ablehnt. Tatsächlich ist vielfach nachgewiesen worden, dass KI ganz ähnlich wie Menschen falsche Vorurteile entwickeln kann, und zwar insbesondere dann, wenn sie auf der Basis einseitiger Daten „trainiert“ wurde.
Maschinen können dann etwa ein Geschlecht bei der Bewerberauswahl einseitig bevorzugen oder Personen aus einem Wohngebiet mit hoher Überschuldungsquote pauschal als kreditunwürdig einstufen.
Oft wird dann von der „blackbox KI“ gesprochen. Allerdings ist auch diese Kritik eher pauschal: Zum einen gibt es mittlerweile immer mehr Ansätze, die Entscheidungskriterien von KI-Systemen offenlegen – mit durchaus nennenswerten Erfolgen. Zum anderen ist es kein neues Phänomen, dass Kriterien zur Kreditvergabe, zur Personalauswahl oder zur Prüfung von Ansprüchen Versicherter allenfalls teilweise transparent gemacht werden. Selbst innerhalb von Organisationen („Wenn Siemens wüsste, was Siemens weiß…") kann oftmals im Nachhinein nicht endgültig geklärt werden, auf welcher Basis Entscheidungen im Einzelfall getroffen wurden.
Was ist guter Rat im Umgang mit KI?
Was sind also die wirklichen Herausforderungen durch KI im Unternehmensalltag? Ist es wirklich unbedenklich, automatisierten System wichtige Entscheidungen zu überlassen? Einigen Aufwand sparen kann sich, wer sich bewusst macht, dass durch eine neue Technologie keinesfalls alle bewährten Regeln außer Kraft gesetzt werden. So gilt etwa für die KI-gestützte Diagnose in der Medizin dasselbe wie beim bewährten Röntgenbild: Wichtige Einschätzungen sollten durch Dritte geprüft und nicht leichtfertig übernommen werden. Egal ob Spezialistin oder Führungskraft: Die grundlegende Funktionsweise und Begrenzungen einer eingesetzten Technologie sollten beiden bekannt sein.
Blindes Vertrauen in Ingenieurskunst, langjährig bewährte Entscheidungsprozesse oder die vermeintliche Unfehlbarkeit fachlich fundierter Einschätzungen sind stets fehl am Platz, ganz gleich, ob mit KI gearbeitet wird oder ohne.
Eine eigene digitale Ethik, wie sie von manchen gefordert wird, ist jedenfalls für die heute im Einsatz befindliche KI wohl nicht nötig. Diskriminierung aufgrund pauschaler Persönlichkeitsmerkmale sollte weder durch ein automatisiertes System noch durch eine Kungelrunde im Unternehmensvorstand zustande kommen. Der kreative Lösungsvorschlag zur Einhaltung eines kritischen gesetzlichen Grenzwerts sollte stets auf Rechtskonformität geprüft werden, ganz gleich, ob er vom hauseigenen Ingenieursteam oder einem automatisierten System kommt. Und mit einem Werkzeug wie Chat GPT können bereits heute gute redaktionelle Texte erstellt werden, eine Prüfung der darin behaupteten (und teils frei erfundenen!) Fakten bleibt dennoch Teil des journalistischen Aufgabenprofils.
Kurz: Auch Künstliche Intelligenz entbindet Menschen und insbesondere Führungskräfte nicht davon, sich ihre eigenen Gedanken zu machen. Das gilt auch und insbesondere vor und bei der erstmaligen Einführung von KI-Systemen.
Wie in jedem Automatisierungsprozess stehen hier oft übertriebene Erwartungen in die Leistungsfähigkeit der Technik zahlreichen Sorgen und Ängsten gegenüber. Während Geschäftsführungen sich Einsparungen, Produktivitätsgewinne und vielleicht auch einen Machtzuwachs versprechen, befürchten Mitarbeitende einen Bedeutungsverlust bis hin zur Entmündigung durch Technik. Daher sollten Unternehmensführungen (und ebenso wenig Beratungen, die solche Prozesse begleiten) niemals die soziale Dimension von Technisierung und Automatisierung ausblenden. In solchen Prozessen gibt es fast immer auch Verlierer.
Grundsätzlich aber gibt es viel zu gewinnen, wenn Technik nicht zur Überwachung und Kontrolle von Mitarbeitenden eingesetzt wird, sondern als Instrument, das die Handlungsspielräume aller Menschen im Unternehmen erweitert. Zu diesem Punkt zu gelangen, ist aber in der Praxis nicht immer einfach. Ohne Mut zum ehrlichen und offenen Dialog mit allen Beteiligten und Wertschätzung für die unverzichtbaren Ressourcen menschlicher Erfahrung und Kreativität wird es nicht gehen.
Risiken und Ängste: Finger weg von KI?
Oder ist es besser, gleich ganz auf den Einsatz von KI zu verzichten? Derzeit scheinen das noch viele Unternehmen in Deutschland so zu sehen.

Bei fast zwei Dritteln der von BitKom Research befragten Unternehmen spielt KI noch keine Rolle in ihren Planungen. (Grafik: Bitkom Research)
Unüberschaubare Risiken durch die meisten bisher angebotenen Systeme dürften allerdings nicht drohen. Da sie allesamt der Kategorie der schwachen KI entsprechen, es sich also um spezialisierte Software mit begrenztem Anwendungshorizont handelt, ist es primär wichtig zu verstehen, was die Systeme jeweils leisten und wie sie angemessen eingesetzt werden können.
Anlass zur Sorge besteht insbesondere dann, wenn automatisierten Systemen potenziell folgenschwere Entscheidungen übertragen werden, die zudem in hoher Geschwindigkeit ausgeführt werden, wie das heute schon beim Hochfrequenzhandel an den Börsen der Fall ist.
Das Beispiel einer teil- oder sogar vollautomatisierten Kriegsführung weist ein noch höheres Schadenpotenzial auf. Ganz sicher als gefährlich bis hochriskant muss das bisher unverwirklichte Konzept einer starken KI gelten, die auch ganz ohne „böse Absichten“ aufgrund der weltweiten Vernetzung von Computern und lebenswichtiger Infrastruktur in kürzester Zeit globale Schäden anrichten könnte (vgl. Tegmark 2017). Dem vorzubeugen ist aber weniger Gegenstand unternehmerischen Handelns als gesetzlicher Regulierung.
Literaturempfehlungen:
- Tegmark, Max: Life 3.0. Being Human in the Age of Artificial Intelligence (2017)
- Harari, Yuval Noah: Homo Deus. A Brief History of Tommorow (2015)
Über die Person
Dr. Andreas Schiel (Philosoph und Sozialwissenschaftler) arbeitet als Dozent, Berater und Forscher für eine humane Zukunft: Zur digitalen Transformation, Zukunft der Arbeit und Zukunft der Demokratie. Mit KI war er bisher u. a. als Hochschuldozent, im Rahmen eines Szenarioprojekts sowie als Vortragsredner befasst. Andreas Schiel ist Gründungs- und Vorstandsmitglied des Verbands für Philosophie und Unternehmensberatung (VPU). Gemeinsam mit Stefan Birk betreibt er den Podcast New Work Theory!.
Kommentare (0)
Noch keine Kommentare zu diesem Artikel. Machen Sie gerne den Anfang!
Um unsere Kommentarfunktion nutzen zu können müssen Sie sich anmelden.
Anmelden