text.skipToContent text.skipToNavigation
Es konnten keine Ergebnisse gefunden werden.
Such-Empfehlungen
Bildhinweis: © Luise Jakobi

Maschinen an der Macht

Beyond Science

Ein autonom fahrendes Auto steuert direkt auf einen Fußgänger zu. Wie wird sich die Software im Fahrzeug entscheiden? Und wer trägt bei einem Unfall die Schuld? Das Beispiel zeigt: Der Einsatz künstlicher Intelligenz wirft ethische und moralische Fragen auf.

Sie übersetzt Texte und schickt uns personalisierte Werbung, entscheidet über unsere Kreditwürdigkeit, fährt uns im Auto von A nach B oder diagnostiziert Krankheiten. Künstliche Intelligenz (KI) ist in unserem Alltag allgegenwärtig. Ohne dass wir es wissen oder auch nur merken, treffen Algorithmen täglich Entscheidungen für, über oder gegen uns.Wie macht das die künstliche Intelligenz? Sie durchforstet riesige Datensätze, erkennt darin verborgene Muster und nimmt Bewertungen vor, indem sie bestimmte Faktoren gewichtet. Zum Beispiel lernt sie anhand großer Mengen Fotos von Haustieren, die mit dem Label „Hund“ oder „Katze“ verknüpft sind, diese Tierarten auseinanderzuhalten.


Autonomes Fahrzeug und Pflegeroboter


Die Liste der Anwendungsgebiete wird täglich länger. Dazu zählen etwa das autonome Fahren, computergestützte Diagnosesysteme oder Behandlungs- und Pflegeroboter in der Medizin. Auch im Bereich der inneren Sicherheit machen autonome Systeme Fortschritte. So testet die EU derzeit das automatische Grenzschutzsystem „iBorderCtrl“. Mithilfe einer Gesichtserkennung und eines Online-Lügendetektors soll es an Europas Außengrenzen entscheiden können, welche Personen einreisen dürfen. Im Finanzsektor kaufen oder verkaufen automatische Tradingsysteme eigenständig Wertpapiere, und an Hochschulen entscheiden Algorithmen über die Vergabe von Studienplätzen.Intelligente Maschinen übernehmen damit Entscheidungen, die bisher Menschen getroffen haben. Unternehmen und Or­ganisationen versprechen sich von der KI schnelle, objektive, neutrale und dadurch gerechtere Entscheidungen als jene von vermeintlich voreingenommenen Menschen. „Häufig nutzen wir irrelevante Informationen oder werden durch unwesentliche Faktoren beeinflusst. Da kann maschinelle Intelligenz nützlich sein“, so Karthik Kannan, Direktor des Krenicki
Center for Business Analytics & Machine Learning an der Purdue University in West Lafayette im US-Bundesstaat Indiana.
Bildhinweis: © Alexander Glandien

Haben Maschinen eine Moral?


Was verheißungsvoll klingt, wirft ethische Fragen auf. Denn mit der Anwendung autonomer Systeme überlässt der Mensch schwierige moralische Entscheidungen einer Maschine. Können autonome Systeme aber wirklich entscheiden, ob eine Person kreditwürdig ist, oder das Rückfallrisiko von verurteilten Straftätern zuverlässig einschätzen? Ob algorithmische Entscheidungssysteme in der Lage sind, sich in komplexen Situationen ethisch richtig zu „verhalten“ – darüber tobt in der Wissenschaft ein heftiger Streit. Studien legen nah, dass vermeintlich objektive Algorithmen genau wie der Mensch „Vorurteilen“ auf den Leim gehen. Meistens sind es Verzerrungen in der Datenbasis, mit der selbstlernende Algorithmen trainiert werden, die zu Fehleinschätzungen bei der Bewertung individueller Fälle und damit zu Diskriminierungen führen.


KI leidet unter Vorurteilen


So fand ein Team um die Psychologin Aylin Caliskan vom Center for Information Technology Policy an der Princeton University heraus, dass KI kulturelle Stereotype und Vorurteile aus Internet-Texten übernimmt. So assoziierte die KI zum Beispiel weibliche Vornamen eher mit Familie, männliche Vornamen dagegen mit Karriere. „Derartige Vorurteile müssen nicht explizit ausgedrückt werden, um sich auf das Verhalten auszuwirken“, schreiben die Autoren im Wissenschaftsmagazin „Science“. Eine üble Fehleinschätzung hatte die automatische Bilderkennungssoftware eines Softwareunternehmens getroffen: Afroamerikaner auf einem Foto klassifizierte sie als Gorillas, weil der durchforstete Datensatz in der Kategorie „Mensch“ vornehmlich Fotos von Weißen enthalten hatte.Trifft die KI auf Basis solcher Fehleinschätzungen diskriminierende Entscheidungen, dann sind die Folgen für den Betroffenen besonders tragisch. Musste ein Bankangestellter seinem Kunden früher noch selbst erläutern, warum dieser keinen Kredit erhält, kann er die Verantwortung für die unliebsame Entscheidung heute auf das Computersystem abwälzen. Eine Begründung für die negative Bewertung seiner Daten erfährt der abgewiesene Kreditnehmer nicht – denn selbst der Bankangestellte kann die Entscheidungskriterien der KI kaum nachvollziehen.

Nachvollziehbare Entscheidungen


Unter welchen Umständen sind Menschen nun dazu bereit, KI-Entscheidungen zu akzeptieren? Wissenschaftler betonen, dass diese nachvollziehbar sein müssen. Ute Schmid, Professorin für Angewandte Informatik an der Universität Bamberg, bestätigt das am Beispiel medizinischer Diagnosen. „Maschinelle Lernverfahren helfen bei der Diagnose. Sind ihre Entscheidungen jedoch nicht nachvollziehbar für Ärzte und Patienten, sind die Ergebnisse mit Vorsicht zu genießen und dürfen in vielen sicherheitskritischen Kontexten wie der Medizin auch nicht verwendet werden“, so Schmid.Deshalb arbeitet die Wissenschaft an Verfahren, um Entscheidungsprozesse in KI-Systemen nachvollziehbar zu machen. Der Informatik-Professor Anupam Datta von der Carnegie Mellon University in Pittsburgh etwa hat eine Methode entwickelt, mit der sich die Gewichtung von Entscheidungsfaktoren der KI nachvollziehen lässt – beispielsweise indem man das Kriterium „Rasse“ bei der Kreditvergabe anders gewichtet und sich anschließend die neuen Ergebnisse anschaut. Forscher des Centre for Cognitive Science an der Technischen Universität Darmstadt haben sogar versucht, moralisches Entscheidungsverhalten in Computersystemen zu programmieren. Dafür entwickelten sie eine „Moral Choice Machine“, die KI einen moralischen Kompass mitgeben soll. Sie definierten „gut“ und „böse“ und fütterten die KI mit Texten, in denen sie die Worte den beiden Kategorien zuordnen musste. Die Wissenschaftler sind überzeugt, dass KI mithilfe dieser Zuordnungen einfache moralische Entscheidungen treffen kann – obwohl ihr das menschliche Bewusstsein fehlt.


Der Mensch ist gefragt


Kritiker warnen hingegen davor, moralisch schwierige Entscheidungen Maschinen zu überlassen. So kämpft etwa das Internationale Komitee zur Rüstungskontrolle von Robotern (ICRAC) gegen die Entwicklung und den Einsatz von Waffen, die eigenständig über Leben und Tod entscheiden. Auch in der Medizin, heißt es aus der Forschungsgruppe von Ute Schmid, ist menschliche Verantwortung weiter gefragt: Eine Krebsdiagnose kann die KI stellen – sie bewerten und dem Patienten einfühlsam erklären muss ein Arzt.Auch in autonomen Fahrzeugen kann sich der Mensch offenbar nicht hinter der Software verstecken, berichtet Sydney Levine, Wissenschaftlerin am Media Lab des Massachusetts Institute of Technology (MIT), die eine Studie zur Schuldfrage bei Unfällen mit autonom fahrenden Autos geleitet hat. Die Autoren fanden heraus, dass die Befragten eher dem Menschen die Schuld an einem Unfall geben, wenn er und KI gleichberechtigte Fahrer waren. Als Grund vermuten die Wissenschaftler, dass ein von KI gesteuertes Fahrzeug in unserer Vorstellung kein eigenständiger Akteur ist, der handeln und frei entscheiden kann. Deshalb neigen Menschen dazu, Maschinen von Schuld freizusprechen.

Künstliche Intelligenz

Computersysteme, die menschliche Intelligenz nachahmen, bezeichnet man als „künstliche Intelligenz“ (KI). Bislang sind KI-Systeme echte Spezialisten: Sie können nicht
umfassend „denken“ wie ein Mensch, sondern helfen bei der Lösung einzelner konkreter Probleme. Dazu verwendet die KI häufig Algorithmen – eine Reihe von in Computersprache formulierten Anweisungen. Ihre Fähigkeiten kann die KI durch maschinelles Lernen erweitern. Obwohl künstliche Intelligenz inzwischen in fast alle Lebensbereiche vorgedrungen ist, weiß einer Studie der Bertelsmann Stiftung zufolge fast die Hälfte der Europäer nicht, was Algorithmen überhaupt sind. Drei Viertel der europäischen Befragten wünschen sich mehr Kontrolle darüber. Algorithmische Entscheidungen sollten leichter nachvollziehbar sein, und es müsse ein Recht darauf geben, solche Entscheidungen durch einen Menschen überprüfen zu lassen.

Bildhinweis: © iStock

Lernen, zu entscheiden Auch die Wahl des Lesestoffs kann zur schwierigen Entscheidung werden. Unsere Buchtipps helfen Ihnen bei der Auswahl.

Bildhinweis: © Alexander Glandien