Diese Website verwendet Cookies. Weitere Informationen und Hinweise zu Ihren Widerspruchsmöglichkeiten finden Sie in unserer Datenschutzerklärung.

Maschinen an der Macht
Beyond Science
- Off the Bench
- Inspiring Science
- Stories
- Essay
Ein autonom fahrendes Auto steuert direkt auf einen Fußgänger zu. Wie wird sich die Software im Fahrzeug entscheiden? Und wer trägt bei einem Unfall die Schuld? Das Beispiel zeigt: Der Einsatz künstlicher Intelligenz wirft ethische und moralische Fragen auf.
Autonomes Fahrzeug und Pflegeroboter
Die Liste der Anwendungsgebiete wird täglich länger. Dazu zählen etwa das autonome Fahren, computergestützte Diagnosesysteme oder Behandlungs- und Pflegeroboter in der Medizin. Auch im Bereich der inneren Sicherheit machen autonome Systeme Fortschritte. So testet die EU derzeit das automatische Grenzschutzsystem „iBorderCtrl“. Mithilfe einer Gesichtserkennung und eines Online-Lügendetektors soll es an Europas Außengrenzen entscheiden können, welche Personen einreisen dürfen. Im Finanzsektor kaufen oder verkaufen automatische Tradingsysteme eigenständig Wertpapiere, und an Hochschulen entscheiden Algorithmen über die Vergabe von Studienplätzen.Intelligente Maschinen übernehmen damit Entscheidungen, die bisher Menschen getroffen haben. Unternehmen und Organisationen versprechen sich von der KI schnelle, objektive, neutrale und dadurch gerechtere Entscheidungen als jene von vermeintlich voreingenommenen Menschen. „Häufig nutzen wir irrelevante Informationen oder werden durch unwesentliche Faktoren beeinflusst. Da kann maschinelle Intelligenz nützlich sein“, so Karthik Kannan, Direktor des Krenicki
Center for Business Analytics & Machine Learning an der Purdue University in West Lafayette im US-Bundesstaat Indiana.
Mehr erfahren
Weniger lesen

Haben Maschinen eine Moral?
Was verheißungsvoll klingt, wirft ethische Fragen auf. Denn mit der Anwendung autonomer Systeme überlässt der Mensch schwierige moralische Entscheidungen einer Maschine. Können autonome Systeme aber wirklich entscheiden, ob eine Person kreditwürdig ist, oder das Rückfallrisiko von verurteilten Straftätern zuverlässig einschätzen? Ob algorithmische Entscheidungssysteme in der Lage sind, sich in komplexen Situationen ethisch richtig zu „verhalten“ – darüber tobt in der Wissenschaft ein heftiger Streit. Studien legen nah, dass vermeintlich objektive Algorithmen genau wie der Mensch „Vorurteilen“ auf den Leim gehen. Meistens sind es Verzerrungen in der Datenbasis, mit der selbstlernende Algorithmen trainiert werden, die zu Fehleinschätzungen bei der Bewertung individueller Fälle und damit zu Diskriminierungen führen.
KI leidet unter Vorurteilen
So fand ein Team um die Psychologin Aylin Caliskan vom Center for Information Technology Policy an der Princeton University heraus, dass KI kulturelle Stereotype und Vorurteile aus Internet-Texten übernimmt. So assoziierte die KI zum Beispiel weibliche Vornamen eher mit Familie, männliche Vornamen dagegen mit Karriere. „Derartige Vorurteile müssen nicht explizit ausgedrückt werden, um sich auf das Verhalten auszuwirken“, schreiben die Autoren im Wissenschaftsmagazin „Science“. Eine üble Fehleinschätzung hatte die automatische Bilderkennungssoftware eines Softwareunternehmens getroffen: Afroamerikaner auf einem Foto klassifizierte sie als Gorillas, weil der durchforstete Datensatz in der Kategorie „Mensch“ vornehmlich Fotos von Weißen enthalten hatte.Trifft die KI auf Basis solcher Fehleinschätzungen diskriminierende Entscheidungen, dann sind die Folgen für den Betroffenen besonders tragisch. Musste ein Bankangestellter seinem Kunden früher noch selbst erläutern, warum dieser keinen Kredit erhält, kann er die Verantwortung für die unliebsame Entscheidung heute auf das Computersystem abwälzen. Eine Begründung für die negative Bewertung seiner Daten erfährt der abgewiesene Kreditnehmer nicht – denn selbst der Bankangestellte kann die Entscheidungskriterien der KI kaum nachvollziehen.
Nachvollziehbare Entscheidungen
Unter welchen Umständen sind Menschen nun dazu bereit, KI-Entscheidungen zu akzeptieren? Wissenschaftler betonen, dass diese nachvollziehbar sein müssen. Ute Schmid, Professorin für Angewandte Informatik an der Universität Bamberg, bestätigt das am Beispiel medizinischer Diagnosen. „Maschinelle Lernverfahren helfen bei der Diagnose. Sind ihre Entscheidungen jedoch nicht nachvollziehbar für Ärzte und Patienten, sind die Ergebnisse mit Vorsicht zu genießen und dürfen in vielen sicherheitskritischen Kontexten wie der Medizin auch nicht verwendet werden“, so Schmid.Deshalb arbeitet die Wissenschaft an Verfahren, um Entscheidungsprozesse in KI-Systemen nachvollziehbar zu machen. Der Informatik-Professor Anupam Datta von der Carnegie Mellon University in Pittsburgh etwa hat eine Methode entwickelt, mit der sich die Gewichtung von Entscheidungsfaktoren der KI nachvollziehen lässt – beispielsweise indem man das Kriterium „Rasse“ bei der Kreditvergabe anders gewichtet und sich anschließend die neuen Ergebnisse anschaut. Forscher des Centre for Cognitive Science an der Technischen Universität Darmstadt haben sogar versucht, moralisches Entscheidungsverhalten in Computersystemen zu programmieren. Dafür entwickelten sie eine „Moral Choice Machine“, die KI einen moralischen Kompass mitgeben soll. Sie definierten „gut“ und „böse“ und fütterten die KI mit Texten, in denen sie die Worte den beiden Kategorien zuordnen musste. Die Wissenschaftler sind überzeugt, dass KI mithilfe dieser Zuordnungen einfache moralische Entscheidungen treffen kann – obwohl ihr das menschliche Bewusstsein fehlt.
Der Mensch ist gefragt
Kritiker warnen hingegen davor, moralisch schwierige Entscheidungen Maschinen zu überlassen. So kämpft etwa das Internationale Komitee zur Rüstungskontrolle von Robotern (ICRAC) gegen die Entwicklung und den Einsatz von Waffen, die eigenständig über Leben und Tod entscheiden. Auch in der Medizin, heißt es aus der Forschungsgruppe von Ute Schmid, ist menschliche Verantwortung weiter gefragt: Eine Krebsdiagnose kann die KI stellen – sie bewerten und dem Patienten einfühlsam erklären muss ein Arzt.Auch in autonomen Fahrzeugen kann sich der Mensch offenbar nicht hinter der Software verstecken, berichtet Sydney Levine, Wissenschaftlerin am Media Lab des Massachusetts Institute of Technology (MIT), die eine Studie zur Schuldfrage bei Unfällen mit autonom fahrenden Autos geleitet hat. Die Autoren fanden heraus, dass die Befragten eher dem Menschen die Schuld an einem Unfall geben, wenn er und KI gleichberechtigte Fahrer waren. Als Grund vermuten die Wissenschaftler, dass ein von KI gesteuertes Fahrzeug in unserer Vorstellung kein eigenständiger Akteur ist, der handeln und frei entscheiden kann. Deshalb neigen Menschen dazu, Maschinen von Schuld freizusprechen.
Mehr erfahren
Weniger lesen
Künstliche Intelligenz
Computersysteme, die menschliche Intelligenz nachahmen, bezeichnet man als „künstliche Intelligenz“ (KI). Bislang sind KI-Systeme echte Spezialisten: Sie können nicht
umfassend „denken“ wie ein Mensch, sondern helfen bei der Lösung einzelner konkreter Probleme. Dazu verwendet die KI häufig Algorithmen – eine Reihe von in Computersprache formulierten Anweisungen. Ihre Fähigkeiten kann die KI durch maschinelles Lernen erweitern. Obwohl künstliche Intelligenz inzwischen in fast alle Lebensbereiche vorgedrungen ist, weiß einer Studie der Bertelsmann Stiftung zufolge fast die Hälfte der Europäer nicht, was Algorithmen überhaupt sind. Drei Viertel der europäischen Befragten wünschen sich mehr Kontrolle darüber. Algorithmische Entscheidungen sollten leichter nachvollziehbar sein, und es müsse ein Recht darauf geben, solche Entscheidungen durch einen Menschen überprüfen zu lassen.


Eppendorf Deutschland
Achtung Sie verlassen diese Länder-Website.
Falls Sie Ihren Warenkorb gefüllt haben, beachten Sie bitte, dass Sie diesen beim Wechsel in ein anderes Land verlieren. Über die Warenkorb-speichern-Funktion können Sie den Warenkorb nach Login bei Bedarf in Ihrem Account hinterlegen.