Mensch und Maschine – wer programmiert wen?

Dienstag, 30. Oktober, in der Eröffnungsveranstaltung von 16:00 bis 18:00 Uhr

yogeshwar 800
Der Wissenschaftsjournalist, Physiker und Autor Ranga Yogeshwar hält auf der Neurowoche 2018 in Berlin den Festvortrag (c) HerbySachs

Künstliche Intelligenz wird in den nächsten zehn Jahren viele Bereiche unseres Lebens fundamental verändern. Von Industrie 4.0 über autonome Maschinen bis hin zu Anwendungen in der Medizin verstärkt sich der Einsatz von Deep Learning-Systemen. Dabei stellt sich die Frage, inwieweit wir diesen neuen intelligenten Systemen vertrauen können. Wieviel Verantwortung geben wir ab? Auf der Neurowoche 2018 wird der Wissenschaftsjournalist und Physiker Ranga Yogeshwar anhand konkreter Beispiele und Publikumsexperimente auf verständliche Weise die grundlegenden Qualitäten selbstlernender Systeme vermitteln und nach den gesellschaftlichen Konsequenzen fragen. An dieser Stelle zeigt er, wie sich neuronale Systeme der klassischen Logik entziehen und warum dies ein gefährlicher Bruch mit den Prinzipien der Aufklärung ist.

Das US-amerikanische Media Laboratory des Massachusetts Institute of Technology (MIT) machte im Sommer 2017 einen aufschlussreichen Test mit 26 Kindern im Alter zwischen drei und zehn Jahren: Die Forscher beobachteten, wie die Kinder mit digitalen Geräten interagierten, zum Beispiel Amazons Alexa. Sie untersuchten, ob die Kinder diese künstlichen Apparate als freundlich, glaubwürdig und intelligent bewerten. Die Studie zeigte, dass die Mehrheit der Kinder den Maschinen glaubt und diese als freundlich und sogar intelligenter als sich selbst einstufen. Anders als bei den bisher stupiden Alltagshelfern wie Kaffeeautomaten oder Staubsaugern beginnen die Kinder, zu den sprechenden Assistenten eine Beziehung aufzubauen.

Vertrauen statt verstehen

Die intelligenten Begleiter lesen Geschichten vor, spielen Musik, erzählen Witze, beraten bei der Kleiderwahl – und geben ganz nebenbei Tipps zu aktuellen Sonderangeboten. Hinter der Hilfsbereitschaft des Roboters versteckt sich, wer hätte das gedacht, kommerzielles Interesse. Kinder und auch Erwachsene vertrauen Apparaten, deren Algorithmen sich nicht der Wahrheit verschreiben, sondern lediglich unser Konsumverhalten anheizen wollen. Wir werden Zeuge eines Konditionierungsprozesses, der in vielen Bereichen unseres Lebens Wissen und Verständnis durch ein blindes Vertrauen in die Maschinen oder in einen Algorithmus ersetzt. Vertrauen statt verstehen.
Manche Bereiche des Deep-Learning sind ungeheuer leistungsfähig. Bei der Auswertung von Röntgenbildern oder dem Erkennen von Verkehrsschildern übertreffen die neuronalen Netze bereits heute den Menschen. Moderne Systeme können bei der Vergabe von Bankkrediten besser urteilen als Menschen es tun. Die Folge: Die Algorithmen entscheiden. Doch nach welchen moralischen Prinzipien fällen sie ihre Entscheidung

KI-Systeme: digitales Orakel statt begründeter Entscheidung

Betrachtet man die genaue Arbeitsweise dieser Systeme, so verhalten sie sich aufgrund von Rückkopplungseffekten und ihrer Komplexität nicht mehr kausal. Diese neuronalen Systeme funktionieren zwar, doch ihre genauen Entscheidungsmuster entziehen sich einer klassischen Logik. Kreditech, ein deutsches Startup für Finanzdienstleistungen, nutzt Kundendaten aus dem Internet und den sozialen Netzwerken wie Facebook und Twitter, um in erstaunlichen Tempo Kreditentscheidungen zu fällen. Ein komplizierter Algorithmus ermöglicht es, das Kreditrisiko eines Kunden binnen einer Minute mit höherer Präzision zu bestimmen als herkömmliche Methoden. Was aber, wenn ein Kredit abgelehnt wird – erfährt man dann auch, warum? Kreditech-Gründer Alexander Graubner-Müller räumt ein, dass man, abgesehen von Einzelfällen, angesichts der Komplexität der verwendeten Daten keinen eindeutigen Grund für die Kreditentscheidung nennen könne.
Wir leben in einer aufgeklärten Gesellschaft, vertrauen aber immer mehr dem technischen Orakel. Das entspricht einem Bruch mit den grundlegenden Prinzipien der Aufklärung: Weg vom Prinzip der Kausalität – der Wahrnehmung von Ursache und Wirkung – hin zum Prinzip der Korrelation, der Wechselbeziehung zwischen mehreren Ereignissen, die in keinem kausalen Zusammenhang stehen müssen.
Sind Maschinen oder Algorithmen akzeptabel, wenn wir Menschen ihre Wirkungsweise weder genau verstehen noch kausal erklären können? Darf ein Rechtssystem zum Beispiel Algorithmen einsetzen, um potenzielle Gefährder zu identifizieren, wenn die Grammatik dieser Systeme im Unklaren bleibt? Dürfen wir akzeptieren, dass zwar mehr potenzielle Straftäter herausgesiebt werden, aber dafür auch Unschuldige im Netz der Verdächtigungen hängenbleiben?

Jeder Algorithmus muss logisch erklärbar sein

Wie aktuell solche Fragen sind, zeigt sich in der Europäischen Datenschutzgrundverordnung, die seit Mai 2018 gültig ist. In Artikel 22 geht man dem Kern des Kausalproblems aus dem Weg. Im ersten Abschnitt heißt es nur: „Die betroffene Person hat das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in erheblicher Weise beeinträchtigt.“ Warum steht hier nicht die elementare Forderung: Jeder Algorithmus, der zur Anwendung kommt, muss nach kausalen Prinzipien erklärbar sein? Wenn wir Maschinenentscheidungen, die wir nicht mehr nachvollziehen, zur neuen Basis rechtskräftiger Entscheidungen erklären, dann öffnen wir die Tür in ein Zeitalter digitaler Orakel und willkürlicher Entscheidungen. Demokratie braucht Rechenschaftspflicht, und die muss auch für unsere Werkzeuge gelten.
Weitgehend unbemerkt haben intelligente Maschinen damit begonnen, unser Zuhause, unser Verhalten und unsere Biographien zu erfassen, uns in messbare Eigenschaften aufzuspalten und uns auf digitale Objekte zu reduzieren. Wir selbst sind die Datenlieferanten dieses wachsenden Alter Egos, und je mehr wir die Automaten nutzen und in unseren Alltag integrieren, umso genauer wird das entsprechende Datenmosaik.

Wo bleiben die kritischen Stimmen der Wissenschaftler?

Aus Bequemlichkeit passen wir uns mehr und mehr an Entscheidungen der Maschine an, die mit menschlicher Logik oft nicht nachvollziehen sind: Wir nutzen ihre Textvorschläge, besuchen ihre Restaurants oder kaufen, was sie uns empfiehlt. Selten hinterfragen wir, wie der Apparat zu seinen Ergebnissen kommt. Die kritischen Stimmen aus der Wissenschaft bleiben bislang aus. Wo stehen Mathematiker, Mediziner oder Biochemiker auf und sagen: „Stopp, kein Produkt ohne klares Verständnis! Keine Anwendung, ohne dass die ethischen Implikationen geklärt sind“?
Ganze Industriezweige und Produktionsprozesse werden in den kommenden Jahren Schritt für Schritt von Maschinen und intelligenten Algorithmen übernommen. Auch die Medizin dürfte durch eine Flut neuer Diagnoseverfahren und intelligenter Therapien massiv erweitert werden. Was uns bevorsteht, ist also kein Optimieren des Business as usual, sondern eine epochale Neusetzung in der Beziehung zwischen Mensch und Maschine.
Es fehlt eine Debatte, die den neuen Umständen Rechnung trägt. Ich möchte Sie einladen, mit mir über unsere Ziele zu diskutieren: Begnügen wir uns immer noch damit, dass Innovationen im Wesentlichen Innovationen einer kleinen reichen Minderheit für eine andere kleine reiche Minderheit sind? Worin besteht die Sinnhaftigkeit unseres Fortschritts und wer profitiert davon? Wir sollten nicht abwarten, bis Jene diese Fragen beantworten, die den Geist Aufklärung und der Offenheit zur Disposition stellen.

Ranga Yogeshwar, Hennef

Veranstaltungsort

Messe Berlin, Eingang Süd
Jafféstraße
14055 Berlin
www.messe-berlin.de

Beteiligte Fachgesellschaften

DGN logo 2018 vert white de 400 GNP Logo WEISS 400 dgnn logo 400

Wir nutzen Cookies, um die Zugriffe auf unserer Webseite zu analysieren. Sie können dem jederzeit widersprechen. Weitere Hinweise und die Möglichkeit zum Opt-out finden Sie in der Datenschutzerklärung.
Datenschutzerklärung Ok