Frau Pooyan, Sie halten den Begriff «Künstliche Intelligenz» (KI) für irreführend. Was stört Sie daran?

Ladan Pooyan-Weihs: Über «Künstliche Intelligenz» wird alles Mögliche behauptet, obschon es noch keine allgemeingültige Definition der Intelligenz gibt. Der Begriff führt in die Irre. Das geschieht zum Beispiel auch, wenn wir im Zusammenhang mit Informationstechnologie von «Viren» sprechen. Mit einer derartigen Wortwahl schaffen wir eine negative Vorstellung von einer Software, die eigentlich einfach zu meistern ist.

Inwiefern führen solche Begriffe in die Irre?

Sie können Angst auslösen, weil sie nicht wertneutral sind. Der Mensch träumt schon lange von übermenschartigen Wesen, die oft gewaltige Grösse und Kraft besitzen und ausserordentliche, körperlich schwere Aufträge blitzschnell ausführen können. Zugleich fürchtet er aber auch, dass diese nach einiger Zeit unkontrollierbar werden. Schauen wir uns nur die Entwicklung des legendären Golem in der jüdischen mittelalterlichen Literatur an oder von Frankenstein in neuer Zeit. Falsche Begriffe verleiten uns zu falschen Vorstellungen und Schlussfolgerungen.

Erst hilfreich, dann böse: Die Sagenfigur «Golem», ein menschenähnliches zerstörerisches Wesen in einer Szene des deutschen Stummfilms «Der Golem» aus dem Jahr 1915 (Bild: Wikimedia).

Erst hilfreich, dann böse: Die Sagenfigur «Golem», ein menschenähnliches zerstörerisches Wesen in einer Szene des deutschen Stummfilms «Der Golem» aus dem Jahr 1915 (Bild: Wikimedia).

Immerhin verhelfen diese einfach verständlichen Begriffe auch Laien zu einer Vorstellung von der Sache …

Das ist gerade das Problem: Mit solchen Begriffen werden unsere Gefühle angesprochen. Sie beeinflussen unsere persönliche Beziehung zu einem Thema. In diesem Fall führen sie zu Fantasterei, überhöhten Erwartungen oder umgekehrt zu beklemmenden Gefühlen. Das hindert uns daran, eine sachliche Diskussion zu führen.

Wie können wir uns denn nüchtern über «Künstliche Intelligenz» unterhalten?

Zunächst sollten wir den Begriff anders fassen und von «Erweiterter Intelligenz» sprechen. Denn jedes Stück Software ist ein Stück erweiterte menschliche Intelligenz. Es sind nicht Roboter, die ein Computerprogramm bestimmen – es sind wir Menschen! Unsere Intelligenz steckt dahinter, nicht eine künstliche Intelligenz. Wir bestimmen, wie KI-Programme arbeiten sollen. Ziehen wir also keine Science-Fiction-Visionen herbei, sondern gehen wir bewusst mit der Thematik um!

Da Menschen hinter den Programmen stecken, kann man also nicht von «Künstlicher Intelligenz» sprechen?

Allein schon der Begriff «Intelligenz» ist bis heute auch in Fachkreisen nicht eindeutig bestimmt. Ich verstehe unter Intelligenz die Fähigkeit, innovativ zu sein, Regeln zu brechen, sich für das noch Unbekannte zu interessieren. Intelligent zu sein bedeutet, Neugierde zu haben. Intelligenz ist dynamisch, global wirksam, abstraktions- und entwicklungsfähig.

Heisst das, dass wir Menschen dank dieser Art von Intelligenz auch in Zukunft sogenannt «intelligenten» Maschinen und Robotern überlegen sein werden?

Ja, weil wir über das Erlaubte und Bekannte hinausgehen können. Wir vermögen es, die Regeln und Überzeugungen des Augenblicks zu brechen. Innovative Menschen bringen sich freiwillig in unbequeme Situationen, indem sie sich mit Menschen aus völlig anderen Fachbereichen oder mit komplett anderen Ansichten austauschen. Sie wenden die bekannten Regeln eines Bereichs auf einen anderen an. Sie stellen eigenes Wissen infrage. Innovation wird aus dem Zweifel und dem Hinterfragen heraus geboren. Ebenso entwickelt sie sich aus Emotionen und Ehrgeiz heraus und vor allem aus dem ethischen Bedürfnis, etwas Gutes für die Menschheit zu tun.

Derartige Bedürfnisse und Gefühle haben Maschinen nicht …

Eine Maschine zweifelt nicht. Sie hinterfragt nicht. Ein Roboter hat kein Verlangen nach einer Wertschöpfung für die Menschheit, nach Frieden oder dem Gemeinwohl. Maschinen tun, was sie tun sollen – und zwar so, wie sie von uns Menschen programmiert wurden. Wenn Intelligenz also mit Innovationsfähigkeit und inneren Antrieben einhergeht, kann eine Maschine dann intelligent sein? Selbst eine starke KI kann ihre Schlüsse noch nicht auf andere Gebiete übertragen. Solange Computer kein Einfühlungsvermögen für Lebewesen haben, solange sie weder Sinn für Humor noch die Fähigkeit besitzen, von einer Situation in eine andere zu springen, wird es keine Künstliche Intelligenz geben.

Was genau kann denn KI beziehungsweise die Erweiterte Intelligenz?

Sie kann menschliches Lernen und Denken auf den Computer übertragen. KI-Programme arbeiten fehlerfrei, schneller und effizienter als Menschen. Sie tun das auf ressourceneffiziente Weise im 24/7-Modus. Sie werden nie müde. Ihre Leistung wird weder durch Trauer, Verluste noch durch Liebeskummer gesenkt. Schauen wir die berühmten Computerprogramme aus dem Bereich der künstlichen Intelligenz an, wie etwa AlphaGoWatson oder Deep Blue: Sie benutzen Strategien, Argumentationen und Wege, die sich sehr von jenen unterscheiden, die ein menschliches Gehirn genommen hätte. Denn KI kann zum Beispiel Muster in Daten effizienter erkennen als Menschen.

Es sind nicht Roboter, die ein Computerprogramm bestimmen – es sind wir Menschen.

In Bezug auf Effizienz, Konstanz und Schnelligkeit sind KI also besser als wir Menschen. Wird man ihnen künftig nicht auch Empathie oder Innovationsgeist einprogrammieren können?  

Denken wir an Eigenschaften wie Einfühlungsvermögen und Humor: Es gibt auch Menschen, die diese Wesenszüge nicht aufweisen. Wir wissen selbst noch nicht, wie sie überhaupt zustande kommen. Erst wenn wir dies verstehen, können wir versuchen, diese Kenntnisse auf eine Maschine zu übertragen. Egal, wie komplex ein Programm ist, es widerspiegelt immer nur das, was wir selbst verstanden und ihm beigebracht haben. Das ist auch so beim «Maschinellen Lernen», der künstlichen Generierung von Wissen und Erfahrung: «Machine Learning» verkörpert, einfach gesagt, nur eine riesige Datenbank, der wir alles «gelehrt» haben. Maschinen haben keine eigenen Ideen, sie beziehen sich auf Spielregeln, die wir ihnen diktieren.

Demnach braucht man sich nicht vor gefährlichen künstlichen Superintelligenzen zu fürchten, sondern vielmehr vor den Fehlern der Menschen?

Ja, die eigentliche Gefahr in Bezug auf KI und Roboter geht von uns Menschen aus. Zum Beispiel dann, wenn wir bewusst Killerroboter programmieren oder rassistische oder frauenfeindliche Chatbots erstellen. Es gibt keine Künstliche Intelligenz ausserhalb unserer menschlichen Kontrolle, die unsere Ausrottung herbeiführen könnte.

Wie verhindern wir, dass Menschen unbedachte oder gefährliche Programme entwickeln? 

Mittels Regulierungen. Es ist unsere Pflicht als Informatikerinnen und Informatiker, unsere demokratischen Institutionen zu informieren und zu alarmieren, damit sie alle notwendigen Mechanismen zur Verhinderung von Missbräuchen einführen.

Es bräuchte so quasi einen Hippokratischen Eid für Informatikerinnen und Informatiker – ein Gelöbnis für digitale Ethik.

Den gibt es bereits, nur ist er nicht bindend: Der «Holberton-Turing-Eid» für Entwicklerinnen und Entwickler von Algorithmen stellt die Menschlichkeit über die Technik. Wir sind noch weit davon entfernt, dass ein derartiger Eid zum Beispiel bei einem Staatsexamen abgelegt würde. Es gibt nur Einzelinitiativen, aber keine umfassenden, weltweit verbindlichen Richtlinien. In Frankreich kenne ich zum Beispiel die Initiative «Data for Good».

Die eigentliche Gefahr in Bezug auf KI und Roboter geht von uns Menschen aus

Betty Holberton (rechts) programmierte in Philadelphia vor über fünfzig Jahren den ersten elektronischen Allzweck-Digitalcomputer ENIAC. Ihr und dem britischen Informatiker Alan Turing waren ethische Prinzipien wichtig. Daher wurde der Holberton-Turing-Eid nach ihnen benannt.

Betty Holberton (rechts) programmierte in Philadelphia vor über fünfzig Jahren den ersten elektronischen Allzweck-Digitalcomputer ENIAC. Ihr und dem britischen Informatiker Alan Turing waren ethische Prinzipien wichtig. Daher wurde der Holberton-Turing-Eid nach ihnen benannt.

Sie sind daran beteiligt, am Informatik-Departement der Hochschule Luzern ein neues CAS-Ausbildungsprogramm für «Digitale Ethik» aufzubauen. Warum ist Ihnen das wichtig?

Das liegt mir sehr am Herzen.  Die Digitalisierung erreicht alle Lebensbereiche der Gesellschaft und Wirtschaft – weitgehend ohne grundlegende ethische Überlegungen und ohne ganzheitliche politische Regulierungen. Wir Informatikerinnen und Informatiker spielen eine wesentliche Rolle dabei und müssen daher die Weichen heute achtsam stellen und Verantwortung übernehmen.

Welche Fachleute waren für Sie in diesen Fragen inspirierend?

Der französisch-amerikanische Mathematiker und Informatiker Luc Julia hat mir sehr geholfen, diese Thematik einzuordnen (siehe dazu Auszug aus einem Interview mit Julia). Ich habe sein Fachbuch «There is no such thing as artificial intelligence» sehr interessant gefunden («Es gibt keine künstliche Intelligenz», das Buch erschien nur auf Englisch und Französisch). Ich selbst fand den Begriff «Künstliche Intelligenz» schon lange irreführend. Julias Buch hat mich in meinen Ansichten bestätigt. In ethischen Fragen bin ich inspiriert von der Wirtschaftsinformatikerin Sarah Spiekermann sowie von Corinna Bath, Professorin für Gender, Technik und Mobilität.

Wer hat den Begriff «Künstliche Intelligenz» denn eingeführt?

Der US-amerikanische Informatiker John McCarthy hat ihn 1956 auf der Dartmouth Conference geprägt. Dieses Forschungsprojekt gilt als die Geburtsstunde der Künstlichen Intelligenz als akademisches Fachgebiet. Das Ziel war es, innerhalb von drei Monaten in Maschinen die Mechanismen des menschlichen Gehirns nachzubilden. 

Welche Art von KI wünschen Sie sich?

Ich möchte, dass wir KI zum Schutz und für eine positive Entwicklung der Menschheit einsetzen. Sie soll keine Entscheidungen für uns treffen. Sie sollte uns aber helfen, blitzschnell ethisch fundierte Entscheidungen zu fällen.

Dieses Interview wurde im Auftrag der Hochschule Luzern für deren Informatik-Blog geführt. 
Informatikerin mit ethischen Ansprüchen: Ladan Pooyan-Weihs ist Dozentin an der Hochschule Luzern – Informatik. Sie ist Studienleiterin des CAS Digital Transformation und des CAS Digital Architect sowie Co-Kursleiterin des CAS Artificial Intelligence/Künstliche Intelligenz. Pooyan-Weihs beteiligt sich zudem an der Einführung eines neuen CAS für Digitale Ethik und engagiert sich am Department Informatik auch als Diversity-Beauftragte.

Gabriela Bonin | Copyright 2018 | Impressum | DatenschutzAGB | Sitemap