In Teil I haben wir die äusseren Ränder der durchaus extremen Szenarien betrachtet, welche durch eine Superintelligenz ermöglicht werden und in welch delikate Situation – zwischen Dystopie und Katastrophe – uns dies gegenwärtig bringt. Den Möglichkeitsraum dazwischen nehmen wir nur bedingt wahr. Da sind die vielen, oft eben dystopischen oder katastrophischen Science-Fiction Filme. Cyberpunk-Welten, Welten, in welchen KI und Roboter Normalität sind, oder bereits nicht mehr, wie in «Dune». Dahinter stehen meist substantiellere Bücher von Sci-Fi Legenden wie Clark, Le Guin, Asimov, Dick, Herbert, Huxley, Heinlein und wie sie alle heissen. Wie sehr wir uns der greifbaren Nähe vieler solcher Szenarien bewusst sind, ist schwierig einzuschätzen. Blockbuster werden auch hier die Extreme. Der ambivalente Zwischenraum muss gesucht werden – tiefgründigere filmische Ausnahmen wie «Her» sind eher selten.
Daneben erhalten ganz unverhofft solch kuriose Geschichten wie die des Google Mitarbeiters Lemoine Blake, welcher das Konversationsprogramm LaMDA für bewusst hielt, grosse Aufmerksamkeit; auch wenn seine Ansichten wohl weder auf technologisch noch philosophisch stabilen Fundamenten stehen. Allerdings ist gerade eine klassische proto-philosophische Herangehensweise an die Frage der Intelligenz von Maschinen, dem Fall Lemoine gar nicht so unähnlich.
Eine solche Methode stellt der berühmte Turing-Test von Alan Turing dar – er nannte es «Imitations-Spiel». Dabei soll eine Maschine als intelligent gelten, wenn sie in einer Konversation für einen Menschen gehalten wird. Damals, 1950, noch als hinter einem Vorhang gedacht – können es heute bereits täuschend echt animierte Gesichter sein. Entscheidend für den Test bleibt allerdings das sprachliche Verhalten. Die Maschine muss innert der für Menschen üblichen Frist sinnvolle Antworten geben können, Witze, Ironie und Sarkasmus «verstehen» und in einer gewissen Weise kohärent sein (so etwa wie wir – und wir sind es ja auch nur beschränkt). Verfolgt man die Konversationen von Blake und LaMDA, kann man durchaus nachvollziehen, dass man diese Maschine für intelligent hält – was allerdings nicht heissen muss, dass diese Bewusstsein besitzt. Als Deep Blue von IBM 1997 den damaligen Schach-Weltmeister Kasparov geschlagen hat oder, als AlphaGo 2015 dasselbe im vielfach komplexeren Spiel Go getan hat, sprach niemand davon, dass diese bewusst wären. Natürlich halten nicht alle das Bestehen eines solchen Tests für ein Anzeichen von Intelligenz – und schon gar nicht von Bewusstsein. So entfachte Blake Lemoine diesen Sommer nicht nur mediale Aufmerksamkeit, sondern auch Diskussionen über den Turing-Test selbst und unsere Methoden der Zuschreibung, unsere Modelle von Eigenschaften wie Intelligenz, Bewusstsein oder Kreativität. Diese Begriffe liegen oft nahe beieinander – wohl durchaus auch, da wir sie für derart genuin menschlich halten.
Bild: Théâtre d’Opéra Spatial von Jason M. Allen
Beinahe witzig kann es werden, wenn eine KI wie Midjourney einen Kunstpreis erhält bzw. der Künstler, welcher damit ein Bild generiert hat. Solche Apps spriessen gerade wie Pilze aus dem Boden. Sie generieren erstaunliche Bilder aufgrund von Mensch eingegebener «prompts» - also Stichworten, Themen, Kunst-Stilen oder weiteren Adjektiven. Das Bild «Théâtre D’opéra Spatial» von Jason M. Allen hat an der Colorado State Fair den ersten Preis in der Kategorie Digitale Kunst gewonnen. Die darauf folgenden Diskussionen darüber, ob dies als Kunst zu betrachten sei, sind sicherlich verständlich – hatten wir ja auch bei Pissoirs oder toten Haifischen in Formaldehyd. Wie auch immer diese Fragen beantwortet werden, die Tatsache steht, dass KI Werke produziert, welche uns diese Frage überhaupt unterjubelt.
Die wirklich verzwickte Frage ist weniger, ob dieses Bild, die von KI geschrieben Opern oder ein Gedicht nun Kunst sei oder nicht. Es wird wohl doch jene nach dem Bewusstsein sein, welche Lemoine vorschnell beantwortet hatte. Versteht die Maschine? Fühlt sie etwas? Also, hat sie Bewusstsein? Hätte sie Bewusstsein, hiesse dies wohl auch, dass sie Absichten, Wünsche, Vorlieben und vielleicht sogar Bedürfnisse hat? Ist das möglich? Was hiesse dies für uns? (Und eine ganze Reihe wunderbarer Fragen folgt!)
Wir könnten das Ganze auch etwas anders angehen. Anstatt uns zu fragen, ob die Maschine intelligent, kreativ, bewusst oder verstehend ist, fragen wir einfach, was sie denn kann. Und jetzt müsste ich dem zuvor Erwähnten eine lange Liste an Fähigkeiten hinzufügen. Ein paar Anekdoten: assistieren wie Siri, Alexa und Cortana, Chats im Kundenservice, Steuerung industrieller Roboter, Suchen im Internet, Gesichter erkennen, Filme vorschlagen aufgrund unserer Vorlieben, Zusammenstellen der Inhalte auf den «sozialen» Medien, wissenschaftliche Seminararbeiten schreiben, Deep Fakes erstellen, Energie-Effizienz von Anlagen steigern, Autos steuern, Investitionen anleiten, Produktedesigns vorschlagen, in Symptomatiken Krankheitsbilder erkennen, Daten auswerten und modellieren.
So eindrücklich dies auch klingen mag, was wir dabei verpassen, ist wohl mitunter das wesentlichste: die Geschwindigkeit bzw. die Beschleunigung dieser Entwicklung – und deren Ursache: Die Maschine «lernt» - und dies unglaublich schnell. Sie durchkämmt unglaubliche Mengen an Daten – für GPT-3 ist die Gesamtheit der Wikipedia Artikel gerade 6% der Trainingsdaten – und ihr steht die Rechenkraft zur Verfügung, diese zu verarbeiten. Das heisst, eine Momentaufnahme ist sicherlich interessant, aber nicht wirklich relevant. Wobei – ist es nicht erstaunlich, wie selbstverständlich uns ein KI durchzogenes Leben bereits geworden ist?
Zurück zu relevant - relevant wofür? Als relevant betrachte ich alles was hilft, bei dieser Entwicklung mitreden und mitgestalten zu können, was uns hilft in diesem Kontext weise Entscheidungen über die Zukunft der Gesellschaft zu fällen.
Was beispielsweise bereits jetzt klar geworden ist: die Daten, welche den bisherigen, daraus lernenden KIs dargeboten wurden, sind voll mit unseren Vorurteilen. Diese Vorurteile kommen per Algorithmen selbst, per Datenset und Entwickler*innen Teams hinein. Welche Informationen bezieht die Maschine in ihre «Denkprozesse» ein? Gibt es beispielsweise Schlaufen, welche fehlende Informationen erkennen würden, oder die vorhandenen in den Kontext setzen können. Das wird einfacher verständlich, wenn wir uns ein Beispiel eines Datensets ansehen. 200 Millionen Patientendaten wurden in Nordamerika benutzt, um zukünftige Pflegebedürfnisse zu prognostizieren. Der Datensatz enthielt sieben Mal mehr weisse Patient*innen als schwarze oder farbige. Zudem hielt der Algorithmus den Zusammenhang zwischen getätigten Ausgaben und zukünftigen Bedürfnissen für schlüssig. Also, wer in der Vergangenheit mehr für Gesundheit ausgegeben hat, hat wohl auch mehr Bedürfnisse. Solch dumme Fehler würden uns natürlich sofort auffallen – oder? Doch viele Fehler durch Vorurteile mögen durchaus subtiler sein und gar unentdeckt bleiben. Eine trainierte Maschine ist ironischerweise auch nicht einfach korrigierbar – auch dies klingt beängstigend menschlich.
Nun denn; wir sollten uns schleunigst bewusst werden, dass wir diese ultimative Maschine entwickeln, uns mit ihr und durch sie verändern und formen werden und dies unsere Zukünfte, die möglichen, wahrscheinlichen und wünschenswerten, massgeblich mitbestimmen wird. Es gibt – so schwer wir uns dies auch vorstellen können – Alternativen dazu, von einer technologischen Revolution einfach überrollt zu werden. Und eigentlich sehr verheissend, kommen wir dabei nicht umher, wohl so tief wie noch nie zuvor, als Menschheit in den Spiegel zu blicken, uns in nüchterner Anerkennung dessen, was wir erblicken zu üben und uns auf die besten Werte unserer Natur zu besinnen.
Comments