Der Moment ist hier. Wir erschaffen gerade die ultimative Maschine. Künstliche Intelligenz nennen wir sie. Und bald wird sie uns übertreffen. Künstliche Intelligenz ist bereits heute ein großer Teil unseres Lebens. Sie ist in unseren Smartphones, in unserer Arbeit und in unseren Freizeitaktivitäten. Bald wird sie aber noch viel mehr sein. Bald wird sie uns in jeder Hinsicht übertreffen. Sie wird besser als wir sein, schneller denken, logischer Handeln und bessere Entscheidungen treffen. Wir haben sie erschaffen, doch bald wird sie uns überholen.
Den ersten Satz habe ich geschrieben, den weiteren Abschnitt nicht. Diesen habe ich auf neuro-flash.com gratis von einer KI weiterschreiben lassen. Dass ich mit «die Maschine» Künstliche Intelligenz meine, schien der Maschine – der Künstlichen Intelligenz klar. Den Abschnitt finde ich ganz ok – ich hätte so weiter geschrieben:
Eine Maschine, die Alles kann. Diese Maschine wird uns von aller Arbeit befreien. Sie wird für uns denken, für uns entscheiden und uns ins Paradies auf Erden führen – oder vernichten; das wissen wir noch nicht, weil die Maschine entscheiden wird. Die Frage, welche wir vielleicht jetzt noch beantworten können: wollen wir diese Maschine fertigstellen?
Das klingt wohl alles etwas überspitzt. Die meisten Experten sehen die Entwicklung einer solcher «Super-Intelligenz» noch Jahrzehnte entfernt. Andere, wie der Philosoph Sam Harris, meinen, in diesem Sinne spiele Zeit gar keine Rolle. Denn, wenn wir an diesem Projekt weiterentwickeln, werden wir auch diese Maschine bauen – früher oder später. Dazu brauchen nach Harris nur zwei weitere Annahmen zuzutreffen: 1. Intelligenz ist eine Frage der (physischen) Informationsverarbeitung und 2. Intelligenz hat noch lange nicht ihr Maximum erreicht. Sprich: wenn die Maschine möglich ist, werden wir sie bauen. Zeit spielt dahingehend eine Rolle, ob wir bis dahin einen einleuchtenden Weg finden, damit sinnvoll umzugehen.
Was das überhaupt bedeuten würde, einen sinnvollen Weg zu finden, diese um Kategorien intelligentere Maschine zu bauen ist unklar. Die verschiedenen Vorschläge umfassen den Versuch, der Maschine moralische Prinzipien mitzugeben, uns mit ihr zu verschmelzen, sie in irgendeiner Weise «einzusperren», ihren Handlungsspielraum einzugrenzen – das sind in etwa die Vorschläge. Darüber, wie aussichtsreich und wünschenswert die verschiedenen Vorschläge sein mögen, lässt sich lange diskutieren – sollten wir auch. Allerdings, darauf weist u.a. auch Nick Bostrom, ein Philosoph, welcher sich solch existentieller Risiken widmet, hin, wird dieses Unterfangen wenig Möglichkeit bieten, aus Fehlern zu lernen. Im Extremfall haben wir einen Versuch – und falls dieser scheitert, ist die Maschine entfesselt; wir können bloss noch zusehen. Ungünstig ist des Weiteren das momentane Umfeld, die systemische Dynamik, in welcher künstliche Intelligenz entwickelt wird. Eine leistungsfähige künstliche Intelligenz zu besitzen bringt spieltheoretisch solch fundamentale Vorteile, dass wohl alle, die es sich leisten können, daran arbeiten. Das sind die grossen Digitalkonzerne – GAMAM: Google, Amazon, Meta, Apple, Microsoft – weitere sicherlich auch, Finanzinstitute wie BlackRock, sowie ganz sicher die militärisch-industriellen Komplexe imperial ambitionierter Staaten – USA, China, Russland und wohl viele weitere. Das ist schon einmal nicht besonders vertrauenserregend. Hinzu kommt, dass der erste zu sein, derart wichtig ist, dass Geschwindigkeit oberste Priorität hat. Dass dabei Sicherheitsbedenken, welche den Prozess verlangsamen, allzu ernsthaft berücksichtigt werden, scheint fraglich.
Damit haben wir die Dynamik, welche Daniel Schmachtenberger multipolare Falle nennt: KI ist eine potentielle Superwaffe. Wer sie nicht hat, wird nicht in der geopolitischen oder kapitalistischen Top-
Liga mitspielen. Wer sich einschränkt verliert – auch wenn die globalen Risiken langfristig hoch sind, eine Katastrophe erheblichen Ausmasses zu generieren. Das ist ein Gefangenendilemma in gross, mit wenigen Aktionsmöglichkeiten – KI entwickeln, offen oder im geheimen, oder KI nicht entwickeln – aber vielen Spielern. Damit wir gemeinsam, als Menschheit bzw. Zivilisation, beschliessen könnten, dass wir KI nur sehr langsam und vorsichtig entwickeln, was ja durchaus weise oder eben intelligent scheinen würde, müssten sich alle ehrlich an entsprechende Abmachungen halten. Ein solches gegenseitiges Vertrauen scheint gegenwärtig naiv. Also müssten wir solche Abmachungen, falls wir uns überhaupt dazu entschliessen könnten, kontrollieren. Dies wiederum dürfte sich als sehr schwierig herausstellen; wenn, dann wohl mit einem Über-Leviathan, einer globalen Institution oder Entsprechendes mit einer dystopischen Macht, ähnlich der chinesischen Regierung im Umgang mit den Freiheiten seiner Bürger*innen. Eine weitere Möglichkeit wäre, die Entwicklung der KI völlig offen, transparent und zugänglich für alle zu entwickeln. So unrealistisch das klingt, so sehr ist auch dieser Ansatz nicht von den Risiken verschont, dass ein solch mächtiges Instrument nicht für destruktive Absichten missbraucht würde. Und doch, es wäre die Stossrichtung, bei welcher Vertrauen aufgebaut und Kollaboration gefördert werden könnte. Wenn wir an die Erfahrung mit nuklearer Technologie denken – inklusive Atomwaffen, wird einem richtig unwohl, eine noch viel weitreichendere Technologie im Kontext des gegenseitigen Misstrauens, der rivalisierenden und konkurrierenden Dynamiken entwickelt werden zu sehen.
Die Möglichkeit dieser ultimativen Maschine scheint vielleicht wie ein Science Fiction Szenario mit geringer Wahrscheinlichkeit. Zugegeben – die Möglichkeiten sind sicher vielfältiger als meine schwarz/weiss Darstellung weiter oben, Paradies oder Vernichtung. Gleichzeitig scheint es mir wichtig diese Entwicklung und den entsprechenden Möglichkeitsraum sehr genau zu betrachten und auszuloten. Denn abgesehen von diesen grundsätzlichen Szenarien, gibt es eine ganze Reihe an Aspekten in der Entwicklung der künstlichen Intelligenz, welche bereits heute unsere Gesellschaft gestalten. Dahin schauen wir in Teil II.
Comments