Gelungene Werbeschrift in Sachen KI: Digitaler Humanismus statt Silicon-Valley-Ideologie
Dieses Büchlein behandelt in zwanzig kurzen Kapiteln die wesentlichen philosophischen und ethischen Fragestellungen rund um das Thema Künstliche Intelligenz (KI). Es ist für ein breites Publikum geschrieben und vermeidet deshalb konsequent trockene, abstrakte Ausführungen.
Jedes Kapitel beginnt mit einer Szene aus einem bekannten Hollywood-Film als Aufhänger und macht daran die Problematik und die richtige Antwort auf diese Problematik klar. Dieses Verfahren ist sehr gut gelungen: Der Leser gleitet leicht und unbeschwert von einer bekannten Filmszene in eine niveauvolle Argumentation hinüber, ohne dass es langweilig oder kompliziert würde. Nebenbei lernt man auch einige neue Aspekte der besprochenen Filme kennen, die einem bislang noch gar nicht aufgefallen waren.
Diese Filme sind u.a.: Blade Runner, Matrix, Star Wars, I Robot, Wall-E, Der Rasenmähermann, RoboCop, Ghost in the Shell, Iron Man, Ex Machina, Metropolis. Ganz kurz werden auch einige literarische Werke genannt, die das Thema berühren, so z.B. E.T.A. Hoffmanns Sandmann, Mary Shelleys Frankenstein oder der Golem von Gustav Meyrink.
Kernthesen
Die Kernthese des Buches ist: Der richtige Umgang mit Künstlicher Intelligenz besteht in einem „Digitalen Humanismus“ und nicht in der aktuellen Ideologie von führenden Protagonisten des kalifornischen Silicon Valley. Diese „Silicon-Valley-Ideologie“ ist durch eine ganze Reihe von philosophischen Irrtümern gekennzeichnet, die typisch amerikanisch sind: Einerseits ein übertriebener Pragmatismus und Machbarkeitsglaube, andererseits ein puritanischer Reinheits- und Erlösungsgedanke: Dieser lädt Technik mit Metaphysik auf, gewissermaßen als Ersatzreligion. Dadurch geraten wesentliche Aspekte des Humanismus unter die Räder, was fatal ist: Der Digitale Humanismus hält dagegen, indem er den klassischen Humanismus auf die Welt der Künstlichen Intelligenz anwendet und die Irrtümer der Silicon-Valley-Ideologie aufzeigt.
Der Irrtum der „starken KI“ besteht in dem Glauben, dass Künstliche Intelligenz tatsächlich ein Bewusstsein und menschliches Fühlen und Denken entwickeln könnte. Doch das ist auf der Grundlage deterministischer Computer-Systeme nicht möglich. Wer an eine „starke KI“ glaubt, müsste im Umkehrschluss glauben, dass auch der Mensch nur eine Maschine ist. Damit wird aber der Mensch entmenschlicht: Er wird nicht mehr als freies und vernünftiges Wesen betrachtet, dessen Autonomie zu respektieren ist.
Auch der Transhumanismus ist ein fundamentaler Irrtum. Es wird eine klare Absage an die Idee der sogenannten „Emergenz“ erteilt: Man kann auf einer deterministischen, physikalischen Basis keine höhere Schicht einer echten menschlichen Freiheit aufbauen. Der Mensch ist keine Maschine und kann sich nicht zu einer Maschine oder in eine Maschine transformieren. Die dem Transhumanismus zugrunde liegende Psychologie ist narzisstisch und regressiv. Letztlich ist es eine Art von kindischer Flucht vor der Realität, ein quasi-religiöser Eskapismus vor den Beschränkungen der conditio humana.
Der Irrtum der „schwachen KI“ besteht in dem Glauben, dass Künstliche Intelligenz zwar kein echtes menschliches Bewusstsein entwickeln, aber doch jede menschliche Regung beliebig gut simulieren kann. Doch erstens sind die heutigen Simulationen immer noch himmelweit von der menschlichen Realität entfernt, und zweitens ist auch eine täuschend echte Simulation nur eine Simulation, und keine Realität.
Die Irrtümer rund um das Delegieren von ethischen Entscheidungen an eine Künstliche Intelligenz sind vielfältig: Zunächst sind nicht alle Parameter bekannt, die eine ethische Situation bestimmen, was das Berechnen einer ethischen Entscheidung erheblich erschwert. Eine Berechnung der Zukunft ist zudem aus Gründen der Komplexität nicht möglich. Hinzu kommt das ethische Verrechnungsverbot: Man kann z.B. nicht einfach ein Menschenleben gegen ein anderes verrechnen. Die „separateness of persons“ (John Rawls) muss beachtet werden. Auch Kants Kategorischer Imperativ taugt nicht als absolutes Kriterium. Eine Optimierung nach ökonomischen Gesichtspunkten kann ebenfalls nicht zu einer allgemeinen Ethik erhoben werden. Schließlich gibt es das liberale Paradoxon, das der Philosoph Amartya Sen entdeckt hat: Es ist unumgänglich, ein Stück ökonomische Optimierung zu opfern, um echte, menschliche Freiheit zu gewinnen.
Es gibt einen Grund, warum die Normen des demokratischen Rechtsstaates nicht konsequentialistisch formuliert sind (auf Folgen hin), sondern deontologisch (nach Pflichten).
Die Autoren verweisen auch auf ethische Fehlanreize, die entstehen können, wenn immer mehr Akteure eines Geschehens (z.B. im Straßenverkehr) nach den völlig gleichen ethischen Maximen handeln. Es könnte z.B. dazu kommen, dass Autos bewusst unsicher konstruiert werden, damit im Falle eines Unfalls die Gegenseite lieber ein anderes Auto als das eigene rammt.
Nebenthesen
Die Autoren wenden sich gegen die postmoderne These, dass es keine Wahrheit gäbe und diese beliebig konstruiert werden könnte. Wer das nicht auseinanderhalten könne, habe eine Psychose.
In der Kommunikation geht es nicht ohne Wahrhaftigkeit, denn Kommunikation ist nur in vertrauensvollen Beziehungen sinnvoll möglich.
Die Idee der Liquid Democracy, also einer Art Computer-Demokratie, in der alle Bürger jede Einzelfrage direkt per Knopfdruck entscheiden, ist aus prinzipiellen Gründen nicht realisierbar. Dem stehen u.a. das Condorcet-Paradoxon und das Arrow-Theorem entgegen.
Ein Grundeinkommen ist aus mehreren Gründen keine gute Idee, auch wenn es „sozial“ klingt. Zudem lehrt die Erfahrung mit historischen Innovationen, dass die Arbeit nicht ausgeht, sie wird nur anders organisiert.
Der Mensch sollte eine breite, humanistische Bildung haben: Dazu gehört u.a. auch „Orientierungswissen“ und eine Persönlichkeitsbildung, die auf einer Entwicklung beruht, sowie – in einer Gesellschaft, die zusammenhalten soll – ein Bildungskanon. Bloße Vielwisserei und Fachwissen sind völlig unzureichend.
Kritik
Durch den Werbecharakter dieses Büchleins ist manches philosophische Argument vielleicht doch etwas zu oberflächlich geraten. Insbesondere zur „schwachen KI“ wird immer wieder derselbe Fehler begangen, nämlich davon auszugehen, dass KI weit davon entfernt sei, menschliches Verhalten zu simulieren. Doch das ist zumindest teilweise falsch. Spätestens mit der Veröffentlichung von ChatGPT im November 2022 dürfte der Zeitpunkt erreicht sein, wo es nicht mehr ganz so einfach ist, die Maschine vom Menschen zu unterscheiden.
Ethische Argumente, die fehlen, sind z.B. diese: Ein Algorithmus kann zwar nicht autonom entscheiden wie ein Mensch, aber er kann sehr viel schneller entscheiden. In einer zeitkritischen Situation wie z.B. einem Verkehrsunfall, kann das einen Unterschied zum Vorteil der KI ausmachen.
Undiskutiert bleibt auch der Mangel an Bildung bei vielen Menschen: Viele Menschen treffen ethische Entscheidungen auf einem Niveau, das unter einem gebildeten Gesichtspunkt recht dürftig ist, und das von einer KI leicht übertroffen werden könnte. Das will zwar nicht viel heißen, aber doch ist es so. Ein Algorithmus muss in ethischen Dingen nicht in jedem Fall schlechter sein als ein Mensch. Ein Argument gegen die Autonomie des Menschen darf das natürlich nicht sein. Es geht nur um die Frage, ob eine algorithmische Ethik wirklich immer schlechter ist als die real existierende menschliche Ethik.
Das Büchlein geht meistens von deterministischen Algorithmen aus. In diesem Sinne ist eine KI ein so hochkomplexer Algorithmus, dass zwar nicht sicher vorhersehbar ist, wie sich die KI entscheiden wird, obwohl es natürlich doch vorherbestimmt ist. Das lässt jedoch die Möglichkeit eines neuronalen Netzes außer acht, dem kein Algorithmus zugrunde liegt.
Nur an wenigen Stellen wird auf neuronale Netze eingegangen. Das Hauptargument lautet: Der Name der neuronalen Netze würde täuschen, denn heutige neuronale Netze seien weit von der Komplexität und der Plastizität des menschlichen Gehirns entfernt. Ungesagt bleibt dabei, dass heutige neuronale Netze, die auf deterministischen Maschinen laufen, damit natürlich auch selbst wiederum deterministisch sind. – Das ist allerdings kein prinzipielles Gegenargument, denn was noch nicht ist, kann noch werden. Man müsste neuronale Netze also tatsächlich dem vegetativen Nervengeflecht des Gehirns nachbilden, um sie den Menschen ähnlich zu machen. Die Autoren vergessen diesen Punkt, vermutlich, weil die Technik davon noch weit entfernt ist.
Die Autoren steuern aber an anderer Stelle zusätzliche Argumente zu diesem Thema bei: Eine menschenähnliche KI könnte niemals durch das übliche „Training“ eines neuronalen Netzes erschaffen werden. Eine menschenähnliche KI müsste wie ein Mensch eine Kindheit haben, eine Familie, und über viele Jahre hinweg aufwachsen, um zu einem Menschen zu werden, bis hin zur humanistischen Bildung mit Persönlichkeitsentwicklung. Dann hätte der Mensch sich tatsächlich selbst nachgebildet.
Allerdings würde sich dann die Frage stellen, ob es nicht einfacher wäre, ein echtes Kind zu zeugen und aufzuziehen? Und es würde sich die Frage stellen, ob es ethisch vertretbar wäre, eine solche umfassend gebildete, echt freie und menschliche Künstliche Intelligenz dann wie eine Maschine für sklavische Arbeit einzusetzen.
Höhere Kritik
Es erhebt sich noch ein letztes prinzipielles Problem, auf das die Autoren nur an einer einzigen Stelle kurz eingehen, nämlich das Problem, dass ja nicht nur der Computer, sondern auch die Physik insgesamt deterministisch ist. Die Physik kann zusätzlich auch noch probabilistisch sein, also zufälliges Verhalten zeigen. Aber die Physik kennt keine autonome, freie Entscheidung eines menschlichen Willens, genauso wenig wie ein deterministischer Computer. Wenn der menschliche Geist, egal ob als natürliches Gehirn oder als gut nachgebildetes neuronales Netzwerk, allein auf dieser Physik aufbauen würde, könnte er nicht frei sein.
Unter diesem Gesichtspunkt kann die menschliche Autonomie nur durch Metaphysik gerettet werden, nämlich durch die Postulierung eines menschlichen Geistes jenseits aller Physik, der sich in den scheinbar probabilistischen Phänomenen der Physik zum Ausdruck bringt. Dazu schreiben die Autoren nur, dass der Umstand, dass mentale Zustände durch Gehirnzustände realisiert werden, nicht heiße, dass sie von diesen verursacht werden (S. 39). Das Bewusstsein kann durch physikalische Prozesse nicht erklärt werden (Qualia-Argument). Das ist zu knapp. Dieses Thema hätte man ausführlicher behandeln müssen.
Die Schwachheit des Arguments
Natürlich ist eine solche metaphysische Dimension des menschlichen Geistes nicht beweisbar. Man kann sie nur postulieren. Weil sonst der Mensch kein Mensch mehr wäre, sondern nur eine komplizierte biologische Maschine. Weil sonst Bewusstsein, Freiheit, Rationalität und Personalität nur Illusionen wären, aber keine Realitäten. Weil damit der Humanismus gescheitert wäre, und die Sinnlosigkeit und die Unmenschlichkeit gesiegt hätte: Dann hätten die Materialisten und Zyniker und die Anhänger der Silicon-Valley-Ideologie Recht. Allerdings würde ihnen das nichts nützen. Denn dann wäre alles sinnlos geworden.
An diesem dünnen, seidenen Faden hängt der Humanismus. Man kann nur ex negativo zu seinen Gunsten argumentieren, und das ist ein schwaches Argument. Das Problem ist nicht neu. Friedrich der Große formulierte das Problem z.B. so:
Sinnlos ist eins, das andre unerklärlich,
Zwei Klippen starren, beide gleich gefährlich.
Da gilt die Wahl: Sinnloses gibt es schwerlich;
Drum wend’ ich selber mich zum Dunkeln hin
Und überlasse euch den Widersinn.
Ein erneuter Angriff auf den Humanismus
Die Entwicklung der Künstlichen Intelligenz treibt dieses altbekannte Problem nun erneut auf seine Spitze. Natürlich ist der Humanismus das einzig Vernünftige, aber die Unterscheidungslinie zwischen Mensch und Maschine wird durch KI immer feiner und feiner gezogen. Es ist möglich, dass viele Menschen aus Denkfaulheit und falschem Pragmatismus keinen Unterschied mehr machen werden.
Es ist so, wie damals beim Aufkommen des Darwinismus: Ein oberflächliches und vulgäres Verständnis des Darwinismus führte zu Phänomenen wie Sozialdarwinismus, Biologismus, Eugenik, Euthanasie und Rassenlehren, aber auch Kollektivismus und der Glaube an gesellschaftlich notwendige Entwicklungen, denen der Einzelne notfalls geopfert werden darf. Und so wie der Mensch damals zum Affen reduziert wurde, so wird der Mensch heute auf eine Maschine reduziert. Der Digitale Humanismus warnt genau vor solchen Fehlentwicklungen.
Kritik am Rande
Der Charakter einer leicht geschriebenen Werbeschrift führt dazu, dass manche Themen sich wiederholen. Die einzelnen Kapitel sind inhaltlich nicht scharf gegeneinander abgegrenzt. Teilweise bauen sie aufeinander auf, ohne dass dies durch die Kapitelstruktur deutlich würde. Manchmal wurde ein Nebenthema in ein Kapitel mit „hineingestopft“, das man besser separat behandelt hätte.
Was das ethische Verrechnungsverbot anbelangt, wurde vergessen, dass es sehr wohl Situationen gibt, in denen eine gewisse Verrechnung erlaubt und auch geboten ist. Julian Nida-Rümelin hat dies selbst im Zusammenhang mit den Corona-Maßnahmen formuliert: Es ist nicht zulässig, eine ganze Gesellschaft in Geiselhaft zu nehmen, nur um womöglich ein einzelnes Menschenleben zu retten. Ethische Dilemmata werden aber erwähnt.
In einigen Punkten folgen die Autoren linken Blütenträumen: Die Abkehr von der Atomenergie wird immer noch als richtige und wichtige Zukunftsentscheidung gefeiert. Es wird die irrige These vertreten, dass der Einzelne kein eigenes Auto mehr bräuchte, wenn es autonom fahrende Taxen gäbe. Wikipedia würde angeblich von „einem strengen Ethos epistemischer Rationalität getragen“. Und ein Gegenmittel zu den Fehlinformationen im Internet seien traditionelle, redaktionelle Medien – wobei Julian Nida-Rümelin ungesagt lässt, dass die traditionellen, redaktionellen Medien sich in einer schweren Vertrauenskrise befinden.
Fazit
Eine gelungene Werbeschrift für einen Digitalen Humanismus als Antwort auf die Irrtümer der Silicon-Valley-Ideologie, die sich gut liest und leicht verständlich ist. Das Schlusskapitel geht dann noch einmal alle lessons learned im Schweinsgalopp durch. Wer es systematischer, tiefer und theoretischer möchte, muss zu einem anderen Buch greifen.
Bewertung: 4 von 5 Sternen.