Schlagwort: KI

Andreas Eschbach: Freiheitsgeld (2022)

Roman über die Dystopie einer grün-linken Degrowth-, Vollversorgungs- und Kontroll-Zukunft

Der Roman „Freiheitsgeld“ von Andreas Eschbach beginnt als Krimi, steigert sich dann zum Polit-Thriller und endet als wahrgewordene Verschwörungstheorie. Doch der Reihe nach.

Die Handlung spielt im Jahr 2064 in einem Deutschland, das ganz nach grünen und linken Vorstellungen umgestaltet wurde: Degrowth, bedingungsloses Grundeinkommen und Corona-artiger Kontroll-Staat – natürlich alles zum Wohle der Bürger – sind die Stichworte. Die Menschen leben jetzt alle in Mega-Städten. Freie Natur und Wald kennt man nur noch vom Hörensagen. Um die Städte herum wurden riesige Naturschutzzonen angelegt, die kein Mensch mehr betreten darf. Alle ehemaligen Ortschaften in den Naturschutzzonen wurden dem Erdboden gleichgemacht. Statt dessen wurden riesige Wälder gepflanzt, um CO2 zu binden. Das Klima ist aber immer noch recht heiß.

Die Menschen des Jahres 2064 leben in kleinen Wohnungen und besitzen keine eigenen Autos mehr. Der Verkehr wird über zahlreiche automatisch und kostenlos fahrende Kleinbusse abgewickelt. Jeder besitzt ein Smartphone, das zugleich sein Geldbeutel ist, denn Bargeld gibt es nicht mehr. Die Menschen werden überall durch Kameras und Transponder überwacht. Der Bürger ist in allen seinen Aktionen und Bewegungen vollkommen durchschaubar und er kann nur über zugelassene Datensysteme Verkehrsmittel benutzen und Waren bezahlen. Upload-Filter kontrollieren das Internet. Die Abhängigkeit vom System ist vollkommen. Aber alle vertrauen dem System.

Jeder Bürger bekommt das sogenannte „Freiheitsgeld“. Es ist ein Basisbetrag, von dem man sein Leben bequem bestreiten kann, ohne große Sprünge zu machen. Man kann sich Geld dazu verdienen, muss aber nicht. Viele Gestalten in diesem Roman liegen deshalb nur noch in der Hängematte des Freiheitsgeldes. Die Gesundheitsversorgung ist ebenfalls kostenlos, aber völlig automatisiert. Es gibt personalisierte Medikamente. Außerdem sind Drogen freigegeben.

Was hingegen streng verboten ist, ist Schwarzarbeit und das Bezahlen in anderen Währungen. Damit wird verhindert, dass das System des Freiheitsgeldes ausgenutzt wird. Eine kleine Elite von Reichen und Prominenten wohnt in sogenannten „Oasen“, wo alles luxuriös eingerichtet ist und keine Kameras installiert sind. Auch die Polizei darf dort nicht ermitteln.

Andreas Eschbach ist es gelungen, diese seltsame Welt mit zahlreichen liebevoll ausgedachten Details zu beschreiben, die einen immer wieder zum Schmunzeln bringen. Nicht zuletzt auch deshalb, weil uns manches nur allzu bekannt vorkommt.

– – – – Achtung: Spoiler! – – – –

Im Zentrum des Romans steht Kommissar Ahmad Müller. Sein heiles Weltbild bekommt Risse, als der Altpräsident Havelock und der ehemalige Journalist Leventheim zur selben Zeit ermordet werden: Havelock hatte einst das Freiheitsgeld eingeführt, Leventheim hatte ihn dafür heftig kritisiert. Im Laufe der Recherchen erkennt Ahmad Müller gravierende Nachteile des Freiheitsgeldes, die Havelock und Leventheim der Öffentlichkeit bekannt machen wollten und deshalb sterben mussten:

  • Es ist nicht nur so, dass sich ein allzu großer Teil der Bürger in die Hängematte des Freiheitsgeldes legt.
  • Es ist auch so, dass die Bürger, die sich Geld dazu verdienen, horrende Steuern auf ihren Zuverdienst bezahlen müssen, um das Freiheitsgeld der anderen zu finanzieren. Das demotiviert zusätzlich, oder führt zu massiver Schwarzarbeit.
  • Durch die Automatisierung mit Robotern und KIs gibt es immer weniger Arbeitsplätze. Nicht alle, die arbeiten wollen, können dies auch. Und da die Arbeitswilligen um diese wenigen Arbeitsplätze konkurrieren, sinken die Löhne.
  • Die eigentlichen Profiteure sind die Besitzer der Roboter und KIs, die im Jahr 2064 den Löwenanteil der zu erledigenden Arbeit ausführen. Die Bezieher des Freiheitsgeldes werden praktisch mit einem Almosen abgespeist und haben keinen Anteil am Produktivvermögen.

Doch alle diese Nachteile reichen nicht aus, um die Menschen zum Umdenken zu bewegen. Alle haben sich an die „sichere“ Welt des Freiheitsgeldes und der Überwachung zu ihrer eigenen „Sicherheit“ gewöhnt und können es sich jetzt nicht mehr anders vorstellen.

Es ist aber alles noch schlimmer.

Ahmad Müller entdeckt, dass es hinter den Reichen eine noch kleinere Gruppe von Superreichen gibt. Diese wohnen nicht in den „Oasen“, sondern in gigantischen Residenzen in den Naturschutzzonen. Und sie haben große Pläne: Die Menschheit soll von 10 Milliarden auf 500 Millionen Menschen geschrumpft werden, denn in einer vollautomatisierten Welt braucht man einfach nicht mehr so viele Menschen, und es schont die Umwelt. Das geschieht mithilfe der personalisierten Medikamente, in die insgeheim Empfängnis-verhütende Mittel gepanscht werden. Die Auswahl wird nach dem Verhalten getroffen: Wer sich in die Hängematte des Freiheitsgeldes legt, darf sich nicht fortpflanzen. Den Leuten erzählt man das Märchen, die Fruchtbarkeit wäre deshalb stark reduziert, weil man in der alten Zeit so viele Hormone in die Umwelt gelangen ließ. Natürlich haben die Superreichen alles direkt oder indirekt in der Hand: Die Medien, die Politik, das Internet, und sämtliche Daten über die Bewegung von Personen oder Geld.

Hinzu kommt, dass die Superreichen beschlossen haben, dass die Welt modern genug ist: Deshalb gibt es schon seit Jahrzehnten keine neuen Erfindungen mehr. Neue Erfindungen bergen nämlich immer Risiken in sich, und Risiken will man auf jeden Fall vermeiden. Schließlich zapfen die Superreichen einigen besonders gesunden Normalbürgern – immerhin gegen Geld – einen speziellen Stoff aus dem Blut ab, mithilfe dessen sie praktisch unsterblich werden, während die Spender unwissentlich mit einem Verlust an Lebenszeit bezahlen. Gegenüber der Normalbevölkerung wird das hohe Alter der Superreichen verborgen gehalten.

Am Ende des Romans dringt Ahmad Müller in die Residenz einer Superreichen in der nahegelegenen Naturschutzzone ein. Es kommt zum Showdown zwischen Ahmad Müller und der Superreichen: Wird Ahmad Müller die Welt retten? Oder sitzen die Superreichen am längeren Hebel?

Fazit

Andreas Eschbach ist es gelungen, dem Leser eine grün-linke Dystopie lebendig vor Augen zu führen und hat dabei – nicht ohne Augenzwinkern – auch manche allzu steile Verschwörungstheorie mit verarbeitet. Die Lektüre dieses Romans stellt eine gute Impfung gegen die Gutgläubigkeit grün-linker Gutmenschen dar: Was manche naiv als naheliegende und innovative Lösungen für unsere Probleme ansehen, läuft in Wahrheit auf ein einziges Horrorszenario hinaus.

Bewertung: 5 von 5 Sternen.

Julian Nida Rümelin / Nathalie Weidenfeld: Digitaler Humanismus – Eine Ethik für das Zeitalter der Künstlichen Intelligenz (2020)

Gelungene Werbeschrift in Sachen KI: Digitaler Humanismus statt Silicon-Valley-Ideologie

Dieses Büchlein behandelt in zwanzig kurzen Kapiteln die wesentlichen philosophischen und ethischen Fragestellungen rund um das Thema Künstliche Intelligenz (KI). Es ist für ein breites Publikum geschrieben und vermeidet deshalb konsequent trockene, abstrakte Ausführungen.

Jedes Kapitel beginnt mit einer Szene aus einem bekannten Hollywood-Film als Aufhänger und macht daran die Problematik und die richtige Antwort auf diese Problematik klar. Dieses Verfahren ist sehr gut gelungen: Der Leser gleitet leicht und unbeschwert von einer bekannten Filmszene in eine niveauvolle Argumentation hinüber, ohne dass es langweilig oder kompliziert würde. Nebenbei lernt man auch einige neue Aspekte der besprochenen Filme kennen, die einem bislang noch gar nicht aufgefallen waren.

Diese Filme sind u.a.: Blade Runner, Matrix, Star Wars, I Robot, Wall-E, Der Rasenmähermann, RoboCop, Ghost in the Shell, Iron Man, Ex Machina, Metropolis. Ganz kurz werden auch einige literarische Werke genannt, die das Thema berühren, so z.B. E.T.A. Hoffmanns Sandmann, Mary Shelleys Frankenstein oder der Golem von Gustav Meyrink.

Kernthesen

Die Kernthese des Buches ist: Der richtige Umgang mit Künstlicher Intelligenz besteht in einem „Digitalen Humanismus“ und nicht in der aktuellen Ideologie von führenden Protagonisten des kalifornischen Silicon Valley. Diese „Silicon-Valley-Ideologie“ ist durch eine ganze Reihe von philosophischen Irrtümern gekennzeichnet, die typisch amerikanisch sind: Einerseits ein übertriebener Pragmatismus und Machbarkeitsglaube, andererseits ein puritanischer Reinheits- und Erlösungsgedanke: Dieser lädt Technik mit Metaphysik auf, gewissermaßen als Ersatzreligion. Dadurch geraten wesentliche Aspekte des Humanismus unter die Räder, was fatal ist: Der Digitale Humanismus hält dagegen, indem er den klassischen Humanismus auf die Welt der Künstlichen Intelligenz anwendet und die Irrtümer der Silicon-Valley-Ideologie aufzeigt.

Der Irrtum der „starken KI“ besteht in dem Glauben, dass Künstliche Intelligenz tatsächlich ein Bewusstsein und menschliches Fühlen und Denken entwickeln könnte. Doch das ist auf der Grundlage deterministischer Computer-Systeme nicht möglich. Wer an eine „starke KI“ glaubt, müsste im Umkehrschluss glauben, dass auch der Mensch nur eine Maschine ist. Damit wird aber der Mensch entmenschlicht: Er wird nicht mehr als freies und vernünftiges Wesen betrachtet, dessen Autonomie zu respektieren ist.

Auch der Transhumanismus ist ein fundamentaler Irrtum. Es wird eine klare Absage an die Idee der sogenannten „Emergenz“ erteilt: Man kann auf einer deterministischen, physikalischen Basis keine höhere Schicht einer echten menschlichen Freiheit aufbauen. Der Mensch ist keine Maschine und kann sich nicht zu einer Maschine oder in eine Maschine transformieren. Die dem Transhumanismus zugrunde liegende Psychologie ist narzisstisch und regressiv. Letztlich ist es eine Art von kindischer Flucht vor der Realität, ein quasi-religiöser Eskapismus vor den Beschränkungen der conditio humana.

Der Irrtum der „schwachen KI“ besteht in dem Glauben, dass Künstliche Intelligenz zwar kein echtes menschliches Bewusstsein entwickeln, aber doch jede menschliche Regung beliebig gut simulieren kann. Doch erstens sind die heutigen Simulationen immer noch himmelweit von der menschlichen Realität entfernt, und zweitens ist auch eine täuschend echte Simulation nur eine Simulation, und keine Realität.

Die Irrtümer rund um das Delegieren von ethischen Entscheidungen an eine Künstliche Intelligenz sind vielfältig: Zunächst sind nicht alle Parameter bekannt, die eine ethische Situation bestimmen, was das Berechnen einer ethischen Entscheidung erheblich erschwert. Eine Berechnung der Zukunft ist zudem aus Gründen der Komplexität nicht möglich. Hinzu kommt das ethische Verrechnungsverbot: Man kann z.B. nicht einfach ein Menschenleben gegen ein anderes verrechnen. Die „separateness of persons“ (John Rawls) muss beachtet werden. Auch Kants Kategorischer Imperativ taugt nicht als absolutes Kriterium. Eine Optimierung nach ökonomischen Gesichtspunkten kann ebenfalls nicht zu einer allgemeinen Ethik erhoben werden. Schließlich gibt es das liberale Paradoxon, das der Philosoph Amartya Sen entdeckt hat: Es ist unumgänglich, ein Stück ökonomische Optimierung zu opfern, um echte, menschliche Freiheit zu gewinnen.

Es gibt einen Grund, warum die Normen des demokratischen Rechtsstaates nicht konsequentialistisch formuliert sind (auf Folgen hin), sondern deontologisch (nach Pflichten).

Die Autoren verweisen auch auf ethische Fehlanreize, die entstehen können, wenn immer mehr Akteure eines Geschehens (z.B. im Straßenverkehr) nach den völlig gleichen ethischen Maximen handeln. Es könnte z.B. dazu kommen, dass Autos bewusst unsicher konstruiert werden, damit im Falle eines Unfalls die Gegenseite lieber ein anderes Auto als das eigene rammt.

Nebenthesen

Die Autoren wenden sich gegen die postmoderne These, dass es keine Wahrheit gäbe und diese beliebig konstruiert werden könnte. Wer das nicht auseinanderhalten könne, habe eine Psychose.

In der Kommunikation geht es nicht ohne Wahrhaftigkeit, denn Kommunikation ist nur in vertrauensvollen Beziehungen sinnvoll möglich.

Die Idee der Liquid Democracy, also einer Art Computer-Demokratie, in der alle Bürger jede Einzelfrage direkt per Knopfdruck entscheiden, ist aus prinzipiellen Gründen nicht realisierbar. Dem stehen u.a. das Condorcet-Paradoxon und das Arrow-Theorem entgegen.

Ein Grundeinkommen ist aus mehreren Gründen keine gute Idee, auch wenn es „sozial“ klingt. Zudem lehrt die Erfahrung mit historischen Innovationen, dass die Arbeit nicht ausgeht, sie wird nur anders organisiert.

Der Mensch sollte eine breite, humanistische Bildung haben: Dazu gehört u.a. auch „Orientierungswissen“ und eine Persönlichkeitsbildung, die auf einer Entwicklung beruht, sowie – in einer Gesellschaft, die zusammenhalten soll – ein Bildungskanon. Bloße Vielwisserei und Fachwissen sind völlig unzureichend.

Kritik

Durch den Werbecharakter dieses Büchleins ist manches philosophische Argument vielleicht doch etwas zu oberflächlich geraten. Insbesondere zur „schwachen KI“ wird immer wieder derselbe Fehler begangen, nämlich davon auszugehen, dass KI weit davon entfernt sei, menschliches Verhalten zu simulieren. Doch das ist zumindest teilweise falsch. Spätestens mit der Veröffentlichung von ChatGPT im November 2022 dürfte der Zeitpunkt erreicht sein, wo es nicht mehr ganz so einfach ist, die Maschine vom Menschen zu unterscheiden.

Ethische Argumente, die fehlen, sind z.B. diese: Ein Algorithmus kann zwar nicht autonom entscheiden wie ein Mensch, aber er kann sehr viel schneller entscheiden. In einer zeitkritischen Situation wie z.B. einem Verkehrsunfall, kann das einen Unterschied zum Vorteil der KI ausmachen.

Undiskutiert bleibt auch der Mangel an Bildung bei vielen Menschen: Viele Menschen treffen ethische Entscheidungen auf einem Niveau, das unter einem gebildeten Gesichtspunkt recht dürftig ist, und das von einer KI leicht übertroffen werden könnte. Das will zwar nicht viel heißen, aber doch ist es so. Ein Algorithmus muss in ethischen Dingen nicht in jedem Fall schlechter sein als ein Mensch. Ein Argument gegen die Autonomie des Menschen darf das natürlich nicht sein. Es geht nur um die Frage, ob eine algorithmische Ethik wirklich immer schlechter ist als die real existierende menschliche Ethik.

Das Büchlein geht meistens von deterministischen Algorithmen aus. In diesem Sinne ist eine KI ein so hochkomplexer Algorithmus, dass zwar nicht sicher vorhersehbar ist, wie sich die KI entscheiden wird, obwohl es natürlich doch vorherbestimmt ist. Das lässt jedoch die Möglichkeit eines neuronalen Netzes außer acht, dem kein Algorithmus zugrunde liegt.

Nur an wenigen Stellen wird auf neuronale Netze eingegangen. Das Hauptargument lautet: Der Name der neuronalen Netze würde täuschen, denn heutige neuronale Netze seien weit von der Komplexität und der Plastizität des menschlichen Gehirns entfernt. Ungesagt bleibt dabei, dass heutige neuronale Netze, die auf deterministischen Maschinen laufen, damit natürlich auch selbst wiederum deterministisch sind. – Das ist allerdings kein prinzipielles Gegenargument, denn was noch nicht ist, kann noch werden. Man müsste neuronale Netze also tatsächlich dem vegetativen Nervengeflecht des Gehirns nachbilden, um sie den Menschen ähnlich zu machen. Die Autoren vergessen diesen Punkt, vermutlich, weil die Technik davon noch weit entfernt ist.

Die Autoren steuern aber an anderer Stelle zusätzliche Argumente zu diesem Thema bei: Eine menschenähnliche KI könnte niemals durch das übliche „Training“ eines neuronalen Netzes erschaffen werden. Eine menschenähnliche KI müsste wie ein Mensch eine Kindheit haben, eine Familie, und über viele Jahre hinweg aufwachsen, um zu einem Menschen zu werden, bis hin zur humanistischen Bildung mit Persönlichkeitsentwicklung. Dann hätte der Mensch sich tatsächlich selbst nachgebildet.

Allerdings würde sich dann die Frage stellen, ob es nicht einfacher wäre, ein echtes Kind zu zeugen und aufzuziehen? Und es würde sich die Frage stellen, ob es ethisch vertretbar wäre, eine solche umfassend gebildete, echt freie und menschliche Künstliche Intelligenz dann wie eine Maschine für sklavische Arbeit einzusetzen.

Höhere Kritik

Es erhebt sich noch ein letztes prinzipielles Problem, auf das die Autoren nur an einer einzigen Stelle kurz eingehen, nämlich das Problem, dass ja nicht nur der Computer, sondern auch die Physik insgesamt deterministisch ist. Die Physik kann zusätzlich auch noch probabilistisch sein, also zufälliges Verhalten zeigen. Aber die Physik kennt keine autonome, freie Entscheidung eines menschlichen Willens, genauso wenig wie ein deterministischer Computer. Wenn der menschliche Geist, egal ob als natürliches Gehirn oder als gut nachgebildetes neuronales Netzwerk, allein auf dieser Physik aufbauen würde, könnte er nicht frei sein.

Unter diesem Gesichtspunkt kann die menschliche Autonomie nur durch Metaphysik gerettet werden, nämlich durch die Postulierung eines menschlichen Geistes jenseits aller Physik, der sich in den scheinbar probabilistischen Phänomenen der Physik zum Ausdruck bringt. Dazu schreiben die Autoren nur, dass der Umstand, dass mentale Zustände durch Gehirnzustände realisiert werden, nicht heiße, dass sie von diesen verursacht werden (S. 39). Das Bewusstsein kann durch physikalische Prozesse nicht erklärt werden (Qualia-Argument). Das ist zu knapp. Dieses Thema hätte man ausführlicher behandeln müssen.

Die Schwachheit des Arguments

Natürlich ist eine solche metaphysische Dimension des menschlichen Geistes nicht beweisbar. Man kann sie nur postulieren. Weil sonst der Mensch kein Mensch mehr wäre, sondern nur eine komplizierte biologische Maschine. Weil sonst Bewusstsein, Freiheit, Rationalität und Personalität nur Illusionen wären, aber keine Realitäten. Weil damit der Humanismus gescheitert wäre, und die Sinnlosigkeit und die Unmenschlichkeit gesiegt hätte: Dann hätten die Materialisten und Zyniker und die Anhänger der Silicon-Valley-Ideologie Recht. Allerdings würde ihnen das nichts nützen. Denn dann wäre alles sinnlos geworden.

An diesem dünnen, seidenen Faden hängt der Humanismus. Man kann nur ex negativo zu seinen Gunsten argumentieren, und das ist ein schwaches Argument. Das Problem ist nicht neu. Friedrich der Große formulierte das Problem z.B. so:

Sinnlos ist eins, das andre unerklärlich,
Zwei Klippen starren, beide gleich gefährlich.
Da gilt die Wahl: Sinnloses gibt es schwerlich;
Drum wend’ ich selber mich zum Dunkeln hin
Und überlasse euch den Widersinn.

Ein erneuter Angriff auf den Humanismus

Die Entwicklung der Künstlichen Intelligenz treibt dieses altbekannte Problem nun erneut auf seine Spitze. Natürlich ist der Humanismus das einzig Vernünftige, aber die Unterscheidungslinie zwischen Mensch und Maschine wird durch KI immer feiner und feiner gezogen. Es ist möglich, dass viele Menschen aus Denkfaulheit und falschem Pragmatismus keinen Unterschied mehr machen werden.

Es ist so, wie damals beim Aufkommen des Darwinismus: Ein oberflächliches und vulgäres Verständnis des Darwinismus führte zu Phänomenen wie Sozialdarwinismus, Biologismus, Eugenik, Euthanasie und Rassenlehren, aber auch Kollektivismus und der Glaube an gesellschaftlich notwendige Entwicklungen, denen der Einzelne notfalls geopfert werden darf. Und so wie der Mensch damals zum Affen reduziert wurde, so wird der Mensch heute auf eine Maschine reduziert. Der Digitale Humanismus warnt genau vor solchen Fehlentwicklungen.

Kritik am Rande

Der Charakter einer leicht geschriebenen Werbeschrift führt dazu, dass manche Themen sich wiederholen. Die einzelnen Kapitel sind inhaltlich nicht scharf gegeneinander abgegrenzt. Teilweise bauen sie aufeinander auf, ohne dass dies durch die Kapitelstruktur deutlich würde. Manchmal wurde ein Nebenthema in ein Kapitel mit „hineingestopft“, das man besser separat behandelt hätte.

Was das ethische Verrechnungsverbot anbelangt, wurde vergessen, dass es sehr wohl Situationen gibt, in denen eine gewisse Verrechnung erlaubt und auch geboten ist. Julian Nida-Rümelin hat dies selbst im Zusammenhang mit den Corona-Maßnahmen formuliert: Es ist nicht zulässig, eine ganze Gesellschaft in Geiselhaft zu nehmen, nur um womöglich ein einzelnes Menschenleben zu retten. Ethische Dilemmata werden aber erwähnt.

In einigen Punkten folgen die Autoren linken Blütenträumen: Die Abkehr von der Atomenergie wird immer noch als richtige und wichtige Zukunftsentscheidung gefeiert. Es wird die irrige These vertreten, dass der Einzelne kein eigenes Auto mehr bräuchte, wenn es autonom fahrende Taxen gäbe. Wikipedia würde angeblich von „einem strengen Ethos epistemischer Rationalität getragen“. Und ein Gegenmittel zu den Fehlinformationen im Internet seien traditionelle, redaktionelle Medien – wobei Julian Nida-Rümelin ungesagt lässt, dass die traditionellen, redaktionellen Medien sich in einer schweren Vertrauenskrise befinden.

Fazit

Eine gelungene Werbeschrift für einen Digitalen Humanismus als Antwort auf die Irrtümer der Silicon-Valley-Ideologie, die sich gut liest und leicht verständlich ist. Das Schlusskapitel geht dann noch einmal alle lessons learned im Schweinsgalopp durch. Wer es systematischer, tiefer und theoretischer möchte, muss zu einem anderen Buch greifen.

Bewertung: 4 von 5 Sternen.