Schlagwort: Künstliche Intelligenz

Julian Nida Rümelin / Nathalie Weidenfeld: Digitaler Humanismus – Eine Ethik für das Zeitalter der Künstlichen Intelligenz (2020)

Gelungene Werbeschrift in Sachen KI: Digitaler Humanismus statt Silicon-Valley-Ideologie

Dieses Büchlein behandelt in zwanzig kurzen Kapiteln die wesentlichen philosophischen und ethischen Fragestellungen rund um das Thema Künstliche Intelligenz (KI). Es ist für ein breites Publikum geschrieben und vermeidet deshalb konsequent trockene, abstrakte Ausführungen.

Jedes Kapitel beginnt mit einer Szene aus einem bekannten Hollywood-Film als Aufhänger und macht daran die Problematik und die richtige Antwort auf diese Problematik klar. Dieses Verfahren ist sehr gut gelungen: Der Leser gleitet leicht und unbeschwert von einer bekannten Filmszene in eine niveauvolle Argumentation hinüber, ohne dass es langweilig oder kompliziert würde. Nebenbei lernt man auch einige neue Aspekte der besprochenen Filme kennen, die einem bislang noch gar nicht aufgefallen waren.

Diese Filme sind u.a.: Blade Runner, Matrix, Star Wars, I Robot, Wall-E, Der Rasenmähermann, RoboCop, Ghost in the Shell, Iron Man, Ex Machina, Metropolis. Ganz kurz werden auch einige literarische Werke genannt, die das Thema berühren, so z.B. E.T.A. Hoffmanns Sandmann, Mary Shelleys Frankenstein oder der Golem von Gustav Meyrink.

Kernthesen

Die Kernthese des Buches ist: Der richtige Umgang mit Künstlicher Intelligenz besteht in einem „Digitalen Humanismus“ und nicht in der aktuellen Ideologie von führenden Protagonisten des kalifornischen Silicon Valley. Diese „Silicon-Valley-Ideologie“ ist durch eine ganze Reihe von philosophischen Irrtümern gekennzeichnet, die typisch amerikanisch sind: Einerseits ein übertriebener Pragmatismus und Machbarkeitsglaube, andererseits ein puritanischer Reinheits- und Erlösungsgedanke: Dieser lädt Technik mit Metaphysik auf, gewissermaßen als Ersatzreligion. Dadurch geraten wesentliche Aspekte des Humanismus unter die Räder, was fatal ist: Der Digitale Humanismus hält dagegen, indem er den klassischen Humanismus auf die Welt der Künstlichen Intelligenz anwendet und die Irrtümer der Silicon-Valley-Ideologie aufzeigt.

Der Irrtum der „starken KI“ besteht in dem Glauben, dass Künstliche Intelligenz tatsächlich ein Bewusstsein und menschliches Fühlen und Denken entwickeln könnte. Doch das ist auf der Grundlage deterministischer Computer-Systeme nicht möglich. Wer an eine „starke KI“ glaubt, müsste im Umkehrschluss glauben, dass auch der Mensch nur eine Maschine ist. Damit wird aber der Mensch entmenschlicht: Er wird nicht mehr als freies und vernünftiges Wesen betrachtet, dessen Autonomie zu respektieren ist.

Auch der Transhumanismus ist ein fundamentaler Irrtum. Es wird eine klare Absage an die Idee der sogenannten „Emergenz“ erteilt: Man kann auf einer deterministischen, physikalischen Basis keine höhere Schicht einer echten menschlichen Freiheit aufbauen. Der Mensch ist keine Maschine und kann sich nicht zu einer Maschine oder in eine Maschine transformieren. Die dem Transhumanismus zugrunde liegende Psychologie ist narzisstisch und regressiv. Letztlich ist es eine Art von kindischer Flucht vor der Realität, ein quasi-religiöser Eskapismus vor den Beschränkungen der conditio humana.

Der Irrtum der „schwachen KI“ besteht in dem Glauben, dass Künstliche Intelligenz zwar kein echtes menschliches Bewusstsein entwickeln, aber doch jede menschliche Regung beliebig gut simulieren kann. Doch erstens sind die heutigen Simulationen immer noch himmelweit von der menschlichen Realität entfernt, und zweitens ist auch eine täuschend echte Simulation nur eine Simulation, und keine Realität.

Die Irrtümer rund um das Delegieren von ethischen Entscheidungen an eine Künstliche Intelligenz sind vielfältig: Zunächst sind nicht alle Parameter bekannt, die eine ethische Situation bestimmen, was das Berechnen einer ethischen Entscheidung erheblich erschwert. Eine Berechnung der Zukunft ist zudem aus Gründen der Komplexität nicht möglich. Hinzu kommt das ethische Verrechnungsverbot: Man kann z.B. nicht einfach ein Menschenleben gegen ein anderes verrechnen. Die „separateness of persons“ (John Rawls) muss beachtet werden. Auch Kants Kategorischer Imperativ taugt nicht als absolutes Kriterium. Eine Optimierung nach ökonomischen Gesichtspunkten kann ebenfalls nicht zu einer allgemeinen Ethik erhoben werden. Schließlich gibt es das liberale Paradoxon, das der Philosoph Amartya Sen entdeckt hat: Es ist unumgänglich, ein Stück ökonomische Optimierung zu opfern, um echte, menschliche Freiheit zu gewinnen.

Es gibt einen Grund, warum die Normen des demokratischen Rechtsstaates nicht konsequentialistisch formuliert sind (auf Folgen hin), sondern deontologisch (nach Pflichten).

Die Autoren verweisen auch auf ethische Fehlanreize, die entstehen können, wenn immer mehr Akteure eines Geschehens (z.B. im Straßenverkehr) nach den völlig gleichen ethischen Maximen handeln. Es könnte z.B. dazu kommen, dass Autos bewusst unsicher konstruiert werden, damit im Falle eines Unfalls die Gegenseite lieber ein anderes Auto als das eigene rammt.

Nebenthesen

Die Autoren wenden sich gegen die postmoderne These, dass es keine Wahrheit gäbe und diese beliebig konstruiert werden könnte. Wer das nicht auseinanderhalten könne, habe eine Psychose.

In der Kommunikation geht es nicht ohne Wahrhaftigkeit, denn Kommunikation ist nur in vertrauensvollen Beziehungen sinnvoll möglich.

Die Idee der Liquid Democracy, also einer Art Computer-Demokratie, in der alle Bürger jede Einzelfrage direkt per Knopfdruck entscheiden, ist aus prinzipiellen Gründen nicht realisierbar. Dem stehen u.a. das Condorcet-Paradoxon und das Arrow-Theorem entgegen.

Ein Grundeinkommen ist aus mehreren Gründen keine gute Idee, auch wenn es „sozial“ klingt. Zudem lehrt die Erfahrung mit historischen Innovationen, dass die Arbeit nicht ausgeht, sie wird nur anders organisiert.

Der Mensch sollte eine breite, humanistische Bildung haben: Dazu gehört u.a. auch „Orientierungswissen“ und eine Persönlichkeitsbildung, die auf einer Entwicklung beruht, sowie – in einer Gesellschaft, die zusammenhalten soll – ein Bildungskanon. Bloße Vielwisserei und Fachwissen sind völlig unzureichend.

Kritik

Durch den Werbecharakter dieses Büchleins ist manches philosophische Argument vielleicht doch etwas zu oberflächlich geraten. Insbesondere zur „schwachen KI“ wird immer wieder derselbe Fehler begangen, nämlich davon auszugehen, dass KI weit davon entfernt sei, menschliches Verhalten zu simulieren. Doch das ist zumindest teilweise falsch. Spätestens mit der Veröffentlichung von ChatGPT im November 2022 dürfte der Zeitpunkt erreicht sein, wo es nicht mehr ganz so einfach ist, die Maschine vom Menschen zu unterscheiden.

Ethische Argumente, die fehlen, sind z.B. diese: Ein Algorithmus kann zwar nicht autonom entscheiden wie ein Mensch, aber er kann sehr viel schneller entscheiden. In einer zeitkritischen Situation wie z.B. einem Verkehrsunfall, kann das einen Unterschied zum Vorteil der KI ausmachen.

Undiskutiert bleibt auch der Mangel an Bildung bei vielen Menschen: Viele Menschen treffen ethische Entscheidungen auf einem Niveau, das unter einem gebildeten Gesichtspunkt recht dürftig ist, und das von einer KI leicht übertroffen werden könnte. Das will zwar nicht viel heißen, aber doch ist es so. Ein Algorithmus muss in ethischen Dingen nicht in jedem Fall schlechter sein als ein Mensch. Ein Argument gegen die Autonomie des Menschen darf das natürlich nicht sein. Es geht nur um die Frage, ob eine algorithmische Ethik wirklich immer schlechter ist als die real existierende menschliche Ethik.

Das Büchlein geht meistens von deterministischen Algorithmen aus. In diesem Sinne ist eine KI ein so hochkomplexer Algorithmus, dass zwar nicht sicher vorhersehbar ist, wie sich die KI entscheiden wird, obwohl es natürlich doch vorherbestimmt ist. Das lässt jedoch die Möglichkeit eines neuronalen Netzes außer acht, dem kein Algorithmus zugrunde liegt.

Nur an wenigen Stellen wird auf neuronale Netze eingegangen. Das Hauptargument lautet: Der Name der neuronalen Netze würde täuschen, denn heutige neuronale Netze seien weit von der Komplexität und der Plastizität des menschlichen Gehirns entfernt. Ungesagt bleibt dabei, dass heutige neuronale Netze, die auf deterministischen Maschinen laufen, damit natürlich auch selbst wiederum deterministisch sind. – Das ist allerdings kein prinzipielles Gegenargument, denn was noch nicht ist, kann noch werden. Man müsste neuronale Netze also tatsächlich dem vegetativen Nervengeflecht des Gehirns nachbilden, um sie den Menschen ähnlich zu machen. Die Autoren vergessen diesen Punkt, vermutlich, weil die Technik davon noch weit entfernt ist.

Die Autoren steuern aber an anderer Stelle zusätzliche Argumente zu diesem Thema bei: Eine menschenähnliche KI könnte niemals durch das übliche „Training“ eines neuronalen Netzes erschaffen werden. Eine menschenähnliche KI müsste wie ein Mensch eine Kindheit haben, eine Familie, und über viele Jahre hinweg aufwachsen, um zu einem Menschen zu werden, bis hin zur humanistischen Bildung mit Persönlichkeitsentwicklung. Dann hätte der Mensch sich tatsächlich selbst nachgebildet.

Allerdings würde sich dann die Frage stellen, ob es nicht einfacher wäre, ein echtes Kind zu zeugen und aufzuziehen? Und es würde sich die Frage stellen, ob es ethisch vertretbar wäre, eine solche umfassend gebildete, echt freie und menschliche Künstliche Intelligenz dann wie eine Maschine für sklavische Arbeit einzusetzen.

Höhere Kritik

Es erhebt sich noch ein letztes prinzipielles Problem, auf das die Autoren nur an einer einzigen Stelle kurz eingehen, nämlich das Problem, dass ja nicht nur der Computer, sondern auch die Physik insgesamt deterministisch ist. Die Physik kann zusätzlich auch noch probabilistisch sein, also zufälliges Verhalten zeigen. Aber die Physik kennt keine autonome, freie Entscheidung eines menschlichen Willens, genauso wenig wie ein deterministischer Computer. Wenn der menschliche Geist, egal ob als natürliches Gehirn oder als gut nachgebildetes neuronales Netzwerk, allein auf dieser Physik aufbauen würde, könnte er nicht frei sein.

Unter diesem Gesichtspunkt kann die menschliche Autonomie nur durch Metaphysik gerettet werden, nämlich durch die Postulierung eines menschlichen Geistes jenseits aller Physik, der sich in den scheinbar probabilistischen Phänomenen der Physik zum Ausdruck bringt. Dazu schreiben die Autoren nur, dass der Umstand, dass mentale Zustände durch Gehirnzustände realisiert werden, nicht heiße, dass sie von diesen verursacht werden (S. 39). Das Bewusstsein kann durch physikalische Prozesse nicht erklärt werden (Qualia-Argument). Das ist zu knapp. Dieses Thema hätte man ausführlicher behandeln müssen.

Die Schwachheit des Arguments

Natürlich ist eine solche metaphysische Dimension des menschlichen Geistes nicht beweisbar. Man kann sie nur postulieren. Weil sonst der Mensch kein Mensch mehr wäre, sondern nur eine komplizierte biologische Maschine. Weil sonst Bewusstsein, Freiheit, Rationalität und Personalität nur Illusionen wären, aber keine Realitäten. Weil damit der Humanismus gescheitert wäre, und die Sinnlosigkeit und die Unmenschlichkeit gesiegt hätte: Dann hätten die Materialisten und Zyniker und die Anhänger der Silicon-Valley-Ideologie Recht. Allerdings würde ihnen das nichts nützen. Denn dann wäre alles sinnlos geworden.

An diesem dünnen, seidenen Faden hängt der Humanismus. Man kann nur ex negativo zu seinen Gunsten argumentieren, und das ist ein schwaches Argument. Das Problem ist nicht neu. Friedrich der Große formulierte das Problem z.B. so:

Sinnlos ist eins, das andre unerklärlich,
Zwei Klippen starren, beide gleich gefährlich.
Da gilt die Wahl: Sinnloses gibt es schwerlich;
Drum wend’ ich selber mich zum Dunkeln hin
Und überlasse euch den Widersinn.

Ein erneuter Angriff auf den Humanismus

Die Entwicklung der Künstlichen Intelligenz treibt dieses altbekannte Problem nun erneut auf seine Spitze. Natürlich ist der Humanismus das einzig Vernünftige, aber die Unterscheidungslinie zwischen Mensch und Maschine wird durch KI immer feiner und feiner gezogen. Es ist möglich, dass viele Menschen aus Denkfaulheit und falschem Pragmatismus keinen Unterschied mehr machen werden.

Es ist so, wie damals beim Aufkommen des Darwinismus: Ein oberflächliches und vulgäres Verständnis des Darwinismus führte zu Phänomenen wie Sozialdarwinismus, Biologismus, Eugenik, Euthanasie und Rassenlehren, aber auch Kollektivismus und der Glaube an gesellschaftlich notwendige Entwicklungen, denen der Einzelne notfalls geopfert werden darf. Und so wie der Mensch damals zum Affen reduziert wurde, so wird der Mensch heute auf eine Maschine reduziert. Der Digitale Humanismus warnt genau vor solchen Fehlentwicklungen.

Kritik am Rande

Der Charakter einer leicht geschriebenen Werbeschrift führt dazu, dass manche Themen sich wiederholen. Die einzelnen Kapitel sind inhaltlich nicht scharf gegeneinander abgegrenzt. Teilweise bauen sie aufeinander auf, ohne dass dies durch die Kapitelstruktur deutlich würde. Manchmal wurde ein Nebenthema in ein Kapitel mit „hineingestopft“, das man besser separat behandelt hätte.

Was das ethische Verrechnungsverbot anbelangt, wurde vergessen, dass es sehr wohl Situationen gibt, in denen eine gewisse Verrechnung erlaubt und auch geboten ist. Julian Nida-Rümelin hat dies selbst im Zusammenhang mit den Corona-Maßnahmen formuliert: Es ist nicht zulässig, eine ganze Gesellschaft in Geiselhaft zu nehmen, nur um womöglich ein einzelnes Menschenleben zu retten. Ethische Dilemmata werden aber erwähnt.

In einigen Punkten folgen die Autoren linken Blütenträumen: Die Abkehr von der Atomenergie wird immer noch als richtige und wichtige Zukunftsentscheidung gefeiert. Es wird die irrige These vertreten, dass der Einzelne kein eigenes Auto mehr bräuchte, wenn es autonom fahrende Taxen gäbe. Wikipedia würde angeblich von „einem strengen Ethos epistemischer Rationalität getragen“. Und ein Gegenmittel zu den Fehlinformationen im Internet seien traditionelle, redaktionelle Medien – wobei Julian Nida-Rümelin ungesagt lässt, dass die traditionellen, redaktionellen Medien sich in einer schweren Vertrauenskrise befinden.

Fazit

Eine gelungene Werbeschrift für einen Digitalen Humanismus als Antwort auf die Irrtümer der Silicon-Valley-Ideologie, die sich gut liest und leicht verständlich ist. Das Schlusskapitel geht dann noch einmal alle lessons learned im Schweinsgalopp durch. Wer es systematischer, tiefer und theoretischer möchte, muss zu einem anderen Buch greifen.

Bewertung: 4 von 5 Sternen.

Dennis E. Taylor: Ich bin viele (2016)

Konsequente Auserzählung einer alten Idee

Der Roman „Ich bin viele“ („We are Legion“) von Dennis E. Taylor ist die erzählerische Ausführung einer alten Idee, nämlich der Besiedelung des Weltraums nicht durch Menschen, sondern durch selbstreplizierende Maschinen mit künstlicher Intelligenz. Um genau zu sein, wird die Künstliche Intelligenz in diesem Fall auf den Gehirnscan eines echten Menschen zurückgeführt, und diesen Menschen begleiten wir von seinen letzten Lebenstagen über seinen Tod, sein Erwachen als „Replikanten“ und dem Start seiner Sonde von der Erde bis zur Besiedelung des Weltraumes.

Der Roman entfaltet das Thema in Gänze:

  • Erforschung fremder Planetensysteme.
  • Abbau von Rohstoffen und Bau weiterer Sonden mit derselben Künstlichen Intelligenz, die zu weiteren Sternensystemen aufbrechen, um dort wieder Rohstoffe abzubauen und weitere Sonden zu bauen usw.
  • Kampf mit gegnerischen Sonden, die von anderen Staaten ins Weltall geschickt wurden.
  • Entdeckung von primitiven außerirdischen Völkern, die man in der Rolle eines Gottes zur Zivilisation führt.
  • Entdeckung von entwickelten außerirdischen Völkern, die unbekannte und bedrohliche Technologien entwickelt haben.
  • Rettung der Menschheit von der Erde nach einem Atomkrieg und deren Umsiedelung in ein anderes Planetensystem.

Der besondere Charme des Buches liegt in dem Charakter des Protagonisten, Bob, der als Künstliche Intelligenz weiterlebt. Es handelt sich um einen Weltraum-Nerd mit Unternehmergeist, der jede Situation mit Optimismus und einem besonderen Humor meistert. Da jede weitere Kopie von Bob wieder Bob ist, erzählt der Roman die Geschichte aus immer mehr Perspektiven nahtlos weiter, wie wenn jede Kopie immer dieselbe Person wäre.

Bob hat sich in seinem Computer eine virtuelle Welt erschaffen, in der er wieder wie ein Mensch mit Körper und Gefühlen leben kann. Interessant auch das Zusammenspiel der verschiedenen Bobs: Obwohl sie alle Kopien voneinander sind, entwickelt jede Kopie einen anderen Charakter durch Akzentuierung bestimmter Charakterzüge. Jeder neue Bob wählt sich zudem einen charakteristischen Namen. Auf diese Weise lernt sich Bob noch einmal besser selbst kennen.

Immer wieder geht es auch um politische Spielchen und wie lästig diese sind: Seien es die politischen Querelen der verbliebenen Menschen um die besten Plätze in den Aussiedlungssonden, oder seien es die politischen Friktionen unter den Ältesten einer primitiven Zivilisation, die darüber debattieren, ob sie den Weisungen des „großen Baab“, also von Bob, folgen sollen. Es wird dabei keinerlei Verständnis für den guten Sinn von politischen Aushandlungsprozessen geweckt, sondern im Gegenteil darauf abgezielt, die angebliche Unnötigkeit und Schlechtigkeit von Politik zu „entlarven“, angesichts der praktischen Intelligenz von Bob, der am Ende immer Recht hat.

Die zur Anwendung kommende Technologie wird nur recht oberflächlich beschrieben. Der Schwerpunkt liegt eindeutig auf der Handlung, nicht auf den Hintergründen. Manche beschriebene Technologie dürfte auch utopisch sein. Aber damit wird es nicht übertrieben, so dass es hinreichend glaubwürdig bleibt.

Der Schwerpunkt auf der praktischen Handlung lässt das Buch auch philosophisch recht schwach sein. Philosophische und moralische Probleme werden zwar kurz angerissen, aber dann beiseite geschoben. So denkt Bob z.B. kurz darüber nach, ob er darüber traurig sein sollte, dass der originale Mensch Bob tot ist und er selbst nur eine Maschine, deren Künstliche Intelligenz auf dem Gehirnscan von Bob beruht. Der „Replikant“ Bob ist also gar nicht Bob. Es würde sich auch die Frage stellen, ob Bob als Maschine wirklich genauso wie der Mensch Bob funktionieren kann, und ob die Maschine Bob überhaupt einen freien Willen und ein Bewusstsein haben kann (wie sollte das technisch realisiert sein?), und nicht nur eine Simulation davon. Aber so tief denkt dieses Buch nicht, denn Bob fühlt sich pudelwohl, ist voller Tatendrang und fängt einfach an zu handeln!

An einer Stelle heißt es: „Ich bin Humanist. Ich glaube nicht an das Jenseits.“ (S. 20) Damit folgt das Buch der begrifflichen Vereinnahmung des Humanismus durch Atheismus bzw. Materialismus. Auch das ist philosophisch schwach, um nicht zu sagen: Völlig falsch.

Fazit: Gut erzählter Pageturner, gute und konsequente Ausführung der Grundidee, aber politisch und philosophisch bedauerlich flach.

Bewertung: 4 von 5 Sternen.