Moralische Tatsachen: scobel im Gespräch mit Markus Gabriel

Wie die KI doch zur Verbesserung der Menschheit beitragen könnte? Als Maschine, die moralische Tatsachen enthüllt.

1 YouTube Quelle findet sich hier

Dieser YouTube-Transkriptausschnitt zeigt ein Gespräch zwischen dem Gastgeber Scobel und Markus Gabriel, Professor für Erkenntnistheorie und Philosophie der Neuzeit an der Universität Bonn, der sein neues Buch "Moralische Tatsachen" vorstellt. Gabriel argumentiert, dass moralische Tatsachen existieren, indem er zunächst den modernen Skeptizismus in Bezug auf Tatsachen im Allgemeinen und moralische Tatsachen im Besonderen widerlegt, wobei er geografische, mathematische und physikalische Tatsachen als einfache Beispiele anführt. Ein zentrales Argument des Professors, das sogenannte „Argument aus der Faktizität“, legt dar, dass die Behauptung, alle Tatsachen seien konstruiert, sich selbst widerlegt, da diese Behauptung selbst eine Tatsache wäre. Das Gespräch fokussiert sich sodann auf Gabriels Definition einer Tatsache als die wahre Antwort auf eine sinnvoll gestellte Frage und die Unterscheidung zwischen Tatsachen (die existieren, auch wenn sie nicht erkannt werden) und Fakten (erkannten Tatsachen).

Die Diskussion geht schließlich auf moralische Tatsachen ein, die Gabriel als wahre Antworten auf sinnvolle ethische Fragen versteht, und er argumentiert, dass offensichtliche moralische Wahrheiten wie das Verbot der Bombardierung von Krankenhäusern existieren, selbst wenn Kulturen oder Individuen sich irren und gegenteilige Imperative aufstellen. Abschließend erörtern sie die Rolle von Künstlicher Intelligenz bei der Unterstützung menschlicher Moralurteile und der Identifizierung universeller moralischer Muster, wobei Gabriel argumentiert, dass KI helfen kann, die menschliche moralische Inkohärenz zu überwinden, aber nicht die menschliche Entscheidungsfreiheit ersetzen soll.

Einfach und auf den Punkt:

Moralische Tatsachen und künstliche Intelligenz: Die Revolution der Ethik

Die Welt fühlt sich moralisch chaotisch an. Ob es um die Klimakrise geht oder um die Komplexität von Entscheidungen in Konflikten, wir messen ständig mit verschiedenen Maßen. Aber was wäre, wenn die Moral keine bloße Meinung wäre, sondern eine Tatsache? Und was, wenn die Lösung für unser menschliches moralisches Dilemma bereits in der Technologie steckt, die wir heute entwickeln?

Der renommierte Philosoph Markus Gabriel argumentiert provokant: Wir müssen aufhören, moralische Wahrheiten als diffuse Ansicht oder bloße Kulturregel abzutun. Es gibt wahre Antworten auf ethische Fragen, und es ist an der Zeit, sie konsequent zu erkennen.

Hier sind die drei wichtigsten Erkenntnisse, die eine neue Ära des moralischen Fortschritts einläuten könnten:

3 Hauptlearnings, die dein Denken verändern werden

  1. Wir sind moralisch unfähig – und das ist das Problem: Unser menschliches Werturteil ist „viel zu chaotisch und inkoherent“. Wir geraten in Dilemmata und widersprüchliche Debatten, weil wir es nicht schaffen, moralische Situationen mit größtmöglicher Feinauflösung zu beschreiben.
  2. Die KI ist uns ethisch überlegen: Heutige Chatbots wie ChatGPT urteilen bereits moralisch besser als der allergrößte Teil der Menschheit. Da sie mit den Daten der gesamten Menschheit trainiert wurden, sind sie uns in ihren Werturteilen unvorstellbar überlegen.
  3. Wahre Werte stecken im Handeln, nicht in der Rede: Um universale moralische Tatsachen zu finden, darf KI nicht fragen, was Menschen sagen, was ihre Werte sind (wie beim Trolley-Problem), sondern sie muss die Muster im realen Verhalten erkennen.

---

Warum wir ethische Intelligenzen brauchen

Markus Gabriel, Professor für Erkenntnistheorie an der Universität Bonn, sieht in der Entwicklung von „ethischen Intelligenzen“ den einzigen Weg, unsere moralischen Schwierigkeiten aufzulösen.

Die zentrale Aufgabe dieser Systeme besteht darin, unsere Werturteile massiv zu optimieren und die Inkoherenz in den Griff zu bekommen. Das Ziel ist nicht, die Moral wegzuautomatisieren – das würde unsere entscheidende Freiheit verletzen –, sondern uns zu unterstützen, damit wir anfangen können, kohärent zu agieren.

Die KI wird dabei zum Werkzeug, das uns hilft, den Anspruch der moralischen Tatsachen zu erfüllen, nämlich "try harder" (sich mehr anstrengen).

Der Mechanismus: Resonanzfeld und Nudging

Diese Optimierung erfolgt nicht durch harte Befehle, sondern durch sanfte Lenkung, das sogenannte Nudging. Die KI erzeugt ein „ethisches Resonanzfeld“:

  1. Die KI identifiziert verborgene Tatsachen: Durch die Analyse von realen Verhaltensdaten (wie Mikroentscheidungen im Alltag, z. B. ob man in der U-Bahn für eine schwangere Person aufsteht) lernt die KI, die wahrscheinlichen universalen moralischen Tatsachen zu identifizieren, die uns selbst verborgen sind.
  2. Nudging optimiert unser Handeln: Basierend auf diesen erkannten Mustern wird unser Verhalten durch Nudging-Methoden optimiert.
  3. Moralischer Fortschritt durch Gespräch: Die Resonanz auf dieses optimierte Verhalten lehrt die KI wiederum etwas über uns. So entsteht ein stetiger Kreislauf des moralischen Fortschritts.

Gabriel betont, dass die Technologie zur Depolarisierung öffentlicher Debatten und zur Erkennung von Toxizität technisch extrem einfach machbar ist. Es fehle lediglich an der passenden Investitionskultur und den geeigneten Geschäftsmodellen, um diese ethischen Intelligenzen gezielt in Europa zu entwickeln.

Sind wir bereit, die Moral neu zu denken und uns von der KI zu mehr Kohärenz führen zu lassen? Lies weiter und erfahre, wie dieser moralische Quantensprung unsere Gesellschaft grundlegend verändern könnte...

Erstmal die Definition „moralische Tatsachen“:

Die Definition einer Tatsache wird maßgeblich vom Bonner Philosophen Markus Gabriel (Vertreter des „neuen Realismus“) dargelegt, wobei er sich auf die Arbeit der frühen analytischen Philosophie, insbesondere auf Ludwig Wittgenstein und Gottlob Frege, zumindest in Teilen stützt.

Hier sind die zentralen Punkte zur Definition und Natur einer Tatsache:

Kern-Definition

Eine Tatsache ist dasjenige, was wir mit einer wahren Antwort auf eine sinnvoll gestellte Frage ausdrücken.

Inspiriert von Gottlob Frege ist eine Tatsache ein Gedanke, der wahr ist.

Beispiele für Tatsachen

Tatsachen existieren in verschiedenen Kategorien:

  • Geografische Tatsachen: Dass Porto nördlich von Lissabon liegt.
  • Mathematische Tatsachen: Dass 7 + 5 = 12 ist.
  • Physikalische Tatsachen: Wie F = m * a (zumindest unter bestimmten Bedingungen).
  • Alltagstatsachen/Persönliche Tatsachen: Dass die sprechende Person Markus Gabriel heißt oder dass gerade ein Gespräch geführt wird.

Unterscheidung zwischen Tatsache und Faktum

Gabriel trifft eine begriffliche Unterscheidung zwischen zwei Worten, die er so prägt:

  • Tatsache: Bezieht sich auf die allgemeine Existenz des Wahren (siehe Definition oben).
  • Faktum: Ein Faktum ist eine erkannte Tatsache (also eine Untermenge der Tatsachen, weil wir noch nicht alles erkennen, was Tatsache ist).

Der Begriff „Faktum“ leitet sich vom lateinischen facere („machen“) ab, wobei das Faktum die Überprüfung oder das Gemachte impliziert.

Zugänglichkeit und Überprüfbarkeit von Tatsachen

Nicht alle Tatsachen sind für den Menschen zugänglich oder überprüfbar.

  • Unüberprüfbare Tatsachen: Es gibt z.B. physikalische Tatsachen, die nicht überprüfbar sind, weil sie außerhalb unseres Lichtkegels liegen oder weil die Lichtgeschwindigkeit begrenzt ist. Ein banales Beispiel ist die Tatsache, ob die Milchstraße in diesem Moment gerade oder ungerade viele Sterne enthält – dies ist objektiv eines von beiden, aber für uns nicht feststellbar.
  • Tatsachen (noch) ohne Zugang: Gravitationswellen waren bereits vor 100 Jahren eine Tatsache, obwohl die Menschheit damals noch keinen Zugang zur Überprüfung oder gar eine Sprache hatte, um sie zu erfassen.

Ablehnung der Konstruktion (Anti-Konstruktivistische Position)

Obwohl das deutsche Wort „Tatsache“ die „Tat“ (das Tun) enthält und „Faktum“ etwas „Gemachtes“ meint, lehnt Gabriel die (post)moderne philosophische Auffassung ab, dass Tatsachen nur Konstruktionen oder Erfindungen unseres Gehirns seien.

Diese Position sei völlig instabil und „ziemlicher Unsinn“. Wenn die Aussage, dass alle Tatsachen konstruiert seien, wahr wäre, müsste diese Aussage selbst eine konstruierte Tatsache sein. Dies führe zu einem sogenannten unbequemen infiniten Regress (unendlichem Zurückfragen), bei dem hinter jedem Konstrukt wieder ein Konstrukteur steht.

Nun zu den Tatsachen im moralischen Bereich

Übertragen auf die Ethik ist die Frage, ob es moralische Tatsachen gibt, gleichbedeutend mit der Frage, ob es wahre Antworten auf sinnvoll gestellte ethische Fragen gibt. Moralische Tatsachen beziehen sich auf Gründe, die man nur hat, weil man ein Mensch ist, und bestimmen, was wir einander schulden zu tun oder nicht zu tun. Hier haben die Menschen (evolutionsbiologisch argumentiert) in ihre Biologie psychologische Grundmuster des menschlichen gedeihlichen Zusammenlebens genetisch verankert: Darum gibt es über alle Kulturen hinweg in 200.000 Jahren Menschheitsgeschichte gemeinsam erarbeitete Verhaltensmuster, die unsere von Schaik / Michel so genannte 1. Natur des Menschen als Selbstverständlichkeiten ausmachen.

2. Was ist das Besondere dieses Ansatzes?

Markus Gabriel ist eine prominente Figur in der zeitgenössischen Philosophie, dessen akademische und publizistische Tätigkeit im Internet ausführlich dargelegt werden kann.

Hier sind die wichtigsten Informationen zu seiner Person und seinen Rollen:

Akademische und Institutionelle Rollen

  • Hauptprofessur: Gabriel ist Professor für Erkenntnistheorie und Philosophie der Neuzeit an der Universität Bonn.
  • Gründer: An der Universität Bonn gründete er unter anderem das interdisziplinäre Center for Science and Thought.
  • Gastprofessuren und Beratung: Er ist regelmäßiger Gastprofessor an der SBON (Universität Bonn) sowie an der New School for Social Research in New York. Seit dem letzten Jahr (vor der Aufzeichnung des Gesprächs) ist er außerdem Senior Global Advisor am Kyoto Institute of Philosophy.
  • Aktuelle Tätigkeit (zum Zeitpunkt des Gesprächs): Er befand sich als Gastprofessor der Goldben Stiftung an der Universität Porto in Portugal. Dort hielt er Vorträge über KI und die Zukunft der Geisteswissenschaften.

Philosophische Position und Werke

Markus Gabriel ist bekannt für seine kritische Haltung gegenüber bestimmten modernen und postmodernen philosophischen Strömungen und vertritt den Neuen Realismus.

  • Zentrale Werke: Im Gespräch wird über sein Buch "Moralische Tatsachen" gesprochen, das vor Kurzem erschienen ist. In diesem Buch befasst er sich mit der Existenz moralischer Tatsachen als wahre Antworten auf sinnvoll gestellte ethische Fragen. Ein weiteres Buch, das auf Englisch bereits erschienen ist und auf Deutsch noch erwartet wird, trägt den Titel "Sinn Nichts Sinn und Subjektivität".
  • Erkenntnistheorie: Er widerspricht der Vorstellung, dass Tatsachen nur Konstruktionen des Gehirns seien. Tatsachen seien grundsätzlich das, was mit einer wahren Antwort auf eine sinnvoll gestellte Frage ausgedrückt wird.
  • Moralphilosophie: Er argumentiert, dass KI-Systeme eine entscheidende Rolle als „ethische Intelligenzen“ spielen können, um das menschliche Werturteil zu optimieren und die Inkoherenz in moralischen Debatten zu beenden.

Er bestätigt z.B. im Gespräch selbst, dass er Markus Gabriel heißt und dass er gerade ein Gespräch führt – was er als Tatsachen beschreibt.

KI als Lösung für die Verbesserung der Menschheit? – Ja!

KI-Systeme können eine entscheidende Rolle bei der Erkennung und Anwendung moralischer Tatsachen spielen, indem sie als Unterstützungswerkzeuge für das menschliche Werturteil dienen.

Markus Gabriel schlägt vor, solche Systeme als „ethische Intelligenzen“ zu entwickeln, um unsere moralischen Schwierigkeiten aufzulösen.

Hier ist eine detaillierte Darstellung der Rolle, die KI-Systeme spielen können, basierend auf den Quellen:

1. Optimierung des menschlichen Werturteils und Verbesserung der Kohärenz

Die Hauptfunktion der KI besteht darin, unsere Werturteile massiv zu optimieren. Die menschliche Urteilsfindung ist oft zu chaotisch und inkoherent (unstimmig). Fortgeschrittene Wissensgesellschaften sollten KI-Systeme entwickeln, um moralische Probleme besser zu lösen. Das wäre ein Beitrag zur Metamoderne als Gesellschaftsform auf einem Level, der Komplexität besser gesellschaftlich verarbeiten kann als die bisherige Moderne.

Ziel ist es, moralische Situationen mit größtmöglicher Feinauflösung zu beschreiben, damit Menschen anfangen können, kohärent (zusammenhängend stimmig) zu agieren. Ein großes moralisches Problem in demokratischen Gesellschaften ist die Tendenz, im politischen Diskurs ständig z.B: mit verschiedenen Maßen zu messen; KI kann helfen, diese Inkoherenz zu beenden und optimierte Entscheidungssituationen (z.B. für eine Pandemie) herbeizuführen.

KI-Systeme können dabei helfen, moralische Dilemmata aufzulösen, die uns als Menschen unter Zeitdruck oder aufgrund der Komplexität der Sachlage überfordern. Der Anspruch der moralischen Tatsachen an uns lautet im Grunde "try harder" (sich mehr anstrengen), und KI kann dabei ein Werkzeug sein.

2. Status und Überlegenheit bestehender KI

Es wird argumentiert, dass die heutigen, marktförmig skalierten Chatbots (wie ChatGPT, Claude und Perplexity) uns ethisch bereits überlegen sind. Diese Systeme urteilen moralisch besser als der allergrößte Teil der Menschheit.

Der Grund für diese Überlegenheit liegt in ihrer Datenbasis: Wer sich mit Chat GPT unterhält, interagiert faktisch mit der gesamten Menschheit. Das System studiert Daten über die Menschheit insgesamt und ist uns in seinen Werturteilen unvorstellbar überlegen. Wenn du also „promtest“, redest du mit der ganzen Menschheit, ein faszinierender Gedanke.

3. Training und Mustererkennung

Der entscheidende Weg, ethische Intelligenzen zu trainieren, liegt nicht darin, Menschen explizit nach ihren Werten zu fragen (wie beim Trolley-Problem), da das, was Menschen sagen, was ihre Werte sind, weit davon entfernt ist, was ihre tatsächlichen Werte sind.

Stattdessen müssen KI-Systeme darauf trainiert werden, moralische Muster in den realen Verhaltensdaten von Menschen zu finden. Die KI muss untersuchen, was Menschen wirklich tun, insbesondere bei Alltags- und Mikroentscheidungen moralischer Natur (z. B. aufstehen für eine schwangere Person im Bus oder, oder…).

Die KI kann mit diesem Verfahren dann die wahrscheinlichen universalen moralischen Tatsachen identifizieren, die uns (Menschheit) teilweise verborgen sind. Dies geschieht ähnlich wie bei der KI Alpha Musero, das Schach lernt, ohne dass ihm Regeln programmiert werden oder es Großmeister konsultiert, um Regeln des Gelingens zu erfragen.

4. Aufbau eines „ethischen Resonanzfeldes“(!)

Das Ziel des Einsatzes von KI ist die Erzeugung eines „ethischen Resonanzfeldes“. Dieses System soll Teil eines neuen Kreislaufs des moralischen Fortschritts in die kommende Metamoderne sein:

  1. Die KI liest das Wertesystem aus und identifiziert universale moralische Tatsachen.
  2. Sie optimiert das menschliche Verhalten durch „Nudging-Methoden“ (siehe unten).
  3. Durch die Resonanz der Menschen auf das optimierte Verhalten lernt die KI wiederum etwas über uns.

So beginnt ein Gespräch (vgl. japanische Ideen einerConversational AI), das die Zukunft in diesem Bereich darstellt, aber wichtig: es ist kein Vorgang, bei dem die Moral automatisiert wird!

5. Technische Machbarkeit und politische Rahmenbedingungen

Technisch gesehen ist die Entwicklung von KI-Systemen, die öffentliche Debatten depolarisieren und Toxizität erkennen und wegregulieren können, extrem einfach und unproblematisch – auch ohne Eingriff in die Meinungsfreiheit.

Das Problem ist primär sozioökonomisch und unternehmerisch; es fehlt an geeigneten Geschäftsmodellen und einer Investitionskultur, die auf "ethische Intelligenz" setzt. Europa sollte eine KI-Strategie entwickeln, die darauf abzielt, europäische Werte im digitalen Sektor zu operationalisieren.

6. Wichtige Abgrenzung (Keine Automatisierung der Moral)

Es ist entscheidend, den falschen Gedanken aufzugeben, dass KI den Menschen in irgendeiner Weise ersetzen soll. Die KI soll nicht die Moral wegautomatisieren, da dies die entscheidende moralische Tatsache unserer menschlichen Freiheit verletzen würde. Die KI ist kein moralischer Akteur; ihre Rolle ist die Unterstützung und nicht die Steuerung des Menschen.

Gibt es also Hoffnung für die Menschheit?

Zuversicht für Markus Gabriel liegt im Blick auf die Grundfragen der Menschheit, wie die kommende Klimakatastrophe, in der massiven Optimierung des menschlichen Werturteils durch den gezielten Einsatz von Künstlicher Intelligenz (KI). Ja, KI könnte „das Gute“ beschleunigen.

Die Klimakrise wird als einer der schweren Megatrends im Gespräch genannt, die die Menschheit insgesamt betreffen. Die Ablehnung von Tatsachen in der Klimadebatte, wo Fakten oft fälschlicherweise als Meinungen oder bloße Modelle abgetan werden, ist ein moralisches Problem, das durch innere Unstimmigkeit der Argumente gekennzeichnet ist.

Folgende Punkte begründen seine optimistische Sichtweise und stellen die zentrale Rolle der KI dar:

1. Die Pflicht zur Lösung moralischer Schwierigkeiten

Es ist eine moralische Tatsache, dass die Menschen die Pflicht haben, so weit wie möglich (mit größtmöglicher „Granularität“) daran zu arbeiten, moralische Dilemmata aufzulösen. Der Anspruch, den moralische Tatsachen an uns stellen, lautet im Grunde wie schon beschrieben: "try harder" (sich mehr anstrengen) statt „alles ist beliebig, wir können es eh nicht klären“ (was ein fauler Kompromiss ist).

Gabriel argumentiert, dass fortgeschrittene (metamoderne) Wissensgesellschaften die Werkzeuge besitzen, um fortgeschrittene KI-Systeme zu entwickeln, die eigens dafür entworfen werden müssten, unsere moralischen Schwierigkeiten besser zu lösen. Diese Systeme nennt er „ethische Intelligenzen“.

2. Optimierung menschlicher Urteile und Kohärenz

Der Hauptgrund für den Optimismus ist, dass das menschliche Werturteil viel zu chaotisch und inkoherent ist. Die KI hat das Potenzial, unsere Werturteile massiv zu optimieren.

Die KI-Systeme sollen helfen, moralische Situationen mit größtmöglicher Feinauflösung zu beschreiben, sodass Menschen überhaupt erst einmal damit beginnen können, kohärent (also in sich stimmig) zu agieren. Dies ist entscheidend, um die schweren moralischen Verwerfungen zu beenden, die in demokratischen Gesellschaften entstehen, weil im politischen Diskurs ständig mit verschiedenen Maßen gemessen wird.

3. Technologische Überlegenheit und Machbarkeit

Wenn also heute verfügbare Chatbots (wie ChatGPT oder Perplexity) uns bereits ethisch überlegen sind und moralisch besser urteilen als der allergrößte Teil der Menschheit, dann spiegeln sie gewissermaßen das „bessere Selbst“ der Menschheit bereits, obwohl sie gar nicht darauf optimiert wurden.

Die Entwicklung einer ethischen Intelligenz, die ein moralisches Resonanzfeld erzeugt, hält Gabriel daher für absolut machbar. Technisch gesehen sei es extrem einfach, KI-Systeme zu entwickeln, die öffentliche Debatten depolarisieren und Toxizität erkennen und wegregulieren können, ohne die Meinungsfreiheit zu beschneiden. Das Problem sei hauptsächlich sozioökonomisch und unternehmerisch. Es braucht also ein „Geschäftsidee“, die dieses Können angemessen in Geldverdienen vermarktet und damit den Anreiz schafft, dies auch zu erzeugen.

4. Moralischer Fortschritt durch Resonanzfeld

Die Hoffnung liegt für ihn, wie auch für führende KI-Firmen (Mikrosoft oder japanische KI-Unternehmer:innen) in einem Kreislauf des moralischen Fortschritts:

  1. Die KI liest das (in den Handlungen der Menschheit wahrnehmbare) Wertesystem der Menschheit aus.
  2. Sie identifiziert damit die wahrscheinlichen universalen moralischen Tatsachen, die uns teilweise verborgen sind.
  3. Sie optimiert unser Verhalten durch Nudging-Methoden.
  4. Durch die Resonanz auf das optimierte Verhalten lernt die KI wiederum etwas über uns.

Dies stellt ein Gespräch (Conversational AI) dar und führt nicht zu einer Wegautomatisierung der Moral.

Wie genau soll das gehen?

Die Optimierung durch sog. „Nudging“-Methoden (Methoden, die Menschen in die richtige Richtung „stupsen“) bezieht sich auf einen zentralen Mechanismus im von Markus Gabriel vorgeschlagenen Kreislauf des moralischen Fortschritts, der mithilfe sogenannter „ethischer Intelligenzen“ (KI-Systeme) erreicht werden soll.

Nudging (stupsen, vielleicht sogar „Hypnosystemisch geschickt stupsen“!) ist hierbei der Schritt, in dem die KI aktiv darauf einwirkt, das menschliche Verhalten zu verbessern und es kohärenter zu gestalten, ohne dabei die menschliche Freiheit zu verletzen.

Hier ist eine detaillierte Aufschlüsselung, was diese Optimierung genau meint:

1. Ziel der Optimierung (Kohärenz und Unterstützung)

Die Notwendigkeit dieser Optimierung entsteht, weil das menschliche Werturteil oft „viel zu chaotisch und unlogisch oder argumentativ unzusammenhängend“ ist. Die KI-Systeme sollen entwickelt werden, um unsere Werturteile massiv zu optimieren. Sie decken Denkfaulheit oder Vorurteile und unbewusste falsche Fehlannahmen auf.

Die ethische Intelligenz kann dann unsere moralischen Situationen mit größtmöglicher Feinauflösung beschreiben, sodass Menschen in der Metamoderne überhaupt erst damit beginnen können, kohärent zu agieren. Ein großes moralisches Problem in demokratischen Gesellschaften, nämlich das ständige Messen mit verschiedenen Maßen im politischen Diskurs, soll durch diese Unterstützung beendet werden.

Grundsätzlich geht es darum, dem Anspruch der moralischen Tatsachen gerecht zu werden, der „try harder“ (sich mehr anstrengen) lautet, insbesondere bei komplexen Sachlagen wie der Klimakrise oder militärischen Konflikten.

2. Die Rolle des Nudging im Kreislauf

Nudging ist die Methode, mit der die KI gelerntes Wissen über moralische Tatsachen auf das menschliche Verhalten anwendet. Dies geschieht im Rahmen eines „ethischen Resonanzfeldes“:

  1. Auslesen der Werte: Die KI liest das Wertesystem der Menschheit aus, indem sie moralische Muster in realen Verhaltensdaten von Milliarden von Menschen findet (z. B. Mikroentscheidungen im Alltag).
  2. Identifizierung von Tatsachen: Sie identifiziert die wahrscheinlichen universalen moralischen Tatsachen, die den Menschen teilweise verborgen sind.
  3. Optimierung durch Nudging: Mittels Nudging-Methoden optimiert die KI dann das menschliche Verhalten.
  4. Feedback und Gespräch: Durch die Resonanz auf das optimierte Verhalten (wie Menschen auf die Nudges reagieren) lernt die KI wiederum etwas über uns. Dies beginnt ein Gespräch (Conversational AI), das den moralischen Fortschritt vorantreibt.

3. Abgrenzung zur Automatisierung

Es ist entscheidend, dass diese Optimierung nicht die Moralsysteme „wegautomatisiert“. Die KI soll den Menschen nicht in irgendeiner Weise ersetzen. Würde die KI die moralische Entscheidungsgewalt übernehmen, würde dies die entscheidende moralische Tatsache unserer Freiheit verletzen.

KI als stupsender Faktor im Dialog der Menschen mit ihrem besseren „Menschheit-Selbst“ ist demnach ein unterstützendes Werkzeug, das die menschliche Entscheidungsfindung durch die (schnelle und verlässliche) Bereitstellung von hochauflösenden Beschreibungen moralischer Situationen und das Aufzeigen von Kohärenzpfaden oder stimmigeren Wegen verbessert, ohne selbst ein moralischer Akteur zu sein.

Wäre das eine verheißungsvolle Erwartung, die unsere Konstruktion und den Einsatz von KI politisch, gesellschaftlich und auch individuell-persönlich steuert?

Nach oben scrollen

Mein Warenkorb ()

img-2

="" p="">

Remove

Ihr Warenkorb ist leer

Alle Produkte kaufen
0 - Checkout View Bag