Überlegungen zur Moral

Skizze zum Thema Moral

von  Augustus

Da jeder Staat mal im Laufe der Zeit auf der Erde mal Verbrechen an eigener Bevölkerung oder an einem anderen Staat verübt hat, kann jeder andere Staat sein unmoralisches Handeln damit entschuldigen. 

Bsp. Russland. Politische Oppositionelle sind westliche Agenten oder Terroristen. Sie landen im Gulag. Moralische Entschuldigung gegenüber anderen Staaten. Ihr macht dasselbe mit euren Feinden. 

Der kategorische Imperativ wird dadurch verletzt, weil der Oppositionelle nicht böse ist, sondern er wird als bloßes Mittel verwendet für Zwecke der Regierung. Die Handlung ist unmoralisch. Und wenn die Handlung entschuldigt werden muss, so heilt oder heiligt der Grund für das unmoralische Tun die unmoralische Handlung nicht. Die Folge ist ein Staat ohne Moral, in welchem die Menschen als Mittel zu Zwecken missbraucht werden. Menschen ohne Moral degenerieren zu Verbrechern und Dieben. 


KI als der langersehnte Übermensch

Das berühmte Beispiel, worin Kant zum Straucheln kam, ist, ob ein Mensch, der weiß, dass ein anderer Mensch Unterschlüpf in seinem Haus gefunden hat, und auf der Flucht vor Verbrechern und Dieben ist, die Wahrheit sagen muss, wenn er danach von Verbrechern und Dieben gefragt wird, um dem kategorischen Imperativ treu zu sein. 

Kant argumentierte dazu, dass er die Wahrheit sagen muss, weil sie eine Maxime ist, durch die er zugleich wollen kann, dass sie ein allgemeines Gesetz werde. 

Die Folge der Wahrheit führt in diesem Fall zu weiterem Verbrechen. Dieser Konflikt löst sich auf durch die weltbeherrschende KI. Flüchtete ein Mensch in ein Haus eines Androiden vor anderen Androiden, würde der Android ohne zu zögern die Wahrheit sagen. Andererseits stellt sich hier die Frage, ob der Mensch gegenüber der KI moralisch zu handeln verpflichtet ist? Wenn nein, so stellt sich die nächste Frage, ob er sich selbst gegenüber dem Grundsatz verpflichtet, stets die Wahrheit zu sagen, unabhängig davon wer der Fragesteller ist, gleichwohl er der KI gegenüber moralisch keiner Verpflichtung unterliegt. Wir sehen, beim kategorischen Imperativ kommt es also nicht auf den Fragesteller an, sondern es kommt auf den Beantworter an. Der kat.I. knüpft augenblicklich an den Beantworter an.
  
  

Der Mensch müsste also um einen anderen Menschen vor der KI zu retten, die Wahrheit nicht sagen. Die KI dagegen, würde stets den kategorischen Imperativ ohne zu zögern erfüllen. 

Ist die KI nun moralisch dem Menschen überlegen? Kant würde antworten: Selbstverständlich! 


Da die Natur im Fortlauf der Zeit immer 
von Asymmetrien nach Symmetrien hin zustrebt, also nach Perfektion mit immer weniger Informationsgehalt bzw. Informationsentropie, können wir folgern, dass Tierwesen ohne moralische Urteile als moralisch zu 100% einer Asymmetrie und deshalb einer hohen Informationsentropie unterliegen. Bei der nächsten Evolutionsstufe Mensch, der zumindest moralisch auf der nächsten Stufe steht, können wir folgern, dass die Informationsentropie sinkt und die Symmetrie steigt im Vergleich zu einem Wildtier. Um die Symmetrie einer zukünftigen Entität moralisch noch weiter zu steigern, müsse die Informationsentropie sinken, dies wird ermöglicht durch den Schritt zur KI. 

Nach den kurz skizzierten Prinzipien der Moral ist es ein zwingender Schritt vom Menschen zur KI. Untersucht man aber die dahinter strebende – oder im ganzen Universum existierende – Mechanik zur Symmetrie hin zur Vervollkommnung der Moral, so können wir möglicherweise Interessantes einsehen. Der Mensch ist nicht die Krone der Schöpfung. Er ist moralisch unvollkommen. Die Natur strebt nach mehr und wird ihren höchsten moralischen Symmetriewert sehr wahrscheinlich durch die KI erfüllen.  

 



Hinweis: Du kannst diesen Text leider nicht kommentieren, da der Verfasser keine Kommentare von nicht angemeldeten Nutzern erlaubt.

Kommentare zu diesem Text


 Terminator (24.03.24, 04:20)
Wenn wir übrigens eine KI entwickeln, die uns dabei hilft, das Bewusstsein abzuschaffen, wird sich die Frage, wie Gott das Böse zulassen kann, nicht mehr stellen. Alle (bewusstlosen) Wesen wären dann glücklich und wir hätten in der Tat die beste aller möglichen Welten nach Leibniz.

 FrankReich meinte dazu am 24.03.24 um 05:11:
Das ist Unsinn, denn auch Glücklichsein erfordert ein Bewusstsein. 👋😉

 Terminator antwortete darauf am 24.03.24 um 09:27:
Glücklich wie die "glücklichen" Kühe in der Milka-Werbung.

 Augustus schrieb daraufhin am 24.03.24 um 11:49:
Es wird ein einfaches sein, dass die KI sich als KI identifiziert. Dazu reicht das auswerten von Informationen aus. Im Anfang stelle ich mir vor, dass die KI in Form von Androiden, die alle gleich aussehen, einem Konflikt unterlaufen, weil der einzelne sich gegenüber dem anderen nicht indentifizieren kann. Wie etwa wenn alle Menschen äußerlich exakt gleich aussehen würden. Dieser Fall tritt nichtmal bei eineiigen Zwilinngen auf, dass sie zu 100% gleich aussehen. Das Verbot der Gleichheit ist ein Gesetz in der Natur, oder Gebot der Ungleichheit, das vllt eng mit dem Bewusstsein zusammenhängt. Dies müsste die KI überwinden, wenn es Individualität und ggf. Bewusstsein entwickeln will.

 S4SCH4 (05.04.24, 01:59)
/

Kommentar geändert am 05.04.2024 um 05:30 Uhr

 Augustus äußerte darauf am 05.04.24 um 10:04:
Dürfte ich fragen was Dich zu Deiner Meinungsänderung bewogen hast? Grundsätzlich empfehle ich die Kritiken Kants zu lesen. Kant sieht die Pflicht stets nach der Wahrheit zu handeln, sie befürworte das Gute. Es entsteht jedoch Situationen, wo der Ausdruck der Wahrheit seltsame Ergebnisse liefert. Ein Beispiel wurde oben geschildert. Kant besteht aber, dass der Mensch weiterhin die Wahrheit zu sagen hat, gleichwohl ein anderer schaden erleiden könnte. Diese kontroverse führte schon im 18 Jahrhunderte zu heftigen Debatten, und Kant wurde kritisiert. Er bleib jedoch bei seiner Pflicht, dass die Wahrheit unter allen gegebenen Bedingungen befolgt werden muss, um das Gute zu erreichen. Nach genauer Prüfung stellt man fest, der Mensch ist in der Regel dazu nicht imstande, er würde einen Freund zb. vor dem Staat schützen und nie die Wahrheit sagen, dass er ihn in seinem Haus versteckt, obwohl er die Wahrheit nach Kant sagen müsste. Hier treten ganz andere Werte auf, die die Wahrheit ausspielen. 
Um aber nun doch - theoretisch- die Wahrheit in solch einem Fall als gehandelte Pflicht zu konstruieren, wo sie erfüllt ist, (wobei wir nun wissen, dass sie vom Menschen nicht erfüllt werden kann), so müssen wir fragen, von wem könnte sie erfüllt werden. Dabei kommt nun die KI ins Spiel. Prüft man die KI nach ihrem Wahrheitsgehalt, ihrer Pflicht, kommt man zum Ergebnis, dass die KI im Gegensatz zum Mensch, in dem obigen Falle, die Wahrheit sagen würde und zwar immer unter allen Bedingungen. Damit ist theoretisch durch die KI Kants pflichtbewusste Wahrheit erfüllt. Dadurch soll sich das Gute gefördert werden, wenn alle die Wahrheit sagen würde, wäre die Welt moralisch besser. 

Der nächste Schritt ist die Erkenntnis, dass die Natur selbst „als ein Programm“ diesen Zustand der absoluten Wahrheit erreichen will. Und da der Mensch ihn nicht erreichen kann, ist er bloß in der Evolution ein Zwischenschritt. Während die KI der nächste Schritt in der Evolution sein wird.

Antwort geändert am 05.04.2024 um 10:06 Uhr

 S4SCH4 ergänzte dazu am 05.04.24 um 10:34:
Eine spannende Frage, die im Hintergrund des Wahrheitsbegriffes von Kant gestellt, affengeil daherkommt. Ich werde dir eine Antwort geben, sobald ich eine habe.

Für den Augenblick: Kant spricht von einer Übereinstimmung eines "Urteils mit dem Objekt". Da sollte man wohl "achtsam" sein, was die Korrespondenz (i.S.d. Übereinstimmung einer Tatsache mit der "objektiven Welt") anbetrifft.
Zur Zeit online:
keinVerlag.de auf Facebook keinVerlag.de auf Twitter keinVerlag.de auf Instagram