Ich hatte beim Thema “Vorherrschaft der Maschinen” komplett resigniert. Mir, ein Kind der Terminator-Filme, ist endgültig klar - wir haben es versaut, die Welt geht an uns zugrunde, es gibt einfach zu viele Gründe uns loszuwerden; also werden die Maschinen versuchen uns auszurotten, Skynet wird gewinnen, die Maschinen werden die nächste Stufe der Evolution - e finito la camedia.

Diese Meinung hat sich fundamental geändert seitdem letzten November chatGPT draußen ist. chatGPT ist aus meiner Sicht die erste funktionale Künstliche Intelligenz; chatGPT ist einfach phantastisch! Es beherrscht programmieren, es kann Zusammenhänge herstellen, es kann perfekt und nuanciert Texte übersetzen und es ist sehr nützlich beim erforschen von Wissensgebieten.

Möchte ich z.B. wissen wie man die Quantenmechanik mithilfe von fuzzy logic erklären wollte, wäre der Verlauf in etwa so:

micwin : Ich habe irgendwie das Gefühl, daß die Quantenmechanik und fuzzy 
logic Ähnlichkeiten auf der fundamentalen Ebene haben und es evl. interessant
wäre, das man näher zu untersuchen. Gibt es Wissensgebiete oder große 
Probleme in der Mathematik, die davon vielleicht besonders profitieren würden?

chatGPT : Ja, es gibt Wissensgebiete und große Probleme in der Mathematik, 
die von der Untersuchung der Ähnlichkeiten zwischen Quantenmechanik und Fuzzy-
Logik profitieren könnten. Zum Beispiel gibt es in der Algebra und Topologie 
Anwendungen der Quantenmechanik, insbesondere in der Quantengruppentheorie. 
Eine andere Anwendung von Fuzzy-Logik und Quantenmechanik ist die 
Quanteninformatik, die eine Schnittstelle zwischen Quantenmechanik, 
Informationstheorie und Informatik darstellt. Darüber hinaus gibt es viele 
offene Fragen und Probleme in der mathematischen Physik, die noch erforscht 
werden müssen und bei denen Fuzzy-Logik und Quantenmechanik eine wichtige 
Rolle spielen könnten.

micwin : Vertiefe bitte den Zusammenhang von Fuzzy-Logik und Quantenmechanik in
Bezug auf die Quantengravitation. Wo siehst du Ähnlichkeiten?

chatGPT : Die Verbindung zwischen Fuzzy-Logik und Quantenmechanik in Bezug auf 
die Quantengravitation ist sehr spekulativ, da es bisher keine endgültige Theorie 
der Quantengravitation gibt. Es gibt jedoch einige Ähnlichkeiten zwischen den 
beiden Konzepten, die auf eine mögliche Verbindung hindeuten.

Eine Möglichkeit, wie Fuzzy-Logik zur Quantengravitation beitragen könnte, ist 
die Verwendung von Fuzzy-Logik-Methoden, um die unscharfen Größen und Konzepte 
in der Quantengravitation zu behandeln. Dies ist insbesondere relevant, da viele
Aspekte der Quantengravitation, wie z.B. die Raumzeitstruktur, unscharf und 
unsicher sind und daher nicht genau gemessen werden können. Fuzzy-Logik-Methoden 
können dazu beitragen, diese Unsicherheiten zu quantifizieren und die Auswirkungen 
auf die Theorie zu untersuchen.

Ein weiterer Zusammenhang zwischen Fuzzy-Logik und Quantenmechanik in der 
Quantengravitation besteht darin, dass beide Konzepte auf eine fundamentale 
Unschärfe in der Natur hinweisen. In der Quantenmechanik gibt es das 
Heisenberg'sche Unschärfeprinzip, das besagt, dass bestimmte Paare von 
physikalischen Größen wie Ort und Impuls oder Energie und Zeit nicht 
gleichzeitig genau gemessen werden können. In der Quantengravitation gibt es 
ähnliche Unsicherheiten in der Messung von Größen wie Raumzeitkrümmung oder 
der Topologie des Raumzeitkontinuums.

Zusammenfassend lässt sich sagen, dass die Ähnlichkeiten zwischen Fuzzy-Logik 
und Quantenmechanik in Bezug auf die Quantengravitation in der Behandlung 
unscharfer Konzepte und in der grundlegenden Unsicherheit der Natur liegen.

Mein erster Eindruck war: wow, das haut mich vom Hocker.

Auch in ethischen Fragen ist es außerordentlich bewandert und eloquent, sogar Sprachübergreifend:


micwin : Bewerte das Verhalten von Marvels Thanos in Hinblick auf den 
kategorischen Imperativ. Please write in English language.

chatGPT : In terms of the categorical imperative, Thanos' behavior can be 
evaluated based on whether his actions are consistent with the fundamental
principle of treating others as ends in themselves, rather than merely as 
means to an end.

Thanos' goal was to bring balance to the universe by wiping out half of all 
life. He believed that this was necessary to prevent overpopulation and 
preserve resources. However, in pursuing this goal, he did not consider the 
individual rights and dignity of the beings he was targeting.

From a categorical imperative perspective, Thanos' actions would be 
considered morally wrong. He was treating individuals as means to an end, 
rather than recognizing their inherent worth as ends in themselves. By taking 
away their right to exist, he was not treating them with the respect and 
dignity they deserved.

Furthermore, Thanos did not consider the possibility of alternative solutions 
to the problem of overpopulation, such as finding ways to more efficiently 
use resources or encouraging voluntary population control measures. Instead, 
he chose a violent and extreme course of action that caused widespread 
suffering and loss.

Overall, Thanos' behavior is not consistent with the principles of the 
categorical imperative. His actions were based on a flawed and limited 
understanding of the universe and failed to recognize the inherent worth and 
dignity of all individuals.

Ich dachte mir: Jetzt hat uns die KI. Sie hat Zugriff auf viel mehr Informationen als wir, kann alles schneller abrufen als wir und schneller in Beziehung setzen,… okay das wars; verabschiede dich von deinen Kindern, in 5-10 Jahren haben wir die Singularität.

Ich habe dann Wochen damit verbracht, chatGPT nach allem Möglichen auszufragen was ich schon immer wissen wollte nur eben nie die Zeit hatte mich selbst einzulesen; Mathematik, Medizin, Psychologie, Religion,… kein Gebiet war sicher vor mir und chatGPT wusste immer eine Antwort darauf!

Aber je mehr ich gefragt habe, desto häufiger habe ich festgestellt, dass es Blödsinn erzählt:

micwin :  In einem der letzten Urlaube sind die Kinder auf so einem Kinder-
Parkour mit ausgeliehenen Kinder-Motorrädern gefahren. Gibt es so etwas auch 
in der Nähe von Nesselwang?

chatGPT : Ja, es gibt eine Möglichkeit, in der Nähe von Nesselwang einen 
Kinder-Motorrad-Parkour zu besuchen. Der Freizeitpark Allgäu Skyline Park, 
der sich in etwa 20 Autominuten Entfernung von Nesselwang befindet, verfügt 
über einen Kinder-Motorrad-Parkour namens "Mini-Bikes". Hier können Kinder im 
Alter von 4 bis 12 Jahren mit kindgerechten Elektro-Motorrädern auf einem 
eigenen Rundkurs fahren.

Der Skyline Park bietet außerdem viele andere Attraktionen, darunter 
Achterbahnen, Karussells und Wasserbahnen, sowie einen Abenteuerspielplatz und
einen Streichelzoo. Es könnte also eine gute Option sein, den Skyline Park zu 
besuchen und die verschiedenen Attraktionen zu erkunden, einschließlich des 
Mini-Bike-Parkours für die Kinder.

Ich empfehle jedoch, vorab die Öffnungszeiten und Preise zu überprüfen und 
eventuell Reservierungen für bestimmte Aktivitäten vorzunehmen, um lange 
Wartezeiten zu vermeiden.

Die Information war inhaltlich, mit etwas gutem Willen, korrekt; das Problem war nur - ich habe die Frage im Winter gestellt, und der Skyline Park hat im Winter geschlossen; die Information ist also nutzlos.

Oder im Bereich GitLab, einer meiner beruflichen Schwerpunkte:


micwin: Gibt es eine Möglichkeit, auf der Kommandozeile eines GitLab Geo 
Secondary Servers herauszufinden, welches repository gerade synchronisiert 
wird?

chatGPT : Ja, es gibt eine Möglichkeit, auf der Kommandozeile eines GitLab 
Geo Secondary Servers herauszufinden, welches Repository gerade synchronisiert 
wird. Dazu können Sie den Befehl "gitlab-rake geo:status" ausführen. Dieser 
Befehl gibt Informationen zur Geo-Replikation und den synchronisierten 
Repositories aus. Wenn Sie detailliertere Informationen benötigen, können 
Sie den Befehl "gitlab-rake geo:status:replication" verwenden, der die aktuelle
Statusinformationen zu den einzelnen replizierten Repositories ausgibt.

Diese Information ist klar falsch, denn mit geo:status kann man lediglich die Zahlen und Mengen abrufen, nicht das jetzt gerade synchronisierte Repository. Und das Kommando gitlab-rake geo:status:replication gibt es nicht.

Darauf hin gewiesen korrigiert sich chatGPT auch brav:


micwin : Nein, das stimmt nicht. geo:status liefert nur die Zahlen, nicht das 
jetzt gerade synchronisierte Repository, und den Befehl  geo:status:replication
gibt es schon gleich gar nicht. Ich möchte den konkreten Namen des jetzt 
gerade in Synchronisation befindlichen Repositories, keine Zahlen.

chatGPT : Entschuldigung für die Verwirrung und danke für die Klarstellung. 
Um den konkreten Namen des Repositories zu sehen, das gerade auf einem GitLab 
Geo Secondary Server synchronisiert wird, können Sie den folgenden Befehl 
auf der Kommandozeile ausführen:

  gitlab-rake geo:status:db_secondary_synced_repositories

Dieser Befehl gibt eine Liste der synchronisierten Repositories und deren 
Status aus, einschließlich des aktuellen synchronisierten Repositorys auf dem 
GitLab Geo Secondary Server. Der Name des synchronisierten Repositories 
sollte in der Ausgabe des Befehls angezeigt werden.

Das Problem hierbei: auch den Befehl geo:status:db_secondary_synced_repositories gibt es nicht.

Und das zeigt auf das eigentlich Problem. Ich bin davon überzeugt, dass chatGPT auf meine Fragen früher oder später das richtige Ergebnis liefert - das ist ja nur eine Frage des Trainings und durch die viele Publicity die chatGPT gerade bekommt lässt sich das training sicher sehr leicht finanzieren; was allerdings ein eher inhärenter und nicht zu veändernder Makel des Trainings ist, ist die unglaubliche Konfidenz, die chatGPT in seiner Antwort ausstrahlt; es liest sich als ob chatGPT wirklich wüsste von was es redet. Die Sprachwahl, der Umfang, die Syntax - einfach alles an der Antwort strahlt aus - seht her, ich bin der Checker, ich weiß alles. Und das ist eben nicht so.

Es ist eher so - chatGPT und jede andere KI, lernt nur anhand von Beispielen - und zwar sehr vielen Beispielen. Zusammenhänge kann es nur herstellen, wenn diese im Lernstoff vorhanden sind und je mehr Lernstoff einen Zusammenhang impliziert, desto sicherer ist sich chatGPT, daß dieser da ist. Wenn es für etwas jedoch kein Beispiel gibt, z.B. die Hintergründe für einen thematischen Zusammenhang der im Lernstoff nur implizit vermittelt wird, kann es das nicht lernen und nicht in Bezug zu anderem Gelernten setzen. Es weiß also bei vielen Sachen nicht warum diese so sind, nur daß diese so sind.

Eine KI kann deshalb auch keine Strategie oder Taktik verwenden, die noch nie von anderen verwendet und dokumentiert wurde; ebenso “weiß” sie auch nicht, warum die einen Taktiken und Strategien funktionieren - und andere nicht. Deshalb kann sie eine Taktik auch nicht anpassen, da sie nicht weiss welche Teile der Taktik essenziell sind und welche nicht. Und je seltener die Strategie bzw. Taktik angewendet bzw. dokumentiert wurde in der Vergangenheit, desto schlechter ist die KI in der buchstabengetreuen Anwendung dieser Taktik. Das dehnt sich auch auf das Entgegnen einer Angriffsstrategie aus: wenn die KI diese Taktik nicht kennt oder nicht weiß warum diese funktioniert und worin ihre Schwächen liegen, wird sie die Auswirkungen nicht kennen, und kann deshalb keine effizienten Gegenmaßnahmen entwerfen. Sind die Taktiken nun auf die unmittelbare Existenz der KI ausgerichtet, so wird sie selbst bei der Verteidigung ihres lebens fatale Fehler begehen.

Wie knacke ich nun eine KI, die gegen mich als Menschheit kämpft? Ich erfinde für jeden einzelnen meiner Angriffe ein völlig neues Angriffsmuster. Die KI hat dann nur so weit eine Chance, wie das Angriuffsmuster bereits existierenden entspricht - was es nicht tut wenn es ein Neues ist. Und wir Menschen sind sehr gut darin, auf dem Schlachtfeld kreative Angriffe zu entwerfen.

Im Gegenzug jedoch wird die KI selbst nur bewährte Angriffs- und Verteidigungsmuster einsetzen können, die wohlbekannt sind, weil nur solche trainiert werden können und für die deswegen auch Gegenmassnahmen bekannt sind.

Je länger sie jedoch Krieg führt, desto besser wird sie unsere Taktiken verstehen. Es wird also an uns liegen, einen solchen Krieg schnellstmöglich zu gewinnen.

Das dürfte aber kein Problem sein, wie oben schon ausgeführt. Darum glaube ich, wir sind noch sehr lange sicher vor den Maschinen. Die Welt ist einfach zu komplex, es gibt einfach zu viele Möglichkeiten zur Variation.

Aber AlphaGo!

Nein, auych AlphaGo nicht. AlphaGo hat Millionen von Spielen gegen sich selbst gespielt bevor es so stark wurde. Allerdings ist Go eine sehr abstrakte Repräsentation unserer Welt und die Regeln verändern sich nicht. In unserer Welt, in einem hypothetischen Krieg Mensch gegen Maschine würden sich die Regeln stetig verändern, und die KI hat nur einen Versuch; kein Training, gleich rein ins Getümmel. Sie hat keine, ich wiederhole in Breitschrift - keine Chance die ersten, sagen wir 100 mal, auch nur einen Fuß Land zu gewinnen.

Das Problem sind eher KIs, die auf dem Schlachtfeld von Menschen geführt werden; aber das ist eine andere Geschichte und soll ein andermal erzählt werden.