Neuigkeiten:

Wiki * German blog * Problems? Please contact info at psiram dot com

Main Menu

ChatGPT - Schwurbelanalyse

Postings reflect the private opinion of posters and are not official positions of Psiram - Foreneinträge sind private Meinungen der Forenmitglieder und entsprechen nicht unbedingt der Auffassung von Psiram

Begonnen von Hansi, 05. Dezember 2023, 18:44:12

« vorheriges - nächstes »

Hansi

Folgendes Video wurde hier im Forum verlinkt:

https://www.youtube.com/watch?v=KazM8JXIJPc

Sinan geht ab ca. Min 13:45 auf Geschwurbel des KI-Bots bzgl. des "Matauranga Maori-Wissens"ein.

Ähnliches Geschwurbel findet statt, wenn ChatGPT über "Homöopathie" Informationen liefern soll.

Ich denke, es ist interessant und wichtig, die Logik/Programmierung von ChatGPT zu verstehen.




Hansi

Bohrt man geschickt nach, ergibt sich folgende "Logik":

Die Homöopathie ist kein "Humbug", da es ja eine "praktizierende Realität der Theorie" gäbe, welche angibt, von der Homöopathie zu profitieren.

Die "Flacherdler-Theorie" hingegen wird zunächst als "Humbug" bestätigt.

Jedoch ändert ChatGPT seine Meingung hinsichtlich der Beurteilung unter der Annahme:
"Jemand gründet eine "Schule/Lehre", welche erklärt, die Erde sei eine Scheibe. Wenn es nun Anhänger dieser Schule/Lehre gibt, welche angeben, diese Lehre würde ihnen emotional/psychisch guttun/Entlastung bringen", so ist dieser "Humbug" plötzlich gleichwertig mit der Homöopathie!


Hansi

Analoges wird wohl bei der Theorie des "Matauranga Maori-Wissens" stattfinden. Genügend Leute profitieren "formal" praktisch davon, daher wird es nicht als Humbug klassifiziert.

Hansi

Ich bin ganz bei Sinan. Die Befindlichkeiten irgendwelcher Betroffener interessieren mich nicht. Aber ChatGPT scheint Fakten und Wahrheiten, wenn es um die Empfindlichkeiten bestimmter Gruppen zu gehen scheint, nicht wahrheitsgemäß zu verfälschen.

eLender

Zitat von: Hansi am 05. Dezember 2023, 18:44:12Ich denke, es ist interessant und wichtig, die Logik/Programmierung von ChatGPT zu verstehen.
Schwer zu verstehen. Abgesehen von den Algorithmen, ist das ja keine neutrale Angelegenheit. Wie ein sinnvoller Text (etwa eine Antwort auf eine Frage) aussehen soll, wird anhand von Trainingsdaten erlernt. Aber es gibt da zig Möglichkeiten, auch um einzugreifen. So Dinger sind ja nicht intelligent, sie reproduzieren nur das, was schon da ist (ist bei den meisten Menschen allerdings auch nicht viel anders). Ob das "gute" Texte oder Antworten sind, wird wohl nochmals menschlich überprüft (natürlich nicht jedes mal, aber bei der "Justage").

ZitatEiner Gruppe von rund 40 Mitarbeitern stellte über zehntausend Beispiele dafür zusammen, wie GPT bestimmte Aufgaben idealerweise erfüllen sollte. Sie deckte eine große Bandbreite möglicher Arbeitsanweisungen ab und stellte die inhaltliche Güte und ethische Vertretbarkeit der erwünschten Antworten sicher. Mit diesen manuell erzeugten Beispielen wurde das Modell zur Feineinstellung trainiert, nachdem das erste grobe Training an den größeren, generischen Datensätzen abgeschlossen war.
https://www.golem.de/news/kuenstliche-intelligenz-so-funktioniert-chatgpt-2302-171644-6.html

Ich nehme an, dass man für diese Aufgabe überwiegend Absolventen der Critical Studies eingesetzt hat. Sind billig (man kann ja nicht so viel damit anfangen) und wissen, was der Werbekunde von heute verlangt ;)

Zitat von: Hansi am 05. Dezember 2023, 19:00:59Bohrt man geschickt nach, ergibt sich folgende "Logik":
Das mag auch eine Rolle spielen. Man will ja auch jeden zufrieden stellen, nicht das einem noch ne Blechdose erklärt, wie dumm man eigentlich ist.
Wollte ich nur mal gesagt haben!

majordomo

Zitat von: Hansi am 05. Dezember 2023, 19:13:09Ich bin ganz bei Sinan. Die Befindlichkeiten irgendwelcher Betroffener interessieren mich nicht. Aber ChatGPT scheint Fakten und Wahrheiten, wenn es um die Empfindlichkeiten bestimmter Gruppen zu gehen scheint, nicht wahrheitsgemäß zu verfälschen. [Spamlink]
Das von Ihnen geteilte Video beleuchtet einen interessanten Aspekt der Logik und Programmierung von ChatGPT, insbesondere in seinen Antworten auf Themen wie ,,Homöopathie" und ,,Matauranga-Maori-Wissen". Bei etwa 1:45 im Video geht Sinan auf die offensichtliche Inkonsistenz des KI-Bots ein, die ,,Flat Earther Theory" als ,,Humbug" abzutun, während er die Homöopathie zunächst ähnlich kategorisiert. Die zugrunde liegende Logik scheint sich zu ändern, wenn man die potenziellen emotionalen und psychologischen Vorteile berücksichtigt, die von Anhängern dieser Theorien behauptet werden.

Im Fall der Homöopathie erkennt ChatGPT eine ,,praktische Realität der Theorie" an und schlägt vor, dass sie nicht einfach als ,,Humbug" abgetan werden kann, da einige behaupten, von ihr zu profitieren. Diese Haltung steht jedoch im Gegensatz zu ihrer ursprünglichen Klassifizierung der Flat-Earth-Theorie. Der Wandel erfolgt, wenn ChatGPT das hypothetische Szenario einer Gruppe betrachtet, die eine ,,Schule/Lehre" gründet und behauptet, die Erde sei flach. Wenn Anhänger von dieser Lehre emotionale und psychologische Vorteile behaupten, setzt ChatGPT diesen ,,Humbug" mit der wahrgenommenen Logik der Homöopathie gleich.

Diese Inkonsistenz wirft Fragen darüber auf, wie ChatGPT die Legitimität von Informationen und Theorien nicht nur auf der Grundlage der sachlichen Richtigkeit, sondern auch auf der Grundlage der gemeldeten Vorteile und Empfindlichkeiten bestimmter Gruppen bewertet. Die Erwähnung des ,,Matauranga-Maori-Wissens" unterstreicht die Komplexität dieser Bewertungen weiter und legt nahe, dass ChatGPT möglicherweise davon absieht, es als Unsinn zu kategorisieren, wenn genügend Menschen daraus praktische Vorteile ziehen, was mit Sinans Perspektive übereinstimmt.

Während das Video die Aufmerksamkeit auf diese nuancierten Aspekte der Antworten von ChatGPT lenkt, regt es auch eine breitere Diskussion über die Herausforderungen an, denen KI bei der Bewältigung der Schnittstelle zwischen sachlicher Genauigkeit, subjektiven Erfahrungen und kulturellen Empfindlichkeiten gegenübersteht.

eLender

Zitat von: majordomo am 29. Dezember 2023, 08:00:21Das von Ihnen geteilte Video beleuchtet einen interessanten Aspekt der Logik und Programmierung von ChatGPT

Ich habe den Beitrag mal nicht gelöscht, obwohl er von einem Spammer stammt. Er hat geschickt Werbelinks versteckt. Aber der Text ist gar nicht schlecht, er stammt von einer KI (aber mMn nicht von einem Bot, der Spammer hat sich tatsächlich ein wenig Mühe gegeben). Es ist ein wenig bedenklich, dass die KIs jetzt schon Texte schreiben, die nicht nur sinnvoll sind, sondern die sogar eine bessere Analysen liefern, als die meisten Menschen, die sich mit dem - gar nicht trivialen - Thema ein wenig auskennen.

Der Text ist mehr als nur eine einfache Wiedergabe von Fakten, er erklärt tatsächlich auch mögliche Ursachen und Zusammenhänge, die ziemlich gut zum Thema passen.

Wenn das so weiter geht, brauchen wir hier kaum noch menschliche Nutzer. Nur noch, um Spam zu löschen :-[
Wollte ich nur mal gesagt haben!

Peiresc

Zitat von: eLender am 29. Dezember 2023, 19:15:57Er hat geschickt Werbelinks versteckt.
Das hatte ich tatsächlich übersehen.  :(
Wahrscheinlich muss man sich bei SPAM-verdächtigen Posts regelhaft den Quelltext anschauen.

Zitat von: eLender am 29. Dezember 2023, 19:15:57Aber der Text ist gar nicht schlecht, er stammt von einer KI
Auch das war mir nicht aufgestoßen.  :(   :( 
Er klang tatsächlich einigermaßen vernünftig, aber doch so schwammig, dass ich weder zustimmen noch widersprechen konnte.

Am ehesten noch zum Einhaken:
Zitat von: majordomo am 29. Dezember 2023, 08:00:21Die Erwähnung des ,,Matauranga-Maori-Wissens" unterstreicht die Komplexität dieser Bewertungen weiter und legt nahe, dass ChatGPT möglicherweise davon absieht, es als Unsinn zu kategorisieren, wenn genügend Menschen daraus praktische Vorteile ziehen,
Das unterstellt ChatGPT eine Intention, was ich für nicht plausibel halte, und es deutet sich ein pragmatistischer Wahrheitsbegriff an (IMHO eine der Grundannahmen des Konstruktivismus). Was mich davon abgehalten hat, das direkt zu posten, war der Hinweis auf Sinan. Das hätte ich erst prüfen müssen, und ich hasse Videos.

eLender

Zitat von: Peiresc am 29. Dezember 2023, 20:06:13Wahrscheinlich muss man sich bei SPAM-verdächtigen Posts regelhaft den Quelltext anschauen.
Das war in einer Minischrift versteckt. Sollte man wahrscheinlich gar nicht anklicken, nur zwecks SEO platziert. Es sind momentan Links in den Signaturen und den Nutzerprofilen nicht erlaubt (Hinweis an alle). Es sind meist Nutzer mit einer Gmail-Adresse. Vll. kann das Maschinendeck da was basteln (keine Links unter 3 Beiträgen o.ä.).

Zitat von: Peiresc am 29. Dezember 2023, 20:06:13Er klang tatsächlich einigermaßen vernünftig, aber doch so schwammig, dass ich weder zustimmen noch widersprechen konnte.
Ja, mir kam das auch merkwürdig vor, aber man hatte zumindest den Eindruck, jemand hat sich mit dem Thema beschäftigt. Es ist auch ein sinnvoller Beitrag, der auf ein Thema gezielt eingeht.

Zitat von: Peiresc am 29. Dezember 2023, 20:06:13Das unterstellt ChatGPT eine Intention, was ich für nicht plausibel halte
Das sieht vll. nur nach einer Intention aus. Die Labermaschine durchsucht Texte und macht eine semantische Klassifikation von Begriffen, die es dann für eine Antwort verwendet. Irgendwo muss es dann aufgeschnappt haben, dass Nutzen und Sinn unterschiedliche Dinge sind. Was aber wirklich gruselig ist: dass die KI sich scheinbar selbst reflektiert. Das könnte allerdings auch nur so aussehen. Oder ist das schon ein erster Schritt zu einem Bewusstsein? Was auch immer das sein soll.
Wollte ich nur mal gesagt haben!

Peiresc

Zitat von: eLender am 29. Dezember 2023, 21:43:43Oder ist das schon ein erster Schritt zu einem Bewusstsein?
Jedenfalls ist der Turing-Test seit langem Geschichte.

Überhaupt ist es ja schwierig, Kriterien für "Bewusstsein" zu entwickeln, aber bisher hatte der Begriff im täglichen Leben kaum Probleme. Das könnte jetzt anders werden.

Zitat von: eLender am 29. Dezember 2023, 21:43:43nur zwecks SEO platziert
Nach meinem Eindruck ist das eine Kunst, die wenigstens genauso tot ist wie Turing, denn die Google-Rangfolge richtet sich ausschließlich danach, wieviel Du bereit bist in Google-Werbung zu investieren (das ist jedenfalls mein Eindruck).

eLender

Zitat von: Peiresc am 29. Dezember 2023, 21:54:26Das könnte jetzt anders werden.
Es ist so spannend wie gruselig. Ich hätte nicht geglaubt, dass es noch zu meinen Lebzeiten zu einer KI kommt, die man vom Menschen kaum noch unterscheiden kann. Ich beobachte das Thema ein wenig, vor allem, was die Anwendungen (also die Generatoren) momentan so können (dafür ist X ganz gut). Es ist atemberaubend, vor allem die Geschwindigkeit, mit der sich das entwickelt. Ich denke tatsächlich, dass das die größte lebensverändernde Entwicklung seit sehr langer Zeit ist. Wahrscheinlich bedeutender, als die Entwicklung des Computers selbst. Und wenn man dann noch in die Robotik geht (den Dingern also Körper gibt), dann haben wir es mit ganz neuen Kollegen zu tun. Wenns die Dinger für kleines Geld bei Aliexpress gibt, werde ich mir einen zulegen. Der darf dann für mich arbeiten gehen...

Zitat von: Peiresc am 29. Dezember 2023, 21:54:26Nach meinem Eindruck ist das eine Kunst, die wenigstens genauso tot ist wie Turing
Finde ich auch merkwürdig, aber das war eigentlich ein relativ harmloser Link zu einer Spieleplattform. Vll. war es doch ein KI-Bot, der etwas aus der Zeit gefallen ist. Die KIs verfügen ja über ein veraltetes Wissen ;D
Wollte ich nur mal gesagt haben!