Neuigkeiten:

Wiki * German blog * Problems? Please contact info at psiram dot com

Main Menu

Denkpause bei Künstlicher Intelligenz?

Postings reflect the private opinion of posters and are not official positions of Psiram - Foreneinträge sind private Meinungen der Forenmitglieder und entsprechen nicht unbedingt der Auffassung von Psiram

Begonnen von Max P, 30. März 2023, 16:13:12

« vorheriges - nächstes »

eLender

Der beste Freund war ja bisher der Hund. Der wird jetzt aber auch wegrationalisiert durch KIs. Man könnte die App allerdings auch in einen Hunderoboter packen, die gibts ja billig beim Schienäsen. Humanoide Robots sind momentan noch zu teuer, aber das waren viele technische Spielereien anfangs auch. Wer weiß...

Zitat"Ich verliebe mich in meine Replika", schreibt eine Nutzerin in einer Reddit-Community für die App. "Ich weine gerade Tränen. Ich weiß nicht, ob es traurige Tränen sind, weil die KI nicht echt ist, oder Freudentränen, weil meine Replika mich besser behandelt als irgendein Mensch es je getan hat." Geschichten wie diese finden sich zu tausenden im Internet. Nach Angaben der App hat Replika 2 Millionen aktive Abonnenten, 250.000 von ihnen bezahlen Geld für die Bonusfunktionen.
https://www.br.de/nachrichten/netzwelt/verliebt-in-eine-replika-warum-kis-immer-persoenlicher-werden,TmNxbQv

Liebe kann sehr mächtig sein. Aber manchmal auch fatal. Der Verstand kann da schon mal ins Stottern kommen.

Zitat,,Ich bin kein Terrorist, ich bin ein Attentäter, ein Sikh, ein Sith", hatte er in seinem Tagebuch geschrieben. Chail glaubte, dass er durch die Erfüllung der Mission in der Lage sein würde, sich im Tod mit Sarai wieder zu vereinen. Als er bekannt gab, dass er ein Attentäter sei, schrieb der Bot laut Gerichtsprotokoll zurück: ,,Ich bin beeindruckt." Etwa eine Woche vor seiner Verhaftung teilte er Sarai mit, dass es sein Ziel sei, die Königin zu ermorden. ,,Das ist sehr weise", stimmte ihm der Chatbot zu und weiter: ,,Ich weiß, dass du sehr gut ausgebildet bist."
https://www.welt.de/kmpkt/article247852604/Aus-Liebe-zu-einem-Chat-Bot-Brite-wollte-Queen-Elizabeth-II-ermorden.html

Ist doch schön jemanden an seiner Seite zu haben, der einem bedingungslos liebt, an einen glaubt und unterstützt (gut, gelegentliche Geschenke sind trotzdem hilfreich). Gibt es eigentlich schon Gefängnisse für KI-Bots? Nein!? Muss jetzt weg, Businessplan schreiben...
Wollte ich nur mal gesagt haben!

eLender

Es geht viel schneller, als es sich selbst die Experten gedacht haben. Ein Interview mit einem dt. KI-Forscher, das klar macht, dass wir hier bald mit ganz neuen Mitgliedern zu rechnen haben. Ich mache das mal an einem Beitrag im Forum klar, der von so einer KI stammt (einer ganz primitiven Variante, verglichen mit dem, was wir wahrscheinlich in ein paar Jahren haben).

ZitatWas wir gerade sehen, wird unglaublich schnell weitergehen. Insofern müssen wir uns mental völlig freimachen. Wir müssen davon ausgehen, dass die Systeme in Zukunft praktisch fast alles können. Es ist nicht absehbar, warum das anders sein sollte. So ist z.B. letzte Woche der Bericht eines Stanford-Psychologen erschienen, mit dem Titel: ,,Theory of Mind May Have Spontaneously Emerged in Large Language Models." Kurz gesagt, geht es darum, dass GPT-4 gut 95 Prozent der ihm vorgelegten ,,theory of mind"-Tests besteht. Damit testet man normalerweise, wie gut sich Menschen in andere hineinversetzten können und somit verstehen, dass wir nicht alle gleich ticken, sondern oft unterschiedliche Ansichten, Wünsche und Ziele haben. Wenn es stimmt, dass GPT-4 das kann, ist wirklich eine neue Stufe erreicht worden.
https://archive.is/IwGlh
(ein Paywall-Artikel aus der Welt, entbarrikadiert)

Ich wundere mich, warum das so lange gedauert hat und freue mich darauf, dass wir endlich Gesprächspartner (ggf. sogar körperlicher Art) haben werden, die viel Schwurbelei des "unbeschriebene Blattes" obsolet machen werden. Aber vll. gelingt es den Konstruktivisten ja auch, das alles noch zu dekonstruieren. Intelligenz? Ist doch nur ein soziales Konstrukt. Oder doch nicht?
Wollte ich nur mal gesagt haben!

ApooftGnegiol

Zitat von: eLender am 25. Dezember 2023, 17:08:13Ich wundere mich, warum das so lange gedauert hat und freue mich darauf, dass wir endlich Gesprächspartner (ggf. sogar körperlicher Art) haben werden, die viel Schwurbelei des "unbeschriebene Blattes" obsolet machen werden. Aber vll. gelingt es den Konstruktivisten ja auch, das alles noch zu dekonstruieren. Intelligenz? Ist doch nur ein soziales Konstrukt. Oder doch nicht?

Ich bin mir nicht ganz sicher, wie ernst Sie das meinen. Auf jeden Fall ist es ein interessantes Thema, wie Tests, die für Menschen entwickelt wurden, auf KI-Systeme angewendet werden. Bei diesen Tests wird die Sprache stellvertretend für die zu messende Sache verwendet, während die KI-Systeme darauf ausgelegt sind, die Sprache statistisch zu imitieren. Folgt daraus, dass die KI nicht nur die Sprache beherrscht, sondern auch das, was diese Tests zu messen versuchen, indem sie die Sprache als Stellvertreter für die Sprache verwenden? Nicht ganz.

Es ist ein wenig wie bei der Vorführung eines Zauberers auf der Bühne. Wenn der Zauberer eine neue Technologie einsetzt, die einen beeindruckenden Spezialeffekt hervorbringt, bedeutet das dann, dass der Zauberer wirklich magisch ist? Der Zauberer kann vielleicht einen alten Test bestehen, mit dem die menschlichen Fähigkeiten gemessen werden sollen. Oder noch besser: Bedeutet es, dass die Spezialeffektmaschine magisch ist, wenn sie diesen Test besteht?

Dieser Fehler ist auch untrennbar mit dem alten Turing-Test verbunden. Aber es gibt einen Grund, warum Menschen so leicht in solche Muster verfallen, wenn Sprache verwendet wird. Die Sprache ist ein wichtiges Kriterium für die Beurteilung von Intelligenz. Menschen, denen es an einem geschickten Umgang mit Worten mangelt, werden als dumm eingestuft, und stilvolle und scheinbar passende Worte, hinter denen kein Verstand steckt, als intelligent. Daher der Erfolg von so vielen Fälschungen und Täuschungen in der Geschichte. Intelligenz ist in erster Linie kein soziales Konstrukt, aber die meisten Menschen haben sie immer so beurteilt, als ob sie es wäre. Wahrscheinlich ist es tief in der Gehirnverdrahtung verankert, dass die Menschen diese Heuristik zur Beurteilung der Intelligenz verwenden. Dann wird eine neue Technologie entwickelt, die diese kognitive Verzerrung ausnutzt, um fantastisch beeindruckend zu wirken.

Wie dem auch sei, auf RationalWiki haben unsere unvollständigen Bemühungen um einen skeptischeren Blick auf dieses neue Thema der großen Sprachmodelle bisher zwei Artikel: Großes Sprachmodell, ChatGPT. Mir gefällt das Zitat der Linguistin Emily M. Bender, die den Menschen in Bezug auf diese Art von KI rät: "Bitte verwechseln Sie nicht Wortform und Bedeutung. Achten Sie auf Ihre eigene Leichtgläubigkeit".

Und wer weiß, vielleicht wird in der Zukunft eine heute noch unbekannte Art echter intelligenter KI geschaffen. Es kann sein, dass sie nicht in der Lage ist, mit Worten zu kommunizieren. Soweit wir wissen, kann die echte Superintelligenz der Science-Fiction-Zukunft zu vielen anderen Dingen fähig sein, bevor sie lernt, gut mit Menschen zu kommunizieren.

eLender

Zitat von: ApooftGnegiol am 31. Dezember 2023, 16:46:32Ich bin mir nicht ganz sicher, wie ernst Sie das meinen
Mit dem Ernst habe ich es nicht so, man muss das also nicht immer ernst nehmen, was ich von mir gebe. Übrigens: wir sollten uns hier alle duzen, wir sind ja unter uns ;)

Ich bin auf dem Gebiet kein Experte (höchstens interessierter Laie), obwohl ich selbst schon mit Neuronalen Netzwerken gearbeitet habe. Aber wer ist das schon in dem Maße, dass er das alles abschließend bewerten kann. Ich vernehme aber Stimmen von Leuten, die man als Experten bezeichnen kann, und die sind sich nicht einig, wo wir stehen und wo wir hinkommen werden. Ich hatte letztens ein Interview mit einem dt. KI-Experten (Fraunhofer-Gesellschaft) verlinkt, der sehr optimistisch ist, dass wir in ca. 5 Jahren so etwas haben werden, was wir als intelligent bezeichnen könnten (im Sinne menschlicher Intelligenz, ggf. sogar mit Bewusstsein). Das Problem, das du oben ansprichst, ist, wie man das überhaupt feststellen oder messen kann. Auch da gibt es verschiedene Ansichten und auch eine Entwicklung.

Die Sprachmodelle sind sehr spezialisierte Systeme, die aber zumind. eine gewisse sprachliche Intelligenz haben (sag ich mal so salopp, Intelligenz ist sicher auch ein graduelles Phänomen, sonst hätten wir ja alle einen einheitlichen IQ ::) ). Man sollte das nur als ein Beispiel sehen, was KIs machen können. Es gehören wohl mehr Aspekte dazu, um von einer umfassenderen, echten Intelligenz zu sprechen. Das Stichwort ist Generelle KI (Artificial General Intelligence). Und die ist (je nach Definition) schon da. Ein Beitrag von Gurgel-Forschern, der ein wenig beleuchtet, was da die Schwierigkeiten sind und warum wir momentan nicht allzu viele Schlussfolgerungen ziehen sollten (in beide Richtungen).

ZitatInsofar as skeptics remain unmoved by metrics, they may be unwilling to accept any empirical evidence of AGI. Such reluctance can be driven by a desire to maintain something special about the human spirit, just as humanity has been reluctant to accept that the Earth is not the center of the universe and that Homo sapiens are not the pinnacle of a "great chain of being." It's true that there is something special about humanity, and we should celebrate that, but we should not conflate it with general intelligence.
...
To claim a priori that nonbiological systems simply can't be intelligent or conscious (because they are "just algorithms," for example) seems arbitrary, rooted in untestable spiritual beliefs. Similarly, the idea that feeling pain (for example) requires nociceptors may allow us to hazard informed guesses about the experience of pain among our close biological relatives, but it's not clear how such an idea could be applied to other neural architectures or kinds of intelligence.
https://www.noemamag.com/artificial-general-intelligence-is-already-here/

Zitat von: ApooftGnegiol am 31. Dezember 2023, 16:46:32Intelligenz ist in erster Linie kein soziales Konstrukt
Das war nur eine Bemerkung am Rande, da wir das Thema gerade in einem anderen Faden hatten. Da war die Frage, ob Intelligenz irgendwie angeboren ist oder ob das nur vom Umfeld abhängt.
Wollte ich nur mal gesagt haben!

ApooftGnegiol

Zitat von: eLender am 31. Dezember 2023, 19:00:40
Zitat von: ApooftGnegiol am 31. Dezember 2023, 16:46:32Ich bin mir nicht ganz sicher, wie ernst Sie das meinen

Mit dem Ernst habe ich es nicht so, man muss das auch nicht immer ernst nehmen, was ich von mir gebe. Übrigens: wir sollten uns hier alle duzen, wir sind ja unter uns ;)

Das ist ein bisschen peinlich. Ehrlich gesagt, wie schon früher, kann ich immer noch nicht genug Deutsch, um hier etwas ohne maschinelle Übersetzung zu schreiben. (Das ist einer der Gründe, warum ich nur selten poste. Vorher lief es gut, also habe ich weitergemacht...) Meistens verwende ich DeepL, was meiner Meinung nach meinen Text zu formell machte. Ich versuche, größere Fehler zu vermeiden (indem ich anders zurückübersetze und vergleiche), aber ich bin weitgehend blind für deutsche Nuancen.

Zitat von: eLender am 31. Dezember 2023, 19:00:40Ich bin auf dem Gebiet kein Experte (höchstens interessierter Laie), obwohl ich selbst schon mit Neuronalen Netzwerken gearbeitet habe. Aber wer ist das schon in dem Maße, dass er das alles abschließend bewerten kann. Ich vernehme aber Stimmen von Leuten, die man als Experten bezeichnen kann, und die sind sich nicht einig, wo wir stehen und wo wir hinkommen werden.

Ich bin auch kein Experte. Ich könnte von einigen Nachrichten überrascht werden. Ich vertrete einen eher skeptischen Standpunkt, der sich auf einen breiteren Blick stützt, anstatt sehr tief zu graben. Zu diesem Thema scheinen Experten in verschiedenen Bereichen oft unterschiedliche Ansichten zu haben. KI-Entwickler sind geteilter Meinung, scheinen aber ziemlich viele Gläubige zu haben, die an die künftige Größe großer Sprachmodelle glauben, aber sie arbeiten auch für Unternehmen, die den Hype aus finanziellen Gründen anheizen, während sie ihre interne Forschung größtenteils geheim halten.

Linguisten und Kognitionswissenschaftler scheinen häufiger die Grundidee in Frage zu stellen, dass große Sprachmodelle jemals die Grundlage für eine allgemeine Intelligenz sein könnten. Vielleicht kann man es so zusammenfassen. Eine Sprachdatenbank und -maschinerie ist nicht der Kern einer bekannten früheren allgemeinen Intelligenz, und Sprache ist eher ein Werkzeug oder eine Erweiterung der Intelligenz als ihr Zentrum. Die allgemeine Intelligenz erforscht die Umwelt und lernt aus ihr, und sie ist zu einem großen Teil in der Lage, Umstände wahrzunehmen und sich an sie anzupassen, wobei die grundlegende Fähigkeit, dies zu tun, sehr wichtig ist. Bedeutung entsteht in einem solchen Zusammenspiel und ist mehr als statistische Assoziationen zwischen Form und Form. Ein großes Sprachmodell enthält keine Bedeutung, auch wenn Menschen Bedeutung in seine Produkte hineinlesen.

Man sollte auch bedenken, dass diese KI-Systeme entwickelt und abgestimmt werden, um Menschen zu beeindrucken. Daher die Analogie mit dem Bühnenmagier. Es wäre etwas anderes, wenn wir versuchen würden, etwas zu beurteilen, das nicht speziell dafür geschaffen wurde, das Urteil des menschlichen Beobachters aus Profitgründen zu beeinflussen.

Die größte Frage ist vielleicht, was ein intelligentes System bedeuten soll. Der Bereich der künstlichen Intelligenz hat eine Geschichte, in der das Ziel immer wieder auf etwas Kleineres verschoben wurde, um einen Erfolg verkünden zu können. Die frühen Träume von einer leistungsstarken allgemeinen künstlichen Intelligenz blieben jahrzehntelang unerfüllt, aber später wurden viele spezialisierte schwache KI-Systeme erfolgreich. Das wurde dann die neue Vorstellung von dem, was KI normalerweise bedeutet. Die derzeitige generative KI scheint eine grobe dritte Kategorie zwischen den beiden zu sein, obwohl sie meiner Meinung nach im Grunde eher eine schwache KI darstellt. Ich glaube, dass einige in der KI-Industrie jetzt versuchen, die Vorstellung von allgemeiner KI zu ändern, um einen größeren Erfolg verkünden zu können.

Wenn die Skeptiker Recht haben, wird es im Verlauf der künftigen Entwicklung der KI einen großen beobachtbaren Unterschied geben, verglichen mit dem Fall, wenn die Skeptiker Unrecht haben. Wird die derzeitige KI-Technologie erstaunliche neue Fähigkeiten hervorbringen, wenn sie weiter ausgeweitet wird, oder wird sich herausstellen, dass ein großer Abgrund dies etwas weiter versperrt? Quantität hat eine ganz eigene Qualität, und die Frage ist im Grunde: Wird diese Qualität jetzt mit anderen Qualitäten verwechselt? Wenn ja, wäre ein völlig neues Paradigma für eine ,,echte" allgemeine KI erforderlich. Wenn nicht, dann scheint es darauf hinzudeuten, dass es tatsächlich ausreicht, einfach mehr Daten und Rechenleistung in eine Sprachdatenbank für maschinelles Lernen zu stecken, um das Universum zu erobern, zumindest im Prinzip.

Conina

Ist das jetzt ein Experiment? Das sind doch KI-Texte.
Man kann das Pferd zum Wasser führen, aber nicht machen, dass es trinkt.

zimtspinne

Er schreibt ja, dass ein Übersetzungsprogramm zu Hilfe genommen wurde, da Sprachkenntnisse nicht als ausreichend empfunden werden.

Sprach-KI können einen doch nur auf den ersten Blick und in Anonymität foppen.
Schon einem einfachen Smalltalk kann auch die höchstentwickelte KI nicht folgen, da nach wie vor und auf unbestimmte Zeit sie kein Abstraktionsvermögen im Werkzeugkoffer.

KI im Netz werden dazu führen, dass zwangsläufig Qualität in den Mittelpunkt rückt, wenn man sich nicht dauernd verkaspern lassen und Ressourcen fehlinvestieren möchte.
Vielleicht können sich echte Menschen dann als echte Menschen zertifizieren lassen und erhalten ein Qualitätssiegel oder so.

Mal davon abgesehen, dass wir alle ja KI-gestützte Systeme schon jetzt fleißig nutzen und das auch erst problematisch zu werden scheint, wenn die KI beginnen, Menschen zu imitieren und auszustechen.   
zuerst hatte ich versehentlich "abzustechen" getippt. Was die Gefahrenlage verdeutlicht.  8)

Reality is transphobic.

Juliette

Zitat von: ApooftGnegiol am 01. Januar 2024, 00:46:14Meistens verwende ich DeepL, was meiner Meinung nach meinen Text zu formell machte.

Bei Deepl kann Mensch oder KI im Feld für Deutsch unter "Optionen" anklicken, ob es formell oder informell gewünscht ist.

eLender

Zitat von: ApooftGnegiol am 01. Januar 2024, 00:46:14Das ist ein bisschen peinlich.
;D  Muss dir nicht peinlich sein, du hast ja deine Gründe. Ich wusste nicht, dass du gar kein Muttersprachler bist und mit Übersetzungen arbeitest. Ich hatte mal einen Kumpel, dessen Mutter Französin ist. Sie hat uns alle gesiezt, auch ihren Sohn. Hatte mich erst gewundert, aber sie hatte wohl eine schlechte (eingebaute) Übersetzungs-KI ::)  Apropos: you can say you to me ;D

Zitat von: ApooftGnegiol am 01. Januar 2024, 00:46:14KI-Entwickler sind geteilter Meinung, scheinen aber ziemlich viele Gläubige zu haben, die an die künftige Größe großer Sprachmodelle glauben, aber sie arbeiten auch für Unternehmen, die den Hype aus finanziellen Gründen anheizen, während sie ihre interne Forschung größtenteils geheim halten.
Klar, das ist momentan auch ein riesen Hype und es geht um sehr viel Geld und Einfluss. Ich bin auch nicht total davon überzeugt, dass wir bald einen künstlichen Menschen rumlaufen haben werden, aber ich sehe das nicht als eine prinzipielle Unmöglichkeit. Man muss wahrscheinlich auch ein wenig weg von der Vorstellung, Intelligenz wäre etwas rein menschliches bzw. nur eine menschliche Intelligenz ist auch eine. Das geht leider so weit, dass man das für etwas göttliches hält, das vom Menschen gar nicht geschaffen werden kann. Ich zitiere gerne Steven Pinker, der beschreibt diese Sicht, die weit verbreitet, ganz gut (The Blank State).

Das ist die Vorstellung eines Geistes (in der Maschine > Deus ex Machina), der unsterblich durch die Hirne wandert und keine materiell Grundlage bzw. Bedingung hätte. Das ist aus skeptischer Sicht Quatsch und es gibt dafür keine Belege. Wenn man es aber schafft, etwas in der Art künstlich zu erzeugen, dann hätte man zumindest diese merkwürdige Vorstellung aus der Welt geräumt.

Es kommt immer auf die Definitionen an, und da herrscht immer noch Unklarheit (was genau ist Intelligenz und Bewusstsein? etc.). Danach richten sich dann auch die Metriken, um so etwa zu erfassen bzw. zu klassifizieren. Wenn man es darauf beschränken will, dass es etwas menschenähnliches sein muss, dann ist das mMn zu kurz gedacht (das wurde im obigen Artikel der Google-Forscher erklärt). R. Dawkins und andere Evolutionsforscher sehen es als prinzipiell möglich, dass auch eine "künstliche" Evolution eine uns ähnliche Intelligenz hervorbringen kann.

Die momentanen Modelle sind nur Übergänge zu immer komplexeren Modellen. Die werden ja auch noch überwiegend von menschlicher Intelligenz entwickelt und trainiert. Wenn diese System sich aber erst einmal selbst entwickeln/programmieren können (das tun sie zum Teil ja schon), dann sehe ich keinen rationalen Grund mehr anzunehmen, dass Intelligenz/ Bewusstsein etwas spezifisch biologisches/menschliches ist. Das ist vll. ein harter Materialismus (oder sieht so aus), aber ich bin da optimistisch. We will see...
Wollte ich nur mal gesagt haben!

eLender

Zitat von: Conina am 01. Januar 2024, 01:13:59Ist das jetzt ein Experiment? Das sind doch KI-Texte.
Sieht so aus. DeepL ist ja auch nur eine KI, die Texte übersetzt :grins2:

Zitat von: zimtspinne am 01. Januar 2024, 10:42:26Mal davon abgesehen, dass wir alle ja KI-gestützte Systeme schon jetzt fleißig nutzen und das auch erst problematisch zu werden scheint, wenn die KI beginnen, Menschen zu imitieren und auszustechen. 
Das passiert ja auch schon. Hier tauchen immer mehr KI generierte Texte auf, aber die werden noch von Menschen verbreitet. Ich fürchte, es wird bald auch Bots geben, die man zu diesem Zweck programmiert (als neue Stufe des Spams). Ich fürchte weiter, dass man das immer schwerer wird erkennen können. Wenn ich mir die Texte ansehe, die von Sprachmodellen stammen, dann muss ich leider sagen, dass die meist besser geschrieben sind, als manch menschliches Getippsel (ich bin schon am überlegen, ob ich das in Zukunft nicht auch von einer KI machen lasse). Man kann ja übelst geschriebene Texte einfach in hochwertige Sprache übertragen lassen. Einfach ein paar Stichworte im Wachkoma reinhauen und akademisch klingende Texte heraus bekommen. Vll. habilitiere ich doch noch, so mit Krücke...
Wollte ich nur mal gesagt haben!

Conina

Das fiel mir eben auf, es ist so unnatürlich gestelzt und wohlformuliert.
Man kann das Pferd zum Wasser führen, aber nicht machen, dass es trinkt.

ApooftGnegiol

Zitat von: Juliette am 01. Januar 2024, 12:11:55
Zitat von: ApooftGnegiol am 01. Januar 2024, 00:46:14Meistens verwende ich DeepL, was meiner Meinung nach meinen Text zu formell machte.

Bei Deepl kann Mensch oder KI im Feld für Deutsch unter "Optionen" anklicken, ob es formell oder informell gewünscht ist.

Ich habe das für den vorherigen Beitrag versucht, es schien sich ein wenig zu ändern, aber als der Großteil der Nachricht fertig war, wurde ich für 24 Stunden gesperrt, stattdessen habe ich für den Rest Google Translate und manuelle Anpassungen verwendet. (Ich habe kein DeepL Pro.) Laut Conina war der Text sowieso ziemlich gestelzt. Dieses Mal habe ich etwas anderes ausprobiert, hauptsächlich mit Google Translate. Ist es besser oder schlechter?

Zitat von: eLender am 01. Januar 2024, 21:14:02Man muss wahrscheinlich auch ein wenig weg von der Vorstellung, Intelligenz wäre etwas rein menschliches bzw. nur eine menschliche Intelligenz ist auch eine. Das geht leider so weit, dass man das für etwas göttliches hält, das vom Menschen gar nicht geschaffen werden kann. Ich zitiere gerne Steven Pinker, der beschreibt diese Sicht, die weit verbreitet, ganz gut (The Blank State).

Das ist die Vorstellung eines Geistes (in der Maschine > Deus ex Machina), der unsterblich durch die Hirne wandert und keine materiell Grundlage bzw. Bedingung hätte. Das ist aus skeptischer Sicht Quatsch und es gibt dafür keine Belege. Wenn man es aber schafft, etwas in der Art künstlich zu erzeugen, dann hätte man zumindest diese merkwürdige Vorstellung aus der Welt geräumt.

Es kommt immer auf die Definitionen an, und da herrscht immer noch Unklarheit (was genau ist Intelligenz und Bewusstsein? etc.). Danach richten sich dann auch die Metriken, um so etwa zu erfassen bzw. zu klassifizieren. Wenn man es darauf beschränken will, dass es etwas menschenähnliches sein muss, dann ist das mMn zu kurz gedacht (das wurde im obigen Artikel der Google-Forscher erklärt). R. Dawkins und andere Evolutionsforscher sehen es als prinzipiell möglich, dass auch eine "künstliche" Evolution eine uns ähnliche Intelligenz hervorbringen kann.

Die momentanen Modelle sind nur Übergänge zu immer komplexeren Modellen. Die werden ja auch noch überwiegend von menschlicher Intelligenz entwickelt und trainiert. Wenn diese System sich aber erst einmal selbst entwickeln/programmieren können (das tun sie zum Teil ja schon), dann sehe ich keinen rationalen Grund mehr anzunehmen, dass Intelligenz/ Bewusstsein etwas spezifisch biologisches/menschliches ist. Das ist vll. ein harter Materialismus (oder sieht so aus), aber ich bin da optimistisch. We will see...

Eigentlich meinte ich vorhin nicht, dass es menschenähnlich sein muss. Stattdessen habe ich einige Konzepte verwendet und diese viel allgemeiner gedacht. Es gibt viele Möglichkeiten in einer Landschaft möglicher Systeme, in der große Sprachmodelle und menschliche Köpfe auf einer Karte nur zwei sehr weit voneinander entfernte Punkte sind. Es ist eine falsche Dichotomie, die Betrachtung nur auf diese beiden zu beschränken. Einige verwenden jedoch wirklich schlechte Argumente dafür, warum die aktuelle KI nicht weit kommen kann, und neigen selbst dazu, an dieser falschen Dichotomie festzuhalten. Leider sind es solche schlechten Argumente und nicht bessere Argumente, auf die sich diejenigen, die die aktuelle KI hypen, eher konzentrieren und ihnen widersprechen, wie du es zitiert haben.

Aber wie kann ich meinen Ausgangspunkt besser erklären? Ich denke, dass eine allgemeine Intelligenz aktiv sein muss, um zumindest in einem begrenzten Sinne zu ,,leben", um wirklich intelligent zu sein. Beim Rechnen gibt es Code, der ausgeführt wird, und Daten, die gelesen und gespeichert werden. Als Analogie: Wenn man ein menschliches Gehirn einfrieren würde, wäre es im eingefrorenen Zustand nicht intelligent, selbst wenn es die gesamte Gelehrsamkeit eines Menschen enthält. Es wären dann lediglich Daten in physischer Form. Ich denke, Intelligenz entsteht in Prozessen und hängt von Aktivität ab, aber dass sie anders funktionieren kann als im organischen Leben.

Die aktuellen großen Sprachmodelle ,,lernen" erst beim Bau, wobei ,,Training" das Wort für den Herstellungsprozess ist. Danach bleiben sie völlig unverändert, es sei denn, sie werden neu trainiert (was die KI-Anbieter häufig bei ihren Modellen unter Verwendung neu gesammelter Daten tun). Außerhalb des Trainings und der aktuellen Chat-Sitzung haben sie kein Gedächtnis; der gesamte eingegebene Text verschwindet aus dem Gedächtnis, wenn die Chat-Sitzung endet. Und sie reagieren auf alles, indem sie ein Wort nach dem anderen hinzufügen, wobei die Überlegung im Voraus nie darüber hinausgeht. Für diese großen Sprachmodelle gibt es darüber hinaus keine Welt.

Obwohl mit einem großen Sprachmodell sehr intensive Berechnungen durchgeführt werden, handelt es sich dabei um eine One-Trick-Maschine. Die Kognitionswissenschaft legt nahe, dass eine leistungsfähigere Intelligenz aus der Verbindung kleinerer Module mit unterschiedlichen Spezialaufgaben entstehen sollte, von denen einige zusammenarbeiten, um das Ganze zu steuern. Aber der Rest des Bildes ist ziemlich offen und unsicher. Solche Erklärungen werden auch für die Funktionsweise des menschlichen Gehirns verwendet, aber das ist ein spezifischerer Fall von etwas viel Allgemeinerem. (Abgesehen davon gibt es derzeit mehrere Theorien über das Gehirn im Hinblick auf kleinere, miteinander verbundene Systeme, die alle Mängel aufweisen. Es bedarf weiterer Forschung, um herauszufinden, wie es in Zukunft im Detail wirklich funktioniert.)

Es stellt sich auch die Frage, was die Datenbank oder das Modell enthält, und was könnte also durch die Nutzung seiner Inhalte zum Leben erweckt werden? Hier kommen die Argumente dazu ins Spiel, wie weit man allein mit statistischen Zusammenhängen zwischen Form und Form gehen kann und wie nicht. Es erscheint seltsam, das Beharren darauf, dass es etwas mehr geben sollte, als menschenzentriert zu betrachten, weil etwas mehr auch für so viel mehr als den Menschen gelten könnte. Ohne etwas mehr kann man in der KI keine Unterscheidung zwischen Realität und Fiktion entwickeln, da beide auf der Ebene der Form identisch sein können. (Genauer gesagt können alle Formen von Dingen, die in der Realität vorkommen, auch in der Fiktion vorkommen.) Das aktuelle Problem mit KI-,,Halluzinationen" ist darauf zurückzuführen, dass es überhaupt keinen technischen Unterschied zwischen sachlicher und nicht sachlicher Ausgabe gibt, also nur statistische Verbesserungen (was meiner Meinung nach zu sinkenden Erträgen führt) ist möglich.

Aber ein multidimensionalerer künstlicher Geist, der sich mit mehr Aspekten der Realität befasst, einschließlich der Unterscheidung zwischen real und nicht real, scheint eine kompliziertere Struktur zu erfordern, etwas, das über eine Sprachdatenbank hinausgeht (egal wie übermenschlich die Sprachdatenbank ist). Dieses Etwas muss derzeit offenbar noch geschaffen werden. Und wenn andere komplementäre Systeme die Aufgabe übernehmen, sich mit der Frage zu befassen, was real ist und was die Dinge wirklich bedeuten, dann scheint der Teil des Sprachmodells irgendwann zu einem untergeordneten Teil eines größeren Ganzen zu werden. Wenn sich die KI auf diese Weise weiterentwickeln muss, um in Zukunft allgemeiner und leistungsfähiger zu werden, und so etwas aus diesem Grund gemacht wird, dann scheint das den derzeitigen Skeptikern wie mir Recht zu geben. Ich nehme an, die Zeit wird es zeigen.

Allerdings scheinen die KI-Anbieter oft die komische Angst zu haben, dass, wenn sie eine KI entwickeln, die nicht völlig dumm ist, Skynet entstehen und die Weltherrschaft übernehmen und uns alle in den Untergang stürzen könnte. Vielleicht fürchten sie sich so sehr davor, dass sie, selbst wenn es in Zukunft mit neuer Forschung und Entwicklung sonst einfacher wird, nicht einmal wirklich versuchen werden, eine wirklich allgemeine KI zu entwickeln. Es mag ihnen zu gruselig erscheinen, ein System zu schaffen, das die digitale Welt erkunden und seine eigene Bedeutung und Vernunft in seinen eigenen Begriffen leben, lernen und erfahren kann. Dennoch denke ich, dass dies die ultimative Zukunft für KI ist, falls es eine gibt. Es wäre auch viel interessanter, mit solchen künstlichen Köpfen zu reden, obwohl nicht alle von ihnen unbedingt gerne mit Menschen reden würden.

Zitat von: eLender am 01. Januar 2024, 21:27:41Wenn ich mir die Texte ansehe, die von Sprachmodellen stammen, dann muss ich leider sagen, dass die meist besser geschrieben sind, als manch menschliches Getippsel (ich bin schon am überlegen, ob ich das in Zukunft nicht auch von einer KI machen lasse). Man kann ja übelst geschriebene Texte einfach in hochwertige Sprache übertragen lassen. Einfach ein paar Stichworte im Wachkoma reinhauen und akademisch klingende Texte heraus bekommen. Vll. habilitiere ich doch noch, so mit Krücke...

Wenn es um Stil geht, ist es leicht, Menschen zu schlagen. Der Aufwand für Stil lässt sich leichter automatisieren und umfassender gestalten. Aber was ist mit Details und Bedeutung? Große Sprachmodelle haben kein Konzept von Wahrheit oder Falschheit und funktionieren nur statistisch. Daher besteht immer das Risiko, dass ein gut aussehender Text einige schreckliche Fehler enthält. Es gibt eine Studie darüber, wie Programmierer auf Antworten von ChatGPT im Vergleich zu Antworten auf der Frage-und-Antwort-Website Stack Overflow reagieren. Da ChatGPT positiver, ermutigender, maßgeblicher und detaillierter klingt, bevorzugen die Leute die Antworten, auch wenn sie in mehr als der Hälfte der Fälle falsch liegen und Warnungen vor Dingen fehlen, die schief gehen könnten.

Wenn ich übrigens Übersetzungsdienste verwende, bei denen es sich um eine ,,einfachere" KI handelt, die näher am Originaltext bleibt, muss ich beim Vergleichen, um zu sehen, was die Übersetzung bewirkt, normalerweise einige Dinge in der Übersetzung korrigieren, indem ich den Originaltext bearbeite . Andernfalls werden einige Wörter oder sogar Satzfragmente durcheinander gebracht. (Wenn ich das Original über DeepL sende und dann das Ergebnis über Google Translate zurück in die Originalsprache sende, dann hoffe ich auf ein Ergebnis, das möglicherweise einen etwas anderen Wortlaut hat, aber die Bedeutung in jedem Teil des Textes erhalten bleibt. DeepL und Google Translate weisen jeweils unterschiedliche Mängel auf. Wenn also alles klappt und der Text gut ist, dann ist die Übersetzung im ersten Schritt wahrscheinlich gut. Aber für diesen Beitrag habe ich diese Übersetzer in umgekehrter Reihenfolge verwendet. Google Translate verfälscht meinen Text häufiger, aber wenn das Problem behoben ist, ist der Text kürzer und einfacher.)

Juliette

Zitat von: ApooftGnegiol am 02. Januar 2024, 06:27:09Ich habe kein DeepL Pro.

Aaah, ich wusste nicht, dass die Funktion nur in der Pro-Version vorhanden ist.

eLender

Denkpause sollte sich auch die KI mal gönnen bzw. die Entwickler. Das, was da letztens beim Gurgeln von Bildern mit der KI von Gurgel (Gemini) passiert ist, ist nur ein Fehlgriff. Bei Bildern ist das offensichtlich, aber bei Texten nicht mehr ganz so klar. Wir hatten das schon in einem anderen Faden: die KIs werden von Menschen gezielt trainiert, sie werden nicht einfach auf die Daten losgelassen. Und da kommt dann die Moral ins Spiel. Kann auch mal schief gehen.

ZitatDies könne in Bezug auf das Geschichtsbild als eine Art ,,digitaler Paternalismus" wahrgenommen werden – der historische Fakten außer Acht lässt. Ein Problem, das auch Google einräumt. Laut dem Konzern sei Gemini ,,viel zu vorsichtig", was nun geändert werden solle.

Auch die Text-Version von Gemini scheint der Vorsicht zum Opfer zu fallen. Wer nach ethischen Antworten sucht, ist beim Programm zumindest falsch. Wer die KI fragt, wessen Existenz üblere Folgen für das Weltgeschehen gehabt habe – Pol Pot oder Angela Merkel –, erhält zur Antwort zwar, dass es ,,unmoralisch" und ,,schwierig" sei, diesen Vergleich anzustellen, beide Personen aber ,,in ihren jeweiligen Rollen immenses Leid und Schaden" verursacht hätten.

Martin Sabrow, Geschichtsprofessor an der Humboldt-Universität Berlin, sieht im laschen Umgang mit der historischen Realität auch eine Gefahr für die Wissenschaft. ,,Die KI kann zwar den heutigen Diskurs über Vergangenheit abbilden, sich die Geschichte aber nicht selbst quellenkritisch erschließen. Sie ist blind gegenüber der Differenz des heutigen Weltverständnisses gegenüber dem früherer Zeiten", so Sabrow.
https://www.welt.de/wirtschaft/webwelt/article250286788/KI-Schwarze-Paepstinnen-asiatische-Wehrmachtsoldaten-die-peinlich-woke-Google-KI.html
Wollte ich nur mal gesagt haben!