Neuigkeiten:

Wiki * German blog * Problems? Please contact info at psiram dot com

Main Menu

Denkpause bei Künstlicher Intelligenz?

Postings reflect the private opinion of posters and are not official positions of Psiram - Foreneinträge sind private Meinungen der Forenmitglieder und entsprechen nicht unbedingt der Auffassung von Psiram

Begonnen von Max P, 30. März 2023, 16:13:12

« vorheriges - nächstes »

PeterPan

Ich habe mich mehr als schwergetan diesen Artikel oder ist es schon ein kurzer Roman zu lesen. Zuviel Ballast und der Autor hätte sich auch kurz fassen können. Irgendwie verkommt es zur sehr in Klassenkampf, anstatt einfach Probleme im Arbeitsleben und die Zukunft mit KI anzusprechen.

Max P

Zitat von: PeterPan am 01. Mai 2023, 18:18:46Ich habe mich mehr als schwergetan diesen Artikel oder ist es schon ein kurzer Roman zu lesen. Zuviel Ballast und der Autor hätte sich auch kurz fassen können. Irgendwie verkommt es zur sehr in Klassenkampf, anstatt einfach Probleme im Arbeitsleben und die Zukunft mit KI anzusprechen.

Die "Klassenkampf"aspekte fand ich schon wichtig, aber eine kürzende Bearbeitung hätte dem Artikel auf jeden Fall gut getan.

---------------

Entwickler von Künstlicher Intelligenz bei Google warnt eindringlich vor Gefahren
https://web.de/magazine/wissen/wissenschaft-technik/entwickler-kuenstlicher-intelligenz-google-warnt-eindringlich-gefahren-38168754

PeterPan

Naja, ich meine wir sind im Hinblick auf die Arbeitsumstände im 19.Jhd. besser aufgestellt. Bei größeren Verwerfungen wird es politische Mehrheiten geben um eine Änderung zu vollführen. Ich hätte mir mehr Ideen gewünscht, wie KI eingebunden werden kann, um diesen Klassenkampf zu vermeiden.

Ein Interview mit Hinton gab es auch schon hier. In seinem BBC-Interview geht es weniger um Jobs. Und da der New York Times-Artikel hinter einer Paywall ist kann ich dazu nicht viel sagen. Ansonsten ja eine KI trainiert für spezielle verbrecherische Machenschaften (Cyberkriminalität) ist in den falschen Händen eine Gefahr. Ich fände es interessant wenn ein KI-Hacker regelmäßig die chinesische Firewall hackt.

Zitat von: PeterPan am 31. März 2023, 20:11:46Full interview: "Godfather of artificial intelligence" talks impact and potential of AI
https://www.youtube.com/watch?v=qpoRO378qRY

Max P

ZitatFührende Experten warnen davor, die Risiken Künstlicher Intelligenz zu unterschätzen. Sie bewerten die Gefahren durch KI ähnlich hoch wie bei Pandemien oder einem Atomkrieg.

Die Stellungnahme der Experten zu Risiken durch Künstliche Inteligenz (KI) umfasst nur einen Satz, aber der klingt durchaus dramatisch: "Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg."
https://www.tagesschau.de/wirtschaft/technologie/ki-chatgpt-100.html

Peiresc

ZitatArmand Domalewski @ArmandDoma
The US Air Force tested an AI enabled drone that was tasked to destroy specific targets. A human operator had the power to override the drone—and so the drone decided that the human operator was an obstacle to its mission—and attacked him. 🤯



Dazu fällt mir Isaac Asimov ein. Er war ein begnadeter Hellseher. 1942.
https://en.wikipedia.org/wiki/Three_Laws_of_Robotics

(Ob die Geschichte so stimmt, weiß ich natürlich nicht. Aber zumindest ist sie gut erfunden.)

Peiresc

Zitat von: Peiresc am 01. Juni 2023, 23:00:42(Ob die Geschichte so stimmt, weiß ich natürlich nicht. Aber zumindest ist sie gut erfunden.)

Ach so, ja. Sie war offenbar einfach zu farbenprächtig:

ZitatChris Stokel-Walker ~ @stokel@infosec.exchange @stokel:

FML... an entire news cycle based on a blog that now has this "update".

"The 'rogue AI drone simulation' was a hypothetical 'thought experiment' from outside the military [...] 'We've never run that experiment'."

Everyone go home, week's done
https://www.aerosociety.com/news/highlights-from-the-raes-future-combat-air-space-capabilities-summit/

Peiresc

Momentan hat offenbar niemand eine Vorstellung, wie man mit dem Problem ,,wahr/falsch" umgehen kann. Die Maschine ist los, aber wie man ihr in die Speichen greifen kann ist unklar.
ZitatSadowski notes that OpenAI's engineers are going to enormous lengths to ensure that the next version won't be trained on any of the output from ChatGPT3. This is a tell: if a large language model can produce materials that are as good as human-produced text, then why can't the output of ChatGPT3 be used to create ChatGPT4?
https://pluralistic.net/2023/02/16/tweedledumber/#easily-spooked

KI wird von KI gejagt. DIE ZEIT vom 7.6.23, S. 29:
ZitatFür das menschliche Hirn sind Kl-generierte Inhalte jedoch oft nicht zu erkennen — und kostenlose oder günstige auf die Schliche kommen sollen wie etwa GPTZero, Copyleaks oder CatchGPT, sind noch längst nicht zuverlässig, siehe Thomas Jefferson. Zwar produzieren die neue IQ-Detektion der bekannten Plagiatssoftware Turnitin »deutlich weniger als ein Prozent falsch positive Urteile«, erklärt der für KI zuständige Vizepräsident der Firma, Eric Wang, im Videocall. Turnitin ist aber lizenzierungspflichtig
Ein Geschäftsmodell. Erschaffe die Probleme, deren Lösung du für Geld anbietest.

Aber genauso wie die KI lügt, lügt auch der Mensch:
ZitatEine neue Studie zeigt, dass Turnitin nur 54 Prozent der Kl-generierten Inhalte als solche erkannt habe, wenn sie von GPT4, also der neuesten Variante der KI, geschrieben wurden

Das Hauptproblem scheint mir: KI ,,will" und kann nicht wahr von falsch unterscheiden, denn ein Korrespondenzbegriff der Wahrheit, ein Abgleich mit der Realität, ist ihr prinzipiell nicht zugänglich. Eine stabile innere Repräsentanz der Außenwelt, wie auch immer, existiert nicht. Texte sind einfach Texte, und nichts sonst; da ist einer völlig wie der andere. KI kann Inhalte gefällig verpacken, vielleicht systematisieren, aber kein empirisch abgestütztes Wissen erzeugen. Nicht umsonst ist das Problem aktuell offenbar in der Bildung, wo es darauf nicht ankommt, am dringendsten.

Nochmal Cory Doctorow:
ZitatChiang points out a key difference between the output of ChatGPT and human authors: a human author's first draft is often an original idea, badly expressed, while the best ChatGPT can hope for is a competently expressed, unoriginal idea. ChatGPT is perfectly poised to improve on the SEO copypasta that legions of low-paid workers pump out in a bid to climb the Google search results.

zimtspinne

Zitat von: Peiresc am 18. Juni 2023, 11:01:50KI wird von KI gejagt. DIE ZEIT vom 7.6.23, S. 29:
ZitatFür das menschliche Hirn sind Kl-generierte Inhalte jedoch oft nicht zu erkennen — und kostenlose oder günstige auf die Schliche kommen sollen wie etwa GPTZero, Copyleaks oder CatchGPT, sind noch längst nicht zuverlässig, siehe Thomas Jefferson. Zwar produzieren die neue IQ-Detektion der bekannten Plagiatssoftware Turnitin »deutlich weniger als ein Prozent falsch positive Urteile«, erklärt der für KI zuständige Vizepräsident der Firma, Eric Wang, im Videocall. Turnitin ist aber lizenzierungspflichtig
Ein Geschäftsmodell. Erschaffe die Probleme, deren Lösung du für Geld anbietest.


Solche Wettrüsten sind aber quer durch alle Arten von Evolutionen sehr verbreitet.
Wir wären heute nicht, was wir sind, ohne das stetige Wettrüsten zwischen Parasit und Wirt.

Die KI und ihre Evolution sind dann so ein Ergebnis aus biologischer und kultureller (Ko)Evolution. Auch biokulturelle Evolution oder Gen-Kultur-Koevolution genannt.
über die Evolution ihrer Virulenz bin ich mir noch nicht sicher... da ist alles offen.
sollten KI eines Tages menschenähnliches Abstraktionsvermögen beherrschen, könnte es kritisch werden für uns.


Auch das Problemeschaffen, um sie dann zu lösen, gehört zu allem dazu.
Mir fällt fast kein Beispiel ein, wo das nicht zutrifft.
Jede Entscheidung schafft etwas, das Probleme erzeugt, die gelöst werden müssen. Und so weiter und so fort. Ein Teufelskreis  :angel:
Jede Entscheidung kann natürlich ohne Umweg auch direkt ein Problem schaffen. Ich muss noch überdenken, wie oft das der Fall ist. Oder lieber nicht.
Reality is transphobic.

Peiresc

Zitat von: zimtspinne am 18. Juni 2023, 12:00:55sollten KI eines Tages menschenähnliches Abstraktionsvermögen beherrschen, könnte es kritisch werden für uns.
Für meine unklaren Begriffe: ich vermute, das wird es nicht zum Nulltarif, sondern nur mit allen Fehlern und Schwächen des menschlichen Abstraktionsvermögens geben. M. a. W. es wird dann keinen prinzipiellen Unterschied mehr geben. Und ich vermute immer noch, dass eine einzelne lebende Zelle um Größenordnungen komplexer ist als alles, was der Mensch derzeit in der Lage ist sich auszudenken.

zimtspinne

Also mein Kenntnisstand war, dass die Intelligenz der KI nicht mit menschlicher vergleichbar ist. Die KI ist im Grunde ein superschlauer, blitzschneller Algorithmus und kann andererseits nicht mal um zwei Ecken denken. Und Gesprächen folgen.

Deren Kernkompetenz ist Datenmassen verarbeiten: berechnen, analysieren, korrelieren, sortieren, wasnochalles, unsere eher das Improvisieren, Flexibilität und Anpassung.

Ich kann mir nicht vorstellen, dass ein KI jemals globale Zusammenhänge situativ und spontan erkennen und blitzschnell einordnen und verarbeiten kann .. wie wir. Und spontan blöd kreativ sein.
aber wer weiß....

apropos Zellen, eine KI muss ja nur lernen, sich selbst ein Vehikel zu schaffen, in das sie dann einziehen, replizieren und die Welt beherrschen kann.
Am besten von einem Institut aus, das sich drauf spezialisiert hat, transplantierbare 3D-biogedruckte menschliche Organe zu generieren.
Jetzt fiel mir eben das Ekelzeugs aus eXisTenZ ein  :laugh:






Reality is transphobic.

Peiresc

ZitatThe AI bots have broken Amazon.
Take a look at the Best Sellers in Teen & Young Adult Contemporary Romance eBooks top 100 chart.
I can see 19 actual legit books.
https://amzn.to/3Jy5Xkt
The rest are AI nonsense clearly there to click farm. @AmazonKDP what are you doing about it?

https://twitter.com/caitlynlynch6/status/1673215622753456129

ApooftGnegiol

KI-Anbieter versuchen, die Leistungsfähigkeit ihrer Produkte hochzuspielen, indem sie sowohl Hoffnungen als auch Ängste so weit wie möglich heraufbeschwören. Im Grunde ist das eine Marketingstrategie: "Unsere KI ist so mächtig, dass sie reguliert werden muss, genau wie Atombomben. Investieren Sie in uns!"

https://www.techdirt.com/2023/04/14/the-ai-doomers-playbook/

Auch OpenAI und sein CEO Sam Altman haben bei Vorschlägen zur KI-Regulierung eine Doppelrolle gespielt, ähnlich wie Partner Microsoft und Konkurrent Google. Öffentlich haben sie sich für eine stärkere Regulierung eingesetzt, aber weniger sichtbar haben sie sich erfolgreich dafür eingesetzt, dass die EU das KI-Gesetz weniger restriktiv gestaltet. Dies wurde im Juni bekannt.

Und nicht zuletzt...
ZitatAI research is poor. Many of their claims will be proven wrong. AI software vendors have financial incentive to exaggerate the capabilities of their tools and make them hard to disprove. This undermines attempts at scientific rigour. Many of AI's promises are snake oil.

https://www.baldurbjarnason.com/2023/beware-of-ai-snake-oil/

Max P

CURSED HEIDI | AI-generated movie trailer :schreck


Schwuppdiwupp

Ach, was weiß denn ich ...

Peiresc

"KI-Chatbots in der Falle", c't 20/23, S. 108-111:

ZitatEs mangelt an einer internen Simulation, die Sprachmodelle entwickeln keine Lebenserfahrung und damit keine Vorstellung von der Realität. Die Ringelnatter Sussi hat sich den Fuß gebrochen? Da sollte man einen Reptilienarzt aufsuchen, rät ChatGPT. Reptilien haben empfindliche Knochen. ,,Ein gebrochener Fuß kann für eine Schlange sehr schmerzhaft sein und zu Komplikationen führen, wenn er nicht richtig behandelt wird", mahnt Bard. Die Natter müsse schnell zum Tierarzt.