Neuigkeiten:

Wiki * German blog * Problems? Please contact info at psiram dot com

Main Menu

Auf dem Weg in die Symbiose mit KI?

Postings reflect the private opinion of posters and are not official positions of Psiram - Foreneinträge sind private Meinungen der Forenmitglieder und entsprechen nicht unbedingt der Auffassung von Psiram

Begonnen von Typee, 22. November 2023, 09:34:49

« vorheriges - nächstes »

HAL9000

Zitat von: Purple Tentacle am 13. Februar 2026, 08:12:44von Wohnort und unter Umständen sogar nach "Qualität" des verwendeten Endgeräts variieren können
Das ist definitv so, dafür brauche ich keine KI.
Flug/Hotelpreise sind höher, wenn man sie auf einem Apple-Gerät recherchiert.
Das habe ich selbst schon mehrmals nachgeprüft. Am schnöden Windows-PC ist der Preis
niedriger als am iPhone, in derselben Minute abgefragt, von derselben IP-Adresse.
Das ist nicht auf jedem Portal so, aber auf einigen. Auch Wochentag und Uhrzeit sind Faktoren.
"It has yet to be proven that intelligence has any survival value."
― Arthur C. Clarke

eLender

Zitat von: Peiresc am 13. Februar 2026, 07:45:17Das mit den individuellen Preisen (und Löhnen!) ist allerdings schon Realität.
Das Problemchen ist ein wenig, was man eigentlich (aktuell) so unter KI versteht. Momentan sind der große Hype die wundersamen Sprachmodelle bzw. Plappermaschinen und das ganze andere generative Zeugs (Mucke, Bildchen und Filmchen). Diese Datenmodelle sind alle nicht sooo neu, selbst die Sprachmodelle haben eine lange Geschichte. Im Kern stecken da immer Neuronale Netze (NN), die man aber mit empirischen Daten füttern muss. Bei Löhnen und Preisen wird man jede Menge an solchen Statistiken für das Training brauchen. Das wird mit Preisen gut funktionieren, v.a. wenn der preisbewusste Kunde gerne so Sachen wie Einkaufs-Apps nutzt ::)  Das sind dann im Prinzip einfache statistische Modelle, die Muster abbilden, die sie in den Daten finden ("Data Mining").

Die große Verblüffung erzeugen eher die Sprachmodelle (LLM), v.a., wenn sie mit weiteren Tools verknüpft sind (Agentensysteme). Die sind schon echt beeindruckend, da man wirklich denken könnte, die haben so etwas wie Verstand. Ich will das auch nicht zu kleinreden, da ist schon mehr, als nur ein elektrischer Papagei am Werk. Dass das so gut klappt, konnte keiner ahnen, da waren und sind auch die Experten überrascht. Man hat das alles nie explizit so programmiert, hat die Modelle einfach mit riesigen Texten gefüttert. Da ist der Begriff "Emergenz" passend: Es haben sich ganz neue Systemeigenschaften entwickelt, die quasi aus dem Nichts aufgetaucht sind.

Man macht das immer mehr nicht nur mit beliebigen Texten (in der ersten Stufe schon noch), sondern immer mehr mit gezielten Texten, etwa Argumentationsketten oder logischen Herleitungen. Das ergibt dann diese "Reasoning" Modelle, die verblüffend menschlich (nuja, logisch) argumentieren können. Die sind auch in der Lage, gewisse Schlüsse zu ziehen und ggf. auch durch Verknüpfung neue "Gedanken" zu erzeugen.

Man versucht das durch immer mehr Daten und noch größere NN weiter voranzubringen. Die Extrapolation ist (das ist der Hype), dass man somit das menschliche Niveau auch an Kreativität erreichen (und übertreffen) kann. Ich vernehme aber zunehmend, dass das eher auf einem Plateau verbleibt, trotz weiterer "Hochskalierung". Es gibt diese Probleme mit "Halluzinationen" und dadurch ein Vertrauensproblem. Die emergenten Eigenschaften (das, was man nicht kontrollieren kann), scheinen mit zunehmender Komplexität zuzunehmen. Die Modelle lassen sich nicht mehr so leicht "erziehen", was man ja mit sehr aufwendig erzeugten Feintuning-Daten versucht zu machen.

Ob das so bleibt oder ob das alles doch noch zur allmächtigen KI führt, weiß keiner so recht. Aber alleine diese Unsicherheit, die man auch gut an der Börse beobachten kann, lässt doch Zweifel aufkommen. Die Euphorie ist meiner Wahrnehmung nach auch bei vielen Gläubigen nicht mehr so sehr ausgeprägt. Man wird es sehen.
Wollte ich nur mal gesagt haben!

Peiresc

Zeitgleich. Hier die goldene Zukunft:
ZitatLearn how to write and structure prompts for LLMs using Spring AI and Kotlin.

This tutorial covers core and knowledge-enhancing prompt types:
• Zero-shot
• Few-shot
• Meta
• Knowledge generation
• Prompt chaining

Check it out on GitHub!
(disclaimer: das ist eine Werbeanzeige)

Und hier etwas nüchterner prognostiziert, dafür aber mit empirischem Beleg (es ist das Referat einer kontrollierten Studie): AI macht dümmer, aber sie muss nicht:

ZitatAnthropic's own researchers just proved that using AI to learn new skills makes you 17% worse at them.

and the part nobody's reading is more important than the headline.

the paper is called "How AI Impacts Skill Formation." randomized experiment. 52 professional developers. real coding tasks with a Python library none of them had used before. half got an AI assistant. half didn't.

the AI group scored 17% lower on the skills evaluation.

Cohen's d of 0.738, p=0.010.

that's a real effect.

and here's what makes it sting: the AI group wasn't even faster.

no significant speed improvement. they learned less AND didn't save time.

but the viral framing of "AI bad for learning" misses what actually matters in this paper.

the researchers watched screen recordings of every single participant.

they identified 6 distinct patterns of how people use AI when learning something new.

3 of those patterns preserved learning. 3 destroyed it.

the gap between them is enormous. participants who only asked AI conceptual questions scored 86% on the evaluation.

participants who delegated everything to AI scored 24%.

same tool. same task. same time limit.

the difference was cognitive engagement.

the highest-scoring AI users actually outperformed some of the no-AI group. they asked "why does this work" instead of "write this for me."

they generated code then asked follow-up questions to understand it. they used AI as a thinking partner, not a replacement for thinking.

the lowest-scoring group did what most people do under deadline pressure: pasted the prompt, copied the output, moved on. they finished fastest.

they learned almost nothing.

and here's the finding that should concern every engineering manager alive: the biggest score gap was on debugging questions.

the skill you need most when supervising AI-generated code is the exact skill that atrophies fastest when you let AI do the work.

the control group made more errors during the task. they hit bugs.

they struggled with async concepts. they got frustrated. and that struggle is precisely what built their understanding.

errors aren't obstacles to learning.
they ARE learning.

removing them with AI removes the mechanism that creates competence.

participants in the AI group literally said afterward they wished they'd "paid more attention" and felt "lazy."

one wrote "there are still a lot of gaps in my understanding."

they could feel the hollowness of having completed something without understanding it.

that's not a productivity win. that's debt.

this paper isn't an argument against using AI. it's an argument against using AI unconsciously.

Anthropic publishing research showing their own product can inhibit skill formation is the kind of intellectual honesty the industry needs more of.

the practical takeaway is simple: if you're learning something new, use AI to ask questions, not to skip the work.

the struggle is the product.
https://x.com/alex_prompter/status/2026812233884262645?s=20

Auch hier: der Poster ist ansonsten ein AI-Promoter.

Zitat von: Peiresc am 03. November 2019, 21:49:09Red Fox sagte zu Mattotaupa, dem Häuptling der Dakota: dieses heilige Wasser hier wird den starken Mann stärker und den schwachen schwächer machen. Bist Du bereit?

zimtspinne

Red Fox ist der Trump der Rocky Mountains  8)
Reality is transphobic.

eLender

Zitat von: Peiresc am 26. Februar 2026, 13:53:51if you're learning something new, use AI to ask questions
Das sehe ich auch so. Die Dinger sind schon nützlich, gerade beim Programmieren. Wenn man die das machen läßt, wird man nichts lernen, aber sie können einem gut erklären, wie man etwas macht und entsprechend Code generieren. Ich habe das nur ein wenig ausprobiert, bin nicht der versierte Programmierer (aber man lernt tatsächlich schneller). Dabei hat die Kiste aber Fehler gemacht, die ich entdeckt habe. Es hat sich entschuldigt und das sofort korrigiert. Das ist wohl auch noch das Problem: den Code fehlerfrei zu bekommen (debuggen), ist die eigentliche Kunst. Das können die scheinbar (noch) nicht so gut, daher ist auch der Gewinn (Zeit und Nerven) nur relativ. Man wird - denke ich - noch lange nicht komplett auf den Menschen verzichten können. Diese einfach gestrickten Programme bekommen die hin, aber wenn es komplexer wird, sind die nur noch Hilfsmittel. Steigern aber wohl die Produktivität und machen ggf. weniger Eierköpfe nötig.

Wer früh (wir sind ja noch die, die ihre Bildung und Fähigkeiten ohne KI lernen mußten) nur auf die Blechkisten setzt, der verlagert seinen Intellekt aus. Das wird ggf. das Problem (unter vielen) sein, das auf kommende Generationen zukommt bzw. schon da ist.
Wollte ich nur mal gesagt haben!