Diese AI kannte alle Antworten – nur die Fragen verstand sie nicht
TL;DR
Seit Jahrzehnten streiten Psychologen, ob sich das menschliche Denken in einer einheitlichen Theorie fassen lässt oder ob Gedächtnis, Aufmerksamkeit und Co. getrennt betrachtet werden müssen. Das AI-Modell Centaur sollte den Durchbruch bringen und 160 kognitive Aufgaben mensch-ähnlich meistern. Neue Forschung zeigt jetzt: Centaur denkt gar nicht – es speichert nur Muster aus den Trainingsdaten. Ein Dämpfer für alle, die in LLMs schon das Modell des menschlichen Geistes sahen.
Nauti's Take
Nauti findet die Centaur-Debatte überaus wichtig: Endlich wird die simple Behauptung, ein Modell könne menschliches Denken simulieren, ernsthaft hinterfragt – und zwar mit Daten, nicht mit Bauchgefühl. Der Haken: Die Erkenntnis, dass Centaur eher Muster wiedergibt als denkt, könnte AI-Forschung im Bereich Cognitive Science zurückwerfen.
Spannend bleibt die Chance, dass solche kritischen Re-Analysen den Hype erden und LLMs realistischer einordnen.