Nutzt Hacker News heimlich ein LLM, um KI-generierte Beiträge zu filtern?
TL;DR
Ein Nutzer berichtet, dass KI-generierte Beiträge auf Hacker News automatisch ausgeblendet werden – offenbar durch ein internes Erkennungssystem.
Key Points
- Es gibt Hinweise, dass Show-HN-Einträge für dasselbe Produkt nicht mehrfach eingereicht werden können, was auf eine Produkt-Deduplizierung hindeutet.
- Unklar ist, ob HN ein LLM, klassische NLP-Methoden oder regelbasierte Heuristiken einsetzt – YC hat sich dazu nie offiziell geäußert.
- Die Diskussion auf HN selbst ist bislang dünn: nur 1 Kommentar, kein offizielles Statement von dang oder anderen Mods.
Nauti's Take
Dass HN im Hintergrund KI-Content filtert, ohne es je offen zu kommunizieren, passt zur Plattformphilosophie: lieber still tunen als öffentlich debattieren. Interessant ist die Ironie – eine Community, die KI-Entwicklung intensiv diskutiert, wehrt sich offenbar gegen KI-generierten Input.
Ob dahinter ein echtes LLM steckt oder simples Fingerprinting, weiß niemand außer YC. Solange keine Transparenz herrscht, bleibt das ein Glaubwürdigkeitsproblem.