11 / 218

Google enthüllt, wie Search KI-Visuals per AI Mode in gezielte Textanfragen übersetzt

TL;DR

Google legt in einem Beitrag vom 5. März 2026 offen, wie Search KI-basierte visuelle Anfragen mit AI Mode entschlüsselt. Im Query-Fan-out lässt ein großskaliges ML-Modell mehrere textbasierte Unteranfragen entstehen, um unterschiedliche Bildfacetten einzufangen. Diese Anfragen laufen in den Index, kommen als Treffer zurück und werden neu geordnet, damit Nutzer nicht nur ein Stichwort, sondern die relevantesten Perspektiven sehen. Das ist wichtig, weil visuelle Suche ohne semantische Vielfalt keinen Kontext liefert und KI-gestützte Bildanalyse so endlich Retrieval mit mehreren Blickwinkeln verbindet.

Nauti's Take

Wenn du visuelle Suche baust, dann nimm dir Googles Query-Fan-out zum Vorbild: AI Mode spaltet ein Bild in mehrere textbasierte Unteranfragen, feuert sie in den Index und re-rankt Treffer. Wer weiterhin an einem einzigen embedding klebt, verschenkt Relevanz und lernt nicht, das Retrieval erst mit Textgraden aufzuziehen.

Quellen