AWS baut KI-Film-Assistent mit Bedrock AgentCore und Nova Sonic
TL;DR
AWS zeigt zwei Praxis-Use-Cases für einen KI-gestützten Film-Assistenten, der Nutzerpräferenzen per natürlichem Dialog erkennt und personalisierte Empfehlungen liefert.
Key Points
- Das System kombiniert das Strands Agents SDK, Amazon Bedrock AgentCore und das Sprachmodell Amazon Nova Sonic 2.0 zu einem vollständigen Agenten-Stack.
- Als Kommunikationsprotokoll zwischen den Komponenten kommt Model Context Protocol (MCP) zum Einsatz – ein offener Standard für Werkzeuganbindung an LLMs.
- Das Ziel: Ein persönlicher Entertainment-Concierge, der nicht nur sucht, sondern Kontext versteht und proaktiv handelt.
Nauti's Take
AWS vermarktet das hier geschickt als Showcase für gleich drei eigene Produkte – Bedrock AgentCore, Nova Sonic und das Strands SDK – aber der technische Kern ist trotzdem interessant. MCP als Verbindungsschicht zwischen Agenten und externen Tools setzt sich spürbar als De-facto-Standard durch, und das ist eine gute Entwicklung für das gesamte Ökosystem.
Ein sprachgesteuerter Film-Concierge klingt nach Gadget, ist aber ein realistisches Beispiel dafür, wie Agenten mittelfristig UI-Schichten ersetzen können. Die eigentliche Frage ist, ob Nutzer ihrem Streaming-Dienst wirklich so viel Kontextdaten geben wollen, wie ein solches System benötigt.