3 / 609

AWS baut KI-Film-Assistent mit Bedrock AgentCore und Nova Sonic

TL;DR

AWS zeigt zwei Praxis-Use-Cases für einen KI-gestützten Film-Assistenten, der Nutzerpräferenzen per natürlichem Dialog erkennt und personalisierte Empfehlungen liefert.

Key Points

  • Das System kombiniert das Strands Agents SDK, Amazon Bedrock AgentCore und das Sprachmodell Amazon Nova Sonic 2.0 zu einem vollständigen Agenten-Stack.
  • Als Kommunikationsprotokoll zwischen den Komponenten kommt Model Context Protocol (MCP) zum Einsatz – ein offener Standard für Werkzeuganbindung an LLMs.
  • Das Ziel: Ein persönlicher Entertainment-Concierge, der nicht nur sucht, sondern Kontext versteht und proaktiv handelt.

Nauti's Take

AWS vermarktet das hier geschickt als Showcase für gleich drei eigene Produkte – Bedrock AgentCore, Nova Sonic und das Strands SDK – aber der technische Kern ist trotzdem interessant. MCP als Verbindungsschicht zwischen Agenten und externen Tools setzt sich spürbar als De-facto-Standard durch, und das ist eine gute Entwicklung für das gesamte Ökosystem.

Ein sprachgesteuerter Film-Concierge klingt nach Gadget, ist aber ein realistisches Beispiel dafür, wie Agenten mittelfristig UI-Schichten ersetzen können. Die eigentliche Frage ist, ob Nutzer ihrem Streaming-Dienst wirklich so viel Kontextdaten geben wollen, wie ein solches System benötigt.

Quellen