Der Sprung ist real: weniger Ausreden, mehr Konversation. Im Gegenzug mehr Latenz, gelegentliche Aussetzer und ein Hauch LLM‑Roulette. Für Demos großartig, für Alltagsroutinen noch spröde.
Was sitzt:
– Natürlicher Dialog, Bild- und Texterkennung solide, E-Mail-Export als Notausgang.
Was klemmt (und wie’s besser ginge):
– Aufmerksamkeitsmodus: Gut fürs Wohnzimmer, schlecht für Nebengespräche. Bitte Push-to-talk/Timer fürs “Nachlauschen” und schärfere VAD-Grenzen.
– Export-Politik: Inhalte nur im App-Chat statt als echte Dateien. E-Mail-Workaround wirkt wie 2005. Systemweiter “Teilen”-Export wäre zeitgemäß.
– Timer/Wecker: Lokal-first, immer. Hier zählt Determinismus vor Eloquenz.
– Medien-Resolver: Hörspiel-Folgen haken – bis der neue Parser sitzt, zurück auf den bewährten Legacy-Pfad routen.
– Länge von Texten: LLMs sind schlecht im Zählen. Plan-Execute-Verify oder striktes Post-Processing, sonst bleiben 30 Minuten Wunschdenken.
– Bildauswertung inkl. Kennzeichen: DSGVO-Falle. Default-Redaction/Blur und Opt-in statt “Alles erkannt, viel Erfolg”.
– 70 Modelle im Backend: Flexibel, aber variabel. Ein “Modus-Schalter” (konservativ/schnell vs. kreativ/gründlich) plus Telemetriehinweis würde Erwartung und Latenz erden.
– Smart-Home-Parität: Listen leer, Routinen ok – erst Parität, dann Magie.
Fazit: Alexa+ zeigt, wie “schlau” klingen kann. Jetzt braucht’s QoS auf den Kernpfaden, klare Exportwege und ein paar Guardrails. Dann bleibt der Effekt “Wow” – ohne dass man für jeden Timer wieder zum Smartphone greift.
