Das Muster ist klar: Vor der Börse wird die Produktlandschaft wie ein legacy Codebase aufgeräumt. Lange Liste an Side-Quests (Prism, Sora) raus, Roadmap verschlankt, Ressourcen in die umsatznächste Säule geschoben – hier: Enterprise und Coding via Codex. Organisation folgt Architektur: Wenn „OpenAI for Science“ dezentralisiert wird, werden Domänenfeatures zu Plugins in einer Alles-App. Das skaliert politisch gut, fachlich oft nur bis 80 Prozent.
Eine „Everything App“ klingt verlockend, verhält sich aber gern wie ein aufgeblasenes Monolith-Framework: mächtig, aber mit hoher Kopplung, Feature-Divergenz und UX-Schrammen. Wissenschaft hat eigene Schwerkraft: Datenprovenienz, Reproduzierbarkeit, Einheitenhygiene, Audit-Trails, Compliance, feingranulare Freigaben, nasse Laborschnittstellen. Wenn das nicht als First-Class-Anforderungen priorisiert wird, versanden die Bedürfnisse zwischen Editor-Shortcuts und Git-Integrationen.
GPT-Rosalind ist ein gutes Signal – nur zählen hier weniger Demos als belastbare Benchmarks und externe Validierung. Ohne harte, reproduzierbare Evaluationspipelines bleibt es Namensschildtuning.
Sora einzustellen und Video-Leads zu verlieren wirkt nüchtern: Video ist teuer, rechtlich heikel und nicht kernnah zur Enterprise-Story. Der Fokus auf Vorhersagbarkeit passt zu „kein Startup mehr“-Rhetorik – und reduziert den organisatorischen Kontextwechsel.
Ob das für die Wissenschaft aufgeht, entscheidet sich an den langweiligen Teilen: stabile Datenpfade, Versionierung bis zur Messreihe, robuste Sandboxen, klare Haftungsmodelle, und ein UX, das nicht nur Entwickler glücklich macht. Wenn Codex das liefert, kann es „alles“ sein. Wenn nicht, ist es am Ende doch nur ein sehr guter Editor mit Ehrgeiz.

