Kategorie: KI-Modelle
-
GPT-5.5 ist da – sechs Wochen nach 5.4 und mit dem nächsten Schritt Richtung „Super-App“
OpenAI hat am 23. April 2026 GPT-5.5 veröffentlicht – nur sechs Wochen nach GPT-5.4. Stärker in agentischem Coding,…
-
Claude Opus 4.7: Anthropic schraubt an Coding und Vision – und nennt „Mythos“ im gleichen Atemzug
Anthropic hat am 16. April 2026 Claude Opus 4.7 veröffentlicht. Besser in Softwareentwicklung und visuellem Reasoning, gleichzeitig Hinweis…
-
DeepSeek V4: 1-Billion-MoE-Modell zu einem Preis, der die Branche sprachlos macht
DeepSeek hat Anfang März 2026 V4 veröffentlicht: 1-Billion-Parameter Mixture-of-Experts mit nur 37 Mrd. aktiven Parametern, 1M Kontext, SWE-Bench-Verified…
-
Gemini 3.1 Pro: Google poliert nach – kleinere Änderungen, große Wirkung
Gemini 3.1 Pro (Februar 2026) ist ein Punkt-Release mit besserem Tool-Use und niedrigerer Halluzinationsrate. Produktiv-tauglicher als 3.0 Pro.
-
Gemini 3.1 Flash Image („Nano Banana 2″): Google zieht bei Bild-Generierung vorbei
Im Februar 2026 hat Google „Nano Banana 2″ freigegeben – bis 4K-Auflösung, 94 % Text-Genauigkeit, 14 Referenzbilder. Für…
-
GPT-5 und GPT-5.1: Was sich bei OpenAI 2025 wirklich geändert hat
2025 hat OpenAI GPT-5 (Sommer) und GPT-5.1 (Ende 2025) veröffentlicht. Reasoning-Stufen als Standard, tiefere Tool-Integration, aber vor allem:…
-
Claude Opus 4.5 ist da – und Anthropic zielt auf die Coding-Krone
Anthropic hat Claude Opus 4.5 im November 2025 veröffentlicht. Spürbar stärker in Softwareentwicklung und Agenten-Workflows, 1M-Token-Kontext via API.
-
Gemini 3 Pro: Googles erste wirklich multimodale Denkmaschine
Google hat im November 2025 Gemini 3 Pro veröffentlicht – mit nativer Video-, Audio- und Bildverarbeitung in einem…