AI aggregate hat jetzt mehrere neue KI-Modelle implementiert
Google: Gemini 2.5 Pro Vorschau
ist das hochmoderne KI-Modell von Google, das für fortgeschrittenes logisches Denken, Codierung, Mathematik und wissenschaftliche Aufgaben entwickelt wurde. Es verfügt über „denkende“ Fähigkeiten, die es ihm ermöglichen, Antworten mit verbesserter Genauigkeit und nuancierter Kontextbehandlung zu verstehen. Gemini 2.5 Pro erreicht bei mehreren Benchmarks Spitzenleistungen, darunter den ersten Platz auf der LMArena-Rangliste, was die überragende Anpassung an menschliche Präferenzen und komplexe Problemlösungsfähigkeiten widerspiegelt.
Mistral 3 Medium
ist ein hochleistungsfähiges Sprachmodell für Unternehmen, das entwickelt wurde, um Fähigkeiten auf Grenzniveau zu deutlich reduzierten Betriebskosten zu bieten. Es vereint modernste Argumentation und multimodale Leistung mit 8-fach niedrigeren Kosten im Vergleich zu herkömmlichen großen Modellen, wodurch es sich für skalierbare Einsätze in professionellen und industriellen Anwendungsfällen eignet.
Das Modell zeichnet sich in Bereichen wie Codierung, STEM-Reasoning und Unternehmensanpassung aus. Es unterstützt hybride, On-Prem- und In-VPC-Einsätze und ist für die Integration in benutzerdefinierte Arbeitsabläufe optimiert. Mistral Medium 3 bietet eine wettbewerbsfähige Genauigkeit im Vergleich zu größeren Modellen wie Claude Sonnet 3.5/3.7, Llama 4 Maverick und Command R+ und ist dabei weitgehend kompatibel mit Cloud-Umgebungen.
Qwen3
die neueste Generation der großen Qwen-Sprachmodellserie, verfügt sowohl über eine dichte als auch über eine Mixed-of-Experts (MoE)-Architektur, um sich beim schlussfolgernden Denken, bei der mehrsprachigen Unterstützung und bei fortgeschrittenen Agentenaufgaben auszuzeichnen. Seine einzigartige Fähigkeit, nahtlos zwischen einem denkenden Modus für komplexe Schlussfolgerungen und einem nicht denkenden Modus für effiziente Dialoge zu wechseln, sorgt für eine vielseitige, qualitativ hochwertige Leistung.
Qwen3 übertrifft frühere Modelle wie QwQ und Qwen2.5 deutlich und bietet überlegene Fähigkeiten in den Bereichen Mathematik, Codierung, logisches Denken, kreatives Schreiben und interaktive Dialoge. Die Variante Qwen3-30B-A3B umfasst 30,5 Milliarden Parameter (3,3 Milliarden aktiviert), 48 Ebenen, 128 Experten (8 pro Aufgabe aktiviert) und unterstützt mit YaRN bis zu 131K Token-Kontexte und setzt damit einen neuen Standard unter den Open-Source-Modellen.
xAI: Grok 3 Mini Beta
ist ein leichtes, kleiner denkendes Modell. Im Gegensatz zu herkömmlichen Modellen, die sofort Antworten liefern, denkt Grok 3 Mini nach, bevor es antwortet. Es ist ideal für Aufgaben mit hohem Denkaufwand, die kein umfangreiches Fachwissen erfordern, und glänzt in mathematischen und quantitativen Anwendungsfällen, wie z.B. dem Lösen von anspruchsvollen Rätseln oder mathematischen Problemen.
Transparente „Denk“-Spuren zugänglich. Standardmäßig niedrige Denkleistung, kann durch Einstellung der Denkleistung erhöht werden: { Aufwand: „hoch“ }
Hinweis: Es gibt zwei xAI-Endpunkte für dieses Modell. Wenn Sie dieses Modell verwenden, leiten wir Sie standardmäßig immer zum Basisendpunkt weiter. Wenn Sie den schnellen Endpunkt wünschen, können Sie provider: { sort: throughput}, um stattdessen nach Durchsatz zu sortieren.
THUDM: GLM
ist ein 32B-Parameter Deep Reasoning Modell aus der GLM-4-Z1 Serie, das für komplexe Aufgaben mit offenem Ausgang, die langes Nachdenken erfordern, optimiert ist. Es baut auf glm-4-32b-0414 mit zusätzlichen Phasen des verstärkten Lernens und mehrstufigen Abgleichsstrategien auf und führt „Rumination“-Funktionen ein, die eine erweiterte kognitive Verarbeitung emulieren sollen. Dazu gehören iterative Schlussfolgerungen, Multi-Hop-Analysen und werkzeuggestützte Arbeitsabläufe wie Suche, Abruf und zitierfähige Synthese.
Das Modell zeichnet sich durch forschungsähnliches Schreiben, vergleichende Analysen und die Beantwortung komplizierter Fragen aus. Es unterstützt Funktionsaufrufe für Such- und Navigationsprimitive (Suchen, Klicken, Öffnen, Beenden) und ermöglicht so die Verwendung in agentenähnlichen Pipelines. Das Rumination-Verhalten wird durch Multi-Turn-Schleifen mit regelbasierter Belohnungsgestaltung und verzögerten Entscheidungsmechanismen gesteuert, die mit Deep Research-Frameworks wie den internen Alignment Stacks von OpenAI verglichen wurden. Diese Variante eignet sich für Szenarien, bei denen Tiefe vor Geschwindigkeit geht.