Zum Inhalt springen

NEUE KI-MODELLE

    AI aggregate hat jetzt mehrere neue KI-Modelle implementiert

    xAI: Grok 3 Mini Beta

    Grok 3 Mini ist ein leichtes, kleiner denkendes Modell. Im Gegensatz zu herkömmlichen Modellen, die sofort Antworten liefern, denkt Grok 3 Mini nach, bevor es antwortet. Es eignet sich ideal für Aufgaben, die kein umfangreiches Fachwissen erfordern, und glänzt in mathematischen und quantitativen Anwendungsfällen, wie z.B. dem Lösen anspruchsvoller Rätsel oder mathematischer Probleme.

    Transparente „Denkspuren“ zugänglich. Standardmäßig niedrige Argumentation, kann durch Einstellung erhöht werden reasoning: { effort: "high" }

    Hinweis: Es gibt zwei xAI-Endpunkte für dieses Modell. Wenn Sie dieses Modell verwenden, leiten wir Sie standardmäßig immer zum Basisendpunkt weiter. Wenn Sie den schnellen Endpunkt wünschen, können Sie provider: { sort: throughput} hinzufügen, um stattdessen nach Durchsatz zu sortieren.

    Meta: Llama 4 Maverick

    Llama 4 Maverick 17B Instruct (128E) ist ein leistungsstarkes multimodales Sprachmodell von Meta, das auf einer Mixture-of-Experts (MoE)-Architektur mit 128 Experten und 17 Milliarden aktiven Parametern pro Vorwärtsdurchlauf (insgesamt 400B) basiert. Es unterstützt mehrsprachige Text- und Bildeingaben und erzeugt mehrsprachige Text- und Codeausgaben in 12 unterstützten Sprachen. Maverick wurde für visuell-sprachliche Aufgaben optimiert und ist für assistentenähnliches Verhalten, Image Reasoning und allgemeine multimodale Interaktion ausgelegt.

    Maverick bietet frühe Fusion für native Multimodalität und ein Kontextfenster mit 1 Million Token. Es wurde auf einer kuratierten Mischung aus öffentlichen, lizenzierten und Meta-Plattform-Daten trainiert, die ~22 Billionen Token abdeckt, mit einer Wissensabgrenzung im August 2024. Maverick wurde am 5. April 2025 unter der Llama 4 Community License veröffentlicht und eignet sich für Forschung und kommerzielle Anwendungen, die ein fortgeschrittenes multimodales Verständnis und einen hohen Modelldurchsatz erfordern.

    Meta: Llama 4 Pfadfinder

    Llama 4 Scout 17B Instruct (16E) ist ein von Meta entwickeltes Mixed-of-Experts (MoE) Sprachmodell, das 17 Milliarden Parameter von insgesamt 109B aktiviert. Es unterstützt native multimodale Eingaben (Text und Bild) und mehrsprachige Ausgaben (Text und Code) in 12 unterstützten Sprachen. Scout wurde für eine assistentenähnliche Interaktion und visuelles Reasoning entwickelt. Es verwendet 16 Experten pro Vorwärtsdurchlauf und verfügt über eine Kontextlänge von 10 Millionen Token, mit einem Trainingskorpus von ~40 Billionen Token.

    Llama 4 Scout wurde für hohe Effizienz und den lokalen oder kommerziellen Einsatz entwickelt und verfügt über Early Fusion für eine nahtlose Integration der Modalitäten. Es ist auf die Verwendung in mehrsprachigen Chats, Untertiteln und Bildverstehensaufgaben abgestimmt. Es wurde unter der Llama 4 Community License veröffentlicht, zuletzt auf Daten bis August 2024 trainiert und am 5. April 2025 öffentlich vorgestellt.

    Google: Gemini 2.5 Pro Vorschau

    Gemini 2.5 Pro ist Googles hochmodernes KI-Modell, das für fortgeschrittenes logisches Denken, Codierung, Mathematik und wissenschaftliche Aufgaben entwickelt wurde. Es verfügt über „denkende“ Fähigkeiten, die es ihm ermöglichen, Antworten mit verbesserter Genauigkeit und nuancierter Kontextverarbeitung zu durchdenken. Gemini 2.5 Pro erreicht Spitzenleistungen in mehreren Benchmarks, einschließlich des ersten Platzes in der LMArena-Rangliste, was die überlegene Ausrichtung auf menschliche Präferenzen und die Fähigkeit zur Lösung komplexer Probleme widerspiegelt.

    DeepSeek: DeepSeek V3 0324

    Gemini 2.5 Pro ist Googles hochmodernes KI-Modell, das für fortgeschrittenes logisches Denken, Codierung, Mathematik und wissenschaftliche Aufgaben entwickelt wurde. Es verfügt über „denkende“ Fähigkeiten, die es ihm ermöglichen, Antworten mit verbesserter Genauigkeit und nuancierter Kontextverarbeitung zu durchdenken. Gemini 2.5 Pro erreicht Spitzenleistungen in mehreren Benchmarks, einschließlich des ersten Platzes in der LMArena-Rangliste, was die überlegene Ausrichtung auf menschliche Präferenzen und die Fähigkeit zur Lösung komplexer Probleme widerspiegelt.