Aller au contenu

NOUVEAUX MODÈLES D’IA

    L’agrégat d’IA a maintenant mis en place plusieurs nouveaux modèles d’IA

    xAI : Grok 3 Mini Beta

    Grok 3 Mini est un modèle de réflexion léger et plus petit. Contrairement aux modèles traditionnels qui génèrent des réponses immédiatement, Grok 3 Mini réfléchit avant de répondre. Il est idéal pour les tâches de raisonnement qui n’exigent pas de connaissances approfondies du domaine, et brille dans les cas d’utilisation spécifiques aux mathématiques et quantitatifs, tels que la résolution d’énigmes ou de problèmes mathématiques difficiles.

    Traces de « pensée » transparentes accessibles. Le niveau de raisonnement est faible par défaut, mais il peut être augmenté avec le paramètre reasoning: { effort: "high" }

    Remarque : ce modèle comporte deux points d’extrémité xAI. Par défaut, lorsque vous utilisez ce modèle, nous vous dirigerons toujours vers le point de terminaison de base. Si vous voulez le point de terminaison rapide, vous pouvez ajouter provider: { sort: throughput}, pour trier par débit à la place.

    Meta : Llama 4 Maverick

    Llama 4 Maverick 17B Instruct (128E) est un modèle linguistique multimodal à haute capacité de Meta, construit sur une architecture de mélange d’experts (MoE) avec 128 experts et 17 milliards de paramètres actifs par passe avant (400B au total). Il prend en charge l’entrée de textes et d’images multilingues et produit des textes et des codes multilingues dans les 12 langues prises en charge. Optimisé pour les tâches vision-langage, Maverick est adapté aux instructions pour un comportement similaire à celui d’un assistant, pour le raisonnement sur les images et pour une interaction multimodale générale.

    Maverick propose une fusion précoce pour la multimodalité native et une fenêtre contextuelle d’un million de jetons. Il a été entraîné sur un mélange de données publiques, sous licence et de méta-plateforme, couvrant ~22 trillions de jetons, avec un seuil de connaissance en août 2024. Publié le 5 avril 2025 sous la licence communautaire Llama 4, Maverick est adapté à la recherche et aux applications commerciales nécessitant une compréhension multimodale avancée et un débit de modèle élevé.

    Meta : Llama 4 Scout

    Llama 4 Scout 17B Instruct (16E) est un modèle linguistique de type mélange d’experts (MoE) développé par Meta, activant 17 milliards de paramètres sur un total de 109B. Il prend en charge l’entrée multimodale native (texte et image) et la sortie multilingue (texte et code) dans les 12 langues prises en charge. Conçu pour l’interaction de type assistant et le raisonnement visuel, Scout utilise 16 experts par passe avant et dispose d’une longueur de contexte de 10 millions de tokens, avec un corpus d’entraînement d’environ 40 trillions de tokens.

    Conçu pour une grande efficacité et un déploiement local ou commercial, le Llama 4 Scout incorpore une fusion précoce pour une intégration transparente des modalités. Il est adapté aux instructions pour une utilisation dans les tâches de chat multilingue, de sous-titrage et de compréhension d’images. Publié sous la licence communautaire Llama 4, il a été entraîné pour la dernière fois sur des données allant jusqu’à août 2024 et a été lancé publiquement le 5 avril 2025.

    Google : Gemini 2.5 Pro Preview

    Gemini 2.5 Pro est le modèle d’IA de pointe de Google, conçu pour des tâches avancées de raisonnement, de codage, de mathématiques et de sciences. Il utilise des capacités de « réflexion » qui lui permettent de raisonner à travers des réponses avec une précision accrue et une gestion nuancée du contexte. Gemini 2.5 Pro atteint des performances de premier plan sur de nombreux benchmarks, notamment en se plaçant à la première place du classement LMArena, ce qui témoigne d’un alignement supérieur des préférences humaines et de capacités de résolution de problèmes complexes.

    DeepSeek : DeepSeek V3 0324

    Gemini 2.5 Pro est le modèle d’IA de pointe de Google, conçu pour des tâches avancées de raisonnement, de codage, de mathématiques et de sciences. Il utilise des capacités de « réflexion » qui lui permettent de raisonner à travers des réponses avec une précision accrue et une gestion nuancée du contexte. Gemini 2.5 Pro atteint des performances de premier plan sur de nombreux benchmarks, notamment en se plaçant à la première place du classement LMArena, ce qui témoigne d’un alignement supérieur des préférences humaines et de capacités de résolution de problèmes complexes.