Saltar al contenido

NUEVOS MODELOS Gemini 2.5, Qwen3, OpenAI 04 Mini High, Mistral 3 Medium, Thud GLM4, Grok 3 Mini…

    AI aggregate ha implementado ahora varios Modelos AI nuevos

    Google: Gemini 2.5 Pro Preview

    es el modelo de IA de última generación de Google, diseñado para tareas avanzadas de razonamiento, codificación, matemáticas y científicas. Emplea capacidades de «pensamiento», lo que le permite razonar las respuestas con una precisión mejorada y un manejo matizado del contexto. Gemini 2.5 Pro alcanza un rendimiento de primer nivel en múltiples pruebas comparativas, incluido el primer puesto en la tabla de clasificación de LMArena, lo que refleja una alineación superior con las preferencias humanas y capacidades de resolución de problemas complejos.

    Mistral 3 Medio

    es un modelo de lenguaje empresarial de alto rendimiento diseñado para ofrecer capacidades de nivel avanzado a un coste operativo significativamente reducido. Equilibra el razonamiento de vanguardia y el rendimiento multimodal con un coste 8 veces inferior en comparación con los grandes modelos tradicionales, lo que lo hace adecuado para implantaciones escalables en casos de uso profesional e industrial.
    El modelo destaca en dominios como la codificación, el razonamiento STEM y la adaptación empresarial. Admite implantaciones híbridas, on-prem e in-VPC, y está optimizado para su integración en flujos de trabajo personalizados. Mistral Medium 3 ofrece una precisión competitiva en relación con modelos más grandes como Claude Sonnet 3.5/3.7, Llama 4 Maverick y Command R+, al tiempo que mantiene una amplia compatibilidad en entornos en la nube.

    Qwen3

    la última generación de la serie de grandes modelos lingüísticos Qwen, presenta arquitecturas densas y de mezcla de expertos (MoE) para destacar en razonamiento, soporte multilingüe y tareas avanzadas de agente. Su capacidad única de alternar sin problemas entre un modo de pensamiento para el razonamiento complejo y un modo de no pensamiento para el diálogo eficaz garantiza un rendimiento versátil y de alta calidad.
    Superando significativamente a modelos anteriores como QwQ y Qwen2.5, Qwen3 ofrece capacidades superiores en matemáticas, codificación, razonamiento de sentido común, escritura creativa y diálogo interactivo. La variante Qwen3-30B-A3B incluye 30.500 millones de parámetros (3.300 millones activados), 48 capas, 128 expertos (8 activados por tarea), y admite hasta 131K contextos de fichas con YaRN, estableciendo un nuevo estándar entre los modelos de código abierto.

    xAI: Grok 3 Mini Beta

    es un modelo de pensamiento ligero y más pequeño. A diferencia de los modelos tradicionales que generan respuestas inmediatamente, Grok 3 Mini piensa antes de responder. Es ideal para tareas de razonamiento pesado que no exigen amplios conocimientos del dominio, y brilla en casos de uso específicos de matemáticas y cuantitativos, como la resolución de rompecabezas o problemas matemáticos desafiantes.
    Huellas de «pensamiento» transparentes y accesibles. Por defecto, razonamiento bajo, puede aumentarse ajustando razonamiento: { esfuerzo: «alto» }
    Nota: Que hay dos puntos finales xAI para este modelo. Por defecto, cuando utilices este modelo siempre te redirigiremos al punto final base. Si quieres el endpoint rápido puedes añadir proveedor: { sort: throughput}, para ordenar por throughput en su lugar.

    THUDM: GLM

    es un modelo de razonamiento profundo de 32 parámetros B de la serie GLM-4-Z1, optimizado para tareas complejas y abiertas que requieren una deliberación prolongada. Se basa en el glm-4-32b-0414 con fases adicionales de aprendizaje por refuerzo y estrategias de alineación multietapa, introduciendo capacidades de «rumiación» diseñadas para emular el procesamiento cognitivo ampliado. Esto incluye el razonamiento iterativo, el análisis multisalto y los flujos de trabajo potenciados por herramientas, como la búsqueda, la recuperación y la síntesis basada en citas.
    El modelo destaca en la redacción de estilo investigador, el análisis comparativo y la respuesta a preguntas complejas. Admite la llamada a funciones para las primitivas de búsqueda y navegación (buscar, hacer clic, abrir, terminar), lo que permite su uso en canalizaciones de estilo agente. El comportamiento de la rumiación se rige por bucles multivuelta con mecanismos de recompensa basados en reglas y decisión retardada, comparados con marcos de Investigación Profunda como las pilas de alineación interna de OpenAI. Esta variante es adecuada para escenarios que requieren más profundidad que velocidad.