Críticas

Meta presenta modelos avanzados de inteligencia artificial con la serie Llama 4

meta-unveils-advanced-ai-models-introducing-llama-4-series

Este fin de semana, Meta ha sorprendido al mundo de la tecnología con la presentación de Llama 4, la última generación de su famosa serie de modelos de inteligencia artificial, con capacidades mejoradas para procesar texto, imágenes y vídeos. Salió a la venta el sábado, un día poco habitual para un gigante de la tecnología, Llama 4 señala el impulso acelerado de Meta para superar a competidores que recientemente han eclipsado a modelos anteriores de la empresa, como la china DeepSeek, cuyas ofertas de código abierto rivalizaban o incluso superaban a los modelos anteriores de Llama en algunas pruebas comparativas.

Las últimas incorporaciones a la gama Llama 4 son Scout, Maverick y el próximo modelo Behemoth. Según Meta, cada variante ha sido entrenada en vastos repositorios de datos multimedia sin etiquetar, perfeccionando su capacidad para comprender y generar contenidos visuales de forma exhaustiva. Estos avances parecen ser una respuesta directa a las capacidades de DeepSeek, lo que ha llevado a Meta a convocar equipos especializados encargados de diseccionar cómo las empresas rivales consiguen ofrecer modelos de IA potentes con costes operativos reducidos.

Lanzamiento de la línea Llama 4 de Meta marca claramente una coyuntura importante en el desarrollo de herramientas de IA y sienta las bases de lo que parece ser un futuro expansivo para su ecosistema de IA.

Las últimas innovaciones de Meta, Scout y Maverick, ya son accesibles desde Llama.com y a través de plataformas como Hugging Face, lo que permite un acceso más amplio de los desarrolladores a estos recursos de vanguardia. Por el contrario, el modelo mucho más grande, Behemoth, sigue en riguroso entrenamiento y se anticipa para más adelante. En particular, el titán tecnológico ha empezado a incorporar los modelos Llama 4 a su asistente Meta AI, que cuenta con el apoyo de la inteligencia artificial, introduciendo esta capacidad avanzada en aplicaciones populares como Messenger, WhatsApp e Instagram para usuarios de 40 países, aunque, por ahora, las funciones multimodales se limitan a los usuarios estadounidenses que interactúan en inglés.

Un vistazo a las capacidades de Maverick, Scout y Behemoth

Como ejemplo de las capacidades de estos nuevos modelos, Maverick consta de 400.000 millones de parámetros, pero sólo aprovecha activamente 17.000 millones de ellos a través de su red de 128 "expertos" distintos. Los parámetros, en los modelos de IA, están estrechamente correlacionados con su eficacia a la hora de abordar diversos problemas, y Maverick destaca especialmente en tareas impulsadas por la creatividad, como la composición de contenidos y las aplicaciones basadas en el diálogo. Meta afirma que Maverick supera a competidores como Gemini 2.0, de Google, y GPT-4o, de OpenAI, en áreas como las interacciones multilingües, los contextos conversacionales ampliados, las tareas con mucha lógica y ciertos exámenes de codificación. Sin embargo, queda ligeramente por detrás de modelos más recientes como Gemini 2.5 Pro de Google, Claude 3.7 Sonnet de Anthropic y GPT-4.5 de OpenAI.

En cambio, Scout está especializado en el resumen y la ejecución de operaciones lógicas en bases de código extensas, y cuenta con una extraordinaria capacidad para manejar entradas de hasta 10 millones de tokens, lo que equivale a una enorme compilación de texto de millones de palabras. Esta notable característica aumenta el atractivo de Scout para aplicaciones que requieren una comprensión intrincada y un resumen meticuloso de documentos sustanciales. Y lo que es más sorprendente, Scout funciona eficazmente con una sola GPU Nvidia H100, mientras que Maverick requiere la más robusta Nvidia H100 DGX o hardware de prestaciones equivalentes.

El próximo peso pesado, Behemoth, promete unas métricas de rendimiento aún mayores y exige un hardware proporcionalmente robusto. Con un tamaño total de parámetros cercano a los dos billones -y empleando activamente unos 288.000 millones de parámetros-, Behemoth dejó atrás a modelos de la competencia como GPT-4.5 y Claude 3.7 Sonnet en evaluaciones cruciales centradas en STEM. Sin embargo, ni siquiera esta iteración avanzada pudo superar al último Gemini 2.5 Pro de Google, lo que indica lo intensamente competitivo que se ha vuelto el nivel superior de rendimiento de la IA.

Sin embargo, ninguna de estas nuevas iteraciones de Llama se centra principalmente en "modelos de razonamiento" en el sentido defendido por o1 y o3-mini de OpenAI, que emplean la verificación de hechos para mejorar la precisión de las respuestas, pero a costa de la inmediatez. A pesar de esta limitación, Meta aseguró a los usuarios, a través de representantes de la empresa, que los modelos de Llama 4 ofrecerán siempre respuestas equilibradas y precisas, y prometió mejoras continuas diseñadas para evitar sesgos hacia determinados puntos de vista o inclinaciones políticas.

Curiosamente, estas garantías surgen en medio de un clima político cargado en torno a la IA, en el que figuras poderosas alineadas con el expresidente Donald Trump, como Elon Musk y el inversor David Sacks, expresan un creciente escepticismo hacia los populares chatbots de IA, sospechando que suprimen ideologías conservadoras. La propia empresa de Musk, xAI, se ha enfrentado a acusaciones de parcialidad, lo que ilustra la dificultad generalizada y no resuelta de producir modelos de IA conversacional totalmente neutrales. Meta, junto con competidores como OpenAI, ha empezado a trabajar para mejorar la transparencia y la capacidad de respuesta de los modelos, sobre todo ante preguntas políticamente delicadas o controvertidas del público.

COMPARTIR

Añadir un comentario

Esto se ve mejor en la aplicación

Utilizamos cookies para mejorar su experiencia en nuestro sitio. Si continúa navegando, consideramos que acepta su uso.

Conectarse / Registrarse

Únase a la mayor comunidad de IA y descubra las últimas herramientas de IA, tutoriales útiles y ofertas exclusivas.