Críticas

Meta revela modelos avançados de IA, apresentando a Llama 4 Series

meta-unveils-advanced-ai-models-introducing-llama-4-series

A Meta surpreendeu o mundo da tecnologia neste fim de semana ao revelar o Llama 4, a última geração de sua renomada série de modelos de IA, que apresenta habilidades aprimoradas no processamento de texto, imagens e vídeos. Lançado em um dia bastante incomum para um gigante da tecnologia, sábado, Lhama 4 sinaliza o esforço acelerado da Meta para superar os concorrentes que recentemente superaram os modelos anteriores da empresa, como a DeepSeek da China, cujas ofertas de código aberto rivalizaram ou até mesmo superaram os modelos anteriores da Llama em alguns benchmarks.

As mais recentes adições à linha Llama 4 incluem o Scout, o Maverick e o futuro modelo Behemoth. De acordo com a Meta, cada variante foi treinada em vastos repositórios de dados multimídia não rotulados, aprimorando sua capacidade de entender e gerar conteúdo visual de forma abrangente. Esses avanços parecem ser uma resposta direta aos recursos do DeepSeek, o que levou a Meta a reunir equipes especializadas encarregadas de dissecar como as empresas rivais conseguiram fornecer com eficiência modelos avançados de IA a custos operacionais reduzidos.

Lançamento da linha Llama 4 pela Meta marca claramente um momento significativo no desenvolvimento de ferramentas de IA, lançando a pedra fundamental para o que parece ser um futuro expansivo para seu ecossistema de IA.

As inovações mais recentes da Meta, Scout e Maverick, já podem ser acessadas no site Llama.com e em plataformas como a Hugging Face, garantindo um acesso mais amplo dos desenvolvedores a esses recursos de ponta. Por outro lado, o modelo significativamente maior, o Behemoth, continua em treinamento rigoroso e está previsto para mais tarde. Notavelmente, o titã da tecnologia começou a incorporar os modelos Llama 4 em seu assistente com suporte de IA, o Meta AI, introduzindo esse recurso avançado em aplicativos populares como Messenger, WhatsApp e Instagram para usuários espalhados por 40 países - embora, por enquanto, os recursos multimodais estejam limitados aos usuários dos EUA que interagem em inglês.

Uma olhada mais de perto nos recursos do Maverick, Scout e Behemoth

Destacando os recursos desses novos modelos, o Maverick consiste em 400 bilhões de parâmetros, mas aproveita ativamente apenas 17 bilhões deles por meio de sua rede de 128 "especialistas" distintos. Os parâmetros, nos modelos de IA, estão intimamente correlacionados com sua eficácia na abordagem de diversos problemas, e o Maverick se destaca especialmente em tarefas orientadas à criatividade, como composição de conteúdo e aplicativos baseados em diálogo. De forma impressionante, a Meta afirma que o Maverick supera o desempenho de concorrentes como o Gemini 2.0 do Google e o GPT-4o da OpenAI em áreas que incluem interações multilíngues, contextos de conversação estendidos, tarefas com muita lógica e determinados exames de codificação. Entretanto, ele fica um pouco atrás de modelos mais recentes, como o Gemini 2.5 Pro do Google, o Claude 3.7 Sonnet da Anthropic e o GPT-4.5 da OpenAI.

Por outro lado, o Scout é especializado em resumir e executar operações lógicas em bases de código extensas, ostentando uma capacidade extraordinária de lidar com entradas de até 10 milhões de tokens, o que equivale a uma enorme compilação de texto com milhões de palavras. Esse recurso notável aumenta a atratividade do Scout para aplicativos que exigem uma compreensão complexa e um resumo meticuloso de documentos substanciais. O mais impressionante é que o Scout opera com eficiência em uma única GPU Nvidia H100, enquanto o Maverick requer a mais robusta Nvidia H100 DGX ou hardware de benchmarks de desempenho equivalente.

O próximo peso pesado, o Behemoth, promete métricas de desempenho ainda maiores e exige um hardware proporcionalmente robusto. Com um tamanho total de parâmetro que se aproxima de dois trilhões e empregando ativamente cerca de 288 bilhões de parâmetros, o Behemoth deixou para trás modelos concorrentes como o GPT-4.5 e o Claude 3.7 Sonnet em avaliações cruciais voltadas para STEM. No entanto, mesmo essa iteração avançada não conseguiu superar o mais recente Gemini 2.5 Pro do Google, o que indica a intensidade da concorrência no nível superior de desempenho de IA.

No entanto, nenhuma dessas novas iterações da Llama se concentra principalmente em "modelos de raciocínio" no sentido defendido pelo o1 e o3-mini da OpenAI, que empregam a verificação de fatos para aumentar a precisão das respostas, mas com um custo para o imediatismo. Apesar dessa limitação, a Meta garantiu aos usuários, por meio de representantes da empresa, que os modelos da Llama 4 fornecerão respostas equilibradas e precisas de forma consistente e prometeu melhorias contínuas destinadas a evitar vieses em relação a determinados pontos de vista ou inclinações políticas.

É interessante notar que essas garantias surgem em meio a um clima político carregado em torno da IA, em que figuras poderosas alinhadas com o ex-presidente Donald Trump, como Elon Musk e o investidor David Sacks, expressam um ceticismo crescente em relação aos populares chatbots de IA, suspeitando que eles suprimem ideologias conservadoras. O próprio empreendimento de Musk, xAI, tem enfrentado acusações de preconceito, ilustrando a dificuldade generalizada e não resolvida de produzir modelos de IA de conversação totalmente neutros. A Meta, juntamente com concorrentes como a OpenAI, iniciou esforços para aumentar a transparência e a capacidade de resposta do modelo, principalmente em relação a perguntas politicamente sensíveis ou controversas do público.

COMPARTILHAR

Adicionar um comentário

Isso fica melhor no aplicativo

Usamos cookies para melhorar sua experiência em nosso site. Se você continuar a usar este site, presumiremos que está satisfeito com ele.

Login / Registro

Participe da maior comunidade de IA e descubra as mais recentes ferramentas de IA, tutoriais úteis e ofertas exclusivas.