A Meta acaba de anunciar no evento Meta Connect 2024 o Llama 3.2, nova versão de seus modelos de inteligência artificial (IA) voltada para o uso em dispositivos móveis e ambientes de edge computing. Com uma abordagem aberta, a atualização traz modelos compactos, prontos para serem executados localmente em hardwares como Qualcomm, MediaTek e processadores Arm, oferecendo maior privacidade e eficiência para desenvolvedores.
O Llama 3.2 inclui dois tipos de modelos principais: os voltados para visão (11B e 90B) e os modelos de texto compactos (1B e 3B). Os modelos de visão foram desenvolvidos para entender imagens, gráficos e mapas, sendo capazes de interpretar visualmente os dados e fornecer respostas contextuais. Esses modelos oferecem uma alternativa aberta a soluções fechadas, como o Claude 3 Haiku, com suporte para tarefas de reconhecimento de imagem e legendagem automática.
Já os modelos de texto, mais leves, foram projetados para rodar localmente em dispositivos móveis. Com suporte para até 128 mil tokens, eles são ideais para funções como sumarização de mensagens, execução de tarefas de reescrita e comandos por instrução, tudo sem precisar de conexão com a nuvem. Isso garante maior privacidade, já que as informações processadas permanecem no dispositivo.
Integração com plataformas parceiras
O lançamento do Llama 3.2 vem acompanhado da primeira distribuição oficial do Llama Stack, um conjunto de ferramentas que facilita o uso e customização dos modelos Llama em diferentes ambientes, como na nuvem, localmente e em dispositivos móveis. A Meta tem trabalhado com parceiros como AWS, Databricks, Dell Technologies e Infosys para expandir as aplicações comerciais e empresariais do Llama 3.2.
Além disso, o Llama 3.2 já conta com suporte imediato para as plataformas da Microsoft Azure, Google Cloud, NVIDIA, Oracle Cloud e Intel, além de empresas de tecnologia de ponta que integram a solução diretamente em seus produtos.
Avaliação dos modelos
- Os resultados das avaliações indicam que os modelos de visão do Llama 3.2 competem de forma robusta com outros modelos de base, como Claude 3 Haiku e GPT4o-mini, em tarefas de reconhecimento de imagens e entendimento visual.
- O modelo de 3B superou concorrentes como o Gemma 2 (2.6B) e Phi 3.5-mini em tarefas de seguimento de instruções, sumarização e reescrita de prompts, além de uso de ferramentas.
- Já o modelo de 1B mostrou-se competitivo com o Gemma em vários benchmarks.
- Para essas avaliações, foram utilizados mais de 150 datasets de benchmarks em várias línguas, com foco nas capacidades de entendimento de imagens e raciocínio visual dos modelos de visão LLMs.
Leia mais:
- Como usar IA da Meta no WhatsApp
- Como remover uma conta na Central de Contas da Meta pelo PC ou celular
- O que é WhatsApp Business Premium e como contratar serviço da Meta?
Segurança e responsabilidade
Com foco em inovação aberta, a Meta também reforçou seu compromisso com a segurança e a ética no uso da IA. Para isso, lançou o Llama Guard 3, sistema de segurança que monitora entradas e saídas de texto e imagem nos modelos, garantindo que as aplicações sejam desenvolvidas de forma responsável.
Os modelos do Llama 3.2 podem ser baixados no site oficial e no Hugging Face, e já estão disponíveis para integração com as plataformas dos parceiros. A Meta diz acreditar que essa abordagem aberta é fundamental para impulsionar a inovação, permitindo que desenvolvedores ao redor do mundo tenham acesso a ferramentas poderosas e acessíveis para criar novas soluções com IA.
O post Meta lança Llama 3.2, modelo aberto e customizável apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2024/09/25/pro/meta-lanca-llama-3-2-modelo-aberto-e-customizavel/