A Meta anunciou o lançamento de um robusto pacote de ferramentas baseadas em Inteligência Artificial (IA) voltadas à proteção de sistemas, dados e usuários. O objetivo da empresa é oferecer suporte à comunidade de desenvolvedores e especialistas em segurança, especialmente os que atuam com soluções de código aberto. A novidade vem em um cenário cada vez mais complexo de ameaças digitais.
A chegada do Llama Guard 4 e o LlamaFirewall
A nova versão do Llama Guard, batizada de Llama Guard 4, oferece uma camada de proteção unificada entre modalidades de texto e imagem. Além de ser personalizável, ela é integrada à nova API Llama, disponível em prévia limitada. A ferramenta atua como uma barreira de segurança para diferentes tipos de entrada e conteúdo gerado por IA.
Outra novidade é o LlamaFirewall, que funciona como um orquestrador de modelos de proteção para prevenir riscos em sistemas baseados em LLMs (Modelos de Linguagem de Grande Escala). A solução é capaz de detectar tentativas de injeção rápida, códigos potencialmente perigosos e interações não seguras com plug-ins. Segundo a Meta, os detalhes técnicos da ferramenta já estão descritos em um artigo de pesquisa dedicado.
Para finalizar, a empresa anunciou ainda o Llama Prompt Guard 2, com dois modelos distintos. O 86M é voltado à detecção de jailbreaks e injeção de prompts. O 22M é uma versão menor, otimizada para reduzir latência e custo computacional em até 75% sem grandes perdas de desempenho.
A IA da Meta em prol da segurança digital
A empresa tem focado ainda no fortalecimento dos sistemas de defesa para potenciais ataques cibernéticos. Diante disso, lançou o Programa Llama Defenders, destinado a organizações parceiras e desenvolvedores que queiram testar versões antecipadas ou fechadas de ferramentas de IA voltadas à segurança. A Meta também disponibilizou uma ferramenta de classificação automatizada de documentos sensíveis, usada internamente para proteger dados organizacionais e evitar a exposição acidental de informações confidenciais em sistemas RAG (Retrieval-Augmented Generation).
Outras, duas novas ferramentas foram criadas para detectar conteúdos gerados por IA com fins maliciosos baseados em voz: o Detector de Áudio Gerado por Llama e o Detector de Marca D’água de Áudio por Llama.
A Meta apresentou ainda o CyberSOC Eval, que foi desenvolvido em parceria com uma empresa de cibersegurança, que mede a eficácia de sistemas de IA em centros de operações de segurança. Também foi anunciado o AutoPatchBench, voltado à avaliação da capacidade de modelos como o Llama identificar e corrigir vulnerabilidades de código automaticamente, antes que elas sejam exploradas por agentes maliciosos.
Processamento privado
Outra inovação é o Processamento Privado. Essa tecnologia permitirá que os usuários do WhatsApp utilizem funcionalidades de IA – como resumo e reescrita de mensagens – sem que os dados precisem ser compartilhados com os servidores da Meta ou do próprio aplicativo. O modelo foi desenvolvido com base em uma arquitetura de segurança avançada e será auditado em colaboração com a comunidade de pesquisa antes do lançamento oficial.
A empresa afirma que, com essa tecnologia, busca garantir maior controle dos usuários sobre seus dados e ampliar a confiança no uso de assistentes baseados em IA. Um blog técnico detalha o modelo de ameaças e os protocolos usados para proteger as informações durante o processamento local. A expectativa é que essas atualizações ampliem a adoção segura dos modelos Llama por desenvolvedores e empresas, ao mesmo tempo que fomentem a colaboração com especialistas em segurança cibernética.
“Esperamos que o conjunto de atualizações de IA compartilhado aqui facilite ainda mais a construção com o Llama para desenvolvedores, ajude organizações a aprimorar operações de segurança e permita garantias de privacidade mais robustas para determinados casos de uso de IA. Esperamos continuar esse trabalho e compartilhar mais no futuro”, frisa a empresa em nota.
*Foto: JarTee / Shutterstock.com