opção
Lar
Notícias
Meta Aprimora a Segurança de IA com Ferramentas Avançadas do Llama

Meta Aprimora a Segurança de IA com Ferramentas Avançadas do Llama

9 de Agosto de 2025
7

A Meta lançou novas ferramentas de segurança do Llama para fortalecer o desenvolvimento de IA e proteger contra ameaças emergentes.

Essas ferramentas de segurança do modelo de IA Llama atualizadas são combinadas com novos recursos da Meta para capacitar equipes de cibersegurança a utilizar IA para defesa, visando aumentar a segurança para todos os envolvidos com IA.

Desenvolvedores que utilizam modelos Llama agora têm acesso a ferramentas aprimoradas, disponíveis diretamente na página de Proteções do Llama da Meta, Hugging Face e GitHub.

O Llama Guard 4 apresenta capacidades multimodais, permitindo a aplicação de segurança para texto e imagens, essencial para aplicações de IA cada vez mais visuais. Ele está integrado à nova API do Llama da Meta, atualmente em visualização limitada.

O LlamaFirewall, uma nova adição, atua como um centro de segurança para sistemas de IA, coordenando modelos de segurança e integrando-se com as ferramentas de proteção da Meta para combater riscos como ataques de injeção de prompts, geração de código inseguro ou comportamento malicioso de plug-ins de IA.

A Meta também aprimorou o Llama Prompt Guard. O modelo atualizado Prompt Guard 2 (86M) destaca-se na detecção de tentativas de jailbreak e injeções de prompts. Além disso, o compacto Prompt Guard 2 22M reduz a latência e os custos computacionais em até 75%, mantendo uma forte detecção para desenvolvedores preocupados com custos.

Além dos desenvolvedores, a Meta apoia profissionais de cibersegurança com ferramentas impulsionadas por IA para combater ataques cibernéticos, respondendo à crescente demanda por defesas avançadas.

O conjunto de benchmarks CyberSec Eval 4 foi reformulado, oferecendo às organizações ferramentas para avaliar o desempenho da IA em tarefas de segurança. Ele inclui duas novas adições:

  • CyberSOC Eval: Desenvolvido com a CrowdStrike, este framework avalia a eficácia da IA em ambientes reais de Centros de Operações de Segurança, focando na detecção e resposta a ameaças. Estará disponível em breve.
  • AutoPatchBench: Este testa a capacidade do Llama e outros modelos de IA de identificar e corrigir vulnerabilidades de código antes da exploração.

O Programa Llama Defenders da Meta oferece a parceiros e desenvolvedores soluções de segurança de IA personalizadas, combinando ferramentas de código aberto e de acesso antecipado para enfrentar diversos desafios.

A Meta está compartilhando sua ferramenta interna de Classificação Automatizada de Documentos Sensíveis, que rotula documentos sensíveis para prevenir vazamentos não autorizados ou uso indevido em sistemas de IA como configurações RAG.

Para combater golpes de áudio gerados por IA, a Meta está compartilhando o Detector de Áudio Gerado por Llama e o Detector de Marca d'Água de Áudio do Llama com parceiros como ZenDesk, Bell Canada e AT&T para identificar vozes fraudulentas de IA em tentativas de phishing ou fraude.

A Meta também apresentou o Processamento Privado para o WhatsApp, permitindo que a IA resuma mensagens ou redija respostas sem acessar o conteúdo das mensagens, priorizando a privacidade do usuário.

A Meta compartilha abertamente seu modelo de ameaças, incentivando pesquisadores de segurança a examinar a arquitetura antes do lançamento, demonstrando um compromisso com medidas robustas de privacidade.

Este conjunto abrangente de atualizações de segurança de IA da Meta fortalece seu ecossistema de IA enquanto equipa a comunidade tecnológica com ferramentas para desenvolvimento seguro e defesa eficaz.

Veja também: Microsoft descobre US$4 bilhões em tentativas de fraude impulsionadas por IA

Descubra mais sobre IA e big data na AI & Big Data Expo em Amsterdã, Califórnia e Londres, co-localizada com eventos como Intelligent Automation Conference, BlockX, Digital Transformation Week e Cyber Security & Cloud Expo.

Explore eventos e webinars de tecnologia empresarial futuros da TechForge aqui.

Artigo relacionado
A Microsoft hospeda os modelos Grok 3 avançados da xAI em uma nova colaboração de IA A Microsoft hospeda os modelos Grok 3 avançados da xAI em uma nova colaboração de IA No início deste mês, meu jornalismo investigativo *Notepad* revelou os planos da Microsoft de integrar os modelos de IA Grok de Elon Musk - revelações que agora foram oficialmente confirmadas. Hoje, n
Apple se une à Anthropic para desenvolver ferramenta de codificação de IA para o Xcode Apple se une à Anthropic para desenvolver ferramenta de codificação de IA para o Xcode Apple e Anthropic colaboram em um assistente de codificação com IADe acordo com a Bloomberg, a Apple está desenvolvendo um assistente avançado de codificação com IA que será integrado diretamente ao
Estudo da Microsoft revela que mais tokens de IA aumentam os erros de raciocínio Estudo da Microsoft revela que mais tokens de IA aumentam os erros de raciocínio Insights emergentes sobre a eficiência do raciocínio do LLMUma nova pesquisa da Microsoft demonstra que as técnicas avançadas de raciocínio em modelos de linguagem grandes não produzem melhorias unifo
Comentários (0)
0/200
De volta ao topo
OR