Meta Renforce la Sécurité IA avec des Outils Llama Avancés
Meta a publié de nouveaux outils de sécurité Llama pour renforcer le développement IA et protéger contre les menaces émergentes.
Ces outils de sécurité du modèle IA Llama améliorés sont associés aux nouvelles ressources de Meta pour permettre aux équipes de cybersécurité d'exploiter l'IA pour la défense, visant à améliorer la sécurité pour tous les acteurs de l'IA.
Les développeurs utilisant les modèles Llama ont désormais accès à des outils améliorés, disponibles directement sur la page Llama Protections de Meta, Hugging Face et GitHub.
Llama Guard 4 introduit des capacités multimodales, permettant l'application de la sécurité pour le texte et les images, crucial pour les applications IA de plus en plus visuelles. Il est intégré à la nouvelle API Llama de Meta, actuellement en prévisualisation limitée.
LlamaFirewall, une nouvelle addition, sert de centre de sécurité pour les systèmes IA, coordonnant les modèles de sécurité et s'intégrant aux outils de protection de Meta pour contrer les risques comme les attaques par injection de prompts, la génération de code non sécurisé ou les comportements malveillants de plug-ins IA.
Meta a également affiné Llama Prompt Guard. Le modèle mis à jour Prompt Guard 2 (86M) excelle dans la détection des tentatives de jailbreak et des injections de prompts. De plus, le compact Prompt Guard 2 22M réduit la latence et les coûts de calcul jusqu'à 75 %, maintenant une détection robuste pour les développeurs soucieux des coûts.
Au-delà des développeurs, Meta soutient les professionnels de la cybersécurité avec des outils pilotés par IA pour combattre les cyberattaques, répondant à la demande croissante de défenses avancées.
La suite de benchmarks CyberSec Eval 4 a été remaniée, offrant aux organisations des outils pour évaluer les performances IA dans les tâches de sécurité. Elle inclut deux nouvelles additions :
- CyberSOC Eval : Développé avec CrowdStrike, ce cadre évalue l'efficacité de l'IA dans des environnements réels de centres d'opérations de sécurité, en se concentrant sur la détection et la réponse aux menaces. Il sera bientôt disponible.
- AutoPatchBench : Cela teste la capacité de Llama et d'autres modèles IA à identifier et corriger les vulnérabilités de code avant leur exploitation.
Le programme Llama Defenders de Meta fournit aux partenaires et développeurs des solutions de sécurité IA personnalisées, combinant des outils open-source et en accès anticipé pour répondre à divers défis.
Meta partage son outil interne de classification automatique des documents sensibles, qui étiquette les documents sensibles pour prévenir les fuites non autorisées ou l'utilisation abusive dans des systèmes IA comme les configurations RAG.
Pour lutter contre les escroqueries audio générées par IA, Meta partage le détecteur audio généré par Llama et le détecteur de filigrane audio Llama avec des partenaires comme ZenDesk, Bell Canada et AT&T pour identifier les voix IA frauduleuses dans les tentatives de phishing ou de fraude.
Meta a également prévisualisé le traitement privé pour WhatsApp, permettant à l'IA de résumer les messages ou de rédiger des réponses sans accéder au contenu des messages, en priorisant la confidentialité des utilisateurs.
Meta partage ouvertement son modèle de menace, encourageant les chercheurs en sécurité à examiner l'architecture avant le lancement, démontrant un engagement envers des mesures de confidentialité robustes.
Cet ensemble complet de mises à jour de sécurité IA de Meta renforce leur écosystème IA tout en équipant la communauté technologique d'outils pour un développement sécurisé et une défense efficace.
Voir aussi : Microsoft découvre 4 milliards de dollars en tentatives de fraude pilotées par IA
Découvrez plus sur l'IA et les big data à l'AI & Big Data Expo à Amsterdam, Californie et Londres, co-localisé avec des événements comme la conférence sur l'automatisation intelligente, BlockX, la semaine de la transformation numérique, et l'expo sur la cybersécurité et le cloud.
Explorez les événements et webinaires technologiques d'entreprise à venir par TechForge ici.
Article connexe
Microsoft accueille les modèles avancés Grok 3 de xAI dans le cadre d'une nouvelle collaboration en matière d'IA
Au début du mois, mon journalisme d'investigation *Notepad* a révélé les plans de Microsoft pour intégrer les modèles d'IA Grok d'Elon Musk - des révélations qui ont maintenant été officiellement conf
Apple s'associe à Anthropic pour développer un outil de codage de l'IA pour Xcode
Apple et Anthropic collaborent sur un assistant de codage doté d'une IASelon Bloomberg, Apple est en train de développer un assistant de codage IA avancé qui s'intégrera directement dans Xcode, son
Une étude de Microsoft révèle qu'un plus grand nombre de jetons d'IA augmente les erreurs de raisonnement
Nouvelles perspectives sur l'efficacité du raisonnement dans les LLMDe nouvelles recherches menées par Microsoft démontrent que les techniques de raisonnement avancées dans les grands modèles de langa
commentaires (0)
0/200
Meta a publié de nouveaux outils de sécurité Llama pour renforcer le développement IA et protéger contre les menaces émergentes.
Ces outils de sécurité du modèle IA Llama améliorés sont associés aux nouvelles ressources de Meta pour permettre aux équipes de cybersécurité d'exploiter l'IA pour la défense, visant à améliorer la sécurité pour tous les acteurs de l'IA.
Les développeurs utilisant les modèles Llama ont désormais accès à des outils améliorés, disponibles directement sur la page Llama Protections de Meta, Hugging Face et GitHub.
Llama Guard 4 introduit des capacités multimodales, permettant l'application de la sécurité pour le texte et les images, crucial pour les applications IA de plus en plus visuelles. Il est intégré à la nouvelle API Llama de Meta, actuellement en prévisualisation limitée.
LlamaFirewall, une nouvelle addition, sert de centre de sécurité pour les systèmes IA, coordonnant les modèles de sécurité et s'intégrant aux outils de protection de Meta pour contrer les risques comme les attaques par injection de prompts, la génération de code non sécurisé ou les comportements malveillants de plug-ins IA.
Meta a également affiné Llama Prompt Guard. Le modèle mis à jour Prompt Guard 2 (86M) excelle dans la détection des tentatives de jailbreak et des injections de prompts. De plus, le compact Prompt Guard 2 22M réduit la latence et les coûts de calcul jusqu'à 75 %, maintenant une détection robuste pour les développeurs soucieux des coûts.
Au-delà des développeurs, Meta soutient les professionnels de la cybersécurité avec des outils pilotés par IA pour combattre les cyberattaques, répondant à la demande croissante de défenses avancées.
La suite de benchmarks CyberSec Eval 4 a été remaniée, offrant aux organisations des outils pour évaluer les performances IA dans les tâches de sécurité. Elle inclut deux nouvelles additions :
- CyberSOC Eval : Développé avec CrowdStrike, ce cadre évalue l'efficacité de l'IA dans des environnements réels de centres d'opérations de sécurité, en se concentrant sur la détection et la réponse aux menaces. Il sera bientôt disponible.
- AutoPatchBench : Cela teste la capacité de Llama et d'autres modèles IA à identifier et corriger les vulnérabilités de code avant leur exploitation.
Le programme Llama Defenders de Meta fournit aux partenaires et développeurs des solutions de sécurité IA personnalisées, combinant des outils open-source et en accès anticipé pour répondre à divers défis.
Meta partage son outil interne de classification automatique des documents sensibles, qui étiquette les documents sensibles pour prévenir les fuites non autorisées ou l'utilisation abusive dans des systèmes IA comme les configurations RAG.
Pour lutter contre les escroqueries audio générées par IA, Meta partage le détecteur audio généré par Llama et le détecteur de filigrane audio Llama avec des partenaires comme ZenDesk, Bell Canada et AT&T pour identifier les voix IA frauduleuses dans les tentatives de phishing ou de fraude.
Meta a également prévisualisé le traitement privé pour WhatsApp, permettant à l'IA de résumer les messages ou de rédiger des réponses sans accéder au contenu des messages, en priorisant la confidentialité des utilisateurs.
Meta partage ouvertement son modèle de menace, encourageant les chercheurs en sécurité à examiner l'architecture avant le lancement, démontrant un engagement envers des mesures de confidentialité robustes.
Cet ensemble complet de mises à jour de sécurité IA de Meta renforce leur écosystème IA tout en équipant la communauté technologique d'outils pour un développement sécurisé et une défense efficace.
Voir aussi : Microsoft découvre 4 milliards de dollars en tentatives de fraude pilotées par IA
Découvrez plus sur l'IA et les big data à l'AI & Big Data Expo à Amsterdam, Californie et Londres, co-localisé avec des événements comme la conférence sur l'automatisation intelligente, BlockX, la semaine de la transformation numérique, et l'expo sur la cybersécurité et le cloud.
Explorez les événements et webinaires technologiques d'entreprise à venir par TechForge ici.












