Meta, 고급 Llama 도구로 AI 보안 강화
Meta는 AI 개발을 강화하고 새로운 위협으로부터 보호하기 위해 새로운 Llama 보안 도구를 출시했습니다.
이러한 업그레이드된 Llama AI 모델 보안 도구는 Meta의 새로운 리소스와 함께 제공되어 사이버 보안 팀이 AI를 방어에 활용할 수 있도록 지원하며, 모든 AI 이해관계자의 안전을 강화하는 것을 목표로 합니다.
Llama 모델을 사용하는 개발자는 이제 Meta의 Llama Protections 페이지, Hugging Face, GitHub에서 직접 제공되는 향상된 도구에 액세스할 수 있습니다.
Llama Guard 4는 텍스트와 이미지를 모두 포함하는 멀티모달 기능을 도입하여 점점 더 시각적인 AI 애플리케이션에 필수적인 안전성을 강화합니다. 이는 현재 제한된 미리보기로 제공되는 Meta의 새로운 Llama API에 통합되었습니다.
신규 추가된 LlamaFirewall은 AI 시스템의 보안 허브 역할을 하며, 안전 모델을 조정하고 프롬프트 인젝션 공격, 안전하지 않은 코드 생성, 악성 AI 플러그인 행동과 같은 위험을 방어하기 위해 Meta의 보호 도구와 통합됩니다.
Meta는 또한 Llama Prompt Guard를 개선했습니다. 업데이트된 Prompt Guard 2 (86M) 모델은 탈옥 시도와 프롬프트 인젝션을 탐지하는 데 탁월합니다. 또한 컴팩트한 Prompt Guard 2 22M은 최대 75%까지 지연 시간과 계산 비용을 줄여 비용을 고려하는 개발자를 위해 강력한 탐지 성능을 유지합니다.
개발자 외에도 Meta는 사이버 공격에 대응하기 위해 AI 기반 도구로 사이버 보안 전문가를 지원하며, 고급 방어에 대한 증가하는 수요에 대응합니다.
CyberSec Eval 4 벤치마크 스위트는 조직이 보안 작업에서 AI 성능을 평가할 수 있는 도구를 제공하도록 개편되었습니다. 여기에는 두 가지 새로운 추가 사항이 포함됩니다:
- CyberSOC Eval: CrowdStrike와 공동 개발한 이 프레임워크는 위협 탐지 및 대응에 초점을 맞춘 실제 보안 운영 센터 환경에서 AI의 효과를 평가합니다. 곧 제공될 예정입니다.
- AutoPatchBench: 이는 Llama 및 기타 AI 모델이 악용 전에 코드 취약점을 식별하고 패치하는 능력을 테스트합니다.
Meta의 Llama Defenders Program은 파트너와 개발자에게 오픈 소스 및 조기 액세스 도구를 결합한 맞춤형 AI 보안 솔루션을 제공하여 다양한 과제를 해결합니다.
Meta는 내부 자동 민감 문서 분류 도구를 공유하여 RAG 설정과 같은 AI 시스템에서 무단 유출이나 오용을 방지하기 위해 민감한 문서를 라벨링합니다.
AI 생성 오디오 사기를 방지하기 위해 Meta는 ZenDesk, Bell Canada, AT&T와 같은 파트너와 Llama Generated Audio Detector 및 Llama Audio Watermark Detector를 공유하여 피싱 또는 사기 시도에서 사기성 AI 음성을 식별합니다.
Meta는 또한 WhatsApp용 Private Processing을 미리 공개하여 메시지 내용에 접근하지 않고 AI가 메시지를 요약하거나 답변 초안을 작성할 수 있도록 하여 사용자 프라이버시를 우선시합니다.
Meta는 위협 모델을 공개적으로 공유하여 보안 연구자들이 출시 전에 아키텍처를 면밀히 조사하도록 장려하며, 견고한 프라이버시 조치에 대한 헌신을 보여줍니다.
Meta의 이 포괄적인 AI 보안 업데이트 세트는 AI 생태계를 강화하면서 기술 커뮤니티에 안전한 개발과 효과적인 방어를 위한 도구를 제공합니다.
참고: Microsoft, AI 기반 사기 시도에서 40억 달러 발견
암스테르담, 캘리포니아, 런던에서 열리는 AI & Big Data Expo에서 AI와 빅데이터에 대해 더 알아보세요. Intelligent Automation Conference, BlockX, Digital Transformation Week, Cyber Security & Cloud Expo와 같은 행사와 함께 개최됩니다.
TechForge의 다가오는 엔터프라이즈 기술 이벤트 및 웨비나를 여기에서 탐색하세요.
관련 기사
YouTube, Veo 3 AI 동영상 도구를 쇼트 플랫폼에 직접 통합합니다.
올여름, YouTube 숏에 Veo 3 AI 동영상 모델이 등장합니다.YouTube CEO 닐 모한은 칸 라이언즈 기조연설에서 플랫폼의 최첨단 Veo 3 AI 동영상 생성 기술이 올여름 말 YouTube Shorts에서 첫 선을 보일 예정이라고 밝혔습니다. 이는 Veo 3가 AI 지원 콘텐츠 제작에 혁신을 가져올 것이라고 설명한 앨리슨 존슨의 논평에 따른
과학 연구 및 발견의 혁신을 지원하는 Google 클라우드
디지털 혁명은 전례 없는 연산 능력을 통해 과학적 방법론을 변화시키고 있습니다. 최첨단 기술은 이제 이론적 프레임워크와 실험실 실험을 모두 보강하여 정교한 시뮬레이션과 빅데이터 분석을 통해 여러 분야에 걸쳐 획기적인 발전을 촉진하고 있습니다.기초 연구, 확장 가능한 클라우드 아키텍처, 인공 지능 개발에 전략적으로 투자함으로써 과학 발전을 가속화하는 생태계를
복잡한 쿼리를 처리하기 전에 소유자의 의견을 구하는 엘론 머스크의 Grok AI
엘론 머스크가 "최대한 진실을 추구하는" 시스템이라고 홍보하며 최근 출시한 Grok AI는 정치적으로 민감한 주제에 대해 답변하기 전에 머스크의 공개 발언을 참조하는 경향으로 주목을 받았습니다. 관찰자들은 이스라엘-팔레스타인 분쟁, 미국 이민 정책, 낙태 논쟁과 같은 논쟁적인 이슈를 다룰 때 챗봇이 머스크의 문서화된 견해에 맞춰 응답하는 것을 우선시하는 것
의견 (0)
0/200
Meta는 AI 개발을 강화하고 새로운 위협으로부터 보호하기 위해 새로운 Llama 보안 도구를 출시했습니다.
이러한 업그레이드된 Llama AI 모델 보안 도구는 Meta의 새로운 리소스와 함께 제공되어 사이버 보안 팀이 AI를 방어에 활용할 수 있도록 지원하며, 모든 AI 이해관계자의 안전을 강화하는 것을 목표로 합니다.
Llama 모델을 사용하는 개발자는 이제 Meta의 Llama Protections 페이지, Hugging Face, GitHub에서 직접 제공되는 향상된 도구에 액세스할 수 있습니다.
Llama Guard 4는 텍스트와 이미지를 모두 포함하는 멀티모달 기능을 도입하여 점점 더 시각적인 AI 애플리케이션에 필수적인 안전성을 강화합니다. 이는 현재 제한된 미리보기로 제공되는 Meta의 새로운 Llama API에 통합되었습니다.
신규 추가된 LlamaFirewall은 AI 시스템의 보안 허브 역할을 하며, 안전 모델을 조정하고 프롬프트 인젝션 공격, 안전하지 않은 코드 생성, 악성 AI 플러그인 행동과 같은 위험을 방어하기 위해 Meta의 보호 도구와 통합됩니다.
Meta는 또한 Llama Prompt Guard를 개선했습니다. 업데이트된 Prompt Guard 2 (86M) 모델은 탈옥 시도와 프롬프트 인젝션을 탐지하는 데 탁월합니다. 또한 컴팩트한 Prompt Guard 2 22M은 최대 75%까지 지연 시간과 계산 비용을 줄여 비용을 고려하는 개발자를 위해 강력한 탐지 성능을 유지합니다.
개발자 외에도 Meta는 사이버 공격에 대응하기 위해 AI 기반 도구로 사이버 보안 전문가를 지원하며, 고급 방어에 대한 증가하는 수요에 대응합니다.
CyberSec Eval 4 벤치마크 스위트는 조직이 보안 작업에서 AI 성능을 평가할 수 있는 도구를 제공하도록 개편되었습니다. 여기에는 두 가지 새로운 추가 사항이 포함됩니다:
- CyberSOC Eval: CrowdStrike와 공동 개발한 이 프레임워크는 위협 탐지 및 대응에 초점을 맞춘 실제 보안 운영 센터 환경에서 AI의 효과를 평가합니다. 곧 제공될 예정입니다.
- AutoPatchBench: 이는 Llama 및 기타 AI 모델이 악용 전에 코드 취약점을 식별하고 패치하는 능력을 테스트합니다.
Meta의 Llama Defenders Program은 파트너와 개발자에게 오픈 소스 및 조기 액세스 도구를 결합한 맞춤형 AI 보안 솔루션을 제공하여 다양한 과제를 해결합니다.
Meta는 내부 자동 민감 문서 분류 도구를 공유하여 RAG 설정과 같은 AI 시스템에서 무단 유출이나 오용을 방지하기 위해 민감한 문서를 라벨링합니다.
AI 생성 오디오 사기를 방지하기 위해 Meta는 ZenDesk, Bell Canada, AT&T와 같은 파트너와 Llama Generated Audio Detector 및 Llama Audio Watermark Detector를 공유하여 피싱 또는 사기 시도에서 사기성 AI 음성을 식별합니다.
Meta는 또한 WhatsApp용 Private Processing을 미리 공개하여 메시지 내용에 접근하지 않고 AI가 메시지를 요약하거나 답변 초안을 작성할 수 있도록 하여 사용자 프라이버시를 우선시합니다.
Meta는 위협 모델을 공개적으로 공유하여 보안 연구자들이 출시 전에 아키텍처를 면밀히 조사하도록 장려하며, 견고한 프라이버시 조치에 대한 헌신을 보여줍니다.
Meta의 이 포괄적인 AI 보안 업데이트 세트는 AI 생태계를 강화하면서 기술 커뮤니티에 안전한 개발과 효과적인 방어를 위한 도구를 제공합니다.
참고: Microsoft, AI 기반 사기 시도에서 40억 달러 발견
암스테르담, 캘리포니아, 런던에서 열리는 AI & Big Data Expo에서 AI와 빅데이터에 대해 더 알아보세요. Intelligent Automation Conference, BlockX, Digital Transformation Week, Cyber Security & Cloud Expo와 같은 행사와 함께 개최됩니다.
TechForge의 다가오는 엔터프라이즈 기술 이벤트 및 웨비나를 여기에서 탐색하세요.












