Meta, 고급 Llama 도구로 AI 보안 강화
Meta는 AI 개발을 강화하고 새로운 위협으로부터 보호하기 위해 새로운 Llama 보안 도구를 출시했습니다.
이러한 업그레이드된 Llama AI 모델 보안 도구는 Meta의 새로운 리소스와 함께 제공되어 사이버 보안 팀이 AI를 방어에 활용할 수 있도록 지원하며, 모든 AI 이해관계자의 안전을 강화하는 것을 목표로 합니다.
Llama 모델을 사용하는 개발자는 이제 Meta의 Llama Protections 페이지, Hugging Face, GitHub에서 직접 제공되는 향상된 도구에 액세스할 수 있습니다.
Llama Guard 4는 텍스트와 이미지를 모두 포함하는 멀티모달 기능을 도입하여 점점 더 시각적인 AI 애플리케이션에 필수적인 안전성을 강화합니다. 이는 현재 제한된 미리보기로 제공되는 Meta의 새로운 Llama API에 통합되었습니다.
신규 추가된 LlamaFirewall은 AI 시스템의 보안 허브 역할을 하며, 안전 모델을 조정하고 프롬프트 인젝션 공격, 안전하지 않은 코드 생성, 악성 AI 플러그인 행동과 같은 위험을 방어하기 위해 Meta의 보호 도구와 통합됩니다.
Meta는 또한 Llama Prompt Guard를 개선했습니다. 업데이트된 Prompt Guard 2 (86M) 모델은 탈옥 시도와 프롬프트 인젝션을 탐지하는 데 탁월합니다. 또한 컴팩트한 Prompt Guard 2 22M은 최대 75%까지 지연 시간과 계산 비용을 줄여 비용을 고려하는 개발자를 위해 강력한 탐지 성능을 유지합니다.
개발자 외에도 Meta는 사이버 공격에 대응하기 위해 AI 기반 도구로 사이버 보안 전문가를 지원하며, 고급 방어에 대한 증가하는 수요에 대응합니다.
CyberSec Eval 4 벤치마크 스위트는 조직이 보안 작업에서 AI 성능을 평가할 수 있는 도구를 제공하도록 개편되었습니다. 여기에는 두 가지 새로운 추가 사항이 포함됩니다:
- CyberSOC Eval: CrowdStrike와 공동 개발한 이 프레임워크는 위협 탐지 및 대응에 초점을 맞춘 실제 보안 운영 센터 환경에서 AI의 효과를 평가합니다. 곧 제공될 예정입니다.
- AutoPatchBench: 이는 Llama 및 기타 AI 모델이 악용 전에 코드 취약점을 식별하고 패치하는 능력을 테스트합니다.
Meta의 Llama Defenders Program은 파트너와 개발자에게 오픈 소스 및 조기 액세스 도구를 결합한 맞춤형 AI 보안 솔루션을 제공하여 다양한 과제를 해결합니다.
Meta는 내부 자동 민감 문서 분류 도구를 공유하여 RAG 설정과 같은 AI 시스템에서 무단 유출이나 오용을 방지하기 위해 민감한 문서를 라벨링합니다.
AI 생성 오디오 사기를 방지하기 위해 Meta는 ZenDesk, Bell Canada, AT&T와 같은 파트너와 Llama Generated Audio Detector 및 Llama Audio Watermark Detector를 공유하여 피싱 또는 사기 시도에서 사기성 AI 음성을 식별합니다.
Meta는 또한 WhatsApp용 Private Processing을 미리 공개하여 메시지 내용에 접근하지 않고 AI가 메시지를 요약하거나 답변 초안을 작성할 수 있도록 하여 사용자 프라이버시를 우선시합니다.
Meta는 위협 모델을 공개적으로 공유하여 보안 연구자들이 출시 전에 아키텍처를 면밀히 조사하도록 장려하며, 견고한 프라이버시 조치에 대한 헌신을 보여줍니다.
Meta의 이 포괄적인 AI 보안 업데이트 세트는 AI 생태계를 강화하면서 기술 커뮤니티에 안전한 개발과 효과적인 방어를 위한 도구를 제공합니다.
참고: Microsoft, AI 기반 사기 시도에서 40억 달러 발견
암스테르담, 캘리포니아, 런던에서 열리는 AI & Big Data Expo에서 AI와 빅데이터에 대해 더 알아보세요. Intelligent Automation Conference, BlockX, Digital Transformation Week, Cyber Security & Cloud Expo와 같은 행사와 함께 개최됩니다.
TechForge의 다가오는 엔터프라이즈 기술 이벤트 및 웨비나를 여기에서 탐색하세요.
관련 기사
메타, AI 인재에게 높은 연봉 제공, 1억 달러 서명 보너스 부인
메타는 새로운 슈퍼인텔리전스 연구소에 AI 연구자들을 유치하기 위해 수백만 달러 규모의 보상 패키지를 제공하고 있다. 그러나 모집된 연구자와 유출된 내부 회의 발언에 따르면 1억 달러 "서명 보너스" 주장은 사실이 아니다.더 버지(The Verge)가 목요일 보도한 유출된 회사 전체 회의에서 메타 경영진은 오픈AI CEO 샘 알트먼이 메타가 최고 연구자들에
NotebookLM, 최고 출판사 및 전문가로부터 선별된 노트북 공개
구글은 AI 기반 연구 및 메모 도구인 NotebookLM을 강화하여 포괄적인 지식 허브로 제공합니다. 월요일, 회사는 저명한 저자, 출판사, 연구자, 비영리 단체로부터 선별된 노트북 컬렉션을 소개하며, 사용자가 건강, 여행, 금융 등 다양한 주제를 탐색할 수 있도록 했습니다.초기 세트는 The Economist, The Atlantic, 유명 교수, 저자
Meta, Facebook에서 독창적이지 않은 콘텐츠 억제 노력 강화
월요일, Meta는 Facebook에서 독창적이지 않은 콘텐츠를 게시하는 계정을 단속하기 위한 보다 엄격한 조치를 발표했으며, 타인의 텍스트, 이미지, 또는 비디오를 반복적으로 재사용하는 계정을 대상으로 했습니다. 회사는 올해 약 1천만 개의 프로필을 저명한 콘텐츠 크리에이터를 사칭한 혐의로 삭제했다고 보고했습니다.또한, Meta는 스팸 행위나 가짜 참여에
의견 (0)
0/200
Meta는 AI 개발을 강화하고 새로운 위협으로부터 보호하기 위해 새로운 Llama 보안 도구를 출시했습니다.
이러한 업그레이드된 Llama AI 모델 보안 도구는 Meta의 새로운 리소스와 함께 제공되어 사이버 보안 팀이 AI를 방어에 활용할 수 있도록 지원하며, 모든 AI 이해관계자의 안전을 강화하는 것을 목표로 합니다.
Llama 모델을 사용하는 개발자는 이제 Meta의 Llama Protections 페이지, Hugging Face, GitHub에서 직접 제공되는 향상된 도구에 액세스할 수 있습니다.
Llama Guard 4는 텍스트와 이미지를 모두 포함하는 멀티모달 기능을 도입하여 점점 더 시각적인 AI 애플리케이션에 필수적인 안전성을 강화합니다. 이는 현재 제한된 미리보기로 제공되는 Meta의 새로운 Llama API에 통합되었습니다.
신규 추가된 LlamaFirewall은 AI 시스템의 보안 허브 역할을 하며, 안전 모델을 조정하고 프롬프트 인젝션 공격, 안전하지 않은 코드 생성, 악성 AI 플러그인 행동과 같은 위험을 방어하기 위해 Meta의 보호 도구와 통합됩니다.
Meta는 또한 Llama Prompt Guard를 개선했습니다. 업데이트된 Prompt Guard 2 (86M) 모델은 탈옥 시도와 프롬프트 인젝션을 탐지하는 데 탁월합니다. 또한 컴팩트한 Prompt Guard 2 22M은 최대 75%까지 지연 시간과 계산 비용을 줄여 비용을 고려하는 개발자를 위해 강력한 탐지 성능을 유지합니다.
개발자 외에도 Meta는 사이버 공격에 대응하기 위해 AI 기반 도구로 사이버 보안 전문가를 지원하며, 고급 방어에 대한 증가하는 수요에 대응합니다.
CyberSec Eval 4 벤치마크 스위트는 조직이 보안 작업에서 AI 성능을 평가할 수 있는 도구를 제공하도록 개편되었습니다. 여기에는 두 가지 새로운 추가 사항이 포함됩니다:
- CyberSOC Eval: CrowdStrike와 공동 개발한 이 프레임워크는 위협 탐지 및 대응에 초점을 맞춘 실제 보안 운영 센터 환경에서 AI의 효과를 평가합니다. 곧 제공될 예정입니다.
- AutoPatchBench: 이는 Llama 및 기타 AI 모델이 악용 전에 코드 취약점을 식별하고 패치하는 능력을 테스트합니다.
Meta의 Llama Defenders Program은 파트너와 개발자에게 오픈 소스 및 조기 액세스 도구를 결합한 맞춤형 AI 보안 솔루션을 제공하여 다양한 과제를 해결합니다.
Meta는 내부 자동 민감 문서 분류 도구를 공유하여 RAG 설정과 같은 AI 시스템에서 무단 유출이나 오용을 방지하기 위해 민감한 문서를 라벨링합니다.
AI 생성 오디오 사기를 방지하기 위해 Meta는 ZenDesk, Bell Canada, AT&T와 같은 파트너와 Llama Generated Audio Detector 및 Llama Audio Watermark Detector를 공유하여 피싱 또는 사기 시도에서 사기성 AI 음성을 식별합니다.
Meta는 또한 WhatsApp용 Private Processing을 미리 공개하여 메시지 내용에 접근하지 않고 AI가 메시지를 요약하거나 답변 초안을 작성할 수 있도록 하여 사용자 프라이버시를 우선시합니다.
Meta는 위협 모델을 공개적으로 공유하여 보안 연구자들이 출시 전에 아키텍처를 면밀히 조사하도록 장려하며, 견고한 프라이버시 조치에 대한 헌신을 보여줍니다.
Meta의 이 포괄적인 AI 보안 업데이트 세트는 AI 생태계를 강화하면서 기술 커뮤니티에 안전한 개발과 효과적인 방어를 위한 도구를 제공합니다.
참고: Microsoft, AI 기반 사기 시도에서 40억 달러 발견
암스테르담, 캘리포니아, 런던에서 열리는 AI & Big Data Expo에서 AI와 빅데이터에 대해 더 알아보세요. Intelligent Automation Conference, BlockX, Digital Transformation Week, Cyber Security & Cloud Expo와 같은 행사와 함께 개최됩니다.
TechForge의 다가오는 엔터프라이즈 기술 이벤트 및 웨비나를 여기에서 탐색하세요.











