Option
Heim
Nachricht
Cosai gestartet: Gründungsmitglieder vereinen sich für Secure AI

Cosai gestartet: Gründungsmitglieder vereinen sich für Secure AI

10. April 2025
112

Cosai gestartet: Gründungsmitglieder vereinen sich für Secure AI

Das schnelle Wachstum von AI erfordert einen robusten Sicherheitsrahmen und Standards, die Schritt halten können. Aus diesem Grund haben wir letztes Jahr den Secure AI Framework (SAIF) eingeführt, in dem Wissen, dass dies nur der Anfang war. Damit ein Branchenrahmen funktioniert, braucht es Teamarbeit und einen Ort zur Zusammenarbeit. Genau hier stehen wir heute.

Beim Aspen Security Forum freuen wir uns, die Gründung der Coalition for Secure AI (CoSAI) zusammen mit unseren Branchenfreunden bekannt zu geben. Wir haben im vergangenen Jahr hart daran gearbeitet, diese Koalition zusammenzubringen, mit dem Ziel, die einzigartigen Sicherheitsherausforderungen zu bewältigen, die AI jetzt und in der Zukunft mit sich bringt.

Die Gründungsmitglieder von CoSAI umfassen große Namen wie Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal und Wiz. Wir richten uns unter OASIS Open ein, der internationalen Standards- und Open-Source-Gruppe.

Vorstellung der ersten Arbeitsströme von CoSAI

Während alle, von einzelnen Entwicklern bis hin zu großen Unternehmen, daran arbeiten, gemeinsame Sicherheitsstandards und bewährte Praktiken einzuführen, wird CoSAI diesen kollektiven Einsatz für AI-Sicherheit unterstützen. Heute starten wir mit den ersten drei Bereichen, auf die sich die Koalition konzentrieren wird, in enger Zusammenarbeit mit Industrie und Wissenschaft:

  1. Sicherheit der Software-Lieferkette für AI-Systeme: Google hat daran gearbeitet, SLSA Provenance auf AI-Modelle auszuweiten, um herauszufinden, ob AI-Software sicher ist, indem ihre Entstehung und Handhabung durch die Lieferkette nachverfolgt wird. Dieser Arbeitsstrom zielt darauf ab, die AI-Sicherheit zu stärken, indem er Leitlinien zur Überprüfung der Herkunft, zum Management von Risiken durch Drittanbieter-Modelle und zur Bewertung der vollständigen Herkunft von AI-Anwendungen bietet, aufbauend auf den bestehenden SSDF- und SLSA-Sicherheitsprinzipien für AI und traditionelle Software.
  2. Vorbereitung der Verteidiger auf eine sich verändernde Cybersicherheitslandschaft: Der tägliche Umgang mit AI-Governance kann für Sicherheitsverantwortliche eine echte Herausforderung sein. Dieser Arbeitsstrom wird einen Verteidigerrahmen schaffen, der ihnen hilft, zu erkennen, wo sie investieren und welche Abwehrtechniken sie anwenden sollen, um die Sicherheitsauswirkungen von AI zu bewältigen. Der Rahmen wird mit dem Aufkommen von offensiven Cybersicherheitsfortschritten in AI-Modellen wachsen.
  3. AI-Sicherheitsgovernance: Die Governance der AI-Sicherheit erfordert neue Ressourcen und ein Verständnis dafür, was die AI-Sicherheit einzigartig macht. CoSAI wird eine Liste von Risiken und Kontrollen, eine Checkliste und eine Bewertungskarte entwickeln, um Praktikern zu helfen, ihre Bereitschaft zu bewerten, die Sicherheit ihrer AI-Produkte zu managen, zu überwachen und zu berichten.

Darüber hinaus wird CoSAI mit Gruppen wie dem Frontier Model Forum, Partnership on AI, der Open Source Security Foundation und ML Commons zusammenarbeiten, um verantwortungsvolle AI voranzutreiben.

Was kommt als Nächstes

Während AI weiter voranschreitet, setzen wir alles daran, sicherzustellen, dass unsere Risikomanagementstrategien Schritt halten. Im vergangenen Jahr haben wir große Unterstützung aus der Branche gesehen, um AI sicher zu machen. Noch besser ist, dass wir echte Maßnahmen von Entwicklern, Experten und Unternehmen aller Größen sehen, um Organisationen zu helfen, AI sicher zu nutzen.

AI-Entwickler brauchen – und Endnutzer verdienen – einen Sicherheitsrahmen, der der Herausforderung gewachsen ist und die vorhandenen Möglichkeiten verantwortungsvoll nutzt. CoSAI ist der nächste große Schritt auf dieser Reise, und wir werden bald weitere Updates haben. Um herauszufinden, wie Sie CoSAI unterstützen können, besuchen Sie coalitionforsecureai.org. Besuchen Sie in der Zwischenzeit unsere Secure AI Framework-Seite, um mehr über Googles Arbeit an der AI-Sicherheit zu erfahren.

Verwandter Artikel
Salesforce stellt KI-Digitale Teamkollegen in Slack vor, um mit Microsoft Copilot zu konkurrieren Salesforce stellt KI-Digitale Teamkollegen in Slack vor, um mit Microsoft Copilot zu konkurrieren Salesforce hat eine neue KI-Strategie für den Arbeitsplatz gestartet und spezialisierte „digitale Teamkollegen“ in Slack-Konversationen integriert, wie das Unternehmen am Montag bekannt gab.Das neue T
Oracles 40-Mrd.-Nvidia-Chip-Investition stärkt Texas AI-Rechenzentrum Oracles 40-Mrd.-Nvidia-Chip-Investition stärkt Texas AI-Rechenzentrum Oracle plant, etwa 40 Milliarden Dollar in Nvidia-Chips zu investieren, um ein großes neues Rechenzentrum in Texas zu betreiben, das von OpenAI entwickelt wird, wie die Financial Times berichtet. Dies
Meta AI App führt Premium-Stufe und Werbung ein Meta AI App führt Premium-Stufe und Werbung ein Die AI-App von Meta könnte bald ein kostenpflichtiges Abonnement einführen, ähnlich den Angeboten von Konkurrenten wie OpenAI, Google und Microsoft. Während eines Q1 2025 Earnings Calls skizzierte Met
Kommentare (32)
0/200
BillyAdams
BillyAdams 14. August 2025 03:00:59 MESZ

This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!

RobertMartinez
RobertMartinez 23. Juli 2025 06:59:47 MESZ

Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️

GaryWilson
GaryWilson 24. April 2025 12:18:04 MESZ

CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔

AnthonyJohnson
AnthonyJohnson 24. April 2025 08:42:02 MESZ

El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔

FredLewis
FredLewis 23. April 2025 18:23:37 MESZ

CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔

AlbertThomas
AlbertThomas 16. April 2025 20:24:08 MESZ

CoSAI의 안전한 AI에 대한 초점은 정말 중요하지만, 작은 팀이 구현하기에는 조금 복잡한 것 같아요. 그래도 커뮤니티가 함께 노력하는 모습이 멋져요! 조금 더 간단하게 할 수 있다면 좋겠네요 🤔

Zurück nach oben
OR