Option
Heim
Nachricht
Cosai gestartet: Gründungsmitglieder vereinen sich für Secure AI

Cosai gestartet: Gründungsmitglieder vereinen sich für Secure AI

10. April 2025
124

Cosai gestartet: Gründungsmitglieder vereinen sich für Secure AI

Das schnelle Wachstum von AI erfordert einen robusten Sicherheitsrahmen und Standards, die Schritt halten können. Aus diesem Grund haben wir letztes Jahr den Secure AI Framework (SAIF) eingeführt, in dem Wissen, dass dies nur der Anfang war. Damit ein Branchenrahmen funktioniert, braucht es Teamarbeit und einen Ort zur Zusammenarbeit. Genau hier stehen wir heute.

Beim Aspen Security Forum freuen wir uns, die Gründung der Coalition for Secure AI (CoSAI) zusammen mit unseren Branchenfreunden bekannt zu geben. Wir haben im vergangenen Jahr hart daran gearbeitet, diese Koalition zusammenzubringen, mit dem Ziel, die einzigartigen Sicherheitsherausforderungen zu bewältigen, die AI jetzt und in der Zukunft mit sich bringt.

Die Gründungsmitglieder von CoSAI umfassen große Namen wie Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal und Wiz. Wir richten uns unter OASIS Open ein, der internationalen Standards- und Open-Source-Gruppe.

Vorstellung der ersten Arbeitsströme von CoSAI

Während alle, von einzelnen Entwicklern bis hin zu großen Unternehmen, daran arbeiten, gemeinsame Sicherheitsstandards und bewährte Praktiken einzuführen, wird CoSAI diesen kollektiven Einsatz für AI-Sicherheit unterstützen. Heute starten wir mit den ersten drei Bereichen, auf die sich die Koalition konzentrieren wird, in enger Zusammenarbeit mit Industrie und Wissenschaft:

  1. Sicherheit der Software-Lieferkette für AI-Systeme: Google hat daran gearbeitet, SLSA Provenance auf AI-Modelle auszuweiten, um herauszufinden, ob AI-Software sicher ist, indem ihre Entstehung und Handhabung durch die Lieferkette nachverfolgt wird. Dieser Arbeitsstrom zielt darauf ab, die AI-Sicherheit zu stärken, indem er Leitlinien zur Überprüfung der Herkunft, zum Management von Risiken durch Drittanbieter-Modelle und zur Bewertung der vollständigen Herkunft von AI-Anwendungen bietet, aufbauend auf den bestehenden SSDF- und SLSA-Sicherheitsprinzipien für AI und traditionelle Software.
  2. Vorbereitung der Verteidiger auf eine sich verändernde Cybersicherheitslandschaft: Der tägliche Umgang mit AI-Governance kann für Sicherheitsverantwortliche eine echte Herausforderung sein. Dieser Arbeitsstrom wird einen Verteidigerrahmen schaffen, der ihnen hilft, zu erkennen, wo sie investieren und welche Abwehrtechniken sie anwenden sollen, um die Sicherheitsauswirkungen von AI zu bewältigen. Der Rahmen wird mit dem Aufkommen von offensiven Cybersicherheitsfortschritten in AI-Modellen wachsen.
  3. AI-Sicherheitsgovernance: Die Governance der AI-Sicherheit erfordert neue Ressourcen und ein Verständnis dafür, was die AI-Sicherheit einzigartig macht. CoSAI wird eine Liste von Risiken und Kontrollen, eine Checkliste und eine Bewertungskarte entwickeln, um Praktikern zu helfen, ihre Bereitschaft zu bewerten, die Sicherheit ihrer AI-Produkte zu managen, zu überwachen und zu berichten.

Darüber hinaus wird CoSAI mit Gruppen wie dem Frontier Model Forum, Partnership on AI, der Open Source Security Foundation und ML Commons zusammenarbeiten, um verantwortungsvolle AI voranzutreiben.

Was kommt als Nächstes

Während AI weiter voranschreitet, setzen wir alles daran, sicherzustellen, dass unsere Risikomanagementstrategien Schritt halten. Im vergangenen Jahr haben wir große Unterstützung aus der Branche gesehen, um AI sicher zu machen. Noch besser ist, dass wir echte Maßnahmen von Entwicklern, Experten und Unternehmen aller Größen sehen, um Organisationen zu helfen, AI sicher zu nutzen.

AI-Entwickler brauchen – und Endnutzer verdienen – einen Sicherheitsrahmen, der der Herausforderung gewachsen ist und die vorhandenen Möglichkeiten verantwortungsvoll nutzt. CoSAI ist der nächste große Schritt auf dieser Reise, und wir werden bald weitere Updates haben. Um herauszufinden, wie Sie CoSAI unterstützen können, besuchen Sie coalitionforsecureai.org. Besuchen Sie in der Zwischenzeit unsere Secure AI Framework-Seite, um mehr über Googles Arbeit an der AI-Sicherheit zu erfahren.

Verwandter Artikel
"Dot AI Companion App kündigt Schließung an, stellt personalisierten Service ein" Dot, eine KI-Begleitanwendung, die als persönlicher Freund und Vertrauter fungieren soll, wird laut einer Ankündigung seiner Entwickler vom Freitag seinen Betrieb einstellen. New Computer, das Startup
Anthropic löst Rechtsstreit über AI-generierte Buchpiraterie Anthropic löst Rechtsstreit über AI-generierte Buchpiraterie Anthropic hat einen bedeutenden Urheberrechtsstreit mit US-Autoren beigelegt. Das Unternehmen hat einer vorgeschlagenen Sammelklage zugestimmt, mit der ein potenziell kostspieliger Prozess vermieden w
Figma veröffentlicht AI-gestütztes App Builder Tool für alle Benutzer Figma veröffentlicht AI-gestütztes App Builder Tool für alle Benutzer Figma Make, die innovative Prompt-to-App-Entwicklungsplattform, die Anfang des Jahres vorgestellt wurde, hat offiziell die Beta-Phase verlassen und ist für alle Nutzer verfügbar. Dieses bahnbrechende
Kommentare (33)
0/200
JonathanRamirez
JonathanRamirez 27. August 2025 09:01:30 MESZ

Wow, CoSAI sounds like a game-changer for AI security! It's cool to see big players teaming up for SAIF. Curious how this'll shape AI ethics debates. 🤔

BillyAdams
BillyAdams 14. August 2025 03:00:59 MESZ

This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!

RobertMartinez
RobertMartinez 23. Juli 2025 06:59:47 MESZ

Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️

GaryWilson
GaryWilson 24. April 2025 12:18:04 MESZ

CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔

AnthonyJohnson
AnthonyJohnson 24. April 2025 08:42:02 MESZ

El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔

FredLewis
FredLewis 23. April 2025 18:23:37 MESZ

CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔

Zurück nach oben
OR