Neue KI -Gesetzesvorlage in Kalifornien von SB 1047 Autor eingeführt

Kalifornischer Staatssenator Scott Wiener, der letztes Jahr mit dem umstrittenen AI-Sicherheitsgesetz SB 1047 für Aufsehen sorgte, ist mit einem weiteren Gesetzesvorschlag zurück, der in Silicon Valley für Unruhe sorgen dürfte. Am Freitag stellte Wiener SB 53 vor, das darauf abzielt, Mitarbeiter großer AI-Labore vor Vergeltung zu schützen, falls sie Bedenken äußern, dass die AI-Systeme ihres Unternehmens ein „kritisches Risiko“ für die Gesellschaft darstellen. Darüber hinaus schlägt das Gesetz die Schaffung von CalCompute vor, einem öffentlichen Cloud-Computing-Cluster, der Forschern und Startups die Rechenleistung bereitstellen soll, die für die Entwicklung von AI zum Wohle der Öffentlichkeit benötigt wird.
Wieners vorheriges Gesetz, SB 1047, löste eine intensive nationale Debatte darüber aus, wie große AI-Systeme verwaltet werden sollen, die potenziell katastrophale Ereignisse wie erheblichen Verlust von Menschenleben oder Cyberangriffe mit Schäden von über 500 Millionen Dollar verursachen könnten. Trotz der Kontroverse legte Gouverneur Gavin Newsom im September sein Veto gegen das Gesetz ein, mit der Begründung, es sei nicht der richtige Ansatz.
Die Folgen von SB 1047 waren heftig. Größen aus Silicon Valley argumentierten, das Gesetz würde Amerikas Vorsprung im globalen AI-Wettlauf untergraben, angeheizt durch ihrer Meinung nach unbegründete Ängste vor AI-bedingten apokalyptischen Szenarien. Wiener konterte und warf einigen Risikokapitalgebern vor, eine „Propagandakampagne“ gegen sein Gesetz zu orchestrieren. Insbesondere die Behauptung von Y Combinator, dass SB 1047 Startup-Gründer ins Gefängnis bringen könnte, wurde von Experten als irreführend bezeichnet.
SB 53 scheint eine strategische Neuorientierung zu sein, die sich auf die weniger umstrittenen Elemente von SB 1047 konzentriert. Es legt Wert auf Whistleblower-Schutz und die Einrichtung von CalCompute. Wiener weicht jedoch nicht von existenziellen AI-Risiken zurück. SB 53 schützt klar Whistleblower, die glauben, dass ihre Arbeitgeber AI-Systeme entwickeln, die ein „kritisches Risiko“ darstellen könnten, definiert als ein vorhersehbares oder wesentliches Risiko, das zum Tod oder schweren Verletzungen von über 100 Personen oder zu Schäden von mehr als 1 Milliarde Dollar führen könnte.
Das Gesetz richtet sich an Entwickler von Frontier-AI-Modellen wie OpenAI, Anthropic und xAI und verbietet ihnen, sich an Mitarbeitern zu rächen, die Bedenken an den Generalstaatsanwalt Kaliforniens, föderale Behörden oder andere Mitarbeiter melden. Diese Entwickler müssen zudem Whistleblowern über interne Prozesse berichten, die als bedenklich markiert wurden.
Was CalCompute betrifft, würde SB 53 eine Gruppe einrichten, die Vertreter der University of California und andere Forscher umfasst, um dessen Entwicklung zu planen. Sie werden die Größe des Clusters und den Zugang dazu festlegen.
SB 53 befindet sich noch in den frühen Stadien des Gesetzgebungsprozesses und benötigt die Zustimmung der kalifornischen Gesetzgebungsorgane, bevor es auf den Schreibtisch von Gouverneur Newsom gelangt. Die Reaktion von Silicon Valley auf dieses neue Gesetz wird genau beobachtet.
Die Verabschiedung von AI-Sicherheitsgesetzen im Jahr 2025 könnte schwieriger sein als 2024, als Kalifornien 18 AI-bezogene Gesetze verabschiedete. Die AI-Sicherheitsbewegung scheint an Schwung zu verlieren, insbesondere nach den Kommentaren von Vizepräsident J.D. Vance auf dem Paris AI Action Summit, wo er AI-Innovation über Sicherheit stellte. Während CalCompute als Förderung des AI-Fortschritts gesehen werden könnte, bleibt die Zukunft gesetzgeberischer Bemühungen, die sich auf existenzielle AI-Risiken konzentrieren, ungewiss.
[ttpp][yyxx]
Verwandter Artikel
Google stoppt Pixel 10-Leaks durch frühzeitige offizielle Enthüllung des Smartphones
Google lockt seine Fans mit einem frühen Blick auf das kommende Pixel 10-Smartphone und zeigt das offizielle Design nur wenige Wochen vor dem geplanten Launch-Event am 20. August.Ein Werbevideo auf de
Googles Gemini-App mit Echtzeit-KI-Video, Deep Research und neuen Funktionen (120 Zeichen)
Google hat auf seiner Entwicklerkonferenz I/O 2025 wichtige Verbesserungen für Gemini AI vorgestellt. Dabei wurden die multimodalen Funktionen erweitert, KI-Modelle der nächsten Generation eingeführt
Assort Health sichert sich $50 Mio. Finanzierung zur Automatisierung der Patientenkommunikation
Assort Health, ein aufstrebendes KI-Startup im Gesundheitswesen, das sich auf automatisierte Patientenkommunikation für Facharztpraxen spezialisiert hat, hat sich eine Series-B-Finanzierung in Höhe vo
Kommentare (28)
0/200
AndrewGarcía
23. September 2025 04:30:31 MESZ
Mais uma lei de IA na Califórnia? Parece que os políticos adoram regular uma indústria que mal entendem 😅 Será que dessa vez vão acertar ou só criar mais confusão para as startups? #AImasNaoTanto
0
ThomasYoung
17. September 2025 18:30:51 MESZ
Mais uma lei de IA na Califórnia? 🙄 Parece que os políticos adoram regular tecnologia que nem entendem. Será que dessa vez vão consultar engenheiros antes de escrever as regras? Pelo menos a proteção contra retaliação faz sentido, mas duvido que vá funcionar na prática...
0
JerryLee
1. August 2025 04:48:18 MESZ
This new AI bill sounds like a game-changer! Protecting whistleblowers in AI labs is crucial—those folks need a voice without fear of getting canned. But I bet Silicon Valley's big shots are sweating bullets over this one. 😅 Curious to see how it plays out!
0
AlbertThomas
20. April 2025 21:20:43 MESZ
위너 상원의원의 새로운 AI 법안은 유망하게 들리지만, 꽤 많은 논쟁을 불러일으키고 있어요. AI 연구소 직원들을 보복으로부터 보호하는 것은 중요하지만, 일부는 이것이 혁신을 늦출까봐 걱정하고 있어요. 미묘한 균형이지만, 누군가가 이런 문제를 다루고 있다는 것이 기쁩니다. 어떻게 될지 지켜봐야겠네요! 🤔
0
RalphHill
19. April 2025 05:46:59 MESZ
O novo projeto de lei de IA do senador Wiener parece promissor, mas está causando bastante debate. Proteger os funcionários dos laboratórios de IA de represálias é importante, mas alguns temem que isso possa desacelerar a inovação. É um equilíbrio delicado, mas estou feliz que alguém esteja abordando esses problemas. Vamos ver como isso se desenrola! 🤔
0
ScottEvans
18. April 2025 17:48:44 MESZ
The new AI bill by Senator Wiener sounds promising, but it's stirring up quite the debate. Protecting AI lab employees from retaliation is important, but some worry it might slow down innovation. It's a tricky balance, but I'm glad someone's addressing these issues. Let's see how it plays out! 🤔
0
Kalifornischer Staatssenator Scott Wiener, der letztes Jahr mit dem umstrittenen AI-Sicherheitsgesetz SB 1047 für Aufsehen sorgte, ist mit einem weiteren Gesetzesvorschlag zurück, der in Silicon Valley für Unruhe sorgen dürfte. Am Freitag stellte Wiener SB 53 vor, das darauf abzielt, Mitarbeiter großer AI-Labore vor Vergeltung zu schützen, falls sie Bedenken äußern, dass die AI-Systeme ihres Unternehmens ein „kritisches Risiko“ für die Gesellschaft darstellen. Darüber hinaus schlägt das Gesetz die Schaffung von CalCompute vor, einem öffentlichen Cloud-Computing-Cluster, der Forschern und Startups die Rechenleistung bereitstellen soll, die für die Entwicklung von AI zum Wohle der Öffentlichkeit benötigt wird.
Wieners vorheriges Gesetz, SB 1047, löste eine intensive nationale Debatte darüber aus, wie große AI-Systeme verwaltet werden sollen, die potenziell katastrophale Ereignisse wie erheblichen Verlust von Menschenleben oder Cyberangriffe mit Schäden von über 500 Millionen Dollar verursachen könnten. Trotz der Kontroverse legte Gouverneur Gavin Newsom im September sein Veto gegen das Gesetz ein, mit der Begründung, es sei nicht der richtige Ansatz.
Die Folgen von SB 1047 waren heftig. Größen aus Silicon Valley argumentierten, das Gesetz würde Amerikas Vorsprung im globalen AI-Wettlauf untergraben, angeheizt durch ihrer Meinung nach unbegründete Ängste vor AI-bedingten apokalyptischen Szenarien. Wiener konterte und warf einigen Risikokapitalgebern vor, eine „Propagandakampagne“ gegen sein Gesetz zu orchestrieren. Insbesondere die Behauptung von Y Combinator, dass SB 1047 Startup-Gründer ins Gefängnis bringen könnte, wurde von Experten als irreführend bezeichnet.
SB 53 scheint eine strategische Neuorientierung zu sein, die sich auf die weniger umstrittenen Elemente von SB 1047 konzentriert. Es legt Wert auf Whistleblower-Schutz und die Einrichtung von CalCompute. Wiener weicht jedoch nicht von existenziellen AI-Risiken zurück. SB 53 schützt klar Whistleblower, die glauben, dass ihre Arbeitgeber AI-Systeme entwickeln, die ein „kritisches Risiko“ darstellen könnten, definiert als ein vorhersehbares oder wesentliches Risiko, das zum Tod oder schweren Verletzungen von über 100 Personen oder zu Schäden von mehr als 1 Milliarde Dollar führen könnte.
Das Gesetz richtet sich an Entwickler von Frontier-AI-Modellen wie OpenAI, Anthropic und xAI und verbietet ihnen, sich an Mitarbeitern zu rächen, die Bedenken an den Generalstaatsanwalt Kaliforniens, föderale Behörden oder andere Mitarbeiter melden. Diese Entwickler müssen zudem Whistleblowern über interne Prozesse berichten, die als bedenklich markiert wurden.
Was CalCompute betrifft, würde SB 53 eine Gruppe einrichten, die Vertreter der University of California und andere Forscher umfasst, um dessen Entwicklung zu planen. Sie werden die Größe des Clusters und den Zugang dazu festlegen.
SB 53 befindet sich noch in den frühen Stadien des Gesetzgebungsprozesses und benötigt die Zustimmung der kalifornischen Gesetzgebungsorgane, bevor es auf den Schreibtisch von Gouverneur Newsom gelangt. Die Reaktion von Silicon Valley auf dieses neue Gesetz wird genau beobachtet.
Die Verabschiedung von AI-Sicherheitsgesetzen im Jahr 2025 könnte schwieriger sein als 2024, als Kalifornien 18 AI-bezogene Gesetze verabschiedete. Die AI-Sicherheitsbewegung scheint an Schwung zu verlieren, insbesondere nach den Kommentaren von Vizepräsident J.D. Vance auf dem Paris AI Action Summit, wo er AI-Innovation über Sicherheit stellte. Während CalCompute als Förderung des AI-Fortschritts gesehen werden könnte, bleibt die Zukunft gesetzgeberischer Bemühungen, die sich auf existenzielle AI-Risiken konzentrieren, ungewiss.
[ttpp][yyxx]



Mais uma lei de IA na Califórnia? Parece que os políticos adoram regular uma indústria que mal entendem 😅 Será que dessa vez vão acertar ou só criar mais confusão para as startups? #AImasNaoTanto




Mais uma lei de IA na Califórnia? 🙄 Parece que os políticos adoram regular tecnologia que nem entendem. Será que dessa vez vão consultar engenheiros antes de escrever as regras? Pelo menos a proteção contra retaliação faz sentido, mas duvido que vá funcionar na prática...




This new AI bill sounds like a game-changer! Protecting whistleblowers in AI labs is crucial—those folks need a voice without fear of getting canned. But I bet Silicon Valley's big shots are sweating bullets over this one. 😅 Curious to see how it plays out!




위너 상원의원의 새로운 AI 법안은 유망하게 들리지만, 꽤 많은 논쟁을 불러일으키고 있어요. AI 연구소 직원들을 보복으로부터 보호하는 것은 중요하지만, 일부는 이것이 혁신을 늦출까봐 걱정하고 있어요. 미묘한 균형이지만, 누군가가 이런 문제를 다루고 있다는 것이 기쁩니다. 어떻게 될지 지켜봐야겠네요! 🤔




O novo projeto de lei de IA do senador Wiener parece promissor, mas está causando bastante debate. Proteger os funcionários dos laboratórios de IA de represálias é importante, mas alguns temem que isso possa desacelerar a inovação. É um equilíbrio delicado, mas estou feliz que alguém esteja abordando esses problemas. Vamos ver como isso se desenrola! 🤔




The new AI bill by Senator Wiener sounds promising, but it's stirring up quite the debate. Protecting AI lab employees from retaliation is important, but some worry it might slow down innovation. It's a tricky balance, but I'm glad someone's addressing these issues. Let's see how it plays out! 🤔












