Option
Heim
Nachricht
US -Wissenschaftler, die von Open AI und Anthropic eingeladen wurden, um mit Frontier -Modellen zu experimentieren

US -Wissenschaftler, die von Open AI und Anthropic eingeladen wurden, um mit Frontier -Modellen zu experimentieren

18. April 2025
166

US -Wissenschaftler, die von Open AI und Anthropic eingeladen wurden, um mit Frontier -Modellen zu experimentieren

Erweiterung der KI-Partnerschaften zwischen Technologieriesen und der US-Regierung

Die Landschaft der KI-Entwicklung verändert sich rasant, wobei große KI-Unternehmen wie Anthropic und OpenAI ihre Beziehungen zur US-Regierung vertiefen. Angesichts anhaltender Unsicherheiten bezüglich KI-Sicherheit und -Regulierung intensivieren sich diese Kooperationen und rücken die zunehmende Abhängigkeit der Regierung von hochmoderner KI-Technologie für wissenschaftliche Fortschritte ins Rampenlicht.

Am vergangenen Freitag brachte ein einzigartiges Ereignis namens AI Jam Session, veranstaltet von OpenAI, 1.000 Wissenschaftler aus neun verschiedenen Laboren zusammen. Diese Veranstaltung war eine Plattform für Forscher, um die Fähigkeiten mehrerer fortschrittlicher KI-Modelle zu testen und zu erkunden, darunter OpenAI's o3-mini und Anthropic's neuestes Modell, Claude 3.7 Sonnet. Die Sitzung drehte sich nicht nur um die Präsentation von Technologie; sie bot Wissenschaftlern die Möglichkeit, KI zu nutzen, um die Grenzen ihrer Forschung zu erweitern.

Anthropic betonte, dass die Veranstaltung ein entscheidender Schritt zur Bewertung der Rolle von KI in der wissenschaftlichen Forschung sei und eine „authentischere Einschätzung des Potenzials von KI zur Bewältigung der Komplexitäten und Nuancen wissenschaftlicher Untersuchungen“ biete. Der Fokus lag darauf, wie KI komplexe wissenschaftliche Herausforderungen angehen kann, die traditionell umfangreiche Zeit und Ressourcen erfordern.

Vertiefung der Beziehungen zu Regierungsbehörden

Die AI Jam Session ist Teil umfassender Vereinbarungen zwischen diesen KI-Riesen und US-Regierungsstellen. Beispielsweise schloss Anthropic im April eine Partnerschaft mit dem Energieministerium (DOE) und der Nationalen Behörde für Nuklearsicherheit (NNSA), um Claude 3 Sonnet auf potenzielle Risiken im Zusammenhang mit nuklearen Informationen gründlich zu testen. Ähnlich kündigte OpenAI am 30. Januar eine Zusammenarbeit mit den DOE National Laboratories an, um die wissenschaftliche Forschung mit ihren neuesten KI-Modellen zu verbessern.

Die DOE National Laboratories, ein Netzwerk von 17 Forschungseinrichtungen in den USA, spielen eine zentrale Rolle bei der Erforschung kritischer Bereiche wie nukleare Sicherheit und Klimaschutzlösungen. Die Wissenschaftler, die an diesen Sitzungen teilnahmen, wurden ermutigt, Feedback zu geben, das zukünftige KI-Systeme formen könnte, um wissenschaftliche Bedürfnisse besser zu erfüllen. OpenAI betonte, dass die Erkenntnisse aus der Sitzung geteilt werden, um Wissenschaftlern zu helfen, KI effektiver zu nutzen.

Weitreichende Implikationen und Regierungsinitiativen

Die Partnerschaft von OpenAI mit den National Labs erstreckt sich auf verschiedene Bereiche, von der Beschleunigung der Behandlung und Prävention von Krankheiten über die Verbesserung der Cyber- und Nuklearsicherheit bis hin zur Erforschung erneuerbarer Energien und der Förderung der Physikforschung. Neben diesen Bemühungen unterstreichen Initiativen wie ChatGPT Gov, ein spezialisierter Chatbot für Regierungsbehörden, und Project Stargate, ein massives Investitionsprogramm für Rechenzentren, die wachsende Integration von KI in Regierungsabläufe.

Diese Kooperationen deuten auf eine Veränderung in der US-KI-Strategie hin, insbesondere unter der Trump-Administration, die sich von strengen Sicherheits- und Regulierungsmaßnahmen wegzubewegen scheint. Kürzliche Personalabbauten beim AI Safety Institute und der Rücktritt seines Leiters deuten auf eine geringere Priorisierung der Sicherheitsaufsicht hin. Der AI Action Plan der Administration wurde noch nicht bekannt gegeben, was die Zukunft der KI-Regulierung ungewiss lässt.

Da diese Partnerschaften immer häufiger werden, besteht die Gefahr, dass die Sicherheits- und Leistungsaufsicht neuer KI-Modelle noch weiter zurückgeht. Angesichts des beschleunigten Tempos der KI-Einführung und einer noch in den Anfängen steckenden Regulierung in den USA wird das Gleichgewicht zwischen Innovation und Sicherheit immer heikler.

Verwandter Artikel
Manus stellt 'Wide Research' AI-Tool mit über 100 Agenten für Web Scraping vor Manus stellt 'Wide Research' AI-Tool mit über 100 Agenten für Web Scraping vor Der chinesische KI-Innovator Manus, der zuvor durch seine bahnbrechende Multi-Agenten-Orchestrierungsplattform für Verbraucher und professionelle Nutzer auf sich aufmerksam gemacht hat, hat eine bahnb
Warum LLMs Anweisungen ignorieren und wie man das wirksam beheben kann Warum LLMs Anweisungen ignorieren und wie man das wirksam beheben kann Verstehen, warum große Sprachmodelle Anweisungen überspringenGroße Sprachmodelle (Large Language Models, LLMs) haben die Art und Weise, wie wir mit künstlicher Intelligenz interagieren, verändert und
Pebble erhält nach Rechtsstreit seinen ursprünglichen Markennamen zurück Pebble erhält nach Rechtsstreit seinen ursprünglichen Markennamen zurück Die Rückkehr von Pebble: Name und allesPebble-Fans können sich freuen - die beliebte Smartwatch-Marke feiert nicht nur ein Comeback, sondern erhält auch ihren ikonischen Namen zurück. "Wir haben die P
Kommentare (17)
0/200
KevinWalker
KevinWalker 1. August 2025 08:20:48 MESZ

Super cool to see OpenAI and Anthropic teaming up with scientists! 😎 Wonder how this’ll shape AI safety rules down the line.

SamuelWilson
SamuelWilson 28. Juli 2025 03:19:30 MESZ

Super cool to see OpenAI and Anthropic teaming up with scientists! 😎 Wonder how this’ll shape AI safety talks—hope they’re not just handing over the keys to the kingdom!

WilliamMiller
WilliamMiller 24. April 2025 17:50:53 MESZ

Nossa, essa colaboração entre cientistas dos EUA e gigantes da IA como Open AI e Anthropic é incrível! Parece que estamos assistindo ao futuro se desenrolar bem na nossa frente. Mal posso esperar para ver o que eles vão inventar! 🚀

DouglasHarris
DouglasHarris 22. April 2025 18:03:26 MESZ

वाह, यूएस के वैज्ञानिकों और ओपन एआई और एंथ्रोपिक जैसी एआई की दिग्गज कंपनियों के बीच यह सहयोग मनमोहक है! ऐसा लगता है जैसे हम भविष्य को अपनी आँखों के सामने खुलते देख रहे हैं। इनके क्या नवीन चीजें निकालेंगे, यह देखने के लिए बेताब हूँ! 🚀

WillMitchell
WillMitchell 21. April 2025 12:18:41 MESZ

¡Vaya, esta colaboración entre científicos de EE. UU. y gigantes de la IA como Open AI y Anthropic es alucinante! Es como ver el futuro desarrollarse ante nuestros ojos. ¡No puedo esperar para ver qué cosas innovadoras sacan! 🚀

RichardJackson
RichardJackson 19. April 2025 14:42:17 MESZ

米国の科学者とOpenAIやAnthropicのようなAI巨人とのコラボレーションは本当にワクワクします!未来が目の前で展開しているようです。何か革新的なものが生まれるのを楽しみにしています。ただ、安全性にも気を配ってほしいですね、ね?🤞

Zurück nach oben
OR