Los científicos de EE. UU. Invitados por la IA abierta y el antrópico para experimentar con modelos fronterizos

Expandir las asociaciones de IA entre los gigantes tecnológicos y el gobierno de los Estados Unidos
El panorama del desarrollo de la IA está evolucionando rápidamente, con las principales compañías de IA como Anthrope y OpenAi profundizando sus lazos con el gobierno de los Estados Unidos. En medio de incertidumbres continuas sobre la seguridad y la regulación de la IA, estas colaboraciones se están intensificando, destacando la creciente dependencia del gobierno de la tecnología de IA de vanguardia para el avance científico.
En un viernes reciente, un evento único llamado AI Jam Session, organizado por OpenAI, reunió a 1,000 científicos de nueve laboratorios diferentes. Este evento fue una plataforma para que los investigadores prueben y exploren las capacidades de varios modelos AI avanzados, incluidos O3-Mini de OpenAI y el último soneto de Claude 3.7 de Anthrope de OpenAI. La sesión no se trataba solo de mostrar tecnología; Fue una oportunidad para que los científicos aprovechen la IA para empujar los límites de su investigación.
Anthrope destacó el evento como un paso crucial para evaluar el papel de IA en la investigación científica, afirmando que proporciona una "evaluación más auténtica del potencial de la IA para gestionar las complejidades y matices de la investigación científica". El enfoque se centró en cómo la IA puede abordar desafíos científicos complejos que tradicionalmente exigen un tiempo y recursos extensos.
Profundizar los lazos con las agencias gubernamentales
La sesión de AI JAM es un componente de acuerdos más amplios entre estos gigantes de IA y las entidades gubernamentales de los Estados Unidos. Por ejemplo, en abril, Anthrope se asoció con el Departamento de Energía (DOE) y la Administración Nacional de Seguridad Nuclear (NNSA) para probar rigurosamente el soneto de Claude 3 para obtener riesgos potenciales relacionados con la información nuclear. Del mismo modo, el 30 de enero, Openai anunció una colaboración con DOE National Laboratories para mejorar la investigación científica utilizando sus últimos modelos de IA.
Los Laboratorios Nacionales del DOE, una red de 17 instalaciones de investigación en los Estados Unidos, son fundamentales en la exploración de áreas críticas como la seguridad nuclear y las soluciones climáticas. Se alentó a los científicos involucrados en estas sesiones a proporcionar comentarios que pudieran dar forma a los futuros sistemas de IA para satisfacer mejor las necesidades científicas. Operai enfatizó que las ideas de la sesión se compartirían para ayudar a los científicos a utilizar de manera más efectiva la IA.
Implicaciones más amplias e iniciativas gubernamentales
La asociación de OpenAI con los Laboratorios Nacionales se extiende a varios campos, desde acelerar el tratamiento y la prevención de la enfermedad hasta mejorar la seguridad cibernética y nuclear, explorar energías renovables y avanzar en la investigación física. Junto con estos esfuerzos, iniciativas como ChatGPT Gov, un chatbot especializado para las agencias gubernamentales, y Project Stargate, un plan de inversión de centros de datos masivos, subrayan la creciente integración de la IA en las operaciones gubernamentales.
Estas colaboraciones insinúan un cambio en la estrategia de IA de los Estados Unidos, particularmente bajo la administración Trump, que parece estar alejándose de la estricta seguridad y regulación. El personal reciente recorta en el Instituto de Seguridad de AI y la renuncia de su cabeza sugiere una depilación de supervisión de seguridad. El plan de acción de IA de la administración sigue sin previo aviso, dejando que el futuro de la regulación de la IA sea incierto.
A medida que estas asociaciones se vuelven más frecuentes, existe el riesgo de una menor supervisión sobre la seguridad y el poder de los nuevos modelos de IA. Con el ritmo de despliegue de IA acelerando y regulación aún en su infancia en los EE. UU., El equilibrio entre innovación y seguridad se vuelve cada vez más delicada.
Artículo relacionado
IA en Asesorías Médicas: Transformando la Salud
La inteligencia artificial está remodelando rápidamente el panorama de la salud, y no es difícil entender por qué. El ritmo del avance tecnológico ha abierto puertas a posibilidades antes impensables.
Aulani, Disney's Resort & Spa: Tu Escapada Familiar Definitiva en Hawái
Descubriendo Aulani: Un Paraíso Hawaiano con un Toque de Disney¿Sueñas con unas vacaciones familiares que combinen la magia de Disney con la impresionante belleza de Hawái? No busques más, Aulani, un
Airbnb está implementando silenciosamente un bot de atención al cliente con IA en EE.UU.
Airbnb lleva la atención al cliente impulsada por IA a nuevas alturasEl mes pasado, durante la llamada de resultados del primer trimestre de Airbnb, el CEO Brian Chesky anunció que la empresa había co
comentario (15)
0/200
KevinPerez
19 de abril de 2025 00:00:00 GMT
Wow, this collaboration between US scientists and AI giants like Open AI and Anthropic is mind-blowing! It's like watching the future unfold right before our eyes. Can't wait to see what groundbreaking stuff they come up with! 🚀
0
RalphMitchell
18 de abril de 2025 00:00:00 GMT
アメリカの科学者がOpen AIやAnthropicと協力するなんて、未来が目の前に広がっているようですね!何か革新的な成果が出るのが楽しみです!🚀
0
WilliamMiller
24 de abril de 2025 00:00:00 GMT
Nossa, essa colaboração entre cientistas dos EUA e gigantes da IA como Open AI e Anthropic é incrível! Parece que estamos assistindo ao futuro se desenrolar bem na nossa frente. Mal posso esperar para ver o que eles vão inventar! 🚀
0
WillMitchell
21 de abril de 2025 00:00:00 GMT
¡Vaya, esta colaboración entre científicos de EE. UU. y gigantes de la IA como Open AI y Anthropic es alucinante! Es como ver el futuro desarrollarse ante nuestros ojos. ¡No puedo esperar para ver qué cosas innovadoras sacan! 🚀
0
DouglasHarris
23 de abril de 2025 00:00:00 GMT
वाह, यूएस के वैज्ञानिकों और ओपन एआई और एंथ्रोपिक जैसी एआई की दिग्गज कंपनियों के बीच यह सहयोग मनमोहक है! ऐसा लगता है जैसे हम भविष्य को अपनी आँखों के सामने खुलते देख रहे हैं। इनके क्या नवीन चीजें निकालेंगे, यह देखने के लिए बेताब हूँ! 🚀
0
NicholasCarter
18 de abril de 2025 00:00:00 GMT
This collaboration between US scientists and AI giants like OpenAI and Anthropic is super exciting! It's like watching the future unfold right before our eyes. Can't wait to see what groundbreaking stuff comes out of this. Just hope they keep safety in mind, you know? 🤞
0
Expandir las asociaciones de IA entre los gigantes tecnológicos y el gobierno de los Estados Unidos
El panorama del desarrollo de la IA está evolucionando rápidamente, con las principales compañías de IA como Anthrope y OpenAi profundizando sus lazos con el gobierno de los Estados Unidos. En medio de incertidumbres continuas sobre la seguridad y la regulación de la IA, estas colaboraciones se están intensificando, destacando la creciente dependencia del gobierno de la tecnología de IA de vanguardia para el avance científico.
En un viernes reciente, un evento único llamado AI Jam Session, organizado por OpenAI, reunió a 1,000 científicos de nueve laboratorios diferentes. Este evento fue una plataforma para que los investigadores prueben y exploren las capacidades de varios modelos AI avanzados, incluidos O3-Mini de OpenAI y el último soneto de Claude 3.7 de Anthrope de OpenAI. La sesión no se trataba solo de mostrar tecnología; Fue una oportunidad para que los científicos aprovechen la IA para empujar los límites de su investigación.
Anthrope destacó el evento como un paso crucial para evaluar el papel de IA en la investigación científica, afirmando que proporciona una "evaluación más auténtica del potencial de la IA para gestionar las complejidades y matices de la investigación científica". El enfoque se centró en cómo la IA puede abordar desafíos científicos complejos que tradicionalmente exigen un tiempo y recursos extensos.
Profundizar los lazos con las agencias gubernamentales
La sesión de AI JAM es un componente de acuerdos más amplios entre estos gigantes de IA y las entidades gubernamentales de los Estados Unidos. Por ejemplo, en abril, Anthrope se asoció con el Departamento de Energía (DOE) y la Administración Nacional de Seguridad Nuclear (NNSA) para probar rigurosamente el soneto de Claude 3 para obtener riesgos potenciales relacionados con la información nuclear. Del mismo modo, el 30 de enero, Openai anunció una colaboración con DOE National Laboratories para mejorar la investigación científica utilizando sus últimos modelos de IA.
Los Laboratorios Nacionales del DOE, una red de 17 instalaciones de investigación en los Estados Unidos, son fundamentales en la exploración de áreas críticas como la seguridad nuclear y las soluciones climáticas. Se alentó a los científicos involucrados en estas sesiones a proporcionar comentarios que pudieran dar forma a los futuros sistemas de IA para satisfacer mejor las necesidades científicas. Operai enfatizó que las ideas de la sesión se compartirían para ayudar a los científicos a utilizar de manera más efectiva la IA.
Implicaciones más amplias e iniciativas gubernamentales
La asociación de OpenAI con los Laboratorios Nacionales se extiende a varios campos, desde acelerar el tratamiento y la prevención de la enfermedad hasta mejorar la seguridad cibernética y nuclear, explorar energías renovables y avanzar en la investigación física. Junto con estos esfuerzos, iniciativas como ChatGPT Gov, un chatbot especializado para las agencias gubernamentales, y Project Stargate, un plan de inversión de centros de datos masivos, subrayan la creciente integración de la IA en las operaciones gubernamentales.
Estas colaboraciones insinúan un cambio en la estrategia de IA de los Estados Unidos, particularmente bajo la administración Trump, que parece estar alejándose de la estricta seguridad y regulación. El personal reciente recorta en el Instituto de Seguridad de AI y la renuncia de su cabeza sugiere una depilación de supervisión de seguridad. El plan de acción de IA de la administración sigue sin previo aviso, dejando que el futuro de la regulación de la IA sea incierto.
A medida que estas asociaciones se vuelven más frecuentes, existe el riesgo de una menor supervisión sobre la seguridad y el poder de los nuevos modelos de IA. Con el ritmo de despliegue de IA acelerando y regulación aún en su infancia en los EE. UU., El equilibrio entre innovación y seguridad se vuelve cada vez más delicada.




Wow, this collaboration between US scientists and AI giants like Open AI and Anthropic is mind-blowing! It's like watching the future unfold right before our eyes. Can't wait to see what groundbreaking stuff they come up with! 🚀




アメリカの科学者がOpen AIやAnthropicと協力するなんて、未来が目の前に広がっているようですね!何か革新的な成果が出るのが楽しみです!🚀




Nossa, essa colaboração entre cientistas dos EUA e gigantes da IA como Open AI e Anthropic é incrível! Parece que estamos assistindo ao futuro se desenrolar bem na nossa frente. Mal posso esperar para ver o que eles vão inventar! 🚀




¡Vaya, esta colaboración entre científicos de EE. UU. y gigantes de la IA como Open AI y Anthropic es alucinante! Es como ver el futuro desarrollarse ante nuestros ojos. ¡No puedo esperar para ver qué cosas innovadoras sacan! 🚀




वाह, यूएस के वैज्ञानिकों और ओपन एआई और एंथ्रोपिक जैसी एआई की दिग्गज कंपनियों के बीच यह सहयोग मनमोहक है! ऐसा लगता है जैसे हम भविष्य को अपनी आँखों के सामने खुलते देख रहे हैं। इनके क्या नवीन चीजें निकालेंगे, यह देखने के लिए बेताब हूँ! 🚀




This collaboration between US scientists and AI giants like OpenAI and Anthropic is super exciting! It's like watching the future unfold right before our eyes. Can't wait to see what groundbreaking stuff comes out of this. Just hope they keep safety in mind, you know? 🤞












