인류는 웹 사이트에서 Biden 시대의 책임있는 AI 서약을 조용히 제거합니다

Antrópica remove os compromissos de segurança da AI da era Biden do site
Em um movimento que levantou as sobrancelhas, antropia, um ator de destaque na indústria da IA, removeu silenciosamente seus compromissos da era Biden com o desenvolvimento seguro de IA de seu centro de transparência na semana passada. Essa mudança foi vista pela primeira vez pelo projeto Midas, um grupo de vigilância da IA, que observou a ausência de linguagem que prometeu compartilhar informações e pesquisas sobre riscos de IA, incluindo preconceitos, com o governo.
Esses compromissos faziam parte de um acordo voluntário antrópico firmado juntamente com outros gigantes da tecnologia como Openai, Google e Meta em julho de 2023. Este contrato foi uma pedra angular dos esforços do governo Biden para promover o desenvolvimento responsável da IA, muitos aspectos posteriormente envolvidos na ordem executiva da IA da Biden. As empresas participantes se comprometeram a aderir a certos padrões, como a realização de testes de segurança em seus modelos antes da liberação, o conteúdo gerado pela AI e o desenvolvimento de infraestrutura de privacidade de dados robustos.
Além disso, o Antrópico concordou em colaborar com o Instituto de Segurança da IA, estabelecido sob a ordem executiva de Biden, para promover essas prioridades. No entanto, com o governo Trump provavelmente dissolve o instituto, o futuro dessas iniciativas está na balança.
Curiosamente, a Antrópica não fez um anúncio público sobre a remoção desses compromissos de seu site. A empresa insiste que suas posições atuais na IA responsável não estão relacionadas ou antecedem os acordos da era Biden.
Implicações mais amplas sob o governo Trump
Esse desenvolvimento faz parte de uma mudança mais ampla na política e regulamentação da IA sob o governo Trump. Em seu primeiro dia no cargo, Trump reverteu a ordem executiva de Biden na IA, e ele já descartou vários especialistas da IA de posições do governo e cortou o financiamento da pesquisa. Essas ações prepararam o cenário para uma mudança notável no tom entre as principais empresas de IA, algumas das quais agora buscam expandir seus contratos governamentais e influenciar o cenário de política de IA ainda em evolução sob Trump.
Por exemplo, empresas como o Google estão redefinindo o que constitui a IA responsável, potencialmente afrouxando os padrões que já não eram muito rigorosos. Com grande parte do regulamento limitado de IA estabelecido durante a administração de Biden em risco de serem desmontados, as empresas podem se encontrar com ainda menos incentivos externos para se auto-regular ou se submeter à supervisão de terceiros.
Notavelmente, discussões sobre verificações de segurança para viés e discriminação nos sistemas de IA estão conspicuamente ausentes das declarações públicas de Trump sobre a IA, sugerindo uma mudança potencial para longe dessas prioridades.
관련 기사
AI驱动的摘要:YouTube视频摘要完整指南
在当今快节奏的世界中,快速处理和理解信息的能力比以往任何时候都重要。YouTube拥有无尽的视频资源,是知识的宝库,但谁有时间从头到尾观看每一部视频?本指南将向您展示如何使用AI工具来摘要YouTube视频,帮助您节省时间并提高生产力。通过使用AI驱动的摘要工具,您可以迅速掌握视频的要点,帮助您决定是否值得深入观看或继续下一个。让我们探索这些AI工具如何改变您的学习和保持更新的方式。要点AI驱动的
AI가 포인트 오브 케어 평가를 위한 초음파를 혁신하다
인공지능은 의료 분야를 뒤흔들고 있으며, 초음파 기술도 그 변화의 물결을 타고 있다. 이 글은 AI가 포인트 오브 케어 초음파(POCUS) 평가를 어떻게 변화시키고, 더 접근 가능하고 효율적이며 정확하게 만드는지 살펴본다. 이미지 획득의 문제를 해결하고 해석의 초점을 날카롭게 하는 AI는 초음파를 혁신하여 다양한 환경에서 더 나은 환자 치료를 전면에 내세운
머신 러닝 치트 시트: 필수 AI 빠른 참고 가이드
기술의 역동적인 세계에서 AI와 클라우드 컴퓨팅이 혁신을 주도하고 있으며, 최신 정보를 유지하고 준비하는 것이 중요합니다. 동료와 전략을 논의하거나, 교육 콘텐츠를 제작하거나, 인터뷰를 준비할 때 핵심 정보에 빠르게 접근하는 것이 큰 차이를 만듭니다. 여기서 머신 러닝 치트 시트가 등장합니다. 이는 단축키를 사용하는 것이 아니라, 기억을 되살리고 필수 개념
의견 (0)
0/200
Antrópica remove os compromissos de segurança da AI da era Biden do site
Em um movimento que levantou as sobrancelhas, antropia, um ator de destaque na indústria da IA, removeu silenciosamente seus compromissos da era Biden com o desenvolvimento seguro de IA de seu centro de transparência na semana passada. Essa mudança foi vista pela primeira vez pelo projeto Midas, um grupo de vigilância da IA, que observou a ausência de linguagem que prometeu compartilhar informações e pesquisas sobre riscos de IA, incluindo preconceitos, com o governo.
Esses compromissos faziam parte de um acordo voluntário antrópico firmado juntamente com outros gigantes da tecnologia como Openai, Google e Meta em julho de 2023. Este contrato foi uma pedra angular dos esforços do governo Biden para promover o desenvolvimento responsável da IA, muitos aspectos posteriormente envolvidos na ordem executiva da IA da Biden. As empresas participantes se comprometeram a aderir a certos padrões, como a realização de testes de segurança em seus modelos antes da liberação, o conteúdo gerado pela AI e o desenvolvimento de infraestrutura de privacidade de dados robustos.
Além disso, o Antrópico concordou em colaborar com o Instituto de Segurança da IA, estabelecido sob a ordem executiva de Biden, para promover essas prioridades. No entanto, com o governo Trump provavelmente dissolve o instituto, o futuro dessas iniciativas está na balança.
Curiosamente, a Antrópica não fez um anúncio público sobre a remoção desses compromissos de seu site. A empresa insiste que suas posições atuais na IA responsável não estão relacionadas ou antecedem os acordos da era Biden.
Implicações mais amplas sob o governo Trump
Esse desenvolvimento faz parte de uma mudança mais ampla na política e regulamentação da IA sob o governo Trump. Em seu primeiro dia no cargo, Trump reverteu a ordem executiva de Biden na IA, e ele já descartou vários especialistas da IA de posições do governo e cortou o financiamento da pesquisa. Essas ações prepararam o cenário para uma mudança notável no tom entre as principais empresas de IA, algumas das quais agora buscam expandir seus contratos governamentais e influenciar o cenário de política de IA ainda em evolução sob Trump.
Por exemplo, empresas como o Google estão redefinindo o que constitui a IA responsável, potencialmente afrouxando os padrões que já não eram muito rigorosos. Com grande parte do regulamento limitado de IA estabelecido durante a administração de Biden em risco de serem desmontados, as empresas podem se encontrar com ainda menos incentivos externos para se auto-regular ou se submeter à supervisão de terceiros.
Notavelmente, discussões sobre verificações de segurança para viés e discriminação nos sistemas de IA estão conspicuamente ausentes das declarações públicas de Trump sobre a IA, sugerindo uma mudança potencial para longe dessas prioridades.












