人類默默地默默地刪除了拜登時代的負責人AI承諾

Antrópica remove os compromissos de segurança da AI da era Biden do site
Em um movimento que levantou as sobrancelhas, antropia, um ator de destaque na indústria da IA, removeu silenciosamente seus compromissos da era Biden com o desenvolvimento seguro de IA de seu centro de transparência na semana passada. Essa mudança foi vista pela primeira vez pelo projeto Midas, um grupo de vigilância da IA, que observou a ausência de linguagem que prometeu compartilhar informações e pesquisas sobre riscos de IA, incluindo preconceitos, com o governo.
Esses compromissos faziam parte de um acordo voluntário antrópico firmado juntamente com outros gigantes da tecnologia como Openai, Google e Meta em julho de 2023. Este contrato foi uma pedra angular dos esforços do governo Biden para promover o desenvolvimento responsável da IA, muitos aspectos posteriormente envolvidos na ordem executiva da IA da Biden. As empresas participantes se comprometeram a aderir a certos padrões, como a realização de testes de segurança em seus modelos antes da liberação, o conteúdo gerado pela AI e o desenvolvimento de infraestrutura de privacidade de dados robustos.
Além disso, o Antrópico concordou em colaborar com o Instituto de Segurança da IA, estabelecido sob a ordem executiva de Biden, para promover essas prioridades. No entanto, com o governo Trump provavelmente dissolve o instituto, o futuro dessas iniciativas está na balança.
Curiosamente, a Antrópica não fez um anúncio público sobre a remoção desses compromissos de seu site. A empresa insiste que suas posições atuais na IA responsável não estão relacionadas ou antecedem os acordos da era Biden.
Implicações mais amplas sob o governo Trump
Esse desenvolvimento faz parte de uma mudança mais ampla na política e regulamentação da IA sob o governo Trump. Em seu primeiro dia no cargo, Trump reverteu a ordem executiva de Biden na IA, e ele já descartou vários especialistas da IA de posições do governo e cortou o financiamento da pesquisa. Essas ações prepararam o cenário para uma mudança notável no tom entre as principais empresas de IA, algumas das quais agora buscam expandir seus contratos governamentais e influenciar o cenário de política de IA ainda em evolução sob Trump.
Por exemplo, empresas como o Google estão redefinindo o que constitui a IA responsável, potencialmente afrouxando os padrões que já não eram muito rigorosos. Com grande parte do regulamento limitado de IA estabelecido durante a administração de Biden em risco de serem desmontados, as empresas podem se encontrar com ainda menos incentivos externos para se auto-regular ou se submeter à supervisão de terceiros.
Notavelmente, discussões sobre verificações de segurança para viés e discriminação nos sistemas de IA estão conspicuamente ausentes das declarações públicas de Trump sobre a IA, sugerindo uma mudança potencial para longe dessas prioridades.
相關文章
AI驅動的摘要:YouTube視頻摘要完整指南
在當今快節奏的世界中,快速處理和理解資訊的能力比以往任何時候都更重要。YouTube擁有無數的視頻,是知識的寶庫,但誰有時間從頭到尾觀看每個視頻?本指南將展示如何使用AI工具來摘要YouTube視頻,幫助您節省時間並提高生產力。通過使用AI驅動的摘要工具,您可以迅速掌握視頻的要點,幫助您決定是否值得深入觀看或繼續下一個視頻。讓我們來探索這些AI工具如何改變您的學習方式並保持最新資訊。關鍵要點AI驅
AI革新醫療超聲波於即時評估
人工智能正在改變醫療領域,超聲波技術也隨之進步。本文探討AI如何轉變即時超聲波(POCUS)評估,使其更易用、高效且精準。從優化圖像獲取到提升解讀精確度,AI將革新超聲波,為各種環境帶來更好的患者照護。重點AI簡化超聲波圖像獲取,使非專家也能輕鬆拍攝診斷品質圖像。機器學習提升超聲波圖像解讀,幫助更精準地辨識和測量病理。因AI,即時超聲波(POCUS)更易普及,可能提升資源匱乏地區的醫療水平。AI有
機器學習速查表:人工智能快速參考指南
在技術快速變化的世界中,人工智能與雲計算推動創新,保持更新與準備至關重要。無論是與同事討論策略、製作教育內容,還是準備面試,快速獲取關鍵資訊都能產生重大影響。這正是機器學習速查表的作用所在。它們不是用來走捷徑,而是幫助喚醒記憶、複習基本概念,確保你準備好應對人工智能領域的複雜性。重點速查表是人工智能與數據科學專業人士的重要工具。它們提供快速複習基本概念的方法。如Aqeel Anwar的速查表對面試
評論 (0)
0/200
Antrópica remove os compromissos de segurança da AI da era Biden do site
Em um movimento que levantou as sobrancelhas, antropia, um ator de destaque na indústria da IA, removeu silenciosamente seus compromissos da era Biden com o desenvolvimento seguro de IA de seu centro de transparência na semana passada. Essa mudança foi vista pela primeira vez pelo projeto Midas, um grupo de vigilância da IA, que observou a ausência de linguagem que prometeu compartilhar informações e pesquisas sobre riscos de IA, incluindo preconceitos, com o governo.
Esses compromissos faziam parte de um acordo voluntário antrópico firmado juntamente com outros gigantes da tecnologia como Openai, Google e Meta em julho de 2023. Este contrato foi uma pedra angular dos esforços do governo Biden para promover o desenvolvimento responsável da IA, muitos aspectos posteriormente envolvidos na ordem executiva da IA da Biden. As empresas participantes se comprometeram a aderir a certos padrões, como a realização de testes de segurança em seus modelos antes da liberação, o conteúdo gerado pela AI e o desenvolvimento de infraestrutura de privacidade de dados robustos.
Além disso, o Antrópico concordou em colaborar com o Instituto de Segurança da IA, estabelecido sob a ordem executiva de Biden, para promover essas prioridades. No entanto, com o governo Trump provavelmente dissolve o instituto, o futuro dessas iniciativas está na balança.
Curiosamente, a Antrópica não fez um anúncio público sobre a remoção desses compromissos de seu site. A empresa insiste que suas posições atuais na IA responsável não estão relacionadas ou antecedem os acordos da era Biden.
Implicações mais amplas sob o governo Trump
Esse desenvolvimento faz parte de uma mudança mais ampla na política e regulamentação da IA sob o governo Trump. Em seu primeiro dia no cargo, Trump reverteu a ordem executiva de Biden na IA, e ele já descartou vários especialistas da IA de posições do governo e cortou o financiamento da pesquisa. Essas ações prepararam o cenário para uma mudança notável no tom entre as principais empresas de IA, algumas das quais agora buscam expandir seus contratos governamentais e influenciar o cenário de política de IA ainda em evolução sob Trump.
Por exemplo, empresas como o Google estão redefinindo o que constitui a IA responsável, potencialmente afrouxando os padrões que já não eram muito rigorosos. Com grande parte do regulamento limitado de IA estabelecido durante a administração de Biden em risco de serem desmontados, as empresas podem se encontrar com ainda menos incentivos externos para se auto-regular ou se submeter à supervisão de terceiros.
Notavelmente, discussões sobre verificações de segurança para viés e discriminação nos sistemas de IA estão conspicuamente ausentes das declarações públicas de Trump sobre a IA, sugerindo uma mudança potencial para longe dessas prioridades.












