人类默默地默默地删除了拜登时代的负责人AI承诺

Antrópica remove os compromissos de segurança da AI da era Biden do site
Em um movimento que levantou as sobrancelhas, antropia, um ator de destaque na indústria da IA, removeu silenciosamente seus compromissos da era Biden com o desenvolvimento seguro de IA de seu centro de transparência na semana passada. Essa mudança foi vista pela primeira vez pelo projeto Midas, um grupo de vigilância da IA, que observou a ausência de linguagem que prometeu compartilhar informações e pesquisas sobre riscos de IA, incluindo preconceitos, com o governo.
Esses compromissos faziam parte de um acordo voluntário antrópico firmado juntamente com outros gigantes da tecnologia como Openai, Google e Meta em julho de 2023. Este contrato foi uma pedra angular dos esforços do governo Biden para promover o desenvolvimento responsável da IA, muitos aspectos posteriormente envolvidos na ordem executiva da IA da Biden. As empresas participantes se comprometeram a aderir a certos padrões, como a realização de testes de segurança em seus modelos antes da liberação, o conteúdo gerado pela AI e o desenvolvimento de infraestrutura de privacidade de dados robustos.
Além disso, o Antrópico concordou em colaborar com o Instituto de Segurança da IA, estabelecido sob a ordem executiva de Biden, para promover essas prioridades. No entanto, com o governo Trump provavelmente dissolve o instituto, o futuro dessas iniciativas está na balança.
Curiosamente, a Antrópica não fez um anúncio público sobre a remoção desses compromissos de seu site. A empresa insiste que suas posições atuais na IA responsável não estão relacionadas ou antecedem os acordos da era Biden.
Implicações mais amplas sob o governo Trump
Esse desenvolvimento faz parte de uma mudança mais ampla na política e regulamentação da IA sob o governo Trump. Em seu primeiro dia no cargo, Trump reverteu a ordem executiva de Biden na IA, e ele já descartou vários especialistas da IA de posições do governo e cortou o financiamento da pesquisa. Essas ações prepararam o cenário para uma mudança notável no tom entre as principais empresas de IA, algumas das quais agora buscam expandir seus contratos governamentais e influenciar o cenário de política de IA ainda em evolução sob Trump.
Por exemplo, empresas como o Google estão redefinindo o que constitui a IA responsável, potencialmente afrouxando os padrões que já não eram muito rigorosos. Com grande parte do regulamento limitado de IA estabelecido durante a administração de Biden em risco de serem desmontados, as empresas podem se encontrar com ainda menos incentivos externos para se auto-regular ou se submeter à supervisão de terceiros.
Notavelmente, discussões sobre verificações de segurança para viés e discriminação nos sistemas de IA estão conspicuamente ausentes das declarações públicas de Trump sobre a IA, sugerindo uma mudança potencial para longe dessas prioridades.
相关文章
AI驱动的总结:YouTube视频总结完整指南
在当今快节奏的世界中,快速处理和理解信息的能力比以往任何时候都重要。YouTube拥有无尽的视频资源,是知识的宝库,但谁有时间从头到尾观看每段视频?本指南将展示如何使用AI工具总结YouTube视频,帮助你节省时间并提高生产力。通过AI驱动的总结工具,你可以迅速抓住视频要点,决定是否值得深入观看或继续下一个。让我们探索这些AI工具如何改变你的学习和保持更新的方式。关键点AI驱动的工具让你快速理解Y
AI驱动的超声波变革即时医疗评估
人工智能正在颠覆医疗领域,超声波技术也随之变革。本文探讨了AI如何转变即时超声波(POCUS)评估,使其更易获取、更高效、更准确。从优化图像采集到提升解读精度,AI将革新超声波,为各种场景带来更好的患者护理。关键要点AI简化超声波图像采集,使非专家也能轻松获取诊断质量的图像。机器学习提升超声波图像解读能力,助力更精确地发现和测量病理。得益于AI,即时超声波(POCUS)变得更易普及,可能提升资源匮
机器学习速查表:人工智能关键快速参考指南
在技术快速发展的世界中,人工智能和云计算推动创新,保持更新和准备至关重要。无论与同事讨论策略、制作教育内容,还是为面试做准备,快速获取关键信息都至关重要。这就是机器学习速查表的作用。它们不是走捷径,而是帮助唤醒记忆,复习基本概念,确保你准备好应对人工智能领域的复杂性。关键点速查表是人工智能和数据科学专业人士的重要工具。它们提供快速复习基本概念的方法。如Aqeel Anwar的速查表等资源对面试和日
评论 (0)
0/200
Antrópica remove os compromissos de segurança da AI da era Biden do site
Em um movimento que levantou as sobrancelhas, antropia, um ator de destaque na indústria da IA, removeu silenciosamente seus compromissos da era Biden com o desenvolvimento seguro de IA de seu centro de transparência na semana passada. Essa mudança foi vista pela primeira vez pelo projeto Midas, um grupo de vigilância da IA, que observou a ausência de linguagem que prometeu compartilhar informações e pesquisas sobre riscos de IA, incluindo preconceitos, com o governo.
Esses compromissos faziam parte de um acordo voluntário antrópico firmado juntamente com outros gigantes da tecnologia como Openai, Google e Meta em julho de 2023. Este contrato foi uma pedra angular dos esforços do governo Biden para promover o desenvolvimento responsável da IA, muitos aspectos posteriormente envolvidos na ordem executiva da IA da Biden. As empresas participantes se comprometeram a aderir a certos padrões, como a realização de testes de segurança em seus modelos antes da liberação, o conteúdo gerado pela AI e o desenvolvimento de infraestrutura de privacidade de dados robustos.
Além disso, o Antrópico concordou em colaborar com o Instituto de Segurança da IA, estabelecido sob a ordem executiva de Biden, para promover essas prioridades. No entanto, com o governo Trump provavelmente dissolve o instituto, o futuro dessas iniciativas está na balança.
Curiosamente, a Antrópica não fez um anúncio público sobre a remoção desses compromissos de seu site. A empresa insiste que suas posições atuais na IA responsável não estão relacionadas ou antecedem os acordos da era Biden.
Implicações mais amplas sob o governo Trump
Esse desenvolvimento faz parte de uma mudança mais ampla na política e regulamentação da IA sob o governo Trump. Em seu primeiro dia no cargo, Trump reverteu a ordem executiva de Biden na IA, e ele já descartou vários especialistas da IA de posições do governo e cortou o financiamento da pesquisa. Essas ações prepararam o cenário para uma mudança notável no tom entre as principais empresas de IA, algumas das quais agora buscam expandir seus contratos governamentais e influenciar o cenário de política de IA ainda em evolução sob Trump.
Por exemplo, empresas como o Google estão redefinindo o que constitui a IA responsável, potencialmente afrouxando os padrões que já não eram muito rigorosos. Com grande parte do regulamento limitado de IA estabelecido durante a administração de Biden em risco de serem desmontados, as empresas podem se encontrar com ainda menos incentivos externos para se auto-regular ou se submeter à supervisão de terceiros.
Notavelmente, discussões sobre verificações de segurança para viés e discriminação nos sistemas de IA estão conspicuamente ausentes das declarações públicas de Trump sobre a IA, sugerindo uma mudança potencial para longe dessas prioridades.












