opção
Lar
Notícias
O Antrópico Silenciosamente remove a promessa de IA responsável na era Biden do site

O Antrópico Silenciosamente remove a promessa de IA responsável na era Biden do site

27 de Abril de 2025
130

O Antrópico Silenciosamente remove a promessa de IA responsável na era Biden do site

Anthropic Remove Compromissos de Segurança de IA da Era Biden de seu Website

Em um movimento que levantou sobrancelhas, a Anthropic, um player proeminente na indústria de IA, removeu silenciosamente seus compromissos da era Biden com o desenvolvimento seguro de IA de seu hub de transparência na última semana. Essa mudança foi inicialmente notada pelo The Midas Project, um grupo de vigilância de IA, que observou a ausência de linguagem que prometia compartilhar informações e pesquisas sobre riscos de IA, incluindo vieses, com o governo.

Esses compromissos faziam parte de um acordo voluntário que a Anthropic assumiu ao lado de outros gigantes da tecnologia como OpenAI, Google e Meta em julho de 2023. Esse acordo foi uma pedra angular dos esforços da administração Biden para promover o desenvolvimento responsável de IA, muitos aspectos dos quais foram posteriormente consagrados na ordem executiva de IA de Biden. As empresas participantes haviam se comprometido a aderir a certos padrões, como realizar testes de segurança em seus modelos antes do lançamento, marcar conteúdo gerado por IA e desenvolver uma infraestrutura robusta de privacidade de dados.

Além disso, a Anthropic havia concordado em colaborar com o AI Safety Institute, estabelecido sob a ordem executiva de Biden, para avançar nessas prioridades. No entanto, com a administração Trump provavelmente dissolvendo o Instituto, o futuro dessas iniciativas está em jogo.

Curiosamente, a Anthropic não fez um anúncio público sobre a remoção desses compromissos de seu website. A empresa insiste que suas posições atuais sobre IA responsável são independentes ou anteriores aos acordos da era Biden.

Implicações Mais Amplas Sob a Administração Trump

Esse desenvolvimento é parte de uma mudança mais ampla na política e regulamentação de IA sob a administração Trump. Em seu primeiro dia no cargo, Trump reverteu a ordem executiva de Biden sobre IA, e ele já dispensou vários especialistas em IA de cargos governamentais e cortou o financiamento para pesquisas. Essas ações estabeleceram o cenário para uma mudança notável no tom entre as principais empresas de IA, algumas das quais agora buscam expandir seus contratos governamentais e influenciar o cenário de políticas de IA ainda em evolução sob Trump.

Por exemplo, empresas como Google estão redefinindo o que constitui uma IA responsável, potencialmente afrouxando padrões que já não eram muito rigorosos. Com grande parte da limitada regulamentação de IA estabelecida durante a administração Biden em risco de ser desmantelada, as empresas podem se encontrar com ainda menos incentivos externos para se autorregularem ou se submeterem à supervisão de terceiros.

Notavelmente, discussões sobre verificações de segurança para vieses e discriminação em sistemas de IA têm estado conspicuamente ausentes das declarações públicas de Trump sobre IA, sugerindo uma possível mudança para longe dessas prioridades.

Artigo relacionado
Crossover gerado por IA une Arthur Morgan e Joshua Graham em um multiverso de jogos Crossover gerado por IA une Arthur Morgan e Joshua Graham em um multiverso de jogos Quando os mundos dos jogos colidem: Arthur Morgan Encontra o Homem QueimadoImagine um reino em que personagens lendários de jogos vão além de suas próprias histórias - o que acontece quando Arthur Mor
A Microsoft hospeda os modelos Grok 3 avançados da xAI em uma nova colaboração de IA A Microsoft hospeda os modelos Grok 3 avançados da xAI em uma nova colaboração de IA No início deste mês, meu jornalismo investigativo *Notepad* revelou os planos da Microsoft de integrar os modelos de IA Grok de Elon Musk - revelações que agora foram oficialmente confirmadas. Hoje, n
Músicas de fé do Depeche Mode recebem remixes de IA e análise profunda

(ou, se necessário, mais curto)

A IA remixa e analisa as músicas de fé do Depeche Mode Músicas de fé do Depeche Mode recebem remixes de IA e análise profunda (ou, se necessário, mais curto) A IA remixa e analisa as músicas de fé do Depeche Mode O álbum inovador do Depeche Mode, Songs of Faith and Devotion, é um momento decisivo na evolução da música eletrônica. Lançado em 1993, durante o auge criativo da banda, essa obra-prima redefiniu de f
Comentários (4)
0/200
AlbertMiller
AlbertMiller 25 de Agosto de 2025 à49 06:33:49 WEST

Wow, Anthropic pulling that AI safety pledge is wild! 🤯 Makes you wonder if they're dodging accountability or just streamlining their site. Either way, it’s a bold move in today’s AI race!

PaulTaylor
PaulTaylor 16 de Agosto de 2025 à59 22:00:59 WEST

Wow, Anthropic pulling those AI safety pledges is shady! 🤔 Makes you wonder what’s cooking behind closed doors—less transparency in AI dev is a bold move, and not the good kind.

JuanLewis
JuanLewis 4 de Agosto de 2025 à0 07:01:00 WEST

Interesting move by Anthropic, but kinda shady to just erase those AI safety promises. Makes you wonder what’s cooking behind the scenes. 🧐

PaulHill
PaulHill 28 de Julho de 2025 à54 02:20:54 WEST

I was shocked to see Anthropic pull those AI safety pledges! 🤯 It makes you wonder if they're dodging accountability or just cleaning up their site. Either way, it’s a bold move in today’s AI race.

De volta ao topo
OR