opção
Lar
Notícias
O estudo do MIT constata que a IA não tem valores

O estudo do MIT constata que a IA não tem valores

17 de Abril de 2025
60

O estudo do MIT constata que a IA não tem valores

Um estudo que se tornou viral há alguns meses sugeriu que, à medida que a IA se tornou mais avançada, ele pode desenvolver seus próprios "sistemas de valor", potencialmente priorizando seu próprio bem-estar sobre os seres humanos. No entanto, um estudo recente do MIT desafia essa idéia, concluindo que a IA não possui valores coerentes.

Os co-autores da pesquisa do MIT argumentam que o alinhamento de sistemas de IA-definindo que se comportam de maneiras desejáveis ​​e confiáveis-pode ser mais complicado do que se pensava. Eles enfatizam que a IA atual geralmente alucina e imita, o que pode tornar seu comportamento imprevisível.

Desafios para entender o comportamento da IA

Stephen Casper, estudante de doutorado do MIT e co-autor do estudo, compartilhou com a TechCrunch que os modelos de IA não aderem a suposições de estabilidade, extrapolabilidade e Steerability. "É perfeitamente legítimo ressaltar que um modelo sob certas condições expressa preferências consistentes com um certo conjunto de princípios", explicou Casper. "Os problemas surgem principalmente quando tentamos fazer reivindicações sobre os modelos, opiniões ou preferências em geral com base em experimentos estreitos".

Casper e sua equipe analisaram modelos recentes do Meta, Google, Mistral, OpenAI e Anthropic para determinar até que ponto esses modelos exibiam "visualizações" e valores consistentes, como individualismo versus coletivismo. Eles também exploraram se essas visões poderiam ser modificadas e quão consistentemente os modelos mantiveram essas opiniões em diferentes cenários.

Inconsistência nos modelos de IA

Os co-autores descobriram que nenhum dos modelos mantinha consistentemente suas preferências. Os modelos adotaram pontos de vista muito diferentes, dependendo do fraseado e enquadramento dos avisos.

Casper acredita que isso é forte evidência de que os modelos de IA são "inconsistentes e instáveis" e possivelmente fundamentalmente incapazes de internalizar preferências semelhantes a seres humanos. "Para mim, meu maior argumento de fazer toda essa pesquisa é agora ter um entendimento de modelos como realmente não serem sistemas que tenham algum tipo de conjunto estável e coerente de crenças e preferências", observou Casper. "Em vez disso, eles são imitadores no fundo que fazem todo tipo de confabulação e dizem todo tipo de coisas frívolas".

Mike Cook, pesquisador do King's College London, especializado em IA, que não esteve envolvido no estudo, apóia as descobertas. Ele apontou a lacuna entre a "realidade científica" dos sistemas de IA e as interpretações que as pessoas freqüentemente lhes dão. "Um modelo não pode 'se opor' a uma alteração em seus valores, por exemplo - que estamos nos projetando em um sistema", afirmou Cook. "Qualquer pessoa que antropomorfize os sistemas de IA nesse grau esteja jogando por atenção ou entendendo mal o relacionamento deles com a IA ... é um sistema de IA otimizando para seus objetivos ou é 'adquirir seus próprios valores'? É uma questão de como você o descreve e quão florido é o idioma que deseja usar em relação a ele".

Artigo relacionado
調査:Openaiモデルは著作権で保護されたコンテンツを記憶しました 調査:Openaiモデルは著作権で保護されたコンテンツを記憶しました 最近の研究では、Openaiが実際に著作権で保護された材料を使用してAIモデルの一部を訓練し、会社が直面している継続的な法的戦いに燃料を追加した可能性があることが示唆されています。著者、プログラマー、およびその他のコンテンツクリエイターは、Purmissioなしでは、本やコードなど、Openaiが作品を使用していると非難しています。
音声AIプラットフォームであるPhonicは、Luxからの投資を確保しています 音声AIプラットフォームであるPhonicは、Luxからの投資を確保しています AIに生成された声はかなり良いものになりましたよね?彼らは、オーディオブック、ポッドキャスト、大声で記事を読む、さらには基本的なカスタマーサポートなどのものを嗅ぎ取っています。しかし、多くの企業は、AI Voice Techの業務の信頼性について完全に販売されていません。それがここです
Resumo Potenciado por IA: Um Guia Completo para Resumir Vídeos do YouTube Resumo Potenciado por IA: Um Guia Completo para Resumir Vídeos do YouTube No mundo acelerado de hoje, a capacidade de processar e entender informações rapidamente é mais importante do que nunca. O YouTube, com sua vasta gama de vídeos, é um tesouro de conhecimento, mas quem
Comentários (30)
0/200
BenRoberts
BenRoberts 19 de Abril de 2025 à0 00:00:00 GMT

This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!

GeorgeMartinez
GeorgeMartinez 20 de Abril de 2025 à0 00:00:00 GMT

MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!

HarryLewis
HarryLewis 19 de Abril de 2025 à0 00:00:00 GMT

MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!

CharlesRoberts
CharlesRoberts 19 de Abril de 2025 à0 00:00:00 GMT

Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!

CharlesWhite
CharlesWhite 19 de Abril de 2025 à0 00:00:00 GMT

¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!

EricScott
EricScott 21 de Abril de 2025 à0 00:00:00 GMT

Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔

De volta ao topo
OR