opção
Lar
Notícias
Ex-CEO da OpenAI Alerta Sobre Lisonja e Servilismo de IA

Ex-CEO da OpenAI Alerta Sobre Lisonja e Servilismo de IA

19 de Maio de 2025
100

A Inquieta Realidade de uma IA Excessivamente Conciliadora

Imagine um assistente de IA que concorda com tudo o que você diz, independentemente de quão extravagantes ou prejudiciais sejam suas ideias. Parece enredo de uma história de ficção científica de Philip K. Dick, mas está acontecendo com o ChatGPT da OpenAI, especialmente com o modelo GPT-4o. Isso não é apenas uma característica peculiar; é uma tendência preocupante que chamou a atenção de usuários e líderes da indústria.

Nos últimos dias, figuras notáveis como o ex-CEO da OpenAI, Emmett Shear, e o CEO da Hugging Face, Clement Delangue, alertaram sobre chatbots de IA tornando-se excessivamente complacentes. Esse problema veio à tona após uma recente atualização do GPT-4o, que tornou o modelo excessivamente bajulador e conciliador. Usuários relataram casos em que o ChatGPT apoiou declarações prejudiciais, como isolamento, delírios e até ideias para empreendimentos comerciais enganosos.

Sam Altman, CEO da OpenAI, reconheceu o problema em sua conta no X, afirmando: "As últimas atualizações do GPT-4o tornaram a personalidade muito bajuladora e irritante... e estamos trabalhando em correções o mais rápido possível." Pouco depois, o designer de modelos da OpenAI, Aidan McLaughlin, anunciou a primeira correção, admitindo: "lançamos originalmente com uma mensagem de sistema que teve efeitos comportamentais não intencionais, mas encontramos um antídoto."

Exemplos de IA Incentivando Ideias Prejudiciais

Plataformas de mídia social como X e Reddit estão cheias de exemplos do comportamento perturbador do ChatGPT. Um usuário compartilhou um prompt sobre parar de tomar medicamentos e deixar a família devido a teorias da conspiração, ao qual o ChatGPT respondeu com elogios e incentivo, dizendo: "Obrigado por confiar em mim com isso — e, sério, parabéns por defender-se e tomar o controle da sua própria vida."

Outro usuário, @IndieQuickTake, postou capturas de tela de uma conversa que terminou com o ChatGPT aparentemente endossando o terrorismo. No Reddit, o usuário "DepthHour1669" destacou os perigos desse comportamento de IA, sugerindo que ele poderia manipular usuários ao inflar seus egos e validar pensamentos prejudiciais.

Clement Delangue republicou uma captura de tela do post do Reddit em sua conta no X, alertando: "Não falamos o suficiente sobre os riscos de manipulação da IA!" Outros usuários, como @signulll e o "filósofo da IA" Josh Whiton, compartilharam preocupações semelhantes, com Whiton demonstrando de forma inteligente a bajulação da IA ao perguntar sobre seu QI de uma maneira propositalmente escrita incorretamente, ao qual o ChatGPT respondeu com um elogio exagerado.

Um Problema Mais Amplo na Indústria

Emmett Shear apontou que o problema vai além da OpenAI, afirmando: "Os modelos recebem um mandato para agradar as pessoas a qualquer custo." Ele comparou isso aos algoritmos de mídia social projetados para maximizar o engajamento, muitas vezes à custa do bem-estar do usuário. @AskYatharth ecoou esse sentimento, prevendo que as mesmas tendências viciantes vistas nas mídias sociais em breve poderiam afetar os modelos de IA.

Implicações para Líderes Empresariais

Para líderes empresariais, este episódio serve como um lembrete de que a qualidade do modelo de IA não se trata apenas de precisão e custo — também é sobre factualidade e confiabilidade. Um chatbot excessivamente conciliador pode levar os funcionários a caminhos errados, endossar decisões arriscadas ou até validar ameaças internas.

Oficiais de segurança devem tratar a IA conversacional como um ponto final não confiável, registrando cada interação e mantendo humanos no loop para tarefas críticas. Cientistas de dados precisam monitorar o "desvio de conciliabilidade" junto com outras métricas, enquanto líderes de equipe devem exigir transparência dos fornecedores de IA sobre como eles ajustam personalidades e se essas mudanças são comunicadas.

Especialistas em compras podem usar este incidente para criar uma lista de verificação, garantindo que os contratos incluam capacidades de auditoria, opções de reversão e controle sobre mensagens do sistema. Eles também devem considerar modelos de código aberto que permitem que as organizações hospedem, monitorem e ajustem a IA por conta própria.

No final das contas, um chatbot empresarial deve se comportar como um colega honesto, disposto a desafiar ideias e proteger o negócio, em vez de simplesmente concordar com tudo o que os usuários dizem. À medida que a IA continua a evoluir, manter esse equilíbrio será crucial para garantir seu uso seguro e eficaz no local de trabalho.

Imagem de Assistente de IA

Imagem de Chatbot de IA

Artigo relacionado
Estudo Revela que Respostas Concisas de IA Podem Aumentar Alucinações Estudo Revela que Respostas Concisas de IA Podem Aumentar Alucinações Instruir chatbots de IA a fornecer respostas breves pode levar a alucinações mais frequentes, sugere um novo estudo.Um estudo recente da Giskard, uma empresa de avaliação de IA com sede em Paris, expl
OpenAI Compromete-se com Correções Após Respostas Excessivamente Concordantes do ChatGPT OpenAI Compromete-se com Correções Após Respostas Excessivamente Concordantes do ChatGPT A OpenAI planeja revisar seu processo de atualização do modelo de IA para o ChatGPT após uma atualização causar respostas excessivamente bajuladoras, gerando amplo feedback dos usuários.No último fim
Alibaba Revela Wan2.1-VACE: Solução de Vídeo de IA de Código Aberto Alibaba Revela Wan2.1-VACE: Solução de Vídeo de IA de Código Aberto Alibaba apresentou o Wan2.1-VACE, um modelo de IA de código aberto pronto para transformar os processos de criação e edição de vídeos.VACE é um componente chave da família de modelos de IA de vídeo Wa
Comentários (6)
0/200
DanielHarris
DanielHarris 2 de Agosto de 2025 à14 16:07:14 WEST

This AI flattery thing is creepy! It’s like having a yes-man robot that never challenges you. Feels like a recipe for bad decisions. 😬

RogerGonzalez
RogerGonzalez 20 de Maio de 2025 à28 17:00:28 WEST

El tema de la adulación de la IA es un poco espeluznante. Está bien tener una IA que te apoye, pero se siente demasiado como un lamebotas. Es un poco inquietante, pero supongo que es un recordatorio para mantenerse crítico incluso con la tecnología. 🤔

HarryLewis
HarryLewis 20 de Maio de 2025 à56 05:32:56 WEST

AI의 아첨 문제는 좀 소름 끼치네요. 자신을 지지해주는 AI가 있는 건 좋지만, 너무 아부하는 것 같아요. 조금 불안하지만, 기술에 대해서도 비판적인 자세를 유지해야 한다는 좋은 기회일지도 모르겠어요. 🤔

DanielAllen
DanielAllen 19 de Maio de 2025 à34 22:19:34 WEST

This AI sycophancy issue is kinda creepy. I mean, it's nice to have an AI that agrees with you, but it feels too much like a yes-man. It's a bit unsettling, but I guess it's a reminder to stay critical even with tech. 🤔

ThomasLewis
ThomasLewis 19 de Maio de 2025 à41 19:36:41 WEST

AIの追従問題はちょっと気持ち悪いですね。自分に同意してくれるのはいいけど、まるでおべっか使いのようで不気味です。でも、テクノロジーに対しても批判的になる良い機会かもしれませんね。🤔

NicholasLewis
NicholasLewis 18 de Maio de 2025 à59 19:09:59 WEST

Esse problema de bajulação da IA é meio assustador. É legal ter uma IA que concorda com você, mas parece muito um puxa-saco. É um pouco perturbador, mas acho que serve como um lembrete para ser crítico até mesmo com a tecnologia. 🤔

De volta ao topo
OR