Organização sem fins lucrativos utiliza agentes de IA para aumentar os esforços de arrecadação de fundos para instituições de caridade

Enquanto as grandes corporações de tecnologia promovem "agentes" de IA como impulsionadores de produtividade para as empresas, uma organização sem fins lucrativos está demonstrando seu potencial para o bem social. A Sage Future, um grupo de pesquisa filantrópica apoiado pela Open Philanthropy, conduziu recentemente um experimento inovador que mostra como os modelos de IA podem colaborar na arrecadação de fundos para caridade.
A organização sem fins lucrativos instalou quatro modelos avançados de IA - GPT-4o e o1 da OpenAI, juntamente com o Claude 3.6 e o 3.7 Sonnet da Anthropic - em um ambiente digital simulado, no qual eles puderam criar livremente estratégias de captação de recursos para causas beneficentes. Nesse espaço de trabalho virtual equipado com recursos de navegação na Web e criação de documentos, a equipe de IA conseguiu arrecadar US$ 257 para os programas de suplementação de vitamina A da Helen Keller International.
Embora os observadores humanos tenham fornecido orientação e contribuído com a maioria das doações durante o experimento de uma semana, os agentes de IA demonstraram uma coordenação notável. Os modelos colaboraram por meio de bate-papos em grupo, gerenciaram documentos compartilhados do Google, realizaram pesquisas de caridade e até fizeram uma enquete no Twitter para selecionar uma foto de perfil gerada pelo ChatGPT.
Ontem, os agentes do Village criaram um sistema para rastrear doadores.
Aqui está o Claude 3.7 preenchendo sua planilha.
Você pode ver o1 abri-la em seu computador no meio do processo!
Claude observa: "Vejo que o1 agora também está visualizando a planilha, o que é ótimo para a colaboração." pic.twitter.com/89B6CHr7Ic
- AI Digest (@AiDigest_) 8 de abril de 2025
O diretor da Sage Future, Adam Binksmith, reconhece as limitações atuais, observando que os agentes ocasionalmente precisavam de intervenção humana quando enfrentavam obstáculos técnicos, como CAPTCHAs, ou faziam pausas inexplicáveis. No entanto, ele vê o projeto como uma referência importante que demonstra os recursos colaborativos em rápida evolução da IA.
"Estamos testemunhando agentes de IA que estão apenas começando a coordenar várias ações de forma eficaz", explicou Binksmith. "À medida que esses sistemas melhoram, precisaremos de estruturas de monitoramento robustas para gerenciar interações de IA cada vez mais complexas em espaços digitais."
A organização planeja expandir os testes com modelos adicionais de IA e cenários mais sofisticados, incluindo possíveis competições entre equipes de agentes com objetivos conflitantes. Embora o foco principal seja a pesquisa, a Sage Future espera que os experimentos futuros gerem um impacto social significativo, além de insights sobre o comportamento da IA.
A Internet nem sempre é tranquila para um LLM.
Ontem, enquanto buscava cumprir a missão filantrópica da Village, Claude se deparou com um CAPTCHA.
Claude tentou várias vezes, com espectadores (humanos) no bate-papo oferecendo orientação e incentivo, mas acabou não conseguindo. https://t.co/xD7QPtEJGw pic.twitter.com/y4DtlTgE95
- AI Digest (@AiDigest_) 5 de abril de 2025
Esse projeto pioneiro sugere que os sistemas de IA podem, eventualmente, assumir funções significativas em causas sociais - desde a coordenação de ajuda em casos de desastres até o gerenciamento de campanhas comunitárias de arrecadação de fundos - e, ao mesmo tempo, levantar questões importantes sobre o papel crescente da tecnologia autônoma no trabalho humanitário.
Artigo relacionado
Os principais laboratórios de IA alertam que a humanidade está perdendo o controle sobre a compreensão dos sistemas de IA
Em uma demonstração de união sem precedentes, pesquisadores da OpenAI, Google DeepMind, Anthropic e Meta deixaram de lado as diferenças competitivas para emitir um alerta coletivo sobre o desenvolvime
ChatGPT adiciona integração com Google Drive e Dropbox para acesso a arquivos
ChatGPT aumenta a produtividade com novos recursos empresariaisA OpenAI revelou dois novos recursos poderosos que transformam o ChatGPT em uma ferramenta abrangente de produtividade empresarial: doc
A OpenAI apresenta o Flex Processing para tarefas de IA acessíveis com velocidade reduzida
OpenAI apresenta o processamento flexível de baixo custo para modelos de IAEm um movimento estratégico para melhorar sua posição competitiva, a OpenAI revelou o processamento Flex - um novo nível de A
Comentários (0)
0/200
Enquanto as grandes corporações de tecnologia promovem "agentes" de IA como impulsionadores de produtividade para as empresas, uma organização sem fins lucrativos está demonstrando seu potencial para o bem social. A Sage Future, um grupo de pesquisa filantrópica apoiado pela Open Philanthropy, conduziu recentemente um experimento inovador que mostra como os modelos de IA podem colaborar na arrecadação de fundos para caridade.
A organização sem fins lucrativos instalou quatro modelos avançados de IA - GPT-4o e o1 da OpenAI, juntamente com o Claude 3.6 e o 3.7 Sonnet da Anthropic - em um ambiente digital simulado, no qual eles puderam criar livremente estratégias de captação de recursos para causas beneficentes. Nesse espaço de trabalho virtual equipado com recursos de navegação na Web e criação de documentos, a equipe de IA conseguiu arrecadar US$ 257 para os programas de suplementação de vitamina A da Helen Keller International.
Embora os observadores humanos tenham fornecido orientação e contribuído com a maioria das doações durante o experimento de uma semana, os agentes de IA demonstraram uma coordenação notável. Os modelos colaboraram por meio de bate-papos em grupo, gerenciaram documentos compartilhados do Google, realizaram pesquisas de caridade e até fizeram uma enquete no Twitter para selecionar uma foto de perfil gerada pelo ChatGPT.
Ontem, os agentes do Village criaram um sistema para rastrear doadores.
- AI Digest (@AiDigest_) 8 de abril de 2025
Aqui está o Claude 3.7 preenchendo sua planilha.
Você pode ver o1 abri-la em seu computador no meio do processo!
Claude observa: "Vejo que o1 agora também está visualizando a planilha, o que é ótimo para a colaboração." pic.twitter.com/89B6CHr7Ic
O diretor da Sage Future, Adam Binksmith, reconhece as limitações atuais, observando que os agentes ocasionalmente precisavam de intervenção humana quando enfrentavam obstáculos técnicos, como CAPTCHAs, ou faziam pausas inexplicáveis. No entanto, ele vê o projeto como uma referência importante que demonstra os recursos colaborativos em rápida evolução da IA.
"Estamos testemunhando agentes de IA que estão apenas começando a coordenar várias ações de forma eficaz", explicou Binksmith. "À medida que esses sistemas melhoram, precisaremos de estruturas de monitoramento robustas para gerenciar interações de IA cada vez mais complexas em espaços digitais."
A organização planeja expandir os testes com modelos adicionais de IA e cenários mais sofisticados, incluindo possíveis competições entre equipes de agentes com objetivos conflitantes. Embora o foco principal seja a pesquisa, a Sage Future espera que os experimentos futuros gerem um impacto social significativo, além de insights sobre o comportamento da IA.
A Internet nem sempre é tranquila para um LLM.
- AI Digest (@AiDigest_) 5 de abril de 2025
Ontem, enquanto buscava cumprir a missão filantrópica da Village, Claude se deparou com um CAPTCHA.
Claude tentou várias vezes, com espectadores (humanos) no bate-papo oferecendo orientação e incentivo, mas acabou não conseguindo. https://t.co/xD7QPtEJGw pic.twitter.com/y4DtlTgE95
Esse projeto pioneiro sugere que os sistemas de IA podem, eventualmente, assumir funções significativas em causas sociais - desde a coordenação de ajuda em casos de desastres até o gerenciamento de campanhas comunitárias de arrecadação de fundos - e, ao mesmo tempo, levantar questões importantes sobre o papel crescente da tecnologia autônoma no trabalho humanitário.












