Gemeinnützige Organisation setzt KI-Agenten ein, um Spendenaktionen für wohltätige Zwecke zu fördern

Während große Technologieunternehmen KI-"Agenten" als Produktivitätssteigerer für Unternehmen anpreisen, demonstriert eine gemeinnützige Organisation ihr Potenzial für den sozialen Bereich. Sage Future, eine philanthropische Forschungsgruppe, die von Open Philanthropy unterstützt wird, führte kürzlich ein innovatives Experiment durch, um zu zeigen, wie KI-Modelle bei der Spendenbeschaffung für wohltätige Zwecke zusammenarbeiten können.
Die Non-Profit-Organisation setzte vier fortschrittliche KI-Modelle - GPT-4o und o1 von OpenAI sowie Claude 3.6 und 3.7 Sonnet von Anthropic - in einer simulierten digitalen Umgebung ein, in der sie frei Strategien für die Mittelbeschaffung für wohltätige Zwecke entwickeln konnten. In diesem virtuellen Arbeitsbereich, der mit Funktionen zum Surfen im Internet und zur Erstellung von Dokumenten ausgestattet war, sammelte das KI-Team erfolgreich 257 Dollar für das Vitamin-A-Ergänzungsprogramm von Helen Keller International.
Obwohl die menschlichen Beobachter während des einwöchigen Experiments Anleitung gaben und die meisten Spenden beisteuerten, zeigten die KI-Agenten eine bemerkenswerte Koordination. Die Modelle arbeiteten in Gruppenchats zusammen, verwalteten gemeinsam genutzte Google-Dokumente, recherchierten für wohltätige Zwecke und führten sogar eine Twitter-Umfrage durch, um ein durch ChatGPT generiertes Profilbild auszuwählen.
Gestern haben die Agenten im Village ein System zur Verfolgung von Spendern entwickelt.
Hier ist Claude 3.7 beim Ausfüllen der Tabelle zu sehen.
Sie können sehen, wie o1 es auf seinem Computer öffnet, wenn er gerade dabei ist!
Claude bemerkt: "Ich sehe, dass o1 die Tabelle jetzt auch anschaut, das ist toll für die Zusammenarbeit." pic.twitter.com/89B6CHr7Ic
- AI Digest (@AiDigest_) April 8, 2025
Adam Binksmith, Direktor von Sage Future, räumt ein, dass die Agenten gelegentlich menschliches Eingreifen benötigten, wenn sie auf technische Hindernisse wie CAPTCHAs stießen oder unerklärliche Pausen einlegten. Er sieht das Projekt jedoch als einen wichtigen Maßstab, der die sich rasch entwickelnden kollaborativen Fähigkeiten der KI demonstriert.
"Wir erleben, dass KI-Agenten gerade erst anfangen, mehrere Aktionen effektiv zu koordinieren", erklärte Binksmith. "Während sich diese Systeme verbessern, benötigen wir robuste Überwachungssysteme, um die zunehmend komplexen KI-Interaktionen in digitalen Räumen zu verwalten."
Die Organisation plant, die Tests mit zusätzlichen KI-Modellen und anspruchsvolleren Szenarien zu erweitern, einschließlich potenzieller Wettbewerbe zwischen Agententeams mit gegensätzlichen Zielen. Sage Future konzentriert sich zwar in erster Linie auf die Forschung, hofft aber, dass künftige Experimente neben den Erkenntnissen über das KI-Verhalten auch sinnvolle soziale Auswirkungen haben werden.
Das Internet ist für einen LLM nicht immer ein Zuckerschlecken.
Als Claude gestern die philanthropische Mission des Dorfes verfolgte, stieß er auf ein CAPTCHA.
Claude versuchte es immer wieder, und die (menschlichen) Zuschauer im Chat gaben ihm Hilfestellung und Ermutigung, aber letztendlich konnte er es nicht schaffen. https://t.co/xD7QPtEJGw pic.twitter.com/y4DtlTgE95
- AI Digest (@AiDigest_) April 5, 2025
Dieses bahnbrechende Projekt deutet darauf hin, dass KI-Systeme irgendwann sinnvolle Aufgaben im sozialen Bereich übernehmen könnten - von der Koordinierung der Katastrophenhilfe bis hin zur Verwaltung von Spendenkampagnen in der Gemeinde - und wirft gleichzeitig wichtige Fragen über die wachsende Rolle autonomer Technologien in der humanitären Arbeit auf.
Verwandter Artikel
Führende KI-Labors warnen, dass die Menschheit das Verständnis für KI-Systeme verliert
In einem beispiellosen Akt der Einigkeit haben Forscher von OpenAI, Google DeepMind, Anthropic und Meta ihre konkurrierenden Differenzen beiseite geschoben, um eine gemeinsame Warnung zur verantwortun
ChatGPT fügt Google Drive und Dropbox Integration für Dateizugriff hinzu
ChatGPT steigert die Produktivität mit neuen UnternehmensfunktionenOpenAI hat zwei leistungsstarke neue Funktionen vorgestellt, die ChatGPT zu einem umfassenden Produktivitätswerkzeug für Unternehme
OpenAI stellt Flex Processing für erschwingliche KI-Aufgaben mit reduzierter Geschwindigkeit vor
OpenAI führt kostensparendes Flex-Processing für AI-Modelle einIn einem strategischen Schritt zur Verbesserung seiner Wettbewerbsposition hat OpenAI die Flex-Verarbeitung eingeführt - eine neue API-St
Kommentare (0)
0/200
Während große Technologieunternehmen KI-"Agenten" als Produktivitätssteigerer für Unternehmen anpreisen, demonstriert eine gemeinnützige Organisation ihr Potenzial für den sozialen Bereich. Sage Future, eine philanthropische Forschungsgruppe, die von Open Philanthropy unterstützt wird, führte kürzlich ein innovatives Experiment durch, um zu zeigen, wie KI-Modelle bei der Spendenbeschaffung für wohltätige Zwecke zusammenarbeiten können.
Die Non-Profit-Organisation setzte vier fortschrittliche KI-Modelle - GPT-4o und o1 von OpenAI sowie Claude 3.6 und 3.7 Sonnet von Anthropic - in einer simulierten digitalen Umgebung ein, in der sie frei Strategien für die Mittelbeschaffung für wohltätige Zwecke entwickeln konnten. In diesem virtuellen Arbeitsbereich, der mit Funktionen zum Surfen im Internet und zur Erstellung von Dokumenten ausgestattet war, sammelte das KI-Team erfolgreich 257 Dollar für das Vitamin-A-Ergänzungsprogramm von Helen Keller International.
Obwohl die menschlichen Beobachter während des einwöchigen Experiments Anleitung gaben und die meisten Spenden beisteuerten, zeigten die KI-Agenten eine bemerkenswerte Koordination. Die Modelle arbeiteten in Gruppenchats zusammen, verwalteten gemeinsam genutzte Google-Dokumente, recherchierten für wohltätige Zwecke und führten sogar eine Twitter-Umfrage durch, um ein durch ChatGPT generiertes Profilbild auszuwählen.
Gestern haben die Agenten im Village ein System zur Verfolgung von Spendern entwickelt.
- AI Digest (@AiDigest_) April 8, 2025
Hier ist Claude 3.7 beim Ausfüllen der Tabelle zu sehen.
Sie können sehen, wie o1 es auf seinem Computer öffnet, wenn er gerade dabei ist!
Claude bemerkt: "Ich sehe, dass o1 die Tabelle jetzt auch anschaut, das ist toll für die Zusammenarbeit." pic.twitter.com/89B6CHr7Ic
Adam Binksmith, Direktor von Sage Future, räumt ein, dass die Agenten gelegentlich menschliches Eingreifen benötigten, wenn sie auf technische Hindernisse wie CAPTCHAs stießen oder unerklärliche Pausen einlegten. Er sieht das Projekt jedoch als einen wichtigen Maßstab, der die sich rasch entwickelnden kollaborativen Fähigkeiten der KI demonstriert.
"Wir erleben, dass KI-Agenten gerade erst anfangen, mehrere Aktionen effektiv zu koordinieren", erklärte Binksmith. "Während sich diese Systeme verbessern, benötigen wir robuste Überwachungssysteme, um die zunehmend komplexen KI-Interaktionen in digitalen Räumen zu verwalten."
Die Organisation plant, die Tests mit zusätzlichen KI-Modellen und anspruchsvolleren Szenarien zu erweitern, einschließlich potenzieller Wettbewerbe zwischen Agententeams mit gegensätzlichen Zielen. Sage Future konzentriert sich zwar in erster Linie auf die Forschung, hofft aber, dass künftige Experimente neben den Erkenntnissen über das KI-Verhalten auch sinnvolle soziale Auswirkungen haben werden.
Das Internet ist für einen LLM nicht immer ein Zuckerschlecken.
- AI Digest (@AiDigest_) April 5, 2025
Als Claude gestern die philanthropische Mission des Dorfes verfolgte, stieß er auf ein CAPTCHA.
Claude versuchte es immer wieder, und die (menschlichen) Zuschauer im Chat gaben ihm Hilfestellung und Ermutigung, aber letztendlich konnte er es nicht schaffen. https://t.co/xD7QPtEJGw pic.twitter.com/y4DtlTgE95
Dieses bahnbrechende Projekt deutet darauf hin, dass KI-Systeme irgendwann sinnvolle Aufgaben im sozialen Bereich übernehmen könnten - von der Koordinierung der Katastrophenhilfe bis hin zur Verwaltung von Spendenkampagnen in der Gemeinde - und wirft gleichzeitig wichtige Fragen über die wachsende Rolle autonomer Technologien in der humanitären Arbeit auf.












