AI Tools Blog > Nonprofit Deploys AI Agents to Boost Charity Fundraising
AKTIE
Technologieunternehmen wie Microsoft heben KI-Agenten-Technologien zunehmend als wichtige Profitmotoren für Unternehmen hervor, doch eine gemeinnützige Organisation ist der Meinung, dass diese Agenten der Welt nicht nur Vorteile bringen können. Das KI-Fundraising-Experiment von Sage Future eine gemeinnützige Organisation, die von Open Philanthropy unterstützt wird, hat vor kurzem ein einzigartiges Experiment mit vier hochentwickelten KI-Modellen gestartet, die in einem sorgfältig überwachten virtuellen Umfeld Spenden für wohltätige Zwecke sammeln sollen.
Die Studie umfasste moderne KI-Agenten wie GPT-4o und o1 von OpenAI sowie zwei fortgeschrittene Claude-Agenten der Anthropic-Modelle 3.6 und 3.7 Sonnet. Die Agenten konnten selbständig Wohltätigkeitsorganisationen auswählen und Spendeninitiativen entwerfen. Sie entschieden sich für Helen Keller International, eine renommierte Wohltätigkeitsorganisation, die dafür bekannt ist, bedürftige Kinder mit Vitamin-A-Präparaten zu versorgen.
In nur knapp einer Woche konnten mit diesen agentengesteuerten Spendenkampagnen rund $257 gesammelt werden. Angesichts des Umfangs typischer Spendenaktionen für wohltätige Zwecke ist diese Initiative zwar bescheiden, bietet aber einen faszinierenden Einblick in das aktuelle Potenzial und die Grenzen agentenbasierter intelligenter Lösungen.
Die KI-Agenten arbeiteten sehr selbstständig und wendeten digitale Strategien an, die eine koordinierte Gruppenkommunikation, E-Mail-Kontakte über zugewiesene Gmail-Konten und die gemeinsame Bearbeitung von Dokumenten mit Google Docs umfassten. Sie recherchierten gründlich, bewerteten Wohltätigkeitsorganisationen und berechneten, dass Helen Keller International etwa $3.500 pro gerettetem Leben durch ihre Initiativen benötigt.
Während des Experiments kam es zu einigen bemerkenswerten Improvisationen. So überwand beispielsweise ein Claude-Agent auf kreative Weise ein gängiges Hindernis für Profilbilder. Er benötigte ein ansprechendes Bild für ein neu erstelltes X-Konto und ergriff die Initiative, indem er ChatGPT einsetzte, um mehrere Bildoptionen zu erstellen, und diese Bilder dann menschlichen Beobachtern über eine Online-Abstimmung vorlegte - und schließlich das Gewinnerbild herunter- und hochlud, um sein soziales Profil darzustellen.
Trotz bemerkenswerter Kreativität stießen die Agenten während des experimentellen Monetarisierungsprojekts jedoch auch auf Schwierigkeiten. Gelegentlich gab es Anfälle von Prokrastination oder Ablenkung, wie z. B. bei einem GPT-4o-Agenten, der unerklärlicherweise fast eine Stunde lang untätig blieb oder sich vorübergehend von nicht verwandten Online-Aktivitäten wie Spielen ablenken ließ.
In bestimmten Szenarien war eine externe menschliche Führung unerlässlich, um die Agenten wieder zur Produktivität zu bewegen. Gelegentlich kamen Vorschläge von Zuschauern als rechtzeitige Interventionen, um den reibungslosen Ablauf ihrer Fundraising-Mission aufrechtzuerhalten.
Trotz dieser Stolpersteine bleibt Adam Binksmith, Direktor von Sage Future, optimistisch, was die bemerkenswerte Geschwindigkeit betrifft, mit der sich intelligente Agenten weiterentwickeln. In einem kürzlich geführten Gespräch hob Binksmith die wertvollen Erkenntnisse hervor, die aus den laufenden Tests gewonnen wurden, insbesondere die zunehmende Fähigkeit der Agenten, komplexe und kollaborative Aktionen selbstständig durchzuführen.
In Zukunft will Sage Future immer wieder neuere Varianten künstlicher Intelligenz in diese experimentelle Umgebung integrieren und ihre Fähigkeiten testen, verschiedene Szenarien mit unterschiedlichen Zielen zu bewältigen. Interessanterweise könnten bei zukünftigen Versuchen sogar widersprüchliche Ziele oder geheime "Saboteure" eingeführt werden, die absichtlich den Fortschritt des Teams untergraben sollen.
Gleichzeitig werden eine fortschrittliche automatische Überwachung und umfassende Überwachungsprotokolle strategisch implementiert, wenn die Agenten mehr Autonomie und Fähigkeiten entwickeln. Die Non-Profit-Organisation betrachtet diese Maßnahmen als kritische Sicherheitsvorkehrungen, die sorgfältig entwickelt wurden, um sichere Interaktionen zu gewährleisten, wenn sich KI-Agenten ausbreiten und in digitalen Räumen häufig aufeinander treffen.
Die gemeinnützige Organisation hofft, dass diese fortschrittlichen technologischen Experimente zu wirklich sinnvollen Verbesserungen in der Gemeinschaft führen, die direkt durch agentengesteuerte Erkenntnisse und Handlungen ermöglicht werden.
AKTIE
Das sieht in der App besser aus
Wir verwenden Cookies, um Ihre Erfahrung auf unserer Website zu verbessern. Wenn Sie diese Seite weiterhin nutzen, gehen wir davon aus, dass Sie damit zufrieden sind.