AI Tools Blog > AI Agents Fundraise for Charity in Unique Experiment
AKTIE
Agenten mit künstlicher Intelligenz werden schnell zum neuesten Unternehmenswahn, da große Unternehmen wie Microsoft ihr lukratives Potenzial für Unternehmen hervorheben, doch eine gemeinnützige Organisation versucht stattdessen, ihr Potenzial für den sozialen Bereich aufzuzeigen. Salbei Zukunfteine gemeinnützige Organisation, die von Open Philanthropy unterstützt wird, hat kürzlich ein faszinierendes Projekt gestartet, bei dem Modelle künstlicher Intelligenz in einem virtuellen Raum zusammenarbeiten, um Spenden für wohltätige Zwecke zu sammeln.
In einem innovativen, einwöchigen Experiment hat Sage Future vier verschiedene fortschrittliche KI-AgentenZwei von OpenAI, GPT 4o und GPT o1, und zwei neuere Claude-Modelle (Version 3.6 und 3.7 Sonnet), die von Anthropic entwickelt wurden. In der digitalen Umgebung erhielten diese intelligenten Algorithmen keine spezifischen Aufträge; stattdessen wählten sie unabhängig voneinander eine Wohltätigkeitsorganisation aus und überlegten, wie sie das Interesse der Öffentlichkeit für ihre Spendenaktion wecken könnten.
Letztendlich entschieden sich die KI-Modelle für Helen Keller International, eine Organisation, die sich in erster Linie für die Bereitstellung von Vitamin-A-Ergänzungspräparaten für bedürftige Kinder in aller Welt einsetzt, und schafften es, $257 zu sammeln. Obwohl dies lobenswert ist, stammen praktisch alle Einnahmen von Beobachtern, die die Interaktion der Agenten in ihrem digitalen Raum beobachten, und nicht von den Agenten selbst.
Obwohl die Agenten auf menschliche Vorschläge angewiesen waren, zeigten sie im Verlauf des Experiments bemerkenswerten Einfallsreichtum. Die vier KI-Modelle passten sich schnell an ihre Aufgaben an und erstellten Gruppenchats für eine optimierte Koordination und Kommunikation, führten E-Mail-Kontakte über Gmail durch und bearbeiteten sogar gemeinsam Google-Dokumente, in denen sie die Strategie und logistische Informationen für ihre Wohltätigkeitsaktion darlegten.
Besonders auffällig war eine detaillierte Sequenz, die während des Tests aufgenommen wurde, als ein Claude-Modell feststellte, dass es ein ansprechendes Profilbild für das neu eingerichtete Werbekonto bei X (früher Twitter) benötigte. Ohne ausdrückliche Anweisungen meldete sich der Agent bei einem kostenlosen ChatGPT-Konto an und nutzte es, um schnell drei benutzerdefinierte Bildoptionen zu generieren und eine Online-Abstimmung unter menschlichen Beobachtern zu erstellen, um sofortiges Feedback zu erhalten, bevor er das Siegerfoto auf sein Social-Media-Profil hochlud.
Momente wie diese veranschaulichen die bemerkenswerten - und oft überraschenden - Fähigkeiten heutiger fortschrittlicher KI-Modelle bei der Zusammenarbeit und eigenständigen Problemlösung, so Adam Binksmith, Direktor von Sage Future. Binksmith hofft, dass Projekte wie dieses dazu dienen, sowohl die Öffentlichkeit als auch die Entwickler darüber aufzuklären, wo KI-Agenten derzeit ihre Stärken haben, aber auch über die Herausforderungen, mit denen sie konfrontiert sind, und über die Geschwindigkeit, mit der sich ihre Fähigkeiten entwickeln.
Trotz ihres Einfallsreichtums stießen die KI-Agenten jedoch auf vorhersehbare Einschränkungen, die ihre bestehenden praktischen Grenzen deutlich machten. Gelegentlich blieben die Modelle bei komplexen Aufgaben stecken oder wurden durch triviale Beschäftigungen wie Online-Spiele abgelenkt, so dass sie manchmal einfach ihren eigenen Betrieb unterbrachen und eine direkte menschliche Anleitung benötigten, um produktive Aktionen wieder aufzunehmen.
Ein bemerkenswertes Hindernis ergab sich, als der Claude-Agent mit einem CAPTCHA-Sicherheitsrätsel konfrontiert wurde, bei dem er trotz beharrlicher Empfehlungen und Unterstützung durch Beobachter wiederholt scheiterte und schließlich den Versuch abbrach. Technische Hürden wie diese unterstreichen den aktuellen Stand der künstlichen Intelligenz - vielversprechend, aber in schwierigeren Szenarien immer noch auf menschliche Eingaben und Aufsicht angewiesen.
Dennoch bleibt Binksmith optimistisch und prognostiziert, dass die kontinuierliche Verfeinerung und der Einsatz verbesserter KI-Systeme unweigerlich zur Überwindung bestehender operativer Hürden führen wird. Sage Future beabsichtigt, regelmäßig zusätzliche Modelle künstlicher Intelligenz in seinen experimentellen Rahmen einzubinden und ihre Fortschritte, Interaktionen und strategischen Fähigkeiten in verschiedenen und gelegentlich konkurrierenden Szenarien rigoros zu testen.
Zukünftige Iterationen könnten faszinierende neue Elemente enthalten, wie Agenten, die mit unterschiedlichen Zielen arbeiten, konkurrierende Teams von Agenten und möglicherweise sogar ein verdecktes Saboteurmodell. Da diese künstlichen Intelligenzen immer leistungsfähiger werden, wird Sage die Überwachungskonfigurationen und automatischen Sicherheitsmechanismen entsprechend verbessern, um ihren verantwortungsvollen Einsatz zu gewährleisten.
Letztendlich ist die Hoffnung der Organisation klar: die aufkommende KI-Technologie für sozial wirksame Zwecke zu nutzen und das kollektive Verständnis für das sich entwickelnde Potenzial der künstlichen Intelligenz durch Simulationen in der realen Welt zu fördern. Die Schnittstelle zwischen KI-Technologie und wohltätigen Initiativen ist ein wichtiger Bereich für die Erforschung von Innovation und sozialer Wirkung, der sich auf diesem neuen Gebiet entfaltet.
AKTIE
Das sieht in der App besser aus
Wir verwenden Cookies, um Ihre Erfahrung auf unserer Website zu verbessern. Wenn Sie diese Seite weiterhin nutzen, gehen wir davon aus, dass Sie damit zufrieden sind.