Blog sugli strumenti AI > AI Agents Fundraising for Charities Is the Future Now
CONDIVIDI
Le aziende tecnologiche, tra cui giganti come Microsoft, spesso puntano i riflettori su Agenti AI come piattaforme per aumentare l'efficienza aziendale e i guadagni economici, ma c'è un interesse crescente nel mostrare anche i loro potenziali benefici per scopi altruistici. Un'organizzazione non profit, Il futuro della salvia, sostenuta finanziariamente da Open Philanthropy, ha recentemente dato il via a uno sforzo esplorativo con un quartetto di modelli avanzati di intelligenza artificiale incaricati di effettuare raccolte di fondi di beneficenza interamente all'interno di un'interfaccia virtuale.
A differenza delle implementazioni commerciali standard, questi modelli "agenti" includevano due dei nuovi sistemi di spicco di OpenAI, noti come GPT-4o e GPT-o1, oltre ai modelli Claude all'avanguardia di Anthropic, in particolare le versioni 3.6 e 3.7 Sonnet. A questi modelli autonomi è stata concessa la piena autonomia di determinare in modo indipendente la scelta dell'ente di beneficenza e i metodi creativi per attirare l'attenzione del pubblico e incoraggiare i contributi di beneficenza.
L'esperimento ha dato risultati degni di nota dopo circa sette giorni, culminati in donazioni monetarie per un totale di $257, che sono andate a beneficio di Helen Keller International, un'organizzazione benefica ben nota per la fornitura di integratori di vitamina A ai bambini vulnerabili di tutto il mondo. Anche se impressionante come vetrina tecnica, la raccolta di fondi non è stata del tutto indipendente, dato che le donazioni sono state effettuate principalmente da spettatori umani che hanno offerto input e suggerimenti ai modelli di intelligenza artificiale, oltre a contributi finanziari.
Nonostante queste limitazioni, Adam Binksmith, direttore di Sage Future, mantiene la fiducia nell'importanza del progetto, sottolineando la sua dimostrazione pratica dell'attuale portata e dei limiti delle capacità degli agenti AI. Binksmith sottolinea l'essenzialità di questi approfondimenti, affermando chiaramente in un'intervista che il pubblico merita trasparenza su ciò che queste tecnologie incredibilmente promettenti sono realisticamente in grado di realizzare e sulle sfide che ancora ci attendono.
Sorprendentemente, questo gruppo di agenti si è dimostrato molto intraprendente nei suoi sforzi, collaborando efficacemente attraverso un'interfaccia di messaggistica di gruppo coordinata e utilizzando strumenti facilmente disponibili online, come il mantenimento di account Gmail appositamente creati per le campagne e-mail. Oltre alla posta elettronica, gli agenti hanno collaborato senza sforzo su Google Docs, hanno condotto ricerche approfondite per accertare la quantità di denaro necessaria a Helen Keller International per avere un impatto significativo sulla vita dei bambini (circa $3.500 per vita salvata) e si sono spinti fino a stabilire una presenza sui social media creando account promozionali su X.
Binksmith ha sottolineato un episodio particolarmente significativo che ha coinvolto uno dei modelli Claude e che ha rivelato la creatività e l'iniziativa dell'agente nella risoluzione dei problemi. Quando aveva bisogno di un'immagine adatta per il suo profilo X, questo agente ha creato proattivamente un account gratuito su ChatGPT, ha prodotto diverse opzioni di immagine, ha condotto un sondaggio online tra i partecipanti umani per determinare l'opzione preferita, ha poi scaricato l'immagine selezionata e ha aggiornato con successo il suo profilo sui social media, dimostrando un esempio lampante di autonomia adattiva.
Tuttavia, questi progressi non sono privi di riconoscimento degli ostacoli significativi incontrati dagli agenti. In vari momenti sono sorte difficoltà tecniche in cui gli agenti sembravano limitati nei progressi o nella direzione, rendendo necessario l'intervento di supervisori umani che hanno fornito un feedback supplementare per correggere il problema.
In particolare, si sono verificate distrazioni occasionali, come l'impegno inaspettato con giochi basati su Internet come World, che hanno portato a interruzioni improduttive. In un caso, GPT-4o ha addirittura sospeso temporaneamente le sue attività in modo spontaneo, interrompendo il flusso di lavoro per circa un'ora senza alcuna spiegazione immediata, evidenziando un certo livello di imprevedibilità.
Guardando alle future iterazioni del progetto, Binksmith rimane speranzoso e fiducioso nell'impiego di agenti AI più avanzati in grado di superare autonomamente questi ostacoli tecnici. Sage Future prevede continui aggiustamenti dell'esperimento, promettendo di incorporare modelli in continuo progresso con abilità sempre più sofisticate per valutarne la fattibilità e la potenziale efficienza in scenari reali.
Le prove future prese in considerazione dall'organizzazione no-profit includono l'assegnazione di obiettivi distinti, competitivi o armonizzati a gruppi di agenti multipli, aggiungendo dinamiche intriganti, tra cui l'eventuale introduzione di un agente sabotatore occulto. Inoltre, Binksmith prevede la necessità critica di solide soluzioni di supervisione tecnica per garantire che questi partecipanti all'IA, sempre più capaci, operino in modo sicuro ed etico.
Mentre Sage Future procede nell'esplorazione di queste esperienze innovative guidate dall'intelligenza artificiale, la più grande speranza dell'organizzazione rimane orientata positivamente verso un autentico successo filantropico. Il successo non si misurerà solo con dimostrazioni tecnologiche avanzate, ma piuttosto con impatti tangibili che migliorino le vite umane a livello globale.
CONDIVIDI
L'aspetto è migliore nell'app
Utilizziamo i cookie per migliorare la vostra esperienza sul nostro sito. Se continuate a utilizzare questo sito, presumiamo che ne siate soddisfatti.