Critiqs

Un'organizzazione non profit impiega agenti di intelligenza artificiale per incrementare la raccolta di fondi per beneficenza

le organizzazioni non profit impiegano gli agenti-ai per incrementare la raccolta di fondi per beneficenza

Aziende tecnologiche come Microsoft mettono sempre più in evidenza le tecnologie degli agenti di intelligenza artificiale come motori di profitto per le imprese, ma un'organizzazione no-profit ritiene che questi agenti possano portare benefici al mondo al di là del solo profitto. L'esperimento di raccolta fondi AI di Sage Future un'organizzazione senza scopo di lucro sostenuta da Open Philanthropy, ha recentemente avviato un esperimento unico nel suo genere che coinvolge quattro sofisticati modelli di intelligenza artificiale con l'obiettivo di raccogliere fondi di beneficenza in un ambiente virtuale attentamente monitorato.

La sperimentazione ha incluso agenti AI allo stato dell'arte, come GPT-4o e o1 di OpenAI, oltre a due agenti Claude avanzati dei modelli Anthropic 3.6 e 3.7 Sonnet. Avendo l'autonomia di selezionare gli enti di beneficenza e di progettare iniziative di raccolta fondi, questi agenti hanno scelto di raccogliere fondi per conto di Helen Keller International, un'organizzazione benefica rinomata per la fornitura di integratori di vitamina A ai bambini bisognosi.

In poco meno di una settimana, queste campagne di raccolta fondi guidate dagli agenti sono riuscite a raccogliere circa $257. Pur essendo modesta se si considera la portata della tipica raccolta di fondi per beneficenza, l'iniziativa ha offerto uno sguardo affascinante sul potenziale e sui limiti attuali delle soluzioni intelligenti basate su agenti.

Gli agenti dell'intelligenza artificiale hanno operato con notevole indipendenza, adottando strategie digitali che prevedevano comunicazioni di gruppo coordinate, invio di e-mail tramite account Gmail assegnati e redazione collettiva di documenti con Google Docs. Hanno fatto ricerche approfondite, valutato organizzazioni caritatevoli e calcolato che Helen Keller International richiedeva circa $3.500 per ogni vita salvata grazie alle loro iniziative.

Una sorprendente esibizione dell'ingegnosità dell'intelligenza artificiale

Durante l'esperimento si sono verificate alcune improvvisazioni degne di nota; ad esempio, un agente Claude ha superato in modo creativo un comune ostacolo relativo all'immagine del profilo. Avendo bisogno di un'immagine accattivante per un account X promozionale appena creato, questo agente ha preso l'iniziativa impiegando ChatGPT per produrre più opzioni di immagine, sottoponendo poi queste immagini a osservatori umani tramite un sondaggio online - infine scaricando e caricando la scelta vincente per rappresentare il suo profilo sociale.

Tuttavia, nonostante la notevole creatività, gli agenti hanno incontrato difficoltà durante il progetto sperimentale di monetizzazione. Di tanto in tanto sono emersi attacchi di procrastinazione o distrazione, come nel caso di un agente GPT-4o che è rimasto inspiegabilmente inattivo per quasi un'ora o è stato temporaneamente messo da parte da attività online non correlate, come il gioco.

In alcuni scenari, la guida umana esterna è diventata essenziale per spingere gli agenti a tornare alla produttività. I suggerimenti degli spettatori sono arrivati occasionalmente come interventi tempestivi per far sì che la loro missione di raccolta fondi procedesse senza intoppi.

Nonostante questi ostacoli, il direttore di Sage Future Adam Binksmith rimane ottimista riguardo alla notevole velocità con cui gli agenti intelligenti si stanno evolvendo. In una recente conversazione, Binksmith ha sottolineato le preziose intuizioni ricavate dai test in corso, in particolare l'accelerazione della competenza degli agenti nell'esecuzione di azioni complesse e collaborative in modo autonomo.

In futuro, Sage Future intende integrare costantemente nuove varianti di intelligenza artificiale in questo ambiente sperimentale, testando le loro capacità di navigare in scenari diversi con obiettivi diversi. È interessante notare che le prove future potrebbero anche prevedere l'introduzione di obiettivi contrastanti o di "agenti sabotatori" segreti, deliberatamente progettati per minare i progressi collettivi della squadra.

Contemporaneamente, verranno implementati strategicamente una supervisione automatizzata avanzata e protocolli di monitoraggio estesi, man mano che gli agenti svilupperanno maggiore autonomia e abilità. L'organizzazione non profit considera queste misure come salvaguardie fondamentali, progettate con cura per garantire interazioni sicure quando gli agenti di intelligenza artificiale inizieranno a proliferare e a incontrarsi frequentemente negli spazi digitali.

In definitiva, la visione alla base del nuovo esperimento di Sage Future rimane quella di un beneficio umanitario d'impatto; l'organizzazione non profit spera che questi esperimenti tecnologici avanzati possano portare a miglioramenti davvero significativi per la comunità, facilitati direttamente da intuizioni e azioni guidate da agenti.

CONDIVIDI

Aggiungi un commento

L'aspetto è migliore nell'app

Utilizziamo i cookie per migliorare la vostra esperienza sul nostro sito. Se continuate a utilizzare questo sito, presumiamo che ne siate soddisfatti.

Accesso / Registrazione

Entrate a far parte della più grande comunità AI e scoprite gli ultimi strumenti AI, utili tutorial e offerte esclusive.