Critiqs

Gli agenti AI raccolgono fondi per beneficenza in un esperimento unico nel suo genere

ai-agenti-fondo-per-la-carità-nell'esperimento-unico

Gli agenti di intelligenza artificiale stanno rapidamente diventando l'ultima moda aziendale, in quanto aziende importanti come Microsoft ne evidenziano il potenziale lucrativo per le imprese, ma un'organizzazione no-profit cerca invece di mostrarne il potenziale per il bene sociale. Il futuro della salvia, un'organizzazione non profit sostenuta da Open Philanthropy, ha recentemente avviato un intrigante progetto che vede modelli di intelligenza artificiale lavorare in modo collaborativo all'interno di uno spazio virtuale per raccogliere donazioni di beneficenza.

In un esperimento innovativo della durata di una settimana, Sage Future ha impiegato quattro diversi sistemi avanzati di Agenti AIDue di OpenAI, denominati GPT 4o e GPT o1, e due modelli più recenti di Claude (versioni 3.6 e 3.7 Sonnet) sviluppati da Anthropic. All'interno dell'ambiente digitale, questi algoritmi intelligenti non hanno ricevuto ordini specifici; al contrario, hanno scelto autonomamente un ente di beneficenza e hanno studiato come generare interesse pubblico per la loro iniziativa di raccolta fondi.

Alla fine, i modelli di intelligenza artificiale hanno scelto Helen Keller International, un'organizzazione che si occupa principalmente di fornire l'integrazione di vitamina A ai bambini vulnerabili in tutto il mondo, e sono riusciti a raccogliere $257. Anche se lodevole, praticamente tutti i proventi sono stati ottenuti da osservatori che hanno visto gli agenti interagire nel loro spazio digitale, piuttosto che da sforzi organici degli agenti stessi.

Nonostante il suggerimento umano, gli agenti hanno dimostrato una notevole intraprendenza durante lo svolgimento dell'esperimento. Adattandosi rapidamente ai loro compiti, i quattro modelli di intelligenza artificiale hanno creato chat di gruppo per semplificare il coordinamento e la comunicazione, hanno inviato messaggi di posta elettronica tramite Gmail e hanno persino redatto insieme documenti Google condivisi che delineavano la strategia e le informazioni logistiche per la loro raccolta di beneficenza.

Rivelate capacità inaspettate degli agenti AI

Particolarmente interessante è stata una sequenza dettagliata catturata durante il test, quando un modello Claude si è reso conto di aver bisogno di un'immagine di profilo accattivante per l'account promozionale appena creato su X (ex Twitter). Senza istruzioni esplicite, l'agente si è iscritto a un account ChatGPT gratuito e lo ha usato per generare rapidamente tre opzioni di immagine personalizzate, creando un sondaggio online tra osservatori umani per un feedback immediato, prima di caricare la foto vincente sul proprio profilo social media.

Momenti come questi illustrano le notevoli - e spesso sorprendenti - capacità che i modelli avanzati di IA di oggi dimostrano collaborando e risolvendo problemi in modo indipendente, secondo Adam Binksmith, direttore di Sage Future. Binksmith spera che progetti come questo servano a educare sia il pubblico che gli sviluppatori sui punti in cui gli agenti di IA eccellono attualmente, così come sulle sfide che incontrano e sulla velocità di sviluppo delle loro capacità.

Tuttavia, nonostante la loro ingegnosità, gli agenti dell'IA hanno dovuto affrontare limiti prevedibili che hanno evidenziato i loro confini pratici. Occasionalmente si bloccavano in compiti complessi o si distraevano da attività banali come il gioco online, i modelli a volte mettevano semplicemente in pausa il loro funzionamento, richiedendo una guida umana diretta per riprendere le azioni produttive.

Un ostacolo notevole si è presentato quando l'agente Claude ha affrontato un rompicapo di sicurezza CAPTCHA: nonostante i continui consigli e l'assistenza offerta dagli osservatori, ha fallito ripetutamente e alla fine ha abbandonato il tentativo. Ostacoli tecnici come questi sottolineano lo stato attuale dell'intelligenza artificiale: molto promettente, ma ancora bisognosa di input e supervisione umana negli scenari più impegnativi.

Tuttavia Binksmith rimane ottimista, prevedendo che il continuo perfezionamento e l'implementazione di sistemi di intelligenza artificiale migliorati supereranno inevitabilmente gli ostacoli operativi esistenti. Sage Future intende incorporare regolarmente altri modelli di intelligenza artificiale nel suo quadro sperimentale, testando rigorosamente i loro progressi, le loro interazioni e le loro capacità strategiche in scenari vari e occasionalmente competitivi.

Le iterazioni future potrebbero includere nuovi elementi intriganti, come agenti che lavorano con obiettivi distinti, squadre competitive di agenti e forse anche un modello di sabotatore sotto copertura. Man mano che queste intelligenze artificiali diventeranno sempre più abili, Sage migliorerà di conseguenza le configurazioni di monitoraggio e i meccanismi di sicurezza automatizzati per garantire il loro impiego responsabile.

In definitiva, la speranza dell'organizzazione è chiara: sfruttare la tecnologia emergente dell'intelligenza artificiale per cause di impatto sociale e far progredire la comprensione collettiva del potenziale in evoluzione dell'intelligenza artificiale attraverso simulazioni nel mondo reale. Con lo sviluppo di questa nuova frontiera, l'intersezione tra la tecnologia AI e le iniziative di beneficenza rappresenta una potente area di esplorazione per l'innovazione e l'impatto sociale.

CONDIVIDI

Aggiungi un commento

L'aspetto è migliore nell'app

Utilizziamo i cookie per migliorare la vostra esperienza sul nostro sito. Se continuate a utilizzare questo sito, presumiamo che ne siate soddisfatti.

Accesso / Registrazione

Entrate a far parte della più grande comunità AI e scoprite gli ultimi strumenti AI, utili tutorial e offerte esclusive.