Critiqs

Un organisme à but non lucratif déploie des agents d'intelligence artificielle pour stimuler la collecte de fonds à des fins caritatives

Les organisations à but non lucratif font appel à des agents d'intelligence artificielle pour stimuler la collecte de fonds à des fins caritatives

Les entreprises technologiques telles que Microsoft mettent de plus en plus en avant les technologies d'agents d'intelligence artificielle comme des moteurs de profit importants pour les entreprises, mais une organisation à but non lucratif estime que ces agents peuvent bénéficier au monde entier au-delà du seul profit. L'expérience de Sage Future en matière de collecte de fonds par l'IA une organisation à but non lucratif soutenue par Open Philanthropy, a récemment lancé une expérience unique impliquant quatre modèles d'IA sophistiqués visant à collecter des fonds caritatifs dans un cadre virtuel soigneusement contrôlé.

L'essai comprenait des agents d'IA de pointe tels que GPT-4o et o1 d'OpenAI, ainsi que deux agents Claude avancés issus des modèles Anthropic 3.6 et 3.7 Sonnet. Ces agents ont choisi de collecter des fonds pour le compte de Helen Keller International, une organisation caritative réputée pour fournir des suppléments de vitamine A aux enfants dans le besoin.

En un peu moins d'une semaine, ces campagnes de collecte de fonds pilotées par des agents ont permis de récolter environ $257. Bien que modeste au regard de la portée d'une collecte de fonds caritative classique, l'initiative offre un aperçu fascinant du potentiel actuel et des limites des solutions intelligentes basées sur des agents.

Les agents d'intelligence artificielle ont fait preuve d'une grande indépendance, adoptant des stratégies numériques impliquant des communications de groupe coordonnées, une sensibilisation par courrier électronique via des comptes Gmail assignés et l'édition collective de documents à l'aide de Google Docs. Ils ont effectué des recherches approfondies, évalué les organisations caritatives et calculé que Helen Keller International avait besoin d'environ $3 500 par vie sauvée grâce à leurs initiatives.

Une surprenante démonstration de l'ingéniosité de l'IA

Certaines improvisations remarquables ont eu lieu au cours de l'expérience ; par exemple, un agent de Claude a surmonté de manière créative un obstacle courant en matière de photo de profil. Ayant besoin d'une image attrayante pour un compte X promotionnel fraîchement créé, cet agent a pris l'initiative d'utiliser ChatGPT pour produire plusieurs options d'images, puis de soumettre ces images à des observateurs humains par le biais d'un sondage en ligne - pour finalement télécharger et mettre en ligne le choix gagnant pour représenter son profil social.

Cependant, malgré une créativité notable, les agents ont également rencontré des difficultés tout au long du projet expérimental de monétisation. Des crises de procrastination ou de distraction sont apparues occasionnellement, comme l'illustre le fait qu'un agent GPT-4o est resté inexplicablement inactif pendant près d'une heure ou a été temporairement mis à l'écart par des activités en ligne sans rapport avec le sujet, comme les jeux.

Dans certains cas, une aide humaine extérieure s'est avérée essentielle pour ramener les agents à la productivité. Les suggestions des spectateurs sont parfois arrivées à point nommé pour que leur mission de collecte de fonds se poursuive sans heurts.

Malgré ces obstacles, Adam Binksmith, directeur de Sage Future, reste optimiste quant à la vitesse remarquable à laquelle les agents intelligents évoluent. Lors d'une récente conversation, M. Binksmith a mis l'accent sur les enseignements précieux tirés des tests en cours, en particulier les preuves de l'accélération de la compétence des agents dans l'exécution d'actions complexes et collaboratives de manière autonome.

Sage Future a l'intention d'intégrer régulièrement de nouvelles variantes d'intelligence artificielle dans cet environnement expérimental, en testant leur capacité à naviguer dans des scénarios variés avec des objectifs différents. De manière intrigante, les essais futurs pourraient même impliquer l'introduction d'objectifs contradictoires ou d'"agents saboteurs" secrets délibérément conçus pour saper les progrès collectifs de l'équipe.

Simultanément, une supervision automatisée avancée et des protocoles de contrôle étendus seront mis en œuvre de manière stratégique à mesure que les agents développeront une plus grande autonomie et de meilleures compétences. L'association considère ces mesures comme des garde-fous essentiels, conçus avec soin pour garantir des interactions sûres à mesure que les agents d'IA commencent à proliférer et à se rencontrer fréquemment dans les espaces numériques.

En fin de compte, la vision qui sous-tend l'expérience novatrice de Sage Future reste l'impact humanitaire ; l'organisation à but non lucratif espère que ces expériences technologiques avancées se traduiront par des améliorations véritablement significatives pour les communautés, facilitées directement par des idées et des actions pilotées par des agents.

PARTAGER

Ajouter un commentaire

C'est mieux dans l'application

Nous utilisons des cookies pour améliorer votre expérience sur notre site. Si vous continuez à utiliser ce site, nous supposerons que vous en êtes satisfait.

Se connecter / S'inscrire

Rejoignez la plus grande communauté d'IA et découvrez les derniers outils d'IA, des tutoriels utiles et des offres exclusives.