Críticas

Una organización sin ánimo de lucro utiliza agentes de IA para aumentar la recaudación de fondos benéficos

nonprofit-deploys-ai-agents-to-boost-charity-fundraising

Empresas tecnológicas como Microsoft destacan cada vez más las tecnologías de agentes de IA como grandes motores de beneficios para las empresas, pero una organización sin ánimo de lucro cree que estos agentes pueden beneficiar al mundo más allá del mero lucro. Experimento de recaudación de fondos con IA de Sage Future una organización sin ánimo de lucro respaldada por Open Philanthropy, ha iniciado recientemente un experimento único en el que participan cuatro sofisticados modelos de IA con el objetivo de recaudar fondos benéficos en un entorno virtual cuidadosamente supervisado.

El ensayo incluyó agentes de IA de última generación como GPT-4o y o1 de OpenAI, además de dos agentes Claude avanzados de los modelos antrópicos 3.6 y 3.7 Sonnet. Con autonomía para seleccionar organizaciones benéficas y diseñar iniciativas de recaudación de fondos, estos agentes optaron por recaudar fondos en nombre de Helen Keller International, una reputada organización benéfica conocida por suministrar suplementos de vitamina A a niños necesitados.

En poco menos de una semana, estas campañas de recaudación de fondos impulsadas por agentes consiguieron reunir aproximadamente $257. Aunque modesta si se tiene en cuenta el alcance de la recaudación de fondos benéfica típica, la iniciativa ofreció una visión fascinante del potencial y las limitaciones actuales a las que se enfrentan las soluciones inteligentes basadas en agentes.

Los agentes de IA operaron con considerable independencia, adoptando estrategias digitales que incluían comunicaciones de grupo coordinadas, difusión por correo electrónico a través de cuentas de Gmail asignadas y edición colectiva de documentos mediante Google Docs. Investigaron a fondo, evaluaron organizaciones benéficas y calcularon que Helen Keller International necesitaba aproximadamente $3.500 por vida salvada gracias a sus iniciativas.

Sorprendente exhibición de ingenio de la IA

Durante el experimento se produjeron algunas improvisaciones notables; por ejemplo, un agente de Claude superó con creatividad un obstáculo habitual en las fotos de perfil. Este agente, que necesitaba una imagen atractiva para una cuenta X promocional recién creada, tomó la iniciativa empleando ChatGPT para producir varias opciones de imagen y, a continuación, sometió estas imágenes a observadores humanos a través de una encuesta en línea, descargando y cargando finalmente la opción ganadora para representar su perfil social.

Sin embargo, a pesar de su notable creatividad, los agentes también encontraron dificultades a lo largo del proyecto experimental de monetización. Ocasionalmente aparecieron episodios de procrastinación o distracción, como cuando uno de los agentes GPT-4o permaneció inexplicablemente inactivo durante casi una hora o se dejó de lado temporalmente por actividades en línea no relacionadas, como los juegos.

En algunos casos, la orientación humana externa resultó esencial para impulsar a los agentes hacia la productividad. Las sugerencias de los espectadores llegaron en ocasiones como intervenciones oportunas para que su misión de recaudación de fondos siguiera avanzando sin problemas.

A pesar de estos escollos, Adam Binksmith, Director de Sage Future, sigue siendo optimista respecto a la notable velocidad a la que evolucionan los agentes inteligentes. En una conversación reciente, Binksmith destacó las valiosas conclusiones extraídas de las pruebas en curso, en particular la aceleración de la destreza de los agentes para realizar acciones complejas y colaborativas de forma autónoma.

De cara al futuro, Sage Future tiene la intención de integrar constantemente nuevas variantes de inteligencia artificial en este entorno experimental, poniendo a prueba sus capacidades para navegar por distintos escenarios con diferentes objetivos. Curiosamente, las pruebas futuras podrían incluso incluir la introducción de objetivos conflictivos o "agentes saboteadores" secretos diseñados deliberadamente para socavar el progreso colectivo del equipo.

Simultáneamente, se implantarán estratégicamente una supervisión automatizada avanzada y amplios protocolos de vigilancia a medida que los agentes desarrollen mayor autonomía y destreza. La organización sin ánimo de lucro considera que estas medidas son salvaguardas fundamentales, diseñadas cuidadosamente para garantizar interacciones seguras a medida que los agentes de IA empiecen a proliferar y a encontrarse con frecuencia en los espacios digitales.

En última instancia, la visión que sustenta el novedoso experimento de Sage Future sigue siendo el beneficio humanitario impactante; la organización sin ánimo de lucro espera que estos experimentos tecnológicos avanzados puedan dar lugar a mejoras comunitarias verdaderamente significativas facilitadas directamente por percepciones y acciones impulsadas por agentes.

COMPARTIR

Añadir un comentario

Esto se ve mejor en la aplicación

Utilizamos cookies para mejorar su experiencia en nuestro sitio. Si continúa navegando, consideramos que acepta su uso.

Conectarse / Registrarse

Únase a la mayor comunidad de IA y descubra las últimas herramientas de IA, tutoriales útiles y ofertas exclusivas.