Críticas

Agentes de IA recaudan fondos para obras benéficas en un experimento único

ai-agents-fundraise-for-charity-in-unique-experiment

Los agentes de inteligencia artificial se están convirtiendo rápidamente en la última moda corporativa, ya que grandes empresas como Microsoft destacan su potencial lucrativo para las empresas, pero una organización sin ánimo de lucro pretende mostrar su potencial para el bien social. Sage Futurouna organización sin ánimo de lucro respaldada por Open Philanthropy, ha puesto en marcha recientemente un interesante proyecto en el que modelos de inteligencia artificial colaboran en un espacio virtual para recaudar donativos.

En un innovador experimento de una semana de duración, Sage Future desplegó cuatro avanzadas Agentes de IAdos de OpenAI denominados GPT 4o y GPT o1, y dos modelos más recientes de Claude (versiones 3.6 y 3.7 Sonnet) desarrollados por Anthropic. En el entorno digital, estos algoritmos inteligentes no recibieron órdenes específicas, sino que seleccionaron de forma independiente una organización benéfica y elaboraron estrategias sobre cómo generar interés público en su empresa de recaudación de fondos.

Al final, los modelos de IA eligieron a Helen Keller International, una organización dedicada principalmente a suministrar suplementos de vitamina A a niños vulnerables de todo el mundo, y consiguieron recaudar $257. Aunque loable, prácticamente toda la recaudación procedía de observadores que veían a los agentes interactuar en su espacio digital, más que de esfuerzos orgánicos de los propios agentes.

A pesar de depender de sugerencias humanas, los agentes demostraron un notable ingenio a medida que se desarrollaba el experimento. Adaptándose rápidamente a sus tareas, los cuatro modelos de IA crearon chats de grupo para agilizar la coordinación y la comunicación, llevaron a cabo actividades de difusión por correo electrónico a través de Gmail e incluso editaron conjuntamente documentos de Google compartidos en los que se esbozaba la estrategia y la información logística para su campaña benéfica.

Se revelan capacidades inesperadas de los agentes de IA

Especialmente llamativa fue una secuencia detallada captada durante la prueba, cuando un modelo de Claude se dio cuenta de que necesitaba una foto de perfil atractiva para la cuenta promocional recién creada en X (antes Twitter). Sin instrucciones explícitas, el agente se dio de alta en una cuenta gratuita de ChatGPT y la utilizó para generar rápidamente tres opciones de imagen personalizadas, creando una encuesta de visualización en línea entre observadores humanos para obtener comentarios inmediatos, antes de subir la foto ganadora a su perfil en las redes sociales.

Momentos como estos ilustran las notables -y a menudo sorprendentes- capacidades que demuestran los modelos avanzados de IA actuales cuando colaboran y resuelven problemas de forma independiente, según Adam Binksmith, director de Sage Future. Binksmith espera que proyectos como éste sirvan para educar tanto al público como a los desarrolladores sobre los aspectos en los que destacan actualmente los agentes de IA, así como sobre los retos a los que se enfrentan y la velocidad a la que se desarrollan sus capacidades.

Sin embargo, a pesar de su ingenio, los agentes de IA se enfrentaban a limitaciones previsibles que ponían de manifiesto sus límites prácticos. En ocasiones, los modelos se atascaban en tareas complejas o se distraían con actividades triviales, como los juegos en línea, y se limitaban a interrumpir su propio funcionamiento, por lo que necesitaban orientación humana directa para reanudar las acciones productivas.

Un obstáculo notable surgió cuando el agente Claude se enfrentó a un rompecabezas de seguridad CAPTCHA y, a pesar de las insistentes recomendaciones y la ayuda ofrecida por los observadores, falló repetidamente y finalmente abandonó el intento. Obstáculos técnicos como estos ponen de manifiesto el estado actual de la inteligencia artificial: muy prometedora, pero aún necesitada de la intervención y supervisión humanas en los escenarios más difíciles.

Sin embargo, Binksmith sigue siendo optimista y prevé que el continuo perfeccionamiento y despliegue de sistemas de IA mejorados superará inevitablemente los obstáculos operativos existentes. Sage Future aspira a incorporar regularmente nuevos modelos de inteligencia artificial a su marco experimental, probando rigurosamente sus avances, interacciones y capacidades estratégicas en escenarios variados y ocasionalmente competitivos.

Las iteraciones futuras pueden incluir nuevos elementos intrigantes, como agentes que trabajen con objetivos distintos, equipos competitivos de agentes y, posiblemente, incluso un modelo de saboteador encubierto implicado. A medida que estas inteligencias artificiales se vuelvan cada vez más competentes, Sage mejorará en consecuencia las configuraciones de supervisión y los mecanismos de seguridad automatizados para garantizar su despliegue responsable.

En última instancia, la esperanza de la organización es clara: aprovechar la tecnología de IA emergente para causas con impacto social y avanzar en la comprensión colectiva del potencial evolutivo de la inteligencia artificial a través de simulaciones en el mundo real. A medida que se despliega esta nueva frontera, la intersección entre la tecnología de la IA y las iniciativas benéficas representa una poderosa área de exploración para la innovación y el impacto social.

COMPARTIR

Añadir un comentario

Esto se ve mejor en la aplicación

Utilizamos cookies para mejorar su experiencia en nuestro sitio. Si continúa navegando, consideramos que acepta su uso.

Conectarse / Registrarse

Únase a la mayor comunidad de IA y descubra las últimas herramientas de IA, tutoriales útiles y ofertas exclusivas.