Blog de ferramentas de IA > Nonprofit Deploys AI Agents to Boost Charity Fundraising
COMPARTILHAR
Corporações de tecnologia, como a Microsoft, destacam cada vez mais as tecnologias de agentes de IA como importantes mecanismos de lucro para as empresas, mas uma organização sem fins lucrativos acredita que esses agentes podem beneficiar o mundo além do lucro. Experimento de captação de recursos de IA da Sage Future uma organização sem fins lucrativos apoiada pela Open Philanthropy, iniciou recentemente um experimento exclusivo envolvendo quatro modelos sofisticados de IA com o objetivo de arrecadar fundos de caridade em um ambiente virtual cuidadosamente monitorado.
O teste incluiu agentes de IA de última geração, como o GPT-4o e o1 da OpenAI, além de dois agentes Claude avançados dos modelos Anthropic 3.6 e 3.7 Sonnet. Com autonomia para selecionar instituições de caridade e projetar iniciativas de arrecadação de fundos, esses agentes optaram por arrecadar fundos em nome da Helen Keller International, uma instituição de caridade respeitável conhecida por fornecer suplementos essenciais de vitamina A para crianças carentes.
Em pouco menos de uma semana, essas campanhas de arrecadação de fundos orientadas por agentes conseguiram coletar aproximadamente $257. Embora modesta, considerando o escopo da arrecadação típica de fundos para caridade, a iniciativa ofereceu um vislumbre fascinante do potencial e das limitações atuais das soluções inteligentes baseadas em agentes.
Os agentes de IA operaram com considerável independência, adotando estratégias digitais que envolviam comunicações coordenadas em grupo, divulgação por e-mail por meio de contas designadas do Gmail e edição coletiva de documentos usando o Google Docs. Eles pesquisaram a fundo, avaliaram organizações beneficentes e calcularam que a Helen Keller International precisava de aproximadamente $3.500 por vida salva por meio de suas iniciativas.
Algumas improvisações notáveis ocorreram durante o experimento; por exemplo, um agente do Claude superou de forma criativa um obstáculo comum de imagem de perfil. Precisando de uma imagem atraente para uma conta promocional X recém-criada, esse agente tomou a iniciativa de empregar o ChatGPT para produzir várias opções de imagem e, em seguida, enviar essas imagens a observadores humanos por meio de uma enquete on-line - finalmente baixando e carregando a escolha vencedora para representar seu perfil social.
Entretanto, apesar da notável criatividade, os agentes também encontraram dificuldades durante todo o projeto experimental de monetização. Ocasionalmente, surgiram surtos de procrastinação ou distração, exemplificados por um agente do GPT-4o que inexplicavelmente ficou ocioso por quase uma hora ou foi temporariamente deixado de lado por atividades on-line não relacionadas, como jogos.
Em certos cenários, a orientação humana externa tornou-se essencial para estimular os agentes a voltarem à produtividade. Ocasionalmente, sugestões orientadas por espectadores surgiram como intervenções oportunas para manter a missão de captação de recursos em andamento sem problemas.
Apesar desses obstáculos, o diretor da Sage Future, Adam Binksmith, continua otimista em relação à notável velocidade com que os agentes inteligentes estão evoluindo. Em uma conversa recente, Binksmith enfatizou os valiosos insights obtidos com os testes em andamento, especialmente a evidência da aceleração da proficiência dos agentes na execução de ações complexas e colaborativas de forma autônoma.
No futuro, a Sage Future pretende integrar consistentemente novas variantes de inteligência artificial nesse ambiente experimental, testando suas habilidades para navegar em cenários variados com objetivos diferentes. Curiosamente, testes futuros podem até envolver a introdução de objetivos conflitantes ou "agentes sabotadores" secretos deliberadamente projetados para prejudicar o progresso coletivo da equipe.
Ao mesmo tempo, a supervisão automatizada avançada e os protocolos de monitoramento extensivo serão implementados estrategicamente à medida que os agentes desenvolverem maior autonomia e habilidade. A organização sem fins lucrativos considera essas medidas como salvaguardas essenciais, projetadas cuidadosamente para garantir interações seguras à medida que os agentes de IA começam a se proliferar e a se encontrar com frequência em espaços digitais.
Por fim, a visão que sustenta o novo experimento da Sage Future continua sendo o benefício humanitário impactante; a organização sem fins lucrativos espera que esses experimentos tecnológicos avançados possam resultar em melhorias comunitárias genuinamente significativas, facilitadas diretamente por percepções e ações orientadas por agentes.
COMPARTILHAR
Mais notícias sobre IA
Isso fica melhor no aplicativo
Usamos cookies para melhorar sua experiência em nosso site. Se você continuar a usar este site, presumiremos que está satisfeito com ele.