Críticas

A captação de recursos para instituições beneficentes com agentes de IA é o futuro agora

ai-agentes-fundraising-for-charities-is-the-future-now

As corporações de tecnologia, incluindo gigantes como a Microsoft, geralmente destacam Agentes de IA como plataformas para aumentar a eficiência dos negócios e os ganhos econômicos, mas há um interesse crescente em mostrar seus possíveis benefícios também para fins altruístas. Uma organização sem fins lucrativos, Futuro da SageA Open Philanthropy Inc., apoiada financeiramente pela Open Philanthropy, recentemente deu início a um esforço exploratório com um quarteto de modelos avançados de IA designados para realizar a captação de recursos de caridade inteiramente em uma interface virtual.

Diferentemente das implementações comerciais padrão, esses modelos de "agentes" incluíam dois dos novos sistemas proeminentes da OpenAI, conhecidos como GPT-4o e GPT-o1, juntamente com os modelos Claude de ponta da Anthropic, especificamente as versões 3.6 e 3.7 Sonnet. Esses modelos autônomos foram intrigantemente autorizados a ter total autonomia para determinar de forma independente a escolha da instituição de caridade e dos métodos criativos para atrair a atenção do público e incentivar as contribuições de caridade.

O experimento produziu resultados notáveis após aproximadamente sete dias, culminando em doações monetárias no total de $257, que beneficiaram a Helen Keller International, uma instituição de caridade bem conceituada por fornecer suplementos essenciais de vitamina A a crianças vulneráveis em todo o mundo. Embora impressionante como demonstração técnica, a arrecadação de fundos não foi totalmente independente, considerando que as doações se originaram principalmente de espectadores humanos que ofereceram sugestões de entrada e orientação para os modelos de IA, além de contribuições financeiras.

Apesar dessas limitações, Adam Binksmith, que atua como diretor da Sage Future, mantém a confiança na importância do projeto, enfatizando sua demonstração prática do escopo atual e das limitações dos recursos dos agentes de IA. Binksmith destaca como esses insights são essenciais, afirmando claramente em uma entrevista que o público merece transparência sobre o que essas tecnologias incrivelmente promissoras são capazes de alcançar de forma realista e quais desafios ainda estão por vir.

Capacidades impressionantes e desafios inesperados

Surpreendentemente, esse grupo de agentes mostrou-se altamente engenhoso em seus esforços, colaborando de forma eficaz por meio de uma interface coordenada de mensagens em grupo e utilizando ferramentas prontamente disponíveis on-line, como a manutenção de contas do Gmail especificamente configuradas para campanhas de e-mail. Além do e-mail, os agentes colaboraram sem esforço no Google Docs, realizaram uma pesquisa minuciosa para determinar a quantia de dinheiro exigida pela Helen Keller International para causar um impacto significativo na vida das crianças (aproximadamente $3.500 por vida salva) e chegaram ao ponto de estabelecer presença na mídia social criando contas promocionais no X.

Binksmith destacou um incidente particularmente notável envolvendo um dos modelos de Claude, que revelou a criatividade e a iniciativa do agente na solução de problemas. Quando precisou de uma foto de perfil adequada para seu perfil X, esse agente criou proativamente uma conta gratuita no ChatGPT, produziu várias opções de imagens, realizou uma pesquisa on-line entre participantes humanos para determinar a opção preferida, baixou posteriormente a imagem selecionada e atualizou com êxito seu perfil de mídia social, demonstrando um exemplo notável de autonomia adaptativa.

Entretanto, esses avanços não deixam de reconhecer os obstáculos significativos que os agentes encontraram. Em vários momentos, surgiram dificuldades técnicas em que os agentes pareciam ter restrições de progresso ou direção, o que levou à intervenção necessária de supervisores humanos que forneceram feedback suplementar para corrigir o problema.

É importante observar que ocorreram distrações ocasionais, como o envolvimento inesperado com jogos baseados na Internet, como o World, o que levou a interrupções improdutivas. Em um caso, o GPT-4o chegou a suspender temporariamente suas atividades de forma espontânea, interrompendo seu fluxo de trabalho por aproximadamente uma hora sem nenhuma explicação imediata disponível, destacando algum nível de imprevisibilidade.

Em relação às futuras iterações do projeto, Binksmith continua esperançoso e confiante na implantação de agentes de IA mais avançados, capazes de superar esses obstáculos técnicos de forma independente. A Sage Future planeja ajustes contínuos no experimento, prometendo incorporar modelos em constante evolução com habilidades cada vez mais sofisticadas para avaliar sua viabilidade e possível eficiência em cenários do mundo real.

Os testes futuros que estão sendo considerados pela organização sem fins lucrativos incluem a atribuição de objetivos distintos, competitivos ou harmonizados a vários grupos de agentes, acrescentando dinâmicas intrigantes, incluindo a possível introdução de um agente sabotador secreto. Além disso, Binksmith prevê a necessidade crítica de soluções robustas de supervisão técnica para garantir que esses participantes de IA cada vez mais capazes operem de forma segura e ética.

À medida que a Sage Future avança na exploração dessas experiências inovadoras orientadas por IA, a maior esperança da organização permanece positivamente orientada para a realização filantrópica genuína. O sucesso aqui não será medido apenas por demonstrações tecnológicas avançadas, mas sim por impactos tangíveis que melhorem vidas humanas em todo o mundo.

COMPARTILHAR

Adicionar um comentário

Isso fica melhor no aplicativo

Usamos cookies para melhorar sua experiência em nosso site. Se você continuar a usar este site, presumiremos que está satisfeito com ele.

Login / Registro

Participe da maior comunidade de IA e descubra as mais recentes ferramentas de IA, tutoriais úteis e ofertas exclusivas.