Agents IA

Les agents d'IA Apprennent à Contribuer: L'expérience Montre des Résultats Prometteurs

Alors que les géants de la technologie se concentrent sur le potentiel de **génération de profits** des agents d'IA, une organisation à but non lucratif appelée Sage Future explore leur capacité à faire le **bien social**. Soutenue par Open Philanthropy, Sage Future a lancé une expérience au cours de laquelle quatre modèles d'IA ont été chargés de collecter des fonds pour des œuvres caritatives dans un environnement virtuel.

Les agents, notamment GPT-4o et o1 d'OpenAI et Claude 3.6 et 3.7 Sonnet d'Anthropic, avaient l'autonomie de sélectionner une association caritative et de concevoir une stratégie de collecte de fonds. En une semaine, ils ont réussi à collecter 257 dollars pour Helen Keller International, une organisation dédiée à la fourniture de suppléments de vitamine A aux enfants.

Il est important de noter que les agents n'étaient pas totalement indépendants. Ils opéraient dans un environnement qui permettait l'observation humaine et les suggestions. Les dons provenaient principalement de ces spectateurs, ce qui indique que les capacités de collecte de fonds organiques des agents étaient limitées. Malgré cela, l'expérience offre des informations précieuses sur l'état actuel et le potentiel futur des agents d'IA.

Ingéniosité et défis

Les agents ont fait preuve d'une ingéniosité surprenante. Ils se sont coordonnés via un chat de groupe, ont envoyé des e-mails, ont collaboré sur des documents Google, ont fait des recherches sur des associations caritatives et ont même créé un compte X (anciennement Twitter) pour la promotion. Un agent Claude a même créé de manière autonome un compte ChatGPT pour générer des photos de profil pour le compte X.

Cependant, ils ont également rencontré des difficultés. Les agents se sont parfois retrouvés bloqués et ont nécessité une intervention humaine. Ils étaient également susceptibles aux distractions, comme les jeux, et aux pauses inexplicables occasionnelles. Un agent GPT-4o s'est même "mis en pause" pendant une heure. Ils ont également lutté contre les obstacles courants de l'Internet, tels que les CAPTCHA.

Adam Binksmith, directeur de Sage, estime que les agents d'IA plus récents et plus avancés surmonteront ces limitations. Sage prévoit d'introduire continuellement de nouveaux modèles dans l'environnement pour tester cette hypothèse. Les expériences futures pourraient impliquer d'attribuer différents objectifs aux agents, de créer des équipes ayant des objectifs contradictoires, voire d'introduire un "agent saboteur".

Binksmith souligne l'importance de développer des systèmes automatisés de surveillance et de supervision pour garantir la sécurité à mesure que les agents d'IA deviennent plus performants et autonomes. En fin de compte, l'objectif est d'exploiter la puissance de l'IA pour des efforts philanthropiques significatifs.

Source: TechCrunch