Régime IA

Conseil d'IA Pour Un Régime Qui Tourne Mal: Un Homme Atteint De Psychose

Technologie

Une étude de cas récente est un véritable avertissement, montrant comment suivre aveuglément les conseils de l'IA peut avoir de graves conséquences néfastes. Elle raconte l'histoire d'un homme qui s'est retrouvé avec un empoisonnement au bromure et une psychose après avoir fait confiance à ChatGPT pour obtenir des conseils diététiques. Sérieusement, on dirait tout droit sorti d'un film dystopique !

Des médecins de l'Université de Washington ont signalé cet incident bizarre. Apparemment, le type prenait du bromure depuis trois mois, tout cela sur les conseils de ChatGPT. Heureusement, avec le bon traitement, il s'en est complètement remis. Mais cela donne à réfléchir, n'est-ce pas ?

Autrefois, les composés de bromure étaient utilisés pour tout, de l'insomnie à l'anxiété. Mais, surprise, le bromure peut être toxique si vous en prenez trop. Dans les années 1980, il avait pratiquement disparu de la plupart des médicaments. Les cas de bromisme sont donc devenus rares.

Malgré cela, on peut encore trouver du bromure dans certains médicaments vétérinaires et compléments alimentaires. Ce cas particulier est sauvage car il semble être le premier empoisonnement au bromure directement causé par des conseils d'IA.

Le rapport indique que l'homme s'est présenté aux urgences, convaincu que son voisin l'empoisonnait. Malgré certains résultats physiques normaux, il était agité, paranoïaque et même hallucinait. La situation s'est tellement aggravée qu'il a eu un épisode psychotique et a dû être placé en détention psychiatrique.

Après que les médecins l'ont stabilisé, ils ont découvert qu'il prenait intentionnellement du bromure de sodium depuis des mois. Son raisonnement ? Il avait lu que trop de sel de table (chlorure de sodium) était mauvais pour vous. Au lieu de simplement réduire le sel, il a décidé d'éliminer complètement le chlorure.

C'est alors qu'il s'est tourné vers ChatGPT, qui lui a apparemment dit que le bromure était un substitut sûr. Alors, naturellement, il a commencé à acheter du bromure de sodium en ligne et à en prendre. Bien que les médecins n'aient pas eu accès aux journaux de discussion de l'homme, lorsqu'ils ont demandé à ChatGPT 3.5 par quoi le chlorure pouvait être remplacé, il a répondu en incluant le bromure.

Maintenant, il est possible que ChatGPT ait parlé du bromure dans un contexte complètement différent. Le contexte est essentiel, n'est-ce pas ? Mais l'IA n'a pas pris la peine de l'avertir des dangers de la consommation de bromure ni même de lui demander pourquoi il voulait le savoir.

Heureusement, l'homme s'est rétabli après avoir été traité et sevré des antipsychotiques. Il a obtenu son congé après trois semaines et se portait bien lors de son rendez-vous de suivi.

Les médecins ont souligné que si les outils d'IA peuvent être excellents pour combler le fossé entre les experts et le public, ils risquent également de diffuser des informations hors contexte. Il est sûr de dire qu'aucun médecin humain ne recommanderait de remplacer le chlorure par du bromure si vous êtes préoccupé par votre consommation de sel. Cela semble évident !

Je pense que toute cette histoire est un bon rappel que nous devons encore utiliser notre cerveau. Avoir quelqu'un à qui parler, quelqu'un qui peut dire : "Hé, ce n'est peut-être pas une si bonne idée", est plus important que jamais, peu importe à quel point l'IA devient intelligente.

Source: Gizmodo