Les nouvelles technologies fascinent autant qu’elles inquiètent, et l’intelligence artificielle (IA) ne fait pas exception. Récemment, un outil de transcription basé sur l’IA, utilisé dans les hôpitaux, a montré des comportements préoccupants. Il invente des médicaments inexistants et a fait preuve de racisme. Ces découvertes suscitent des débats passionnés et soulèvent des questions cruciales sur l’éthique et la fiabilité de l’IA dans le secteur médical.

L’incroyable invention du ballon extincteur

Un outil d’IA controversé au cœur des hôpitaux

Whisper, une IA développée par OpenAI, a été intégrée dans Nabla, un outil utilisé par plus de 30 000 professionnels de santé à travers le monde. Malgré les avertissements d’OpenAI, qui déconseille son usage dans des contextes à haut risque, Whisper est largement utilisé dans le domaine médical.

Les experts ont constaté que l’outil présente des inexactitudes fréquentes lors de la transcription des entretiens médicaux. Cela pose des risques significatifs, notamment en matière de diagnostics erronés et de traitements inappropriés.

Une nouvelle batterie ultra-compacte et intelligente de 8,2 kWh propulsée par l’IA promet de révolutionner l’énergie à domicile

Des erreurs aux conséquences lourdes

Les erreurs de Whisper ne se limitent pas à des transcriptions inexactes. L’outil a été surpris en train d’inventer des médicaments qui n’existent pas. Ces inventions pourraient mener à des prescriptions dangereuses si elles ne sont pas correctement vérifiées par des professionnels.

En outre, Whisper a montré des biais racistes en déformant les propos de certains patients, ce qui pourrait affecter la qualité des soins prodigués. Ces biais soulèvent des questions éthiques cruciales concernant l’utilisation de l’IA dans des contextes si sensibles.

Les hallucinations de l’IA : un phénomène inquiétant

Les experts ont également remarqué que Whisper a tendance à générer des phrases qui n’ont jamais été prononcées, un phénomène qualifié d’hallucinations. Ces fabrications peuvent varier à chaque exécution de l’outil, rendant le système particulièrement imprévisible.

Confusion dans le monde de l’IA avec ce nouveau langage

Ces hallucinations incluent parfois des descriptions d’actes violents ou sexuels sans fondement, ajoutant à l’inquiétude générale quant à l’utilisation de cette technologie dans un cadre médical.

🔍 Erreurs médicales Invention de médicaments fictifs par l’IA.
🏥 Biais racistes Transcriptions biaisées affectant la qualité des soins.
🤖 Hallucinations Création de phrases non prononcées par l’IA.

Un avenir incertain pour l’IA dans le secteur médical

Malgré les problèmes identifiés, les responsables de Nabla continuent d’utiliser Whisper. Ils reconnaissent les limites de l’IA, mais persistent à l’intégrer dans les hôpitaux, espérant des améliorations futures.

La controverse autour de Whisper soulève des interrogations sur la place de l’IA dans les soins de santé. Les bénéfices potentiels compensent-ils les risques encourus ? Et quelles mesures doivent être prises pour garantir la sécurité des patients ?

La question reste ouverte : l’IA peut-elle un jour être suffisamment fiable pour transformer positivement le système de santé, ou ses défauts intrinsèques la condamnent-ils à l’échec ?

Partagez maintenant.

Eva, journaliste aguerrie avec 15 ans d’expérience dans des médias tels que Masa Journey et Upsider, est diplômée en communication et journalisme en Israël et à la Sorbonne. Passionnée et toujours en quête de nouveauté, elle apporte à Innovant.fr une expertise approfondie et un style unique, enrichissant chaque article d’analyses pertinentes. Pour toute question, contactez-la à [email protected].

8 commentaires
Publiez votre avis