Google retire ses synthèses IA sur la santé après des erreurs médicales dangereuses

Google a retiré ses synthèses IA (AI Overviews) des recherches médicales après une enquête révélant qu'elles fournissaient de la désinformation dangereuse, notamment des conseils diététiques nuisibles pour les patients atteints de cancer. L'enquête a mis en lumière des erreurs critiques, comme des recommandations contraires aux conseils médicaux pour les patients atteints d'un cancer du pancréas. Google a procédé à un retrait partiel, mais des préoccupations persistent quant à la fiabilité fondamentale de l'IA pour les informations de santé.

google-syntheses-ia-sante-erreurs-medicales
Image for Google retire ses synthèses IA sur la santé après des erreurs médicales dangereuses

Google retire ses synthèses IA sur la santé après une enquête sur de la désinformation dangereuse

Google a discrètement supprimé sa fonctionnalité AI Overviews de certaines recherches médicales suite à une enquête du Guardian ayant démontré que le système fournissait des informations de santé dangereusement incorrectes, pouvant mettre les patients en grave danger. Les résumés générés par l'IA, qui apparaissent en haut des résultats de recherche Google, donnaient des conseils médicaux trompeurs, y compris des recommandations diététiques potentiellement mortelles pour les patients atteints de cancer.

Des erreurs médicales dangereuses découvertes

L'enquête a révélé plusieurs cas où les AI Overviews de Google fournissaient des informations médicales nuisibles. Un exemple particulièrement alarmant concernait des patients atteints d'un cancer du pancréas à qui il était conseillé d'éviter les aliments riches en graisses. 'C'est exactement le contraire de ce que recommandent les professionnels de santé,' a déclaré le Dr Sarah Chen, oncologue spécialisée dans les cancers gastro-intestinaux. 'Les patients atteints d'un cancer du pancréas ont souvent besoin de régimes riches en graisses pour maintenir leur poids et leur force pendant le traitement. Ce type de désinformation peut littéralement coûter des vies.'

Une autre erreur critique concernait les tests de la fonction hépatique. L'IA présentait des fourchettes numériques nettes pour les analyses sanguines du foie sans expliquer que les résultats normaux dépendent de facteurs tels que l'âge, le sexe, l'origine ethnique et les médicaments. 'Cela crée un faux sentiment de sécurité dangereux,' a expliqué le Dr Michael Rodriguez, hépatologue. 'Des patients atteints de graves maladies du foie pourraient voir ces chiffres et penser que tout va bien, retardant ainsi des soins médicaux cruciaux.'

Retrait partiel et préoccupations persistantes

Google a retiré les AI Overviews de termes de recherche spécifiques comme 'quel est l'intervalle normal pour les analyses sanguines du foie', mais l'enquête a montré que de légères variations de ces requêtes produisaient toujours des résumés IA inexacts. L'entreprise n'a pas fourni d'explication détaillée sur les raisons de ces changements, bien que des sources suggèrent que l'enquête du Guardian a joué un rôle clé.

Un porte-parole de Google a déclaré : 'Nous investissons massivement dans la qualité des AI Overviews, en particulier pour les sujets sensibles comme la santé. Bien que la grande majorité fournisse des informations précises, nous travaillons continuellement à l'amélioration de nos systèmes.' Les critiques estiment cependant que cette réponse est insuffisante compte tenu de la gravité des erreurs.

Implications plus larges pour l'IA dans la santé

Cet incident soulève d'importantes questions sur la fiabilité des informations de santé générées par l'IA. Des experts mettent en garde que le problème fondamental réside dans la façon dont les AI Overviews résument le contenu du système de classement des pages de Google, qui peut inclure du contenu optimisé pour le référencement (SEO) et du spam. L'IA présente ensuite des conclusions erronées avec un ton autoritaire qui rend les erreurs fiables.

'Le problème ne se limite pas au retrait de recherches spécifiques,' a déclaré l'éthicienne de l'IA, le Dr Elena Martinez. 'Il s'agit de toute l'approche de l'information médicale générée par l'IA. Ces systèmes nécessitent un contexte correct, une compréhension nuancée et une supervision experte – rien de tout cela n'est actuellement présent dans les AI Overviews.'

La controverse survient alors que des entreprises d'IA comme OpenAI et Anthropic s'engagent dans des applications de santé pour leurs produits, soulignant les conséquences graves d'erreurs même mineures dans les applications médicales d'IA.

Quel avenir pour les fonctionnalités IA de Google ?

Google a introduit les AI Overviews dans le cadre de son Search Generative Experience en 2023, la fonctionnalité devenant disponible mondialement dans plus de 200 pays en mai 2025. Le système utilise des algorithmes avancés d'apprentissage automatique pour générer des résumés à partir de divers contenus web. Bien que de nombreux utilisateurs aient apprécié la commodité, la fonctionnalité a fait l'objet de critiques persistantes pour ses inexactitudes et sa simplification excessive de sujets complexes.

Les professionnels de santé plaident pour des changements plus substantiels. 'Google doit mettre en place de solides garde-fous avant de déployer l'IA pour l'information sur la santé,' a déclaré le Dr Chen. 'Il ne s'agit pas d'optimisation des moteurs de recherche – il s'agit de la sécurité des patients. Les gens font confiance à Google pour leurs questions de santé, et cette confiance doit être méritée par l'exactitude et la responsabilité.'

Pour le moment, Google affiche à nouveau des résultats de recherche traditionnels pour les requêtes médicales concernées, mais des inquiétudes subsistent quant à la fiabilité plus large des AI Overviews sur d'autres sujets sensibles.

Vous aimerez peut-être aussi