AI pas prêt en tant que «co-scientifique», disent les experts

Google a récemment introduit son « co-scientifique IA », un outil d’intelligence artificielle destiné à aider les scientifiques à générer des hypothèses et des plans de recherche. L’entreprise l’a présenté comme un bouleversement pour la découverte de nouvelles connaissances, mais les experts restent sceptiques quant à son impact réel.
« Cet outil préliminaire, bien qu’intéressant, ne semble pas destiné à être sérieusement utilisé », a déclaré Sara Beery, chercheuse en vision par ordinateur au MIT, dans une interview avec TechCrunch. « Je ne suis pas sûre qu’il y ait une demande pour ce type de système de génération d’hypothèses au sein de la communauté scientifique. »
Google est simplement le dernier géant technologique à affirmer que l’IA va révolutionner la recherche scientifique, en particulier dans les domaines riches en données comme la biomédecine. Le PDG d’OpenAI, Sam Altman, a écrit dans un essai plus tôt cette année que l’IA « superintelligente » pourrait « accélérer massivement la découverte et l’innovation scientifiques ». De même, le PDG d’Anthropic, Dario Amodei, a prédit que l’IA pourrait aider à développer des remèdes pour la plupart des cancers.
Cependant, de nombreux chercheurs estiment que les outils d’IA actuels ne sont pas à la hauteur de ces prétentions ambitieuses. Ils soutiennent que des applications comme le co-scientifique IA de Google relèvent plus du battage médiatique que de la substance, manquant de données empiriques pour étayer les promesses.
Par exemple, le billet de blog de Google sur le co-scientifique IA vantait son potentiel dans le repositionnement de médicaments pour la leucémie myéloïde aiguë, un type de cancer du sang qui affecte la moelle osseuse. Pourtant, les résultats étaient si vagues que « aucun scientifique légitime ne les prendrait au sérieux », selon Favia Dubyk, pathologiste au Northwest Medical Center-Tucson en Arizona.
« Cela pourrait être un bon point de départ pour les chercheurs, mais le manque de détails est préoccupant et ne m’incite pas à y faire confiance », a déclaré Dubyk à TechCrunch. « Le manque d’informations fournies rend vraiment difficile de comprendre si cela peut véritablement être utile. »
Ce n’est pas la première fois que Google fait face à des critiques de la communauté scientifique pour avoir promu une avancée en IA sans fournir suffisamment de détails pour permettre à d’autres de reproduire les résultats.
En 2020, Google a affirmé qu’un de ses systèmes d’IA, entraîné à détecter les tumeurs du sein, surpassait les radiologues humains. Mais des chercheurs de Harvard et Stanford ont publié une réfutation dans Nature, arguant que le manque de méthodes détaillées et de code dans la recherche de Google « sapait sa valeur scientifique ».
Les scientifiques ont également critiqué Google pour avoir minimisé les limites de ses outils d’IA dans des domaines comme l’ingénierie des matériaux. En 2023, l’entreprise a affirmé que près de 40 « nouveaux matériaux » avaient été synthétisés avec l’aide de son système d’IA, GNoME. Cependant, une analyse indépendante a révélé qu’aucun de ces matériaux n’était réellement nouveau.
« Nous ne comprendrons véritablement les forces et les limites des outils comme le ‘co-scientifique’ de Google qu’après une évaluation rigoureuse et indépendante dans diverses disciplines scientifiques », a déclaré Ashique KhudaBukhsh, professeur adjoint en ingénierie logicielle au Rochester Institute of Technology, dans une interview avec TechCrunch. « L’IA fonctionne souvent bien dans des environnements contrôlés, mais peut échouer lorsqu’elle est appliquée à grande échelle. »
Processus complexes
Développer des outils d’IA pour aider à la découverte scientifique est délicat, car il est difficile de prédire tous les facteurs qui pourraient poser problème. L’IA peut être utile pour trier une vaste liste de possibilités, mais il est moins clair si elle peut gérer le type de résolution créative de problèmes qui mène à des percées majeures.
« Nous avons vu tout au long de l’histoire que certaines des avancées scientifiques les plus importantes, comme le développement des vaccins à ARNm, ont été motivées par l’intuition humaine et la persévérance face au scepticisme », a déclaré KhudaBukhsh. « L’IA, telle qu’elle existe aujourd’hui, pourrait ne pas être bien adaptée pour reproduire cela. »
Lana Sinapayen, chercheuse en IA chez Sony Computer Science Laboratories au Japon, estime que des outils comme le co-scientifique IA de Google se concentrent sur les mauvais aspects du travail scientifique.
Sinapayen voit une valeur dans une IA capable d’automatiser des tâches fastidieuses, comme résumer la nouvelle littérature académique ou formater des demandes de subventions. Mais elle soutient qu’il y a peu de demande pour un co-scientifique IA qui génère des hypothèses, une tâche que de nombreux chercheurs trouvent intellectuellement gratifiante.
« Pour beaucoup de scientifiques, moi y compris, générer des hypothèses est la partie la plus amusante du travail », a déclaré Sinapayen à TechCrunch. « Pourquoi voudrais-je déléguer mon plaisir à un ordinateur, pour ensuite me retrouver avec seulement le travail difficile à faire moi-même ? En général, de nombreux chercheurs en IA générative semblent mal comprendre pourquoi les humains font ce qu’ils font, et nous finissons avec des propositions de produits qui automatisent la partie même dont nous tirons de la joie. »
Beery a souligné que la partie la plus difficile du processus scientifique est souvent de concevoir et de mettre en œuvre des études pour tester des hypothèses, une tâche avec laquelle les systèmes d’IA actuels ont du mal. L’IA ne peut pas effectuer d’expériences physiques, et elle rencontre souvent des difficultés avec les problèmes où les données sont rares.
« La plupart des sciences ne peuvent pas être entièrement réalisées virtuellement — il y a souvent une composante importante du processus scientifique qui est physique, comme la collecte de nouvelles données et la réalisation d’expériences en laboratoire », a déclaré Beery. « Une grande limitation des systèmes comme le co-scientifique IA de Google, par rapport au processus scientifique réel, qui limite définitivement son utilité, est le contexte concernant le laboratoire et le chercheur utilisant le système, leurs objectifs de recherche spécifiques, leurs travaux antérieurs, leurs compétences et les ressources auxquelles ils ont accès. »
Risques de l’IA
Les limites techniques et les risques de l’IA, comme sa tendance à « halluciner » ou à générer de fausses informations, rendent les scientifiques prudents quant à s’y fier pour un travail sérieux.
KhudaBukhsh craint que les outils d’IA ne finissent par inonder la littérature scientifique de bruit plutôt que de faire progresser les connaissances.
Cela se produit déjà. Une étude récente a révélé que la « science poubelle » générée par l’IA inonde Google Scholar, le moteur de recherche gratuit de Google pour la littérature académique.
« La recherche générée par l’IA, si elle n’est pas soigneusement surveillée, pourrait inonder le domaine scientifique avec des études de moindre qualité, voire trompeuses, submerger le processus d’examen par les pairs », a déclaré KhudaBukhsh. « Un processus d’examen par les pairs submergé est déjà un défi dans des domaines comme l’informatique, où les grandes conférences ont vu une augmentation exponentielle des soumissions. »
Même des études bien conçues pourraient être compromises par une IA mal fonctionnante, a averti Sinapayen. Bien qu’elle apprécie l’idée d’un outil qui pourrait aider à la revue et à la synthèse de la littérature, elle ne ferait pas confiance à l’IA actuelle pour accomplir ce travail de manière fiable.
« Ce sont des choses que divers outils existants prétendent faire, mais ce ne sont pas des tâches que je confierais personnellement à l’IA actuelle », a déclaré Sinapayen. Elle a également soulevé des préoccupations concernant la manière dont les systèmes d’IA sont entraînés et l’énergie qu’ils consomment. « Même si tous les problèmes éthiques étaient résolus, l’IA actuelle n’est simplement pas assez fiable pour que je base mon travail sur ses résultats, d’une manière ou d’une autre. »
Article connexe
Étude de Microsoft révèle les limites des modèles d'IA dans le débogage de logiciels
Les modèles d'IA d'OpenAI, Anthropic et d'autres laboratoires d'IA de pointe sont de plus en plus utilisés pour les tâches de codage. Le PDG de Google, Sundar Pichai, a noté en octobre que l'IA génère
Solutions alimentées par l'IA pourraient réduire significativement les émissions mondiales de carbone
Une étude récente de la London School of Economics et Systemiq révèle que l'intelligence artificielle pourrait considérablement réduire les émissions mondiales de carbone sans sacrifier les commodités
Nouvelle étude révèle combien de données les LLM mémorisent réellement
Combien les modèles d'IA mémorisent-ils réellement ? Une nouvelle recherche révèle des insights surprenantsNous savons tous que les grands modèles de langage (LLM) comme ChatGPT, Claude et Gemini sont
commentaires (33)
0/200
PaulWilson
8 août 2025 15:00:59 UTC+02:00
I read about Google's AI co-scientist, and it sounds like a cool idea, but experts seem to think it’s more hype than substance. Anyone else feel like AI’s being oversold these days? 🤔
0
GaryLewis
4 août 2025 08:48:52 UTC+02:00
I read about Google's AI co-scientist and it sounds cool, but experts throwing shade makes me wonder if it’s just hype. 🤔 Anyone else think AI’s still got a long way to go before it’s truly helping scientists discover new stuff?
0
PeterYoung
23 juillet 2025 06:59:47 UTC+02:00
I find it intriguing that Google's pushing this AI co-scientist angle, but I'm not shocked experts are skeptical. Sounds like a cool concept, yet overhyped tech often fizzles out in practice. Anyone else think it’s more marketing than science? 😏
0
BruceGonzalez
25 avril 2025 05:08:16 UTC+02:00
Google's AI co-scientist sounds cool on paper, but in real life? Not so much. I tried using it for my research, and it's more like a fancy suggestion box than a game-changer. It's okay for brainstorming, but don't expect it to revolutionize your work. Maybe in a few years, it'll be worth the hype. 🤔
0
RogerPerez
24 avril 2025 05:00:20 UTC+02:00
구글의 'AI 공동 과학자'를 사용해 봤는데, 지금은 '공동 추측자' 같아요. 나오는 아이디어는 재미있지만, 과학을 혁신할 정도는 아니네요. 몇 년 후에는 더 유용할지 모르겠지만, 지금은 그냥 그런 정도? 🤔
0
IsabellaLevis
21 avril 2025 09:32:19 UTC+02:00
Googleの「AI共助科学者」を試してみましたが、今のところ「共推測者」のようです。出てくるアイデアは面白いけど、科学を革命するには程遠いですね。数年後にはもっと役立つかもしれませんが、今はまだ。😅
0
Google a récemment introduit son « co-scientifique IA », un outil d’intelligence artificielle destiné à aider les scientifiques à générer des hypothèses et des plans de recherche. L’entreprise l’a présenté comme un bouleversement pour la découverte de nouvelles connaissances, mais les experts restent sceptiques quant à son impact réel.
« Cet outil préliminaire, bien qu’intéressant, ne semble pas destiné à être sérieusement utilisé », a déclaré Sara Beery, chercheuse en vision par ordinateur au MIT, dans une interview avec TechCrunch. « Je ne suis pas sûre qu’il y ait une demande pour ce type de système de génération d’hypothèses au sein de la communauté scientifique. »
Google est simplement le dernier géant technologique à affirmer que l’IA va révolutionner la recherche scientifique, en particulier dans les domaines riches en données comme la biomédecine. Le PDG d’OpenAI, Sam Altman, a écrit dans un essai plus tôt cette année que l’IA « superintelligente » pourrait « accélérer massivement la découverte et l’innovation scientifiques ». De même, le PDG d’Anthropic, Dario Amodei, a prédit que l’IA pourrait aider à développer des remèdes pour la plupart des cancers.
Cependant, de nombreux chercheurs estiment que les outils d’IA actuels ne sont pas à la hauteur de ces prétentions ambitieuses. Ils soutiennent que des applications comme le co-scientifique IA de Google relèvent plus du battage médiatique que de la substance, manquant de données empiriques pour étayer les promesses.
Par exemple, le billet de blog de Google sur le co-scientifique IA vantait son potentiel dans le repositionnement de médicaments pour la leucémie myéloïde aiguë, un type de cancer du sang qui affecte la moelle osseuse. Pourtant, les résultats étaient si vagues que « aucun scientifique légitime ne les prendrait au sérieux », selon Favia Dubyk, pathologiste au Northwest Medical Center-Tucson en Arizona.
« Cela pourrait être un bon point de départ pour les chercheurs, mais le manque de détails est préoccupant et ne m’incite pas à y faire confiance », a déclaré Dubyk à TechCrunch. « Le manque d’informations fournies rend vraiment difficile de comprendre si cela peut véritablement être utile. »
Ce n’est pas la première fois que Google fait face à des critiques de la communauté scientifique pour avoir promu une avancée en IA sans fournir suffisamment de détails pour permettre à d’autres de reproduire les résultats.
En 2020, Google a affirmé qu’un de ses systèmes d’IA, entraîné à détecter les tumeurs du sein, surpassait les radiologues humains. Mais des chercheurs de Harvard et Stanford ont publié une réfutation dans Nature, arguant que le manque de méthodes détaillées et de code dans la recherche de Google « sapait sa valeur scientifique ».
Les scientifiques ont également critiqué Google pour avoir minimisé les limites de ses outils d’IA dans des domaines comme l’ingénierie des matériaux. En 2023, l’entreprise a affirmé que près de 40 « nouveaux matériaux » avaient été synthétisés avec l’aide de son système d’IA, GNoME. Cependant, une analyse indépendante a révélé qu’aucun de ces matériaux n’était réellement nouveau.
« Nous ne comprendrons véritablement les forces et les limites des outils comme le ‘co-scientifique’ de Google qu’après une évaluation rigoureuse et indépendante dans diverses disciplines scientifiques », a déclaré Ashique KhudaBukhsh, professeur adjoint en ingénierie logicielle au Rochester Institute of Technology, dans une interview avec TechCrunch. « L’IA fonctionne souvent bien dans des environnements contrôlés, mais peut échouer lorsqu’elle est appliquée à grande échelle. »
Processus complexes
Développer des outils d’IA pour aider à la découverte scientifique est délicat, car il est difficile de prédire tous les facteurs qui pourraient poser problème. L’IA peut être utile pour trier une vaste liste de possibilités, mais il est moins clair si elle peut gérer le type de résolution créative de problèmes qui mène à des percées majeures.
« Nous avons vu tout au long de l’histoire que certaines des avancées scientifiques les plus importantes, comme le développement des vaccins à ARNm, ont été motivées par l’intuition humaine et la persévérance face au scepticisme », a déclaré KhudaBukhsh. « L’IA, telle qu’elle existe aujourd’hui, pourrait ne pas être bien adaptée pour reproduire cela. »
Lana Sinapayen, chercheuse en IA chez Sony Computer Science Laboratories au Japon, estime que des outils comme le co-scientifique IA de Google se concentrent sur les mauvais aspects du travail scientifique.
Sinapayen voit une valeur dans une IA capable d’automatiser des tâches fastidieuses, comme résumer la nouvelle littérature académique ou formater des demandes de subventions. Mais elle soutient qu’il y a peu de demande pour un co-scientifique IA qui génère des hypothèses, une tâche que de nombreux chercheurs trouvent intellectuellement gratifiante.
« Pour beaucoup de scientifiques, moi y compris, générer des hypothèses est la partie la plus amusante du travail », a déclaré Sinapayen à TechCrunch. « Pourquoi voudrais-je déléguer mon plaisir à un ordinateur, pour ensuite me retrouver avec seulement le travail difficile à faire moi-même ? En général, de nombreux chercheurs en IA générative semblent mal comprendre pourquoi les humains font ce qu’ils font, et nous finissons avec des propositions de produits qui automatisent la partie même dont nous tirons de la joie. »
Beery a souligné que la partie la plus difficile du processus scientifique est souvent de concevoir et de mettre en œuvre des études pour tester des hypothèses, une tâche avec laquelle les systèmes d’IA actuels ont du mal. L’IA ne peut pas effectuer d’expériences physiques, et elle rencontre souvent des difficultés avec les problèmes où les données sont rares.
« La plupart des sciences ne peuvent pas être entièrement réalisées virtuellement — il y a souvent une composante importante du processus scientifique qui est physique, comme la collecte de nouvelles données et la réalisation d’expériences en laboratoire », a déclaré Beery. « Une grande limitation des systèmes comme le co-scientifique IA de Google, par rapport au processus scientifique réel, qui limite définitivement son utilité, est le contexte concernant le laboratoire et le chercheur utilisant le système, leurs objectifs de recherche spécifiques, leurs travaux antérieurs, leurs compétences et les ressources auxquelles ils ont accès. »
Risques de l’IA
Les limites techniques et les risques de l’IA, comme sa tendance à « halluciner » ou à générer de fausses informations, rendent les scientifiques prudents quant à s’y fier pour un travail sérieux.
KhudaBukhsh craint que les outils d’IA ne finissent par inonder la littérature scientifique de bruit plutôt que de faire progresser les connaissances.
Cela se produit déjà. Une étude récente a révélé que la « science poubelle » générée par l’IA inonde Google Scholar, le moteur de recherche gratuit de Google pour la littérature académique.
« La recherche générée par l’IA, si elle n’est pas soigneusement surveillée, pourrait inonder le domaine scientifique avec des études de moindre qualité, voire trompeuses, submerger le processus d’examen par les pairs », a déclaré KhudaBukhsh. « Un processus d’examen par les pairs submergé est déjà un défi dans des domaines comme l’informatique, où les grandes conférences ont vu une augmentation exponentielle des soumissions. »
Même des études bien conçues pourraient être compromises par une IA mal fonctionnante, a averti Sinapayen. Bien qu’elle apprécie l’idée d’un outil qui pourrait aider à la revue et à la synthèse de la littérature, elle ne ferait pas confiance à l’IA actuelle pour accomplir ce travail de manière fiable.
« Ce sont des choses que divers outils existants prétendent faire, mais ce ne sont pas des tâches que je confierais personnellement à l’IA actuelle », a déclaré Sinapayen. Elle a également soulevé des préoccupations concernant la manière dont les systèmes d’IA sont entraînés et l’énergie qu’ils consomment. « Même si tous les problèmes éthiques étaient résolus, l’IA actuelle n’est simplement pas assez fiable pour que je base mon travail sur ses résultats, d’une manière ou d’une autre. »



I read about Google's AI co-scientist, and it sounds like a cool idea, but experts seem to think it’s more hype than substance. Anyone else feel like AI’s being oversold these days? 🤔




I read about Google's AI co-scientist and it sounds cool, but experts throwing shade makes me wonder if it’s just hype. 🤔 Anyone else think AI’s still got a long way to go before it’s truly helping scientists discover new stuff?




I find it intriguing that Google's pushing this AI co-scientist angle, but I'm not shocked experts are skeptical. Sounds like a cool concept, yet overhyped tech often fizzles out in practice. Anyone else think it’s more marketing than science? 😏




Google's AI co-scientist sounds cool on paper, but in real life? Not so much. I tried using it for my research, and it's more like a fancy suggestion box than a game-changer. It's okay for brainstorming, but don't expect it to revolutionize your work. Maybe in a few years, it'll be worth the hype. 🤔




구글의 'AI 공동 과학자'를 사용해 봤는데, 지금은 '공동 추측자' 같아요. 나오는 아이디어는 재미있지만, 과학을 혁신할 정도는 아니네요. 몇 년 후에는 더 유용할지 모르겠지만, 지금은 그냥 그런 정도? 🤔




Googleの「AI共助科学者」を試してみましたが、今のところ「共推測者」のようです。出てくるアイデアは面白いけど、科学を革命するには程遠いですね。数年後にはもっと役立つかもしれませんが、今はまだ。😅












