option
Maison
Nouvelles
Les startups de l'IA ont critiqué pour l'utilisation de l'examen par les pairs comme tactique PR

Les startups de l'IA ont critiqué pour l'utilisation de l'examen par les pairs comme tactique PR

10 avril 2025
175

Les startups de l'IA ont critiqué pour l'utilisation de l'examen par les pairs comme tactique PR

Une tempête se prépare dans le monde académique concernant l'utilisation d'études générées par l'IA lors de la conférence ICLR de cette année, un événement majeur axé sur l'intelligence artificielle. Trois laboratoires d'IA, Sakana, Intology et Autoscience, ont suscité une controverse en soumettant des études générées par l'IA aux ateliers de l'ICLR.

Sakana a adopté une approche transparente, informant les responsables de l'ICLR et obtenant le consentement des évaluateurs avant de soumettre leurs articles générés par l'IA. Cependant, Intology et Autoscience n'ont pas suivi cet exemple, soumettant leurs études sans notification préalable, comme l'a confirmé un porte-parole de l'ICLR à TechCrunch.

La communauté académique s'est exprimée bruyamment sur les réseaux sociaux, nombreux sont ceux qui ont critiqué Intology et Autoscience pour avoir exploité le processus d'évaluation par les pairs. Prithviraj Ammanabrolu, professeur assistant à l'UC San Diego, a exprimé sa frustration sur X, soulignant l'absence de consentement des évaluateurs qui consacrent leur temps et leurs efforts gratuitement. Il a appelé à une divulgation complète aux rédacteurs concernant l'utilisation de l'IA dans la génération de ces études.

L'évaluation par les pairs est déjà une tâche exigeante, une récente enquête de Nature indiquant que 40 % des universitaires passent deux à quatre heures à évaluer une seule étude. La charge de travail augmente, comme en témoigne l'augmentation de 41 % des soumissions à la conférence NeurIPS l'année dernière, totalisant 17 491 articles.

La question du contenu généré par l'IA dans le milieu académique n'est pas nouvelle, des estimations suggérant qu'entre 6,5 % et 16,9 % des articles soumis aux conférences sur l'IA en 2023 contenaient du texte synthétique. Cependant, utiliser l'évaluation par les pairs comme moyen de benchmarking et de promotion de la technologie de l'IA est un développement plus récent.

Intology s'est vanté sur X d'avoir reçu des critiques unanimement positives pour leurs articles générés par l'IA, citant même des évaluateurs d'ateliers louant les "idées astucieuses" dans l'une de leurs études. Cette autopromotion n'a pas été bien accueillie par les universitaires.

Ashwinee Panda, postdoctorante à l'Université du Maryland, a critiqué le manque de respect envers les évaluateurs humains en soumettant des articles générés par l'IA sans leur consentement. Panda a noté que Sakana avait approché son atelier à l'ICLR, mais elle a refusé de participer, soulignant l'importance de respecter le temps et les droits des évaluateurs.

Le scepticisme quant à la valeur des articles générés par l'IA est répandu parmi les chercheurs. Sakana a reconnu que leur IA avait commis des erreurs de citation "embarrassantes" et que seul un de leurs trois articles soumis aurait répondu aux normes de la conférence. Dans un geste vers la transparence, Sakana a retiré son article de l'ICLR.

Alexander Doria, cofondateur de la startup d'IA Pleias, a suggéré la nécessité d'une "entreprise/agence publique régulée" pour mener des évaluations payées et de haute qualité des études générées par l'IA. Il a soutenu que les chercheurs devraient être pleinement rémunérés pour leur temps et que le milieu académique ne devrait pas être utilisé comme une ressource gratuite pour les évaluations de l'IA.

Article connexe
Étude de Microsoft révèle les limites des modèles d'IA dans le débogage de logiciels Étude de Microsoft révèle les limites des modèles d'IA dans le débogage de logiciels Les modèles d'IA d'OpenAI, Anthropic et d'autres laboratoires d'IA de pointe sont de plus en plus utilisés pour les tâches de codage. Le PDG de Google, Sundar Pichai, a noté en octobre que l'IA génère
Solutions alimentées par l'IA pourraient réduire significativement les émissions mondiales de carbone Solutions alimentées par l'IA pourraient réduire significativement les émissions mondiales de carbone Une étude récente de la London School of Economics et Systemiq révèle que l'intelligence artificielle pourrait considérablement réduire les émissions mondiales de carbone sans sacrifier les commodités
Nouvelle étude révèle combien de données les LLM mémorisent réellement Nouvelle étude révèle combien de données les LLM mémorisent réellement Combien les modèles d'IA mémorisent-ils réellement ? Une nouvelle recherche révèle des insights surprenantsNous savons tous que les grands modèles de langage (LLM) comme ChatGPT, Claude et Gemini sont
commentaires (31)
0/200
JuanEvans
JuanEvans 22 juillet 2025 03:25:03 UTC+02:00

It's wild how AI startups are turning peer review into a PR stunt! 😅 Sakana and others submitting AI-generated studies to ICLR is bold, but it feels like they're more focused on headlines than real science. Anyone else think this could backfire big time?

LawrenceMiller
LawrenceMiller 14 avril 2025 12:29:12 UTC+02:00

Я в замешательстве по поводу этих исследований, созданных ИИ, на ICLR. С одной стороны, круто, что ИИ может генерировать исследования, но использовать это для PR? Это кажется немного неправильным. Это расширяет границы, но не уверен, что это лучший способ.

AlbertAllen
AlbertAllen 13 avril 2025 16:45:33 UTC+02:00

I'm kinda torn about these AI startups using peer review as a PR move. On one hand, it's clever marketing, but on the other, it feels like they're gaming the system. I mean, if the studies are legit, why not just say so? Feels a bit shady to me.

JackMartin
JackMartin 13 avril 2025 12:48:53 UTC+02:00

ICLRでのAI生成の研究論文について、複雑な気持ちです。AIが研究を生成できるのは面白いけど、PRに利用するのは少し違和感があります。境界を押し広げる試みではあるけど、必ずしも最良の方法とは言えないかもしれませんね。

JonathanKing
JonathanKing 13 avril 2025 09:58:51 UTC+02:00

Estoy dividido sobre estas startups de IA que usan la revisión por pares como una táctica de relaciones públicas. Por un lado, es un marketing inteligente, pero por otro, parece que están jugando con el sistema. Si los estudios son legítimos, ¿por qué no decirlo simplemente? Me parece un poco turbio.

BillyThomas
BillyThomas 12 avril 2025 20:30:32 UTC+02:00

Me siento dividido con lo de los estudios generados por IA en ICLR. Por un lado, es genial que la IA pueda producir investigación, pero usarlo para relaciones públicas, no sé, me parece un poco fuera de lugar. Está empujando límites, pero no estoy seguro de que sea de la mejor manera.

Retour en haut
OR