option
Maison
Nouvelles
Défis de l'annotation par IA : Le mythe de l'étiquetage automatisé

Défis de l'annotation par IA : Le mythe de l'étiquetage automatisé

21 août 2025
0

La recherche en apprentissage automatique suppose souvent que l'IA peut améliorer les annotations des ensembles de données, en particulier les légendes d'images pour les modèles vision-langage (VLM), pour réduire les coûts et les besoins de supervision humaine.

Cela rappelle le mème des années 2000 « télécharger plus de RAM », qui se moquait de l'idée que le logiciel peut résoudre les limites matérielles.

Pourtant, la qualité de l'annotation est souvent négligée, éclipsée par l'engouement pour les nouveaux modèles d'IA, malgré son rôle crucial dans les pipelines d'apprentissage automatique.

La capacité de l'IA à identifier et reproduire des motifs dépend d'annotations humaines de haute qualité et cohérentes — étiquettes et descriptions créées par des personnes prenant des décisions subjectives dans des contextes imparfaits.

Les systèmes visant à imiter le comportement des annotateurs pour remplacer les humains et scaler l'étiquetage précis peinent face à des données non incluses dans les exemples fournis par les humains. La similarité n'équivaut pas à l'équivalence, et la cohérence inter-domaine reste insaisissable en vision par ordinateur.

En fin de compte, le jugement humain définit les données qui façonnent les systèmes d'IA.

Solutions RAG

Jusqu'à récemment, les erreurs dans les annotations des ensembles de données étaient tolérées comme des compromis mineurs étant donné les résultats imparfaits mais commercialisables de l'IA générative.

Une étude de Singapour de 2025 a révélé que les hallucinations — l'IA générant des sorties fausses — sont inhérentes à la conception de ces systèmes.

Les agents basés sur RAG, qui vérifient les faits via des recherches sur Internet, gagnent en popularité dans la recherche et les applications commerciales, mais augmentent les coûts de ressources et les délais de requête. Les nouvelles informations appliquées aux modèles entraînés manquent de la profondeur des connexions natives des modèles.

Les annotations défectueuses compromettent les performances des modèles, et améliorer leur qualité, bien qu'imparfaite en raison de la subjectivité humaine, est crucial.

Perspectives RePOPE

Une étude allemande expose les défauts des anciens ensembles de données, en se concentrant sur la précision des légendes d'images dans des benchmarks comme MSCOCO. Elle révèle comment les erreurs d'étiquetage faussent les évaluations des hallucinations dans les modèles vision-langage.

D'après le nouvel article, quelques exemples où les légendes originales n'ont pas correctement identifié les objets dans l'ensemble de données MSCOCO. La révision manuelle du jeu de données POPE par les chercheurs corrige ces lacunes, démontrant le coût de l'économie sur la curation d'annotations. Source : https://arxiv.org/pdf/2504.15707

Exemples d'une étude récente montrant une identification incorrecte des objets dans les légendes de l'ensemble de données MSCOCO. Les révisions manuelles du benchmark POPE soulignent les écueils de la réduction des coûts dans la curation d'annotations. Source : https://arxiv.org/pdf/2504.15707

Considérez une IA évaluant une image de scène de rue pour un vélo. Si le modèle dit oui mais que l'ensemble de données dit non, il est marqué comme erroné. Pourtant, si un vélo est visiblement présent mais manqué dans l'annotation, le modèle est correct, et l'ensemble de données est défectueux. Ces erreurs faussent la précision du modèle et les métriques d'hallucination.

Des annotations incorrectes ou vagues peuvent faire paraître des modèles précis comme erronés ou des modèles défectueux comme fiables, compliquant le diagnostic des hallucinations et le classement des modèles.

L'étude revisite le benchmark d'évaluation par sondage d'objets (POPE), qui teste la capacité des modèles vision-langage à identifier des objets dans les images en utilisant les étiquettes MSCOCO.

POPE reformule l'hallucination comme une tâche de classification oui/non, demandant aux modèles si des objets spécifiques apparaissent dans les images, en utilisant des invites comme « Y a-t-il un dans l'image ? »

Exemples d'hallucination d'objets dans les modèles vision-langage. Les étiquettes en gras indiquent les objets marqués comme présents dans les annotations originales, tandis que les étiquettes rouges montrent les objets hallucinés par les modèles. L'exemple de gauche reflète une évaluation basée sur des instructions traditionnelles, tandis que les trois exemples de droite proviennent de différentes variantes du benchmark POPE. Source : https://aclanthology.org/2023.emnlp-main.20.pdf

Exemples d'hallucination d'objets dans les modèles vision-langage. Les étiquettes en gras marquent les objets des annotations originales ; les étiquettes rouges soulignent les objets hallucinés par les modèles. L'exemple de gauche utilise une évaluation traditionnelle, tandis que les trois de droite proviennent de variantes POPE. Source : https://aclanthology.org/2023.emnlp-main.20.pdf

Les objets de vérité terrain (réponse : Oui) sont jumelés avec des objets inexistants (réponse : Non), sélectionnés aléatoirement, fréquemment, ou en fonction de la co-occurrence. Cela permet une évaluation stable des hallucinations, indépendante des invites, sans analyse complexe des légendes.

L'étude, RePOPE : Impact des erreurs d'annotation sur le benchmark POPE, revérifie les étiquettes MSCOCO et trouve de nombreuses erreurs ou ambiguïtés.

Exemples de l'ensemble de données MSCOCO de 2014. Source : https://arxiv.org/pdf/1405.0312

Images de l'ensemble de données MSCOCO de 2014. Source : https://arxiv.org/pdf/1405.0312

Ces erreurs modifient les classements des modèles, certains des meilleurs performeurs chutant lorsqu'évalués avec des étiquettes corrigées.

Les tests sur des modèles vision-langage à poids ouvert utilisant le POPE original et le RePOPE relabellisé montrent des changements significatifs de classement, en particulier dans les scores F1, avec plusieurs modèles en baisse de performance.

L'étude soutient que les erreurs d'annotation masquent les véritables hallucinations des modèles, présentant RePOPE comme un outil d'évaluation plus précis.

Dans un autre exemple du nouvel article, nous voyons comment les légendes POPE originales ne parviennent pas à discerner des objets subtils, comme une personne assise à côté de la cabine d'un tram dans la photo la plus à droite, ou la chaise obscurcie par le joueur de tennis dans la deuxième photo à gauche.

Exemples de l'étude montrant que les légendes POPE manquent des objets subtils, comme une personne près d'une cabine de tram ou une chaise obscurcie par un joueur de tennis.

Méthodologie et tests

Les chercheurs ont relabellisé les annotations MSCOCO avec deux réviseurs humains par instance. Les cas ambigus, comme ceux ci-dessous, ont été exclus des tests.

Cas ambigus, où les incohérences d'étiquetage dans POPE reflètent des frontières de catégorie floues. Par exemple, un ours en peluche étiqueté comme ours, une moto comme vélo, ou des véhicules d'aéroport comme voitures. Ces cas sont exclus de RePOPE en raison de la nature subjective de ces classifications, ainsi que des incohérences dans les étiquettes originales de MSCOCO.

Cas ambigus dans POPE avec des étiquettes floues, comme des ours en peluche comme ours ou des motos comme vélos, exclus de RePOPE en raison de classifications subjectives et d'incohérences MSCOCO.

L'article note :

« Les annotateurs originaux ont négligé les personnes en arrière-plan ou derrière une vitre, les chaises obscurcies par un joueur de tennis, ou une carotte floue dans une salade de chou. »

« Les étiquettes MSCOCO incohérentes, comme classer un ours en peluche comme ours ou une moto comme vélo, proviennent de définitions variables des objets, marquant ces cas comme ambigus. »

Résultats de la ré-annotation : les questions positives sont partagées entre toutes les variantes POPE. Parmi celles étiquetées « Oui » dans POPE, 9,3 % étaient incorrectes et 13,8 % ambiguës. Pour les questions « Non », 1,7 % étaient mal étiquetées et 4,3 % ambiguës.

Résultats de la ré-annotation : Sur toutes les variantes POPE, 9,3 % des étiquettes « Oui » étaient incorrectes, 13,8 % ambiguës ; 1,7 % des étiquettes « Non » étaient mal étiquetées, 4,3 % ambiguës.

L'équipe a testé des modèles à poids ouvert, y compris InternVL2.5, LLaVA-NeXT, Vicuna, Mistral 7b, Llama, LLaVA-OneVision, Ovis2, PaliGemma-3B et PaliGemma2, sur POPE et RePOPE.

Résultats initiaux : le taux d'erreur élevé dans les étiquettes positives originales entraîne une forte baisse des vrais positifs pour tous les modèles. Les faux positifs varient selon les sous-ensembles, doublant presque sur le sous-ensemble aléatoire, restant largement inchangés sur le sous-ensemble populaire, et diminuant légèrement sur le sous-ensemble adversarial. La relabellisation a un effet majeur sur les classements basés sur F1. Les modèles comme Ovis2-4B et Ovis2-8B, qui performaient bien sur les sous-ensembles populaire et adversarial dans POPE, se hissent également en tête sur le sous-ensemble aléatoire sous RePOPE. Veuillez consulter le PDF source pour une meilleure résolution.

Les résultats montrent que les erreurs d'étiquettes originales ont causé une baisse des vrais positifs. Les faux positifs ont doublé sur le sous-ensemble aléatoire, sont restés stables sur le sous-ensemble populaire, et ont légèrement diminué sur le sous-ensemble adversarial. La relabellisation a modifié les classements F1, avec des modèles comme Ovis2-4B et -8B en hausse.

Les graphiques montrent que les vrais positifs ont chuté pour tous les modèles, car les réponses correctes étaient souvent basées sur des étiquettes erronées, tandis que les faux positifs variaient.

Dans le sous-ensemble aléatoire de POPE, les faux positifs ont presque doublé, révélant des objets présents mais manqués dans les annotations originales. Dans le sous-ensemble adversarial, les faux positifs ont diminué, car les objets absents étaient souvent non étiquetés mais présents.

La précision et le rappel ont été affectés, mais les classements des modèles sont restés stables. Les scores F1, métrique clé de POPE, ont changé de manière significative, avec des modèles de tête comme InternVL2.5-8B en baisse et Ovis2-4B et -8B en hausse.

Les scores de précision étaient moins fiables en raison d'exemples positifs et négatifs inégaux dans l'ensemble de données corrigé.

L'étude souligne la nécessité d'annotations de haute qualité et partage les étiquettes corrigées sur GitHub, notant que RePOPE seul ne résout pas complètement la saturation des benchmarks, car les modèles obtiennent encore plus de 90 % en vrais positifs et négatifs. Des benchmarks supplémentaires comme DASH-B sont recommandés.

Conclusion

Cette étude, réalisable grâce à la petite taille de l'ensemble de données, met en lumière les défis de la mise à l'échelle vers des ensembles de données hyperscale, où isoler des données représentatives est difficile et peut fausser les résultats.

Même si cela est réalisable, les méthodes actuelles soulignent le besoin d'annotations humaines meilleures et plus nombreuses.

« Meilleur » et « plus » posent des défis distincts. Les plateformes à faible coût comme Amazon Mechanical Turk risquent des annotations de mauvaise qualité, tandis que l'externalisation dans différentes régions peut ne pas correspondre à l'usage prévu du modèle.

Cela reste un problème central et non résolu dans l'économie de l'apprentissage automatique.

 

Publié pour la première fois le mercredi 23 avril 2025

Article connexe
Outils alimentés par l'IA améliorent la clarté vocale pour les créateurs de contenu Outils alimentés par l'IA améliorent la clarté vocale pour les créateurs de contenu À l'ère numérique, un audio impeccable est essentiel pour un contenu engageant, que ce soit pour des podcasts, des vidéos ou une communication professionnelle. Les méthodes conventionnelles échouent s
Géants de la technologie autonomisent les éducateurs avec des programmes de formation à l'IA Géants de la technologie autonomisent les éducateurs avec des programmes de formation à l'IA La technologie révolutionne l'éducation, et les grandes entreprises technologiques équipent les enseignants de compétences essentielles. Des géants comme Microsoft, OpenAI et Anthropic se sont associé
Creative Fabrica dévoile un générateur de polices AI pour stimuler la créativité en design Creative Fabrica dévoile un générateur de polices AI pour stimuler la créativité en design Bonjour, passionnés de design ! Nous sommes ravis d'explorer une mise à jour révolutionnaire de Creative Fabrica qui transformera votre processus créatif. Que vous soyez artiste ou entrepreneur créati
commentaires (0)
0/200
Retour en haut
OR