Option
Heim
Nachricht
AI-Anmerkungsherausforderungen: Der Mythos der automatisierten Kennzeichnung

AI-Anmerkungsherausforderungen: Der Mythos der automatisierten Kennzeichnung

21. August 2025
0

Die Forschung im Bereich maschinelles Lernen geht oft davon aus, dass AI die Annotation von Datensätzen verbessern kann, insbesondere Bildunterschriften für Vision-Sprach-Modelle (VLMs), um Kosten zu senken und die Belastung durch menschliche Überwachung zu reduzieren.

Dies erinnert an den „Download mehr RAM“-Meme aus den frühen 2000er Jahren, der die Vorstellung verspottet, dass Software Hardware-Beschränkungen beheben kann.

Dennoch wird die Qualität der Annotation oft übersehen, überschattet von der Aufregung um neue AI-Modelle, obwohl sie eine entscheidende Rolle in maschinellen Lernpipelines spielt.

Die Fähigkeit von AI, Muster zu erkennen und zu replizieren, hängt von hochwertigen, konsistenten menschlichen Annotationen ab – Labels und Beschreibungen, die von Menschen in unvollkommenen Umgebungen subjektiv erstellt werden.

Systeme, die darauf abzielen, das Verhalten von Annotatoren nachzuahmen, um Menschen zu ersetzen und genaue Kennzeichnung zu skalieren, scheitern, wenn sie mit Daten konfrontiert werden, die nicht in menschlich gelieferten Beispielen enthalten sind. Ähnlichkeit ist nicht gleichbedeutend mit Gleichwertigkeit, und domänenübergreifende Konsistenz bleibt in der Computer Vision schwer erreichbar.

Letztendlich definiert menschliches Urteilsvermögen die Daten, die AI-Systeme formen.

RAG-Lösungen

Bis vor kurzem wurden Fehler in Datensatz-Annotationen als geringfügige Kompromisse toleriert, angesichts der unvollkommenen, aber marktfähigen Ergebnisse generativer AI.

Eine Studie aus Singapur 2025 stellte fest, dass Halluzinationen – AI, die falsche Ausgaben generiert – inhärent im Design dieser Systeme sind.

RAG-basierte Agenten, die Fakten über Internetsuchen verifizieren, gewinnen in Forschung und kommerziellen Anwendungen an Bedeutung, erhöhen jedoch die Ressourcenkosten und verursachen Verzögerungen bei Anfragen. Neue Informationen, die auf trainierte Modelle angewendet werden, fehlt die Tiefe nativer Modellverbindungen.

Fehlerhafte Annotationen untergraben die Modellleistung, und die Verbesserung ihrer Qualität, obwohl aufgrund menschlicher Subjektivität unvollkommen, ist entscheidend.

RePOPE-Einblicke

Eine deutsche Studie deckt Mängel in älteren Datensätzen auf, mit Fokus auf die Genauigkeit von Bildunterschriften in Benchmarks wie MSCOCO. Sie zeigt, wie Fehler in Labels die Bewertung von Halluzinationen in Vision-Sprach-Modellen verzerren.

Aus der neuen Studie einige Beispiele, bei denen die ursprünglichen Bildunterschriften Objekte im MSCOCO-Datensatz nicht korrekt identifizierten. Die manuelle Überarbeitung des POPE-Benchmark-Datensatzes durch die Forscher behebt diese Mängel und zeigt die Kosten der Einsparung bei der Annotationspflege. Quelle: https://arxiv.org/pdf/2504.15707

Beispiele aus einer aktuellen Studie, die falsche Objektidentifikationen in Bildunterschriften des MSCOCO-Datensatzes zeigen. Manuelle Überarbeitungen des POPE-Benchmarks verdeutlichen die Fallstricke der Kostensenkung bei der Annotationspflege. Quelle: https://arxiv.org/pdf/2504.15707

Stellen Sie sich ein AI vor, das ein Straßenbild auf ein Fahrrad hin bewertet. Wenn das Modell Ja sagt, der Datensatz aber Nein, wird es als falsch markiert. Wenn jedoch ein Fahrrad sichtbar ist, aber in der Annotation übersehen wurde, ist das Modell korrekt, und der Datensatz ist fehlerhaft. Solche Fehler verzerren die Modellgenauigkeit und Halluzinationsmetriken.

Falsche oder vage Annotationen können genaue Modelle fehleranfällig erscheinen lassen oder fehlerhafte Modelle zuverlässig wirken, was die Diagnose von Halluzinationen und die Modellbewertung erschwert.

Die Studie überprüft den Polling-based Object Probing Evaluation (POPE)-Benchmark, der die Fähigkeit von Vision-Sprach-Modellen testet, Objekte in Bildern mit MSCOCO-Labels zu identifizieren.

POPE formuliert Halluzination als Ja/Nein-Klassifikationsaufgabe und fragt Modelle, ob bestimmte Objekte in Bildern vorkommen, mit Prompts wie „Gibt es ein im Bild?“

Beispiele für Objekthalluzinationen in Vision-Sprach-Modellen. Fettgedruckte Labels zeigen Objekte, die in den ursprünglichen Annotationen als vorhanden markiert sind, während rote Labels Objekte anzeigen, die von den Modellen halluziniert wurden. Das linke Beispiel spiegelt eine traditionelle instruktionsbasierte Bewertung wider, während die drei rechten Beispiele aus verschiedenen POPE-Benchmark-Varianten stammen. Quelle: https://aclanthology.org/2023.emnlp-main.20.pdf

Beispiele für Objekthalluzinationen in Vision-Sprach-Modellen. Fettgedruckte Labels markieren Objekte in ursprünglichen Annotationen; rote Labels heben von Modellen halluzinierte Objekte hervor. Das linke Beispiel verwendet traditionelle Bewertung, während die drei rechten aus POPE-Varianten stammen. Quelle: https://aclanthology.org/2023.emnlp-main.20.pdf

Grundwahrheits-Objekte (Antwort: Ja) werden mit nicht existierenden Objekten (Antwort: Nein) gepaart, die zufällig, häufig oder basierend auf Co-Occurrence ausgewählt werden. Dies ermöglicht eine stabile, von Prompts unabhängige Halluzinationsbewertung ohne komplexe Bildunterschriftenanalyse.

Die Studie, RePOPE: Einfluss von Annotationsfehlern auf den POPE-Benchmark, überprüft MSCOCO-Labels und findet viele Fehler oder Mehrdeutigkeiten.

Beispiele aus dem MSCOCO-Datensatz von 2014. Quelle: https://arxiv.org/pdf/1405.0312

Bilder aus dem MSCOCO-Datensatz von 2014. Quelle: https://arxiv.org/pdf/1405.0312

Diese Fehler verändern die Modellrankings, wobei einige Spitzenperformer bei Bewertung mit korrigierten Labels zurückfallen.

Tests an Open-Weight-Vision-Sprach-Modellen mit dem ursprünglichen POPE und dem neu gelabelten RePOPE zeigen erhebliche Verschiebungen im Ranking, insbesondere bei F1-Scores, wobei mehrere Modelle an Leistung einbüßen.

Die Studie argumentiert, dass Annotationsfehler echte Modellhalluzinationen verbergen und präsentiert RePOPE als genaueres Bewertungstool.

In einem weiteren Beispiel aus der neuen Studie sehen wir, wie die ursprünglichen POPE-Bildunterschriften subtile Objekte nicht erkennen, wie eine Person, die neben der Kabine einer Straßenbahn im rechten Bild sitzt, oder der Stuhl, der vom Tennisspieler im zweiten Bild von links verdeckt wird.

Beispiele aus der Studie zeigen, dass POPE-Bildunterschriften subtile Objekte übersehen, wie eine Person nahe einer Straßenbahnkabine oder ein vom Tennisspieler verdeckter Stuhl.

Methodik und Tests

Forscher haben MSCOCO-Annotationen mit zwei menschlichen Prüfern pro Instanz neu gelabelt. Mehrdeutige Fälle, wie die folgenden, wurden aus den Tests ausgeschlossen.

Mehrdeutige Fälle, bei denen Inkonsistenzen in der Kennzeichnung bei POPE unklare Kategoriengrenzen widerspiegeln. Zum Beispiel ein Teddybär, der als Bär gelabelt wurde, ein Motorrad als Fahrrad oder Flughafenfahrzeuge als Autos. Diese Fälle wurden aufgrund der subjektiven Natur solcher Klassifikationen sowie der Inkonsistenzen in den ursprünglichen MSCOCO-Labels aus RePOPE ausgeschlossen.

Mehrdeutige Fälle in POPE mit unklaren Labels, wie Teddybären als Bären oder Motorräder als Fahrräder, ausgeschlossen aus RePOPE aufgrund subjektiver Klassifikationen und MSCOCO-Inkonsistenzen.

Das Paper stellt fest:

„Ursprüngliche Annotatoren übersehen Menschen im Hintergrund oder hinter Glas, Stühle, die von einem Tennisspieler verdeckt werden, oder eine schwache Karotte in Krautsalat.“

„Inkonsistente MSCOCO-Labels, wie die Klassifizierung eines Teddybären als Bär oder eines Motorrads als Fahrrad, resultieren aus unterschiedlichen Objektdefinitionen, was solche Fälle als mehrdeutig kennzeichnet.“

Ergebnisse der Neu-Annotation: Die positiven Fragen sind in allen drei POPE-Varianten gleich. Von denen, die in POPE als ‚Ja‘ gelabelt wurden, waren 9,3 Prozent falsch und 13,8 Prozent wurden als mehrdeutig eingestuft. Bei den ‚Nein‘-Fragen waren 1,7 Prozent falsch gelabelt und 4,3 Prozent waren mehrdeutig.

Ergebnisse der Neu-Annotation: In allen POPE-Varianten waren 9,3 % der ‚Ja‘-Labels falsch, 13,8 % mehrdeutig; 1,7 % der ‚Nein‘-Labels waren falsch gelabelt, 4,3 % mehrdeutig.

Das Team testete Open-Weight-Modelle, einschließlich InternVL2.5, LLaVA-NeXT, Vicuna, Mistral 7b, Llama, LLaVA-OneVision, Ovis2, PaliGemma-3B und PaliGemma2, anhand von POPE und RePOPE.

Erste Ergebnisse: Die hohe Fehlerrate in den ursprünglichen positiven Labels führt zu einem starken Rückgang der wahren Positiven bei allen Modellen. Falsche Positiven variieren je nach Subset, verdoppeln sich fast im zufälligen Subset, bleiben im populären Subset weitgehend unverändert und zeigen eine leichte Abnahme im adversariellen Subset. Die Neu-Labelung hat einen großen Einfluss auf F1-basierte Rankings. Modelle wie Ovis2-4B und Ovis2-8B, die bei den populären und adversariellen Splits in POPE gut abschnitten, steigen auch im zufälligen Subset unter RePOPE an die Spitze. Bitte beachten Sie die Quelldatei für eine bessere Auflösung.

Ergebnisse zeigen, dass Fehler in den ursprünglichen Labels einen Rückgang der wahren Positiven verursachten. Falsche Positiven verdoppelten sich im zufälligen Subset, blieben im populären Subset stabil und nahmen im adversariellen Subset leicht ab. Neu-Labelung verschob F1-Rankings, wobei Modelle wie Ovis2-4B und -8B an die Spitze stiegen.

Grafiken zeigen, dass wahre Positiven bei allen Modellen zurückgingen, da korrekte Antworten oft auf fehlerhaften Labels basierten, während falsche Positiven variierten.

Im zufälligen Subset von POPE verdoppelten sich die falschen Positiven fast, da vorhandene, aber in den ursprünglichen Annotationen übersehene Objekte aufgedeckt wurden. Im adversariellen Subset sanken die falschen Positiven, da abwesende Objekte oft ungelabelt, aber vorhanden waren.

Präzision und Recall waren betroffen, aber die Modellrankings blieben stabil. F1-Scores, die zentrale Metrik von POPE, verschoben sich signifikant, wobei Top-Modelle wie InternVL2.5-8B zurückfielen und Ovis2-4B und -8B aufstiegen.

Genauigkeitsscores waren aufgrund ungleichmäßiger positiver und negativer Beispiele im korrigierten Datensatz weniger zuverlässig.

Die Studie betont die Notwendigkeit hochwertiger Annotationen und teilt korrigierte Labels auf GitHub, wobei sie anmerkt, dass RePOPE allein die Benchmarksättigung nicht vollständig löst, da Modelle immer noch über 90 % bei wahren Positiven und Negativen erreichen. Zusätzliche Benchmarks wie DASH-B werden empfohlen.

Fazit

Diese Studie, durchführbar aufgrund des kleinen Datensatzes, beleuchtet Herausforderungen bei der Skalierung auf Hyperscale-Datensätze, wo die Isolierung repräsentativer Daten schwierig ist und Ergebnisse verzerren kann.

Selbst wenn machbar, deuten aktuelle Methoden auf die Notwendigkeit besserer, umfassenderer menschlicher Annotation hin.

„Besser“ und „mehr“ stellen unterschiedliche Herausforderungen dar. Kostengünstige Plattformen wie Amazon Mechanical Turk riskieren schlechte Annotationsqualität, während Outsourcing in verschiedene Regionen nicht mit dem beabsichtigten Anwendungsfall des Modells übereinstimmen könnte.

Dies bleibt ein zentrales, ungelöstes Problem in der Ökonomie des maschinellen Lernens.

 

Erstmals veröffentlicht am Mittwoch, 23. April 2025

Verwandter Artikel
AI-gestützte Werkzeuge verbessern die Stimmklarheit für Content Creators AI-gestützte Werkzeuge verbessern die Stimmklarheit für Content Creators In der digitalen Ära ist makelloser Klang für ansprechende Inhalte unerlässlich, sei es für Podcasts, Videos oder professionelle Kommunikation. Herkömmliche Methoden versagen oft, aber Künstliche Inte
Tech Giants Empower Educators with AI Training Programs Tech Giants Empower Educators with AI Training Programs Technologie revolutioniert Bildung, und führende Technologieunternehmen rüsten Lehrer mit essenziellen Fähigkeiten aus. Giganten wie Microsoft, OpenAI und Anthropic haben sich mit Lehrergewerkschaften
Creative Fabrica stellt KI-Schriftgenerator vor, um die Kreativität im Design zu steigern Creative Fabrica stellt KI-Schriftgenerator vor, um die Kreativität im Design zu steigern Hallo, Design-Enthusiasten! Wir freuen uns, ein bahnbrechendes Update von Creative Fabrica zu erkunden, das Ihren kreativen Prozess revolutionieren wird. Egal, ob Sie Künstler oder kreativer Unternehm
Kommentare (0)
0/200
Zurück nach oben
OR