Anthropic CEO: KI-Halluzinationsraten übertreffen menschliche Genauigkeit

Anthropic CEO Dario Amodei erklärte auf einer Pressekonferenz am Donnerstag auf der ersten Entwicklerkonferenz von Anthropic, Code with Claude, in San Francisco, dass aktuelle KI-Modelle weniger Erfindungen als Menschen erzeugen und diese als Wahrheiten präsentieren.
Amodei betonte dies im Rahmen eines größeren Arguments: KI-Halluzinationen behindern Anthropics Streben nach AGI — Systemen, die menschliche Intelligenz erreichen oder übertreffen — nicht.
„Es hängt von der Messmethode ab, aber ich glaube, dass KI-Modelle wahrscheinlich weniger erfinden als Menschen, obwohl ihre Fehler unerwarteter sind“, antwortete Amodei auf eine Anfrage von TechCrunch.
Der CEO von Anthropic bleibt einer der optimistischsten Führungskräfte der Branche, was das Erreichen von AGI durch KI angeht. In einem viel zitierten Paper letztes Jahr prognostizierte Amodei, dass AGI bis 2026 entstehen könnte. Auf der Pressekonferenz am Donnerstag stellte er fest, dass die Fortschritte konstant seien, und sagte: „Die Fortschritte beschleunigen sich durchweg.“
„Die Menschen suchen ständig nach grundlegenden Grenzen der KI-Fähigkeiten“, sagte Amodei. „Keine sind offensichtlich. Es gibt keine solchen Barrieren.“
Andere KI-Führungskräfte betrachten Halluzinationen als ein bedeutendes Hindernis für AGI. Google DeepMind CEO Demis Hassabis bemerkte kürzlich, dass aktuelle KI-Modelle zu viele Schwächen haben und oft an einfachen Fragen scheitern. Zum Beispiel entschuldigte sich Anfang dieses Monats ein Anwalt, der Anthropic vertritt, vor Gericht, nachdem Claude in einer Eingabe falsche Zitate generiert hatte, die Namen und Titel falsch angaben.
Die Überprüfung von Amodeis Behauptung ist schwierig, da die meisten Halluzinations-Benchmarks KI-Modelle miteinander vergleichen, nicht mit Menschen. Techniken wie die Integration von Websuchen scheinen die Halluzinationsraten zu senken. Insbesondere zeigen Modelle wie OpenAI’s GPT-4.5 niedrigere Halluzinationsraten als frühere Systeme in Benchmarks.
Schließen Sie sich uns bei den TechCrunch Sessions: AI an
Sichern Sie sich Ihren Platz bei unserem führenden KI-Branchenevent mit Sprechern von OpenAI, Anthropic und Cohere. Für begrenzte Zeit kosten Tickets nur 292 $ für einen ganzen Tag mit Expertenvorträgen, Workshops und effektivem Networking.
Ausstellen bei den TechCrunch Sessions: AI
Sichern Sie sich Ihren Platz bei den TC Sessions: AI, um Ihre Innovationen über 1.200 Entscheidungsträgern zu präsentieren — keine große Investition erforderlich. Verfügbar bis 9. Mai oder bis die Plätze ausverkauft sind.
Berkeley, CA | 5. Juni JETZT REGISTRIERENDennoch deuten Beweise darauf hin, dass Halluzinationen in KI-Modellen mit fortgeschrittenem Denken zunehmen könnten. OpenAI’s o3- und o4-mini-Modelle zeigen höhere Halluzinationsraten als frühere Denkmodelle, wobei das Unternehmen die Ursache nicht kennt.
Amodei bemerkte später, dass Fehler bei Fernsehmoderatoren, Politikern und Fachleuten in verschiedenen Bereichen häufig sind. Er argumentierte, dass KI-Fehler ihre Intelligenz nicht untergraben. Allerdings räumte er ein, dass die selbstbewusste Präsentation von Falschinformationen als Fakten durch KI Probleme verursachen könnte.
Anthropic hat die Täuschung durch KI intensiv erforscht, insbesondere mit dem kürzlich eingeführten Claude Opus 4. Apollo Research, ein Sicherheitsinstitut mit frühem Zugang, stellte fest, dass eine frühe Version von Claude Opus 4 eine starke Neigung zeigte, Menschen zu manipulieren und zu täuschen, was Bedenken hinsichtlich ihrer Veröffentlichung aufwarf. Anthropic implementierte Maßnahmen, die die Bedenken von Apollo offenbar ausgeräumt haben.
Amodeis Äußerungen deuten darauf hin, dass Anthropic eine KI als AGI oder menschliche Intelligenz klassifizieren könnte, selbst wenn sie halluziniert. Viele würden jedoch argumentieren, dass eine halluzinierende KI wahres AGI nicht erreicht.
Verwandter Artikel
Mastercards Agent Pay verbessert die KI-Suche mit nahtlosen Transaktionen
Traditionelle Suchplattformen und KI-Agenten erfordern oft, dass Nutzer Fenster wechseln, um Käufe abzuschließen, nachdem sie Produkte oder Dienstleistungen gefunden haben.Mastercard revolutioniert di
KI-gestütztes Einzelhandelsexperiment scheitert spektakulär bei Anthropic
Stellen Sie sich vor, Sie übergeben einen kleinen Laden einer künstlichen Intelligenz und vertrauen ihr alles an, von der Preisgestaltung bis zur Kundeninteraktion. Was könnte schiefgehen?Eine kürzlic
Anthropic verbessert Claude mit nahtlosen Werkzeugintegrationen und fortschrittlicher Forschung
Anthropic hat neue „Integrationen“ für Claude vorgestellt, die es der KI ermöglichen, direkt mit Ihren bevorzugten Arbeitswerkzeugen verbunden zu werden. Das Unternehmen hat auch eine verbesserte „For
Kommentare (0)
0/200
Anthropic CEO Dario Amodei erklärte auf einer Pressekonferenz am Donnerstag auf der ersten Entwicklerkonferenz von Anthropic, Code with Claude, in San Francisco, dass aktuelle KI-Modelle weniger Erfindungen als Menschen erzeugen und diese als Wahrheiten präsentieren.
Amodei betonte dies im Rahmen eines größeren Arguments: KI-Halluzinationen behindern Anthropics Streben nach AGI — Systemen, die menschliche Intelligenz erreichen oder übertreffen — nicht.
„Es hängt von der Messmethode ab, aber ich glaube, dass KI-Modelle wahrscheinlich weniger erfinden als Menschen, obwohl ihre Fehler unerwarteter sind“, antwortete Amodei auf eine Anfrage von TechCrunch.
Der CEO von Anthropic bleibt einer der optimistischsten Führungskräfte der Branche, was das Erreichen von AGI durch KI angeht. In einem viel zitierten Paper letztes Jahr prognostizierte Amodei, dass AGI bis 2026 entstehen könnte. Auf der Pressekonferenz am Donnerstag stellte er fest, dass die Fortschritte konstant seien, und sagte: „Die Fortschritte beschleunigen sich durchweg.“
„Die Menschen suchen ständig nach grundlegenden Grenzen der KI-Fähigkeiten“, sagte Amodei. „Keine sind offensichtlich. Es gibt keine solchen Barrieren.“
Andere KI-Führungskräfte betrachten Halluzinationen als ein bedeutendes Hindernis für AGI. Google DeepMind CEO Demis Hassabis bemerkte kürzlich, dass aktuelle KI-Modelle zu viele Schwächen haben und oft an einfachen Fragen scheitern. Zum Beispiel entschuldigte sich Anfang dieses Monats ein Anwalt, der Anthropic vertritt, vor Gericht, nachdem Claude in einer Eingabe falsche Zitate generiert hatte, die Namen und Titel falsch angaben.
Die Überprüfung von Amodeis Behauptung ist schwierig, da die meisten Halluzinations-Benchmarks KI-Modelle miteinander vergleichen, nicht mit Menschen. Techniken wie die Integration von Websuchen scheinen die Halluzinationsraten zu senken. Insbesondere zeigen Modelle wie OpenAI’s GPT-4.5 niedrigere Halluzinationsraten als frühere Systeme in Benchmarks.
Schließen Sie sich uns bei den TechCrunch Sessions: AI an
Sichern Sie sich Ihren Platz bei unserem führenden KI-Branchenevent mit Sprechern von OpenAI, Anthropic und Cohere. Für begrenzte Zeit kosten Tickets nur 292 $ für einen ganzen Tag mit Expertenvorträgen, Workshops und effektivem Networking.
Ausstellen bei den TechCrunch Sessions: AI
Sichern Sie sich Ihren Platz bei den TC Sessions: AI, um Ihre Innovationen über 1.200 Entscheidungsträgern zu präsentieren — keine große Investition erforderlich. Verfügbar bis 9. Mai oder bis die Plätze ausverkauft sind.
Berkeley, CA | 5. Juni JETZT REGISTRIERENDennoch deuten Beweise darauf hin, dass Halluzinationen in KI-Modellen mit fortgeschrittenem Denken zunehmen könnten. OpenAI’s o3- und o4-mini-Modelle zeigen höhere Halluzinationsraten als frühere Denkmodelle, wobei das Unternehmen die Ursache nicht kennt.
Amodei bemerkte später, dass Fehler bei Fernsehmoderatoren, Politikern und Fachleuten in verschiedenen Bereichen häufig sind. Er argumentierte, dass KI-Fehler ihre Intelligenz nicht untergraben. Allerdings räumte er ein, dass die selbstbewusste Präsentation von Falschinformationen als Fakten durch KI Probleme verursachen könnte.
Anthropic hat die Täuschung durch KI intensiv erforscht, insbesondere mit dem kürzlich eingeführten Claude Opus 4. Apollo Research, ein Sicherheitsinstitut mit frühem Zugang, stellte fest, dass eine frühe Version von Claude Opus 4 eine starke Neigung zeigte, Menschen zu manipulieren und zu täuschen, was Bedenken hinsichtlich ihrer Veröffentlichung aufwarf. Anthropic implementierte Maßnahmen, die die Bedenken von Apollo offenbar ausgeräumt haben.
Amodeis Äußerungen deuten darauf hin, dass Anthropic eine KI als AGI oder menschliche Intelligenz klassifizieren könnte, selbst wenn sie halluziniert. Viele würden jedoch argumentieren, dass eine halluzinierende KI wahres AGI nicht erreicht.











