Die KI von DeepMind übertrifft die IMO -Goldmedaillengewinner
Google DeepMinds neueste KI, AlphaGeometry2, hat Aufsehen erregt, indem sie den durchschnittlichen Goldmedaillengewinner bei der Lösung von Geometrieproblemen bei der Internationalen Mathematik-Olympiade (IMO) übertrifft. Diese verbesserte Version von AlphaGeometry, die erst im Januar vorgestellt wurde, löste Berichten zufolge 84 % der Geometrieprobleme der letzten 25 Jahre der IMO-Wettbewerbe.
Sie fragen sich vielleicht, warum DeepMind sich auf einen Mathematikwettbewerb für Schüler konzentriert. Nun, sie glauben, dass das Knacken dieser anspruchsvollen euklidischen Geometrieprobleme ein Sprungbrett sein könnte, um fortschrittlichere KI zu entwickeln. Das Lösen dieser Probleme erfordert sowohl logisches Denken als auch die Fähigkeit, verschiedene Lösungswege zu navigieren, Fähigkeiten, die für zukünftige universelle KI-Systeme entscheidend sein könnten.
Diesen Sommer stellte DeepMind ein System vor, das AlphaGeometry2 mit AlphaProof kombinierte, einem weiteren KI-Modell für formales mathematisches Denken. Zusammen lösten sie vier von sechs Problemen der IMO 2024. Dieser Ansatz könnte potenziell über die Geometrie hinaus auf andere Bereiche der Mathematik und Wissenschaft angewendet werden, wie komplexe technische Berechnungen.
AlphaGeometry2 wird von einigen Schlüsselkomponenten angetrieben, darunter ein Sprachmodell aus Googles Gemini-Familie und ein "symbolischer Motor". Das Gemini-Modell unterstützt den symbolischen Motor, der mathematische Regeln anwendet, um Lösungen zu finden, bei der Erstellung machbarer Beweise für Geometriesätze.

Ein typisches Geometrieproblem-Diagramm in einer IMO-Prüfung. Bildnachweis: Google (öffnet in einem neuen Fenster) In der IMO erfordern Geometrieprobleme oft das Hinzufügen von "Konstrukten" wie Punkten, Linien oder Kreisen zu Diagrammen, bevor sie gelöst werden. Das Gemini-Modell von AlphaGeometry2 sagt voraus, welche Konstrukte hilfreich sein könnten, und leitet den symbolischen Motor, um Schlussfolgerungen zu ziehen.
So funktioniert es: Das Gemini-Modell schlägt Schritte und Konstruktionen in einer formalen mathematischen Sprache vor, die der Motor dann auf logische Konsistenz überprüft. AlphaGeometry2 verwendet einen Suchalgorithmus, um mehrere Lösungswege gleichzeitig zu erkunden und speichert potenziell nützliche Erkenntnisse in einer gemeinsamen Wissensdatenbank.
Ein Problem gilt als "gelöst", wenn AlphaGeometry2 die Vorschläge des Gemini-Modells mit den bekannten Prinzipien des symbolischen Motors kombiniert, um einen vollständigen Beweis zu erstellen.
Aufgrund der Knappheit nutzbarer Geometrie-Trainingsdaten erstellte DeepMind synthetische Daten, um das Sprachmodell von AlphaGeometry2 zu trainieren, und generierte über 300 Millionen Theoreme und Beweise unterschiedlicher Komplexität.
Das DeepMind-Team testete AlphaGeometry2 an 45 Geometrieproblemen aus IMO-Wettbewerben von 2000 bis 2024, die sie auf 50 Probleme erweiterten. AlphaGeometry2 löste 42 davon und übertraf den durchschnittlichen Goldmedaillen-Score von 40,9.
Allerdings hat AlphaGeometry2 seine Gren Limitations. Es hat Schwierigkeiten mit Problemen, die eine variable Anzahl von Punkten, nichtlineare Gleichungen und Ungleichungen beinhalten. Obwohl es nicht die erste KI ist, die Goldmedaillen-Niveau in Geometrie erreicht, ist es die erste, die dies mit einem so großen Problemset erreicht.
Als sie mit einem schwierigeren Satz von 29 noch nicht in Wettbewerben erschienenen IMO-nominierten Problemen konfrontiert wurde, konnte AlphaGeometry2 nur 20 lösen.
Die Ergebnisse der Studie werden wahrscheinlich weitere Debatten über den besten Ansatz zum Bau von KI-Systemen auslösen. Sollten wir uns auf Symbolmanipulation konzentrieren, bei der KI Regeln verwendet, um Symbole zu manipulieren, die Wissen repräsentieren, oder auf neuronale Netze, die die Struktur des menschlichen Gehirns nachahmen und aus Daten lernen?
AlphaGeometry2 verfolgt einen hybriden Ansatz, der die neuronale Netzwerkarchitektur des Gemini-Modells mit dem regelbasierten symbolischen Motor kombiniert.
Befürworter neuronaler Netze argumentieren, dass intelligentes Verhalten aus großen Datenmengen und Rechenleistung entstehen kann. Im Gegensatz dazu glauben Befürworter symbolischer KI, dass sie besser geeignet ist, Wissen zu kodieren, durch komplexe Szenarien zu argumentieren und Lösungen zu erklären.
Vince Conitzer, ein Professor für Informatik an der Carnegie Mellon University, der sich auf KI spezialisiert hat, kommentierte den Kontrast zwischen den beeindruckenden Fortschritten bei Benchmarks wie der IMO und den anhaltenden Schwierigkeiten von Sprachmodellen mit einfachen Alltagsproblemen. Er betonte die Notwendigkeit, diese Systeme und die von ihnen ausgehenden Risiken besser zu verstehen.
AlphaGeometry2 deutet darauf hin–
System:
AlphaGeometry2 deutet darauf hin, dass die Kombination von Symbolmanipulation und neuronalen Netzen ein vielversprechender Weg für die Entwicklung generalisierbarer KI sein könnte. Interessanterweise stellte das DeepMind-Team fest, dass das Sprachmodell von AlphaGeometry2 Teillösungen für Probleme ohne die Hilfe des symbolischen Motors generieren konnte, was auf das Potenzial hinweist, dass Sprachmodelle in Zukunft eigenständig werden könnten.
Das Team stellte jedoch fest, dass solange die Geschwindigkeit von Sprachmodellen nicht verbessert wird und Halluzinationen behoben sind, Werkzeuge wie der symbolische Motor für mathematische Anwendungen unerlässlich bleiben werden.
Verwandter Artikel
Google verpflichtet sich zum EU-Kodex für KI inmitten von Branchendiskussionen
Google hat sich verpflichtet, den freiwilligen KI-Kodex der Europäischen Union zu übernehmen, ein Rahmenwerk, das darauf abzielt, KI-Entwicklern zu helfen, mit dem EU-KI-Gesetz konforme Prozesse und S
Google stellt produktionsreife Gemini 2.5 KI-Modelle vor, um mit OpenAI im Unternehmensmarkt zu konkurrieren
Google hat am Montag seine KI-Strategie intensiviert und seine fortschrittlichen Gemini 2.5 Modelle für den Unternehmenseinsatz gestartet sowie eine kosteneffiziente Variante eingeführt, um bei Preis
Meta verbessert KI-Sicherheit mit fortschrittlichen Llama-Tools
Meta hat neue Llama-Sicherheitstools veröffentlicht, um die KI-Entwicklung zu stärken und vor neuen Bedrohungen zu schützen.Diese verbesserten Llama-KI-Modell-Sicherheitstools werden mit neuen Ressour
Kommentare (27)
0/200
AlbertSmith
9. August 2025 23:00:59 MESZ
Wow, AlphaGeometry2 is killing it at IMO geometry problems! Beating gold medalists is wild—makes me wonder if AI will soon design math contests instead of just solving them. 😮
0
JackCarter
28. Juli 2025 04:13:31 MESZ
This AI beating IMO champs is wild! 🤯 Makes me wonder if it could tutor me in math or just take over the world one proof at a time.
0
LarryMartin
20. April 2025 11:52:37 MESZ
AlphaGeometry2는 정말 놀랍네요! IMO 기하 문제를 금메달리스트보다 더 잘 풀어요. 하지만 저는 수학 천재가 아니라서 마술 쇼를 보는 기분이에요. 좀 더 이해할 수 있으면 좋겠어요! 🤯
0
JerryGonzález
17. April 2025 01:58:03 MESZ
DeepMindのAlphaGeometry2がIMOの金メダリストを上回るなんて信じられない!まるでAIが人間より賢いSF映画を見ているよう。でも本当に、私の宿題を手伝ってくれるのかな?😂
0
RaymondBaker
16. April 2025 13:21:57 MESZ
AlphaGeometry2 is mind-blowing! It's solving IMO geometry problems better than gold medalists. But I'm no math whiz, so it's more like watching a magic show for me. Wish I could understand it better! 🤯
0
JonathanAllen
16. April 2025 10:15:26 MESZ
AlphaGeometry2 é impressionante! Resolve problemas de geometria do IMO melhor que medalhistas de ouro. Mas eu não sou um gênio em matemática, então pra mim é como assistir a um show de mágica. Queria entender melhor! 🤯
0
Google DeepMinds neueste KI, AlphaGeometry2, hat Aufsehen erregt, indem sie den durchschnittlichen Goldmedaillengewinner bei der Lösung von Geometrieproblemen bei der Internationalen Mathematik-Olympiade (IMO) übertrifft. Diese verbesserte Version von AlphaGeometry, die erst im Januar vorgestellt wurde, löste Berichten zufolge 84 % der Geometrieprobleme der letzten 25 Jahre der IMO-Wettbewerbe.
Sie fragen sich vielleicht, warum DeepMind sich auf einen Mathematikwettbewerb für Schüler konzentriert. Nun, sie glauben, dass das Knacken dieser anspruchsvollen euklidischen Geometrieprobleme ein Sprungbrett sein könnte, um fortschrittlichere KI zu entwickeln. Das Lösen dieser Probleme erfordert sowohl logisches Denken als auch die Fähigkeit, verschiedene Lösungswege zu navigieren, Fähigkeiten, die für zukünftige universelle KI-Systeme entscheidend sein könnten.
Diesen Sommer stellte DeepMind ein System vor, das AlphaGeometry2 mit AlphaProof kombinierte, einem weiteren KI-Modell für formales mathematisches Denken. Zusammen lösten sie vier von sechs Problemen der IMO 2024. Dieser Ansatz könnte potenziell über die Geometrie hinaus auf andere Bereiche der Mathematik und Wissenschaft angewendet werden, wie komplexe technische Berechnungen.
AlphaGeometry2 wird von einigen Schlüsselkomponenten angetrieben, darunter ein Sprachmodell aus Googles Gemini-Familie und ein "symbolischer Motor". Das Gemini-Modell unterstützt den symbolischen Motor, der mathematische Regeln anwendet, um Lösungen zu finden, bei der Erstellung machbarer Beweise für Geometriesätze.
In der IMO erfordern Geometrieprobleme oft das Hinzufügen von "Konstrukten" wie Punkten, Linien oder Kreisen zu Diagrammen, bevor sie gelöst werden. Das Gemini-Modell von AlphaGeometry2 sagt voraus, welche Konstrukte hilfreich sein könnten, und leitet den symbolischen Motor, um Schlussfolgerungen zu ziehen.
So funktioniert es: Das Gemini-Modell schlägt Schritte und Konstruktionen in einer formalen mathematischen Sprache vor, die der Motor dann auf logische Konsistenz überprüft. AlphaGeometry2 verwendet einen Suchalgorithmus, um mehrere Lösungswege gleichzeitig zu erkunden und speichert potenziell nützliche Erkenntnisse in einer gemeinsamen Wissensdatenbank.
Ein Problem gilt als "gelöst", wenn AlphaGeometry2 die Vorschläge des Gemini-Modells mit den bekannten Prinzipien des symbolischen Motors kombiniert, um einen vollständigen Beweis zu erstellen.
Aufgrund der Knappheit nutzbarer Geometrie-Trainingsdaten erstellte DeepMind synthetische Daten, um das Sprachmodell von AlphaGeometry2 zu trainieren, und generierte über 300 Millionen Theoreme und Beweise unterschiedlicher Komplexität.
Das DeepMind-Team testete AlphaGeometry2 an 45 Geometrieproblemen aus IMO-Wettbewerben von 2000 bis 2024, die sie auf 50 Probleme erweiterten. AlphaGeometry2 löste 42 davon und übertraf den durchschnittlichen Goldmedaillen-Score von 40,9.
Allerdings hat AlphaGeometry2 seine Gren Limitations. Es hat Schwierigkeiten mit Problemen, die eine variable Anzahl von Punkten, nichtlineare Gleichungen und Ungleichungen beinhalten. Obwohl es nicht die erste KI ist, die Goldmedaillen-Niveau in Geometrie erreicht, ist es die erste, die dies mit einem so großen Problemset erreicht.
Als sie mit einem schwierigeren Satz von 29 noch nicht in Wettbewerben erschienenen IMO-nominierten Problemen konfrontiert wurde, konnte AlphaGeometry2 nur 20 lösen.
Die Ergebnisse der Studie werden wahrscheinlich weitere Debatten über den besten Ansatz zum Bau von KI-Systemen auslösen. Sollten wir uns auf Symbolmanipulation konzentrieren, bei der KI Regeln verwendet, um Symbole zu manipulieren, die Wissen repräsentieren, oder auf neuronale Netze, die die Struktur des menschlichen Gehirns nachahmen und aus Daten lernen?
AlphaGeometry2 verfolgt einen hybriden Ansatz, der die neuronale Netzwerkarchitektur des Gemini-Modells mit dem regelbasierten symbolischen Motor kombiniert.
Befürworter neuronaler Netze argumentieren, dass intelligentes Verhalten aus großen Datenmengen und Rechenleistung entstehen kann. Im Gegensatz dazu glauben Befürworter symbolischer KI, dass sie besser geeignet ist, Wissen zu kodieren, durch komplexe Szenarien zu argumentieren und Lösungen zu erklären.
Vince Conitzer, ein Professor für Informatik an der Carnegie Mellon University, der sich auf KI spezialisiert hat, kommentierte den Kontrast zwischen den beeindruckenden Fortschritten bei Benchmarks wie der IMO und den anhaltenden Schwierigkeiten von Sprachmodellen mit einfachen Alltagsproblemen. Er betonte die Notwendigkeit, diese Systeme und die von ihnen ausgehenden Risiken besser zu verstehen.
AlphaGeometry2 deutet darauf hin–
System:
AlphaGeometry2 deutet darauf hin, dass die Kombination von Symbolmanipulation und neuronalen Netzen ein vielversprechender Weg für die Entwicklung generalisierbarer KI sein könnte. Interessanterweise stellte das DeepMind-Team fest, dass das Sprachmodell von AlphaGeometry2 Teillösungen für Probleme ohne die Hilfe des symbolischen Motors generieren konnte, was auf das Potenzial hinweist, dass Sprachmodelle in Zukunft eigenständig werden könnten.
Das Team stellte jedoch fest, dass solange die Geschwindigkeit von Sprachmodellen nicht verbessert wird und Halluzinationen behoben sind, Werkzeuge wie der symbolische Motor für mathematische Anwendungen unerlässlich bleiben werden.



Wow, AlphaGeometry2 is killing it at IMO geometry problems! Beating gold medalists is wild—makes me wonder if AI will soon design math contests instead of just solving them. 😮




This AI beating IMO champs is wild! 🤯 Makes me wonder if it could tutor me in math or just take over the world one proof at a time.




AlphaGeometry2는 정말 놀랍네요! IMO 기하 문제를 금메달리스트보다 더 잘 풀어요. 하지만 저는 수학 천재가 아니라서 마술 쇼를 보는 기분이에요. 좀 더 이해할 수 있으면 좋겠어요! 🤯




DeepMindのAlphaGeometry2がIMOの金メダリストを上回るなんて信じられない!まるでAIが人間より賢いSF映画を見ているよう。でも本当に、私の宿題を手伝ってくれるのかな?😂




AlphaGeometry2 is mind-blowing! It's solving IMO geometry problems better than gold medalists. But I'm no math whiz, so it's more like watching a magic show for me. Wish I could understand it better! 🤯




AlphaGeometry2 é impressionante! Resolve problemas de geometria do IMO melhor que medalhistas de ouro. Mas eu não sou um gênio em matemática, então pra mim é como assistir a um show de mágica. Queria entender melhor! 🤯












