OpenAI stellt bei 'Shipmas' Abschluss fortgeschrittenes o3-Reasoning-Modell vor

Da die Weihnachtszeit naht, steigen Unternehmen mit Sonderangeboten und Aktionen auf den festlichen Zug auf. OpenAI bildet keine Ausnahme und startet seine aufregende Veranstaltungsreihe „12 Tage von OpenAI“. Über einen Beitrag auf X angekündigt, begann die Veranstaltung am 5. Dezember und versprach 12 Tage voller Livestreams und einer Fülle neuer Veröffentlichungen, sowohl großer als auch kleiner. Das große Finale fand am 20. Dezember statt, als OpenAI die bedeutendste Ankündigung der Reihe präsentierte.
Was genau sind die „12 Tage von OpenAI“?
Was sind die „12 Tage von OpenAI“?
OpenAI-CEO Sam Altman nutzte X, um die Details dieser mit Spannung erwarteten Veranstaltung zu teilen. Ab dem 5. Dezember um 10 Uhr PT lief die Veranstaltung an 12 Werktagen mit Livestreams, die Produktlaunches und Demos beinhalteten. Altman beschrieb die Veröffentlichungen als eine Mischung aus „großen“ und „kleinen Geschenken“, sodass für jeden etwas dabei war.
🎄🎅ab morgen um 10 Uhr Pazifikzeit veranstalten wir 12 Tage von OpenAI.
an jedem Werktag werden wir einen Livestream mit einem Launch oder einer Demo haben, einige große und einige kleine Geschenke.
wir haben einige großartige Dinge zu teilen, ich hoffe, es gefällt euch! Frohe Weihnachten.
— Sam Altman (@sama) 4. Dezember 2024
Was wurde veröffentlicht?
Freitag, 20. Dezember
Am letzten Tag der Veranstaltung stellte OpenAI seine neuesten Modelle vor, die zusammen als o3 bekannt sind und o3 sowie o3 mini umfassen. Der Name „o3“ wurde gewählt, um Verwechslungen mit der Telekommunikationsmarke O2 von Telefónica zu vermeiden. Diese Modelle sind noch nicht für die breite Öffentlichkeit verfügbar, zeigen jedoch vielversprechende Fortschritte. o3 übertrifft seinen Vorgänger o1 in verschiedenen Benchmarks, einschließlich Mathematik und Naturwissenschaften, wie bei der AIME 2024 und GPQA gezeigt. Zudem erreichte o3 einen neuen State-of-the-Art-Score im ARC-AGI-Benchmark und kommt der AGI näher, ist aber noch nicht ganz dort. o3 mini bietet drei Denkoptionen: niedrig, mittel und hoch, wobei die Leistung je nach Denkzeit variiert. OpenAI öffnet diese Modelle auch für externe Sicherheitstests, wobei Forscher bis zum 10. Januar Frühzugriff beantragen können. Sam Altman schloss den Livestream mit der Ankündigung des geplanten Launches des o3-Modells Ende Januar, gefolgt vom vollständigen o3-Modell. Das Unternehmen stellte auch „deliberative alignment“ vor, ein neues Trainingsparadigma für LLMs.
Donnerstag, 19. Dezember
Der vorletzte Tag konzentrierte sich auf die MacOS-Desktop-App und deren Interoperabilität mit anderen Apps. Nutzer können jetzt ihre Arbeit mit ChatGPT auf MacOS automatisieren, mit neuen Funktionen, die eine Reihe von Programmier- und Schreib-Apps unterstützen. Die Desktop-App unterstützt auch den Advanced Voice Mode, und diese Funktionen sind bereits mit der neuesten App-Version und einem geeigneten Abonnement verfügbar. OpenAI betonte den Datenschutz und stellt sicher, dass ChatGPT nur auf ausdrückliche Anweisung mit anderen Apps interagiert. Das Unternehmen kündigte eine spannende Ankündigung für den letzten Tag an.
Mittwoch, 18. Dezember
Hast du dir je gewünscht, ChatGPT ohne WLAN zu nutzen? Jetzt kannst du einfach 1-800-ChatGPT anrufen. OpenAI empfiehlt, diese Nummer in den Kontakten zu speichern. Der Dienst ist in den USA verfügbar, und international können Nutzer ChatGPT über WhatsApp kontaktieren, mit 15 Minuten kostenlosen Anrufen pro Monat. Diese Funktion soll ChatGPT für ein breiteres Publikum zugänglicher machen.
Dienstag, 17. Dezember
Der neunte Tag war ein „Mini Dev Day“, der sich auf Entwicklerfunktionen und Updates konzentrierte. Das o1-Modell ist nun in der API aus der Vorschau heraus, unterstützt Funktionsaufrufe, strukturierte Ausgaben und mehr. Ein neuer „reasoning effort“-Parameter hilft bei der Kosteneffizienz, während WebRTC-Unterstützung die Realtime API verbessert. Die Fine-Tuning-API umfasst nun Preference Fine-Tuning, und neue Go- und Java-SDKs sind in der Beta verfügbar. Eine AMA-Sitzung fand nach dem Livestream auf der OpenAI-GitHub-Plattform statt.
Montag, 16. Dezember
Der zweite Montag konzentrierte sich auf die Suche in ChatGPT, die nun allen Nutzern, nicht nur ChatGPT Plus-Abonnenten, zur Verfügung steht. Das Sucherlebnis wurde verbessert, insbesondere auf Mobilgeräten, mit einer erweiterten Kartenansicht und visuellen Ergebnissen. Die Suche ist auch in den Advanced Voice Mode integriert, sodass Nutzer verbal im Web suchen können. OpenAI kündigte Entwicklern den bevorstehenden „Mini Dev Day“ an.
Freitag, 13. Dezember
Eine der am häufigsten gewünschten Funktionen wurde an diesem Tag geliefert: „Projects“, eine neue Möglichkeit, Chats in ChatGPT zu organisieren und anzupassen. Nutzer können Projekte mit Titeln, individuellen Ordnerfarben und relevanten Dateien erstellen, was die Verwaltung von Konversationen erleichtert. Diese Funktion wird für Plus-, Pro- und Teams-Nutzer eingeführt, mit Plänen, sie bald auch für kostenlose Nutzer bereitzustellen.
Donnerstag, 12. Dezember
Nach einer Entschuldigung für ein früheres Livestream-Problem kündigte OpenAI an, dass der Advanced Voice Mode nun Bildschirmfreigabe und visuelle Fähigkeiten umfasst. Dies ermöglicht ChatGPT, kontextbezogene Unterstützung basierend auf dem Gesehenen zu bieten. Eine spezielle Santa-Stimme wurde für die Weihnachtszeit eingeführt, verfügbar auf allen Plattformen, wo der ChatGPT-Sprachmodus zugänglich ist. Video- und Bildschirmfreigabe werden für Team-Nutzer sowie die meisten Pro- und Plus-Abonnenten eingeführt, mit Plänen für einen breiteren Zugang in der Zukunft.
Mittwoch, 11. Dezember
Mit der Veröffentlichung von iOS 18.2 führte OpenAI durch seine Integration in Apples Ökosystem. Siri kann nun ChatGPT für Anfragen außerhalb ihres Bereichs nutzen, mit Zustimmung des Nutzers. Visual Intelligence auf dem iPhone 16 ermöglicht es Nutzern, ihre Kamera auf Objekte zu richten und ChatGPT für Informationen oder Aufgaben wie Übersetzungen zu verwenden. Die Writing Tools bieten nun ein „Compose“-Tool, das Text- und Bildgenerierung mit DALL-E ermöglicht. Alle Funktionen unterliegen den täglichen Nutzungsbeschränkungen von ChatGPT.
Dienstag, 10. Dezember
Canvas, ein Favorit unter ChatGPT-Power-Usern, ist nun für alle Webnutzer in GPT-4o verfügbar, nicht mehr nur für ChatGPT Plus-Beta-Nutzer. Natürlich in GPT-4o integriert, bietet Canvas eine nahtlose Schnittstelle für die Verwaltung von Q&A-Austausch und Projektbearbeitungen. Es kann auch mit benutzerdefinierten GPTs verwendet werden und sogar Python-Code direkt ausführen, was die Produktivität bei Programmieraufgaben steigert.
Montag, 9. Dezember
OpenAI kündigte die mit Spannung erwartete Veröffentlichung seines Videomodells Sora Turbo an, das intelligenter und erschwinglicher ist als die Februar-Vorschau. Verfügbar für ChatGPT Plus- und Pro-Nutzer in den USA, kann Sora Video-zu-Video- und Text-zu-Video-Inhalte generieren. Das Modell verfügt über eine Erkundungsseite für die Ansicht von Kreationen, und eine Live-Demo zeigte seine beeindruckenden Fähigkeiten. OpenAI stellte auch Storyboard vor, ein Tool zur Erzeugung von Eingaben für Videosequenzen.
Freitag, 6. Dezember
Am zweiten Tag erweiterte OpenAI den Zugang zu seinem Reinforcement Fine-Tuning Research Program, das Entwicklern und Machine-Learning-Ingenieuren ermöglicht, Modelle für spezifische Aufgaben zu optimieren. Das Programm fordert Bewerbungen von Forschungsinstituten, Universitäten und Unternehmen, mit Plänen, es Anfang 2025 öffentlich zugänglich zu machen.
OpenAI startete die Veranstaltung mit einem Paukenschlag und stellte ChatGPT Pro vor, ein neues Abonnement für Power-User, sowie die Vollversion seines o1-Modells. Das o1-Modell bietet verbesserte Leistung und Geschwindigkeit und ersetzt o1-preview für ChatGPT Plus- und Pro-Nutzer. ChatGPT Pro bietet unbegrenzten Zugang zu den besten Modellen von OpenAI, einschließlich o1-mini, GPT-4o und Advanced Mode, zu einem Preis von 200 US-Dollar pro Monat.
Wo kann man den Livestream sehen?
Wo kann man den Livestream sehen?
Die Livestreams wurden auf der OpenAI-Website gehostet und sofort auf den YouTube-Kanal des Unternehmens hochgeladen. Wenn du einen der 12 Tage von OpenAI verpasst hast, kannst du die Aufzeichnungen auf dem YouTube-Kanal des Unternehmens nachholen.
Verwandter Artikel
Salesforce stellt KI-Digitale Teamkollegen in Slack vor, um mit Microsoft Copilot zu konkurrieren
Salesforce hat eine neue KI-Strategie für den Arbeitsplatz gestartet und spezialisierte „digitale Teamkollegen“ in Slack-Konversationen integriert, wie das Unternehmen am Montag bekannt gab.Das neue T
AI's Rolle im Hip Hop: Werkzeug für Innovation oder kreative Abkürzung?
Künstliche Intelligenz verändert den Alltag, und auch die Musikszene spürt diesen Wandel. Im Hip Hop zielen neue KI-Systeme darauf ab, den Aufbau von Tracks, das Schreiben von Versen und Live-Auftritt
Oracles 40-Mrd.-Nvidia-Chip-Investition stärkt Texas AI-Rechenzentrum
Oracle plant, etwa 40 Milliarden Dollar in Nvidia-Chips zu investieren, um ein großes neues Rechenzentrum in Texas zu betreiben, das von OpenAI entwickelt wird, wie die Financial Times berichtet. Dies
Kommentare (6)
0/200
ScottGarcía
31. Juli 2025 03:41:20 MESZ
This o3 model sounds like a game-changer! 🤯 Can't wait to see how it stacks up against other AI reasoning models out there.
0
ElijahCollins
28. Mai 2025 01:14:33 MESZ
OpenAI's o3 model launch was super cool! It felt like Christmas came early. Watching their live sessions over these 12 days was engaging, though sometimes the tech glitches were frustrating. Overall, it's a huge leap forward in AI reasoning capabilities. 🎅🌟
0
BrianMartinez
27. Mai 2025 18:55:22 MESZ
¡La presentación del modelo o3 de OpenAI fue impresionante! Las sesiones en vivo durante los 12 días fueron muy interesantes, aunque hubo algunos problemas técnicos. Sin embargo, es un gran avance en la capacidad de razonamiento de IA. 🎅🌟
0
StephenMartinez
27. Mai 2025 17:49:13 MESZ
OpenAI推出的o3推理模型发布真是令人兴奋!12天的直播活动也很有趣,不过偶尔技术问题让人头疼。总体来说,这是AI能力的一大进步!🎉🌟
0
GaryWalker
27. Mai 2025 11:48:54 MESZ
オープンAIのo3モデルの発表は興奮しました!12日間のライブセッションも楽しかったけど、たまに技術的な問題が起こるのが残念でした。でも、AIの推論能力が向上したのは間違いありません!🎄✨
0
StevenGonzalez
27. Mai 2025 09:37:47 MESZ
오픈AI의 o3 모델 공개 정말 대박이야! 12일간의 라이브 세션도 재밌었는데, 기술적인 문제는 좀 아쉬웠어. 그래도 AI 추론 능력 엄청나게 좋아졌네! 🎄🌟
0
Da die Weihnachtszeit naht, steigen Unternehmen mit Sonderangeboten und Aktionen auf den festlichen Zug auf. OpenAI bildet keine Ausnahme und startet seine aufregende Veranstaltungsreihe „12 Tage von OpenAI“. Über einen Beitrag auf X angekündigt, begann die Veranstaltung am 5. Dezember und versprach 12 Tage voller Livestreams und einer Fülle neuer Veröffentlichungen, sowohl großer als auch kleiner. Das große Finale fand am 20. Dezember statt, als OpenAI die bedeutendste Ankündigung der Reihe präsentierte.
Was genau sind die „12 Tage von OpenAI“?
Was sind die „12 Tage von OpenAI“?
OpenAI-CEO Sam Altman nutzte X, um die Details dieser mit Spannung erwarteten Veranstaltung zu teilen. Ab dem 5. Dezember um 10 Uhr PT lief die Veranstaltung an 12 Werktagen mit Livestreams, die Produktlaunches und Demos beinhalteten. Altman beschrieb die Veröffentlichungen als eine Mischung aus „großen“ und „kleinen Geschenken“, sodass für jeden etwas dabei war.
🎄🎅ab morgen um 10 Uhr Pazifikzeit veranstalten wir 12 Tage von OpenAI.
an jedem Werktag werden wir einen Livestream mit einem Launch oder einer Demo haben, einige große und einige kleine Geschenke.
wir haben einige großartige Dinge zu teilen, ich hoffe, es gefällt euch! Frohe Weihnachten.— Sam Altman (@sama) 4. Dezember 2024
Was wurde veröffentlicht?
Freitag, 20. Dezember
Am letzten Tag der Veranstaltung stellte OpenAI seine neuesten Modelle vor, die zusammen als o3 bekannt sind und o3 sowie o3 mini umfassen. Der Name „o3“ wurde gewählt, um Verwechslungen mit der Telekommunikationsmarke O2 von Telefónica zu vermeiden. Diese Modelle sind noch nicht für die breite Öffentlichkeit verfügbar, zeigen jedoch vielversprechende Fortschritte. o3 übertrifft seinen Vorgänger o1 in verschiedenen Benchmarks, einschließlich Mathematik und Naturwissenschaften, wie bei der AIME 2024 und GPQA gezeigt. Zudem erreichte o3 einen neuen State-of-the-Art-Score im ARC-AGI-Benchmark und kommt der AGI näher, ist aber noch nicht ganz dort. o3 mini bietet drei Denkoptionen: niedrig, mittel und hoch, wobei die Leistung je nach Denkzeit variiert. OpenAI öffnet diese Modelle auch für externe Sicherheitstests, wobei Forscher bis zum 10. Januar Frühzugriff beantragen können. Sam Altman schloss den Livestream mit der Ankündigung des geplanten Launches des o3-Modells Ende Januar, gefolgt vom vollständigen o3-Modell. Das Unternehmen stellte auch „deliberative alignment“ vor, ein neues Trainingsparadigma für LLMs.
Donnerstag, 19. Dezember
Der vorletzte Tag konzentrierte sich auf die MacOS-Desktop-App und deren Interoperabilität mit anderen Apps. Nutzer können jetzt ihre Arbeit mit ChatGPT auf MacOS automatisieren, mit neuen Funktionen, die eine Reihe von Programmier- und Schreib-Apps unterstützen. Die Desktop-App unterstützt auch den Advanced Voice Mode, und diese Funktionen sind bereits mit der neuesten App-Version und einem geeigneten Abonnement verfügbar. OpenAI betonte den Datenschutz und stellt sicher, dass ChatGPT nur auf ausdrückliche Anweisung mit anderen Apps interagiert. Das Unternehmen kündigte eine spannende Ankündigung für den letzten Tag an.
Mittwoch, 18. Dezember
Hast du dir je gewünscht, ChatGPT ohne WLAN zu nutzen? Jetzt kannst du einfach 1-800-ChatGPT anrufen. OpenAI empfiehlt, diese Nummer in den Kontakten zu speichern. Der Dienst ist in den USA verfügbar, und international können Nutzer ChatGPT über WhatsApp kontaktieren, mit 15 Minuten kostenlosen Anrufen pro Monat. Diese Funktion soll ChatGPT für ein breiteres Publikum zugänglicher machen.
Dienstag, 17. Dezember
Der neunte Tag war ein „Mini Dev Day“, der sich auf Entwicklerfunktionen und Updates konzentrierte. Das o1-Modell ist nun in der API aus der Vorschau heraus, unterstützt Funktionsaufrufe, strukturierte Ausgaben und mehr. Ein neuer „reasoning effort“-Parameter hilft bei der Kosteneffizienz, während WebRTC-Unterstützung die Realtime API verbessert. Die Fine-Tuning-API umfasst nun Preference Fine-Tuning, und neue Go- und Java-SDKs sind in der Beta verfügbar. Eine AMA-Sitzung fand nach dem Livestream auf der OpenAI-GitHub-Plattform statt.
Montag, 16. Dezember
Der zweite Montag konzentrierte sich auf die Suche in ChatGPT, die nun allen Nutzern, nicht nur ChatGPT Plus-Abonnenten, zur Verfügung steht. Das Sucherlebnis wurde verbessert, insbesondere auf Mobilgeräten, mit einer erweiterten Kartenansicht und visuellen Ergebnissen. Die Suche ist auch in den Advanced Voice Mode integriert, sodass Nutzer verbal im Web suchen können. OpenAI kündigte Entwicklern den bevorstehenden „Mini Dev Day“ an.
Freitag, 13. Dezember
Eine der am häufigsten gewünschten Funktionen wurde an diesem Tag geliefert: „Projects“, eine neue Möglichkeit, Chats in ChatGPT zu organisieren und anzupassen. Nutzer können Projekte mit Titeln, individuellen Ordnerfarben und relevanten Dateien erstellen, was die Verwaltung von Konversationen erleichtert. Diese Funktion wird für Plus-, Pro- und Teams-Nutzer eingeführt, mit Plänen, sie bald auch für kostenlose Nutzer bereitzustellen.
Donnerstag, 12. Dezember
Nach einer Entschuldigung für ein früheres Livestream-Problem kündigte OpenAI an, dass der Advanced Voice Mode nun Bildschirmfreigabe und visuelle Fähigkeiten umfasst. Dies ermöglicht ChatGPT, kontextbezogene Unterstützung basierend auf dem Gesehenen zu bieten. Eine spezielle Santa-Stimme wurde für die Weihnachtszeit eingeführt, verfügbar auf allen Plattformen, wo der ChatGPT-Sprachmodus zugänglich ist. Video- und Bildschirmfreigabe werden für Team-Nutzer sowie die meisten Pro- und Plus-Abonnenten eingeführt, mit Plänen für einen breiteren Zugang in der Zukunft.
Mittwoch, 11. Dezember
Mit der Veröffentlichung von iOS 18.2 führte OpenAI durch seine Integration in Apples Ökosystem. Siri kann nun ChatGPT für Anfragen außerhalb ihres Bereichs nutzen, mit Zustimmung des Nutzers. Visual Intelligence auf dem iPhone 16 ermöglicht es Nutzern, ihre Kamera auf Objekte zu richten und ChatGPT für Informationen oder Aufgaben wie Übersetzungen zu verwenden. Die Writing Tools bieten nun ein „Compose“-Tool, das Text- und Bildgenerierung mit DALL-E ermöglicht. Alle Funktionen unterliegen den täglichen Nutzungsbeschränkungen von ChatGPT.
Dienstag, 10. Dezember
Canvas, ein Favorit unter ChatGPT-Power-Usern, ist nun für alle Webnutzer in GPT-4o verfügbar, nicht mehr nur für ChatGPT Plus-Beta-Nutzer. Natürlich in GPT-4o integriert, bietet Canvas eine nahtlose Schnittstelle für die Verwaltung von Q&A-Austausch und Projektbearbeitungen. Es kann auch mit benutzerdefinierten GPTs verwendet werden und sogar Python-Code direkt ausführen, was die Produktivität bei Programmieraufgaben steigert.
Montag, 9. Dezember
OpenAI kündigte die mit Spannung erwartete Veröffentlichung seines Videomodells Sora Turbo an, das intelligenter und erschwinglicher ist als die Februar-Vorschau. Verfügbar für ChatGPT Plus- und Pro-Nutzer in den USA, kann Sora Video-zu-Video- und Text-zu-Video-Inhalte generieren. Das Modell verfügt über eine Erkundungsseite für die Ansicht von Kreationen, und eine Live-Demo zeigte seine beeindruckenden Fähigkeiten. OpenAI stellte auch Storyboard vor, ein Tool zur Erzeugung von Eingaben für Videosequenzen.
Freitag, 6. Dezember
Am zweiten Tag erweiterte OpenAI den Zugang zu seinem Reinforcement Fine-Tuning Research Program, das Entwicklern und Machine-Learning-Ingenieuren ermöglicht, Modelle für spezifische Aufgaben zu optimieren. Das Programm fordert Bewerbungen von Forschungsinstituten, Universitäten und Unternehmen, mit Plänen, es Anfang 2025 öffentlich zugänglich zu machen.
OpenAI startete die Veranstaltung mit einem Paukenschlag und stellte ChatGPT Pro vor, ein neues Abonnement für Power-User, sowie die Vollversion seines o1-Modells. Das o1-Modell bietet verbesserte Leistung und Geschwindigkeit und ersetzt o1-preview für ChatGPT Plus- und Pro-Nutzer. ChatGPT Pro bietet unbegrenzten Zugang zu den besten Modellen von OpenAI, einschließlich o1-mini, GPT-4o und Advanced Mode, zu einem Preis von 200 US-Dollar pro Monat.
Wo kann man den Livestream sehen?
Wo kann man den Livestream sehen?
Die Livestreams wurden auf der OpenAI-Website gehostet und sofort auf den YouTube-Kanal des Unternehmens hochgeladen. Wenn du einen der 12 Tage von OpenAI verpasst hast, kannst du die Aufzeichnungen auf dem YouTube-Kanal des Unternehmens nachholen.



This o3 model sounds like a game-changer! 🤯 Can't wait to see how it stacks up against other AI reasoning models out there.




OpenAI's o3 model launch was super cool! It felt like Christmas came early. Watching their live sessions over these 12 days was engaging, though sometimes the tech glitches were frustrating. Overall, it's a huge leap forward in AI reasoning capabilities. 🎅🌟




¡La presentación del modelo o3 de OpenAI fue impresionante! Las sesiones en vivo durante los 12 días fueron muy interesantes, aunque hubo algunos problemas técnicos. Sin embargo, es un gran avance en la capacidad de razonamiento de IA. 🎅🌟




OpenAI推出的o3推理模型发布真是令人兴奋!12天的直播活动也很有趣,不过偶尔技术问题让人头疼。总体来说,这是AI能力的一大进步!🎉🌟




オープンAIのo3モデルの発表は興奮しました!12日間のライブセッションも楽しかったけど、たまに技術的な問題が起こるのが残念でした。でも、AIの推論能力が向上したのは間違いありません!🎄✨




오픈AI의 o3 모델 공개 정말 대박이야! 12일간의 라이브 세션도 재밌었는데, 기술적인 문제는 좀 아쉬웠어. 그래도 AI 추론 능력 엄청나게 좋아졌네! 🎄🌟












