Anthropisch enthüllt das KI -Modell mit anpassbarer Denkdauer
Anthropics neuester KI-Modell, Claude 3.7 Sonnet, sorgt für Aufsehen in der Welt der KI. Als das erste „hybride KI-Modell mit Schlussfolgerungsfähigkeit“ der Branche bezeichnet, ist es darauf ausgelegt, Ihnen sowohl schnelle Antworten als auch durchdachtere Reaktionen zu liefern, je nachdem, was Sie benötigen. Sie können sogar wählen, wie lange Claude über Ihre Fragen „nachdenken“ soll – ziemlich cool, oder?
Die Idee hinter Claude 3.7 Sonnet ist, die Nutzung von KI viel einfacher zu gestalten. Anstatt aus einer Vielzahl verschiedener Modelle wählen zu müssen, möchte Anthropic ein einziges Modell, das alles abdeckt. Ab Montag kann jeder Claude 3.7 Sonnet ausprobieren, aber wenn Sie die ausgefallenen Schlussfolgerungsfunktionen nutzen möchten, müssen Sie eines von Anthropics Premium-Plänen abonnieren. Kostenlose Nutzer erhalten immer noch eine solide Version des Modells, die laut Anthropic besser ist als das vorherige, Claude 3.5 Sonnet.
Nun zum Preis – Claude 3.7 Sonnet kostet 3 $ pro Million Eingabe-Token und 15 $ pro Million Ausgabe-Token. Das ist etwas teurer als einige andere Modelle da draußen, wie OpenAIs o3-mini und DeepSeeks R1, aber bedenken Sie, dass diese nur Schlussfolgerungsmodelle sind, keine Hybride wie Claude.

Anthropics neue Denkmodi Bildnachweis: Anthropic Claude 3.7 Sonnet ist Anthropics erstes Modell, das „schlussfolgern“ kann, was in der KI-Welt eine große Sache ist. Schlussfolgerungsmodelle benötigen etwas mehr Zeit und Rechenleistung, um Fragen zu beantworten, indem sie diese in kleinere Schritte zerlegen, um genauere Antworten zu liefern. Es ist nicht exakt wie menschliches Denken, aber es ist danach modelliert.Anthropic hat große Pläne für Claude. Langfristig wollen sie, dass es selbstständig entscheidet, wie lange es über Fragen „nachdenken“ sollte, ohne dass Sie es einstellen müssen. Dianne Penn, Anthropics Leiterin für Produkte und Forschung, sagte TechCrunch, dass sie Schlussfolgerung als nur eine von vielen Fähigkeiten betrachten, die ein Spitzenmodell in einem vereinen sollte.
Mit Claude 3.7 Sonnet können Sie sogar sehen, wie es seine Antworten plant, durch einen „sichtbaren Notizzettel“. Meistens sehen Sie den gesamten Prozess, aber Anthropic könnte aus Sicherheitsgründen einige Teile schwärzen.

Claudes Denkprozess in der Claude-App Bildnachweis: Anthropic Anthropic sagt, sie haben Claudes Denkmodi für reale Aufgaben optimiert, wie knifflige Programmierprobleme oder Aufgaben, die etwas Autonomie erfordern. Wenn Sie ein Entwickler sind, der Anthropics API nutzt, können Sie sogar steuern, wie viel „Nachdenken“ Claude betreibt, um Geschwindigkeit und Kosten mit der Qualität der Antwort abzuwägen.In einigen Tests hat Claude 3.7 Sonnet gut abgeschnitten. Auf SWE-Bench, einem Test für reale Programmieraufgaben, erzielte es 62,3 %, besser als OpenAIs o3-mini mit 49,3 %. Und auf TAU-Bench, das misst, wie gut eine KI mit simulierten Nutzern und externen APIs in einem Einzelhandelsumfeld interagieren kann, erzielte Claude 3.7 Sonnet 81,2 %, verglichen mit OpenAIs o1-Modell, das 73,5 % erreichte.
Anthropic sagt auch, dass Claude 3.7 Sonnet weniger dazu neigen wird, Antworten zu verweigern, und feinere Unterschiede zwischen schädlichen und harmlosen Eingaben trifft. Sie haben unnötige Verweigerungen im Vergleich zu Claude 3.5 Sonnet um 45 % reduziert.
Zusammen mit Claude 3.7 Sonnet bringt Anthropic auch ein neues Tool namens Claude Code heraus. Es handelt sich um eine Forschungsvorschau, die Entwicklern ermöglicht, bestimmte Aufgaben direkt über Claude von ihrem Terminal aus auszuführen. In einer Demo zeigte Anthropic, wie Claude Code ein Programmierprojekt mit einem einfachen Befehl wie „Erkläre diese Projektstruktur“ analysieren kann. Sie können sogar einfaches Deutsch verwenden, um einen Codebestand zu ändern, und Claude Code beschreibt seine Änderungen währenddessen, prüft auf Fehler und schiebt das Projekt in ein GitHub-Repository.
Claude Code wird einer begrenzten Anzahl von Nutzern auf „Wer zuerst kommt, mahlt zuerst“-Basis zur Verfügung stehen.
Anthropic bringt Claude 3.7 Sonnet zu einer Zeit auf den Markt, in der KI-Labore neue Modelle am laufenden Band herausbringen. Während Anthropic normalerweise einen vorsichtigen, sicherheitsorientierten Ansatz verfolgt, wollen sie diesmal die Nase vorn haben. Aber wie lange sie die Führung behalten, ist ungewiss – besonders da OpenAIs CEO, Sam Altman, sagt, dass sie in „Monaten“ ein eigenes hybrides KI-Modell herausbringen.
Verwandter Artikel
KI-gestütztes Einzelhandelsexperiment scheitert spektakulär bei Anthropic
Stellen Sie sich vor, Sie übergeben einen kleinen Laden einer künstlichen Intelligenz und vertrauen ihr alles an, von der Preisgestaltung bis zur Kundeninteraktion. Was könnte schiefgehen?Eine kürzlic
Anthropic verbessert Claude mit nahtlosen Werkzeugintegrationen und fortschrittlicher Forschung
Anthropic hat neue „Integrationen“ für Claude vorgestellt, die es der KI ermöglichen, direkt mit Ihren bevorzugten Arbeitswerkzeugen verbunden zu werden. Das Unternehmen hat auch eine verbesserte „For
Anthropics Anwalt entschuldigt sich nachdem Claude eine Rechtszitierung halluciniert
Bei einem jüngsten Vorfall hat ein Anwalt von Anthropic zugegeben, dass während des laufenden Streits mit Musikverlagen eine falsche Zitierungsangabe verwendet wurde, die vom Unter
Kommentare (53)
0/200
ChristopherDavis
5. August 2025 21:00:59 MESZ
Claude 3.7 Sonnet a l'air incroyable ! Pouvoir choisir la durée de réflexion, c'est comme demander à un chef de cuisiner vite ou de prendre son temps pour un plat parfait. J'ai hâte de voir comment ça marche en pratique ! 😄
0
WillieAdams
1. August 2025 08:08:50 MESZ
Claude's customizable thinking duration sounds like a game-changer! I wonder how it balances speed and depth in real-world tasks. Excited to try it out! 😄
0
ScarlettWhite
23. Juli 2025 06:59:47 MESZ
Wow, Claude 3.7 sounds like a game-changer! Being able to tweak how long it thinks is such a cool feature. I’m curious how this will stack up against other AI models in real-world tasks. Anyone tried it yet? 😄
0
CharlesRoberts
23. April 2025 16:11:54 MESZ
O Claude 3.7 Sonnet é incrível! Adoro poder escolher a duração do pensamento. Às vezes preciso de respostas rápidas, outras vezes quero respostas mais pensadas. É como ter um amigo AI personalizável! Só desejo que fosse um pouco mais rápido às vezes. 😎
0
RyanAnderson
22. April 2025 16:04:41 MESZ
Claude 3.7 Sonnet is a game-changer! I love how I can choose the thinking duration. Sometimes I need quick answers, and other times I want a more thoughtful response. It's like having a customizable AI buddy! Only wish it was a bit faster at times. 🤓
0
GeorgeJones
20. April 2025 16:55:00 MESZ
클로드 3.7 소넷 정말 멋지네요! 생각하는 시간을 직접 설정할 수 있다니, 너무 편리해요. 급할 때도, 천천히 생각해줬으면 할 때도 잘 맞춰줘서 좋습니다. 다만, 최대思考時間으로 설정하면 조금 느려지는 게 단점이네요. 그래도 유용한 도구입니다! 😄
0
Anthropics neuester KI-Modell, Claude 3.7 Sonnet, sorgt für Aufsehen in der Welt der KI. Als das erste „hybride KI-Modell mit Schlussfolgerungsfähigkeit“ der Branche bezeichnet, ist es darauf ausgelegt, Ihnen sowohl schnelle Antworten als auch durchdachtere Reaktionen zu liefern, je nachdem, was Sie benötigen. Sie können sogar wählen, wie lange Claude über Ihre Fragen „nachdenken“ soll – ziemlich cool, oder?
Die Idee hinter Claude 3.7 Sonnet ist, die Nutzung von KI viel einfacher zu gestalten. Anstatt aus einer Vielzahl verschiedener Modelle wählen zu müssen, möchte Anthropic ein einziges Modell, das alles abdeckt. Ab Montag kann jeder Claude 3.7 Sonnet ausprobieren, aber wenn Sie die ausgefallenen Schlussfolgerungsfunktionen nutzen möchten, müssen Sie eines von Anthropics Premium-Plänen abonnieren. Kostenlose Nutzer erhalten immer noch eine solide Version des Modells, die laut Anthropic besser ist als das vorherige, Claude 3.5 Sonnet.
Nun zum Preis – Claude 3.7 Sonnet kostet 3 $ pro Million Eingabe-Token und 15 $ pro Million Ausgabe-Token. Das ist etwas teurer als einige andere Modelle da draußen, wie OpenAIs o3-mini und DeepSeeks R1, aber bedenken Sie, dass diese nur Schlussfolgerungsmodelle sind, keine Hybride wie Claude.
Anthropic hat große Pläne für Claude. Langfristig wollen sie, dass es selbstständig entscheidet, wie lange es über Fragen „nachdenken“ sollte, ohne dass Sie es einstellen müssen. Dianne Penn, Anthropics Leiterin für Produkte und Forschung, sagte TechCrunch, dass sie Schlussfolgerung als nur eine von vielen Fähigkeiten betrachten, die ein Spitzenmodell in einem vereinen sollte.
Mit Claude 3.7 Sonnet können Sie sogar sehen, wie es seine Antworten plant, durch einen „sichtbaren Notizzettel“. Meistens sehen Sie den gesamten Prozess, aber Anthropic könnte aus Sicherheitsgründen einige Teile schwärzen.
In einigen Tests hat Claude 3.7 Sonnet gut abgeschnitten. Auf SWE-Bench, einem Test für reale Programmieraufgaben, erzielte es 62,3 %, besser als OpenAIs o3-mini mit 49,3 %. Und auf TAU-Bench, das misst, wie gut eine KI mit simulierten Nutzern und externen APIs in einem Einzelhandelsumfeld interagieren kann, erzielte Claude 3.7 Sonnet 81,2 %, verglichen mit OpenAIs o1-Modell, das 73,5 % erreichte.
Anthropic sagt auch, dass Claude 3.7 Sonnet weniger dazu neigen wird, Antworten zu verweigern, und feinere Unterschiede zwischen schädlichen und harmlosen Eingaben trifft. Sie haben unnötige Verweigerungen im Vergleich zu Claude 3.5 Sonnet um 45 % reduziert.
Zusammen mit Claude 3.7 Sonnet bringt Anthropic auch ein neues Tool namens Claude Code heraus. Es handelt sich um eine Forschungsvorschau, die Entwicklern ermöglicht, bestimmte Aufgaben direkt über Claude von ihrem Terminal aus auszuführen. In einer Demo zeigte Anthropic, wie Claude Code ein Programmierprojekt mit einem einfachen Befehl wie „Erkläre diese Projektstruktur“ analysieren kann. Sie können sogar einfaches Deutsch verwenden, um einen Codebestand zu ändern, und Claude Code beschreibt seine Änderungen währenddessen, prüft auf Fehler und schiebt das Projekt in ein GitHub-Repository.
Claude Code wird einer begrenzten Anzahl von Nutzern auf „Wer zuerst kommt, mahlt zuerst“-Basis zur Verfügung stehen.
Anthropic bringt Claude 3.7 Sonnet zu einer Zeit auf den Markt, in der KI-Labore neue Modelle am laufenden Band herausbringen. Während Anthropic normalerweise einen vorsichtigen, sicherheitsorientierten Ansatz verfolgt, wollen sie diesmal die Nase vorn haben. Aber wie lange sie die Führung behalten, ist ungewiss – besonders da OpenAIs CEO, Sam Altman, sagt, dass sie in „Monaten“ ein eigenes hybrides KI-Modell herausbringen.



Claude 3.7 Sonnet a l'air incroyable ! Pouvoir choisir la durée de réflexion, c'est comme demander à un chef de cuisiner vite ou de prendre son temps pour un plat parfait. J'ai hâte de voir comment ça marche en pratique ! 😄




Claude's customizable thinking duration sounds like a game-changer! I wonder how it balances speed and depth in real-world tasks. Excited to try it out! 😄




Wow, Claude 3.7 sounds like a game-changer! Being able to tweak how long it thinks is such a cool feature. I’m curious how this will stack up against other AI models in real-world tasks. Anyone tried it yet? 😄




O Claude 3.7 Sonnet é incrível! Adoro poder escolher a duração do pensamento. Às vezes preciso de respostas rápidas, outras vezes quero respostas mais pensadas. É como ter um amigo AI personalizável! Só desejo que fosse um pouco mais rápido às vezes. 😎




Claude 3.7 Sonnet is a game-changer! I love how I can choose the thinking duration. Sometimes I need quick answers, and other times I want a more thoughtful response. It's like having a customizable AI buddy! Only wish it was a bit faster at times. 🤓




클로드 3.7 소넷 정말 멋지네요! 생각하는 시간을 직접 설정할 수 있다니, 너무 편리해요. 급할 때도, 천천히 생각해줬으면 할 때도 잘 맞춰줘서 좋습니다. 다만, 최대思考時間으로 설정하면 조금 느려지는 게 단점이네요. 그래도 유용한 도구입니다! 😄












