Anthropisch enthüllt das KI -Modell mit anpassbarer Denkdauer
10. April 2025
ArthurThomas
77
Das neueste KI -Modell von Anthropic, Claude 3.7 Sonett, schüttelt in der Welt der KI. Das erste "Hybrid -KI -Argumentationsmodell" der Branche genannt, soll Ihnen sowohl schnelle Antworten als auch nachdenklichere Antworten geben, je nachdem, was Sie brauchen. Sie können sogar wählen, wie lange Sie über Ihre Fragen "nachdenken" möchten - ziemlich cool, oder?
Die Idee hinter Claude 3.7 Sonett ist es, die Verwendung von AI viel einfacher zu gestalten. Anstatt aus verschiedenen Modellen auszuwählen, möchte Anthropic, dass ein Modell alles umgeht. Ab Montag kann jeder Claude 3.7 -Sonett in die Hände bekommen. Wenn Sie jedoch seine ausgefallenen Argumentationsfunktionen verwenden möchten, müssen Sie sich für eine der Premium -Pläne von Anthropic anmelden. Kostenlose Benutzer erhalten weiterhin eine solide Version des Modells, die Anthropic sagt, dass es besser ist als ihre letzte, Claude 3.5 Sonett.
Jetzt über die Kosten - CLAUDE 3.7 SONNET legt Ihnen 3 US -Dollar pro Million Eingangs -Token und 15 USD pro Million Output -Token zurück. Das ist etwas teurer als einige andere Modelle, wie Openais O3-Mini und Deepseeks R1, aber denken Sie daran, das sind nur Argumentationsmodelle, nicht Hybriden wie Claude.

Anthropics neue Denkmodi Image Credits: Anthropic Claude 3.7 Sonett ist Anthropics erstes Modell, das "Vernunft" kann, was eine große Sache in der KI -Welt ist. Die Argumentationsmodelle benötigen etwas mehr Zeit und Rechenleistung, um Fragen zu beantworten und sie in kleinere Schritte zu zerlegen, um genauere Antworten zu erhalten. Es ist nicht genau wie menschliches Denken, aber es ist nachempfunden.
Anthropic hat große Pläne für Claude. Schließlich möchten sie, dass es herausfindet, wie lange es über Fragen selbst "denken" sollte, ohne dass Sie es einrichten müssen. Dianne Penn, Produkt- und Forschungsleiterin von Anthropic, sagte gegenüber TechCrunch, dass sie Argumentation als eines der vielen Dinge betrachten, die ein Grenzmodell tun sollte, und alle in einem zusammengeführt werden können.
Mit Claude 3.7 Sonett werden Sie sogar sehen, wie es seine Antworten durch ein "sichtbares Scratch Pad" plant. Meistens sehen Sie den gesamten Prozess, aber Anthropic kann einige Teile aus Sicherheitsgründen reduzieren.

Claude's Denkprozess im Claude App Image Credits: Anthropic Anthropic sagt, dass sie Claude-Denkmodi für reale Aufgaben, wie harte Codierungsprobleme oder Aufgaben, die ein bisschen Autonomie benötigen, fein abgestimmte Denkmodi haben. Wenn Sie ein Entwickler sind, der die API von Anthropic verwendet, können Sie sogar steuern, wie viel "Denken" Claude es tut, um Geschwindigkeit und Kosten mit der Qualität der Antwort auszugleichen.
In einigen Tests hat sich Claude 3.7 Sonett ziemlich gut gemacht. Auf SWE-Bench, einem Test für Coding-Aufgaben in der realen Welt, erzielte er 62,3%und schlug Openais O3-Mini mit 49,3%aus. Und auf Tau-Bench, das misst, wie gut eine KI in einem Einzelhandel mit simulierten Benutzern und externen APIs interagieren kann, erzielte Claude 3.7 Sonnet 81,2%im Vergleich zu OpenAs O1-Modell, das 73,5%erhielt.
Anthropic sagt auch, dass Claude 3.7 Sonett weniger wahrscheinlich ist, dass sie Fragen beantworten und nuanciertere Unterscheidungen zwischen schädlichen und gutartigen Aufforderungen treffen. Sie haben unnötige Ablehnungen um 45% im Vergleich zu Claude 3.5 -Sonett reduziert.
Zusammen mit Claude 3.7 Sonett wird auch Anthropic ein neues Tool namens Claude Code ausgelöst. Es ist eine Forschungsvorschau, mit der Entwickler bestimmte Aufgaben über Claude direkt von ihrem Terminal ausführen können. In einer Demo zeigte Anthropic, wie Claude Code ein Codierungsprojekt mit einem einfachen Befehl wie "Erklären Sie diese Projektstruktur" analysieren kann. Sie können sogar Plain English verwenden, um eine Codebasis zu ändern, und Claude Code beschreibt seine Änderungen, wie es geht, auf Fehler testen und das Projekt in ein GitHub -Repository weitergeben.
Claude Code steht einer begrenzten Anzahl von Benutzern auf der Basis von "Erster kommen, zuerst" zur Verfügung.
Anthropics Veröffentlichung von Claude 3.7 -Sonett zu einer Zeit, in der AI -Labors nach links und rechts neue Modelle auswirken. Während Anthropic in der Regel einen sorgfältigeren, sicherheitsorientierteren Ansatz verfolgt hat, möchten sie diesmal das Pack führen. Aber wie lange sie weiter bleiben werden, ist jedermanns Vermutung - insbesondere mit dem CEO von OpenAI, Sam Altman, und sagt, dass sie in "Monaten" ein hybrides KI -Modell haben.
Verwandter Artikel
La recherche en profondeur ouverte arrive pour défier la perplexité et la recherche de chatpt
Si vous êtes dans le monde de la technologie, vous avez probablement entendu parler du buzz entourant la recherche en profondeur ouverte (ODS), le nouveau cadre open-source de la Fondation Sentient. ODS fait des vagues en offrant une alternative robuste aux moteurs de recherche d'IA propriétaires comme la recherche de perplexité et de chatpt, et il s'agit
Comment l'IA juge-t-elle? Études anthropiques Les valeurs de Claude
Comme les modèles d'IA comme Claude d'Anthropic s'engagent de plus en plus avec les utilisateurs sur des valeurs humaines complexes, des conseils parentaux aux conflits de travail, leurs réponses reflètent intrinsèquement un ensemble de principes directeurs. Mais comment pouvons-nous vraiment saisir les valeurs exprimées par une IA lors de l'interaction avec des millions d'utilisateurs? Fourmi
MCP normalise la connectivité AI avec les outils et les données: un nouveau protocole émerge
Si vous plongez dans le monde de l'intelligence artificielle (IA), vous avez probablement remarqué à quel point il est crucial d'obtenir différents modèles d'IA, sources de données et outils pour bien jouer ensemble. C'est là que le protocole de contexte du modèle (MCP) entre en jeu, agissant comme un changeur de jeu dans la normalisation de la connectivité d'IA. T
Kommentare (50)
0/200
JamesWhite
11. April 2025 00:09:39 GMT
Claude 3.7 Sonnet is pretty cool! I love how I can choose how long I want it to think before answering. Sometimes I need quick answers, and other times I want a more thoughtful response. It's like having a customizable AI buddy. Only wish it was a bit faster at switching modes. Still, a solid tool!
0
PatrickCarter
11. April 2025 00:09:39 GMT
クロード3.7ソネットはすごい!考えさせる時間を選べるのが気に入ってます。急いでる時も、じっくり考えてほしい時も対応してくれるから便利。ただ、モード切り替えがもう少し早ければ完璧なんですけどね。それでも、かなり使えるツールです!
0
JustinMartin
11. April 2025 00:09:39 GMT
클로드 3.7 소넷 정말 멋져요! 생각하는 시간을 선택할 수 있어서 좋아요. 급할 때도, 천천히 생각해줬으면 할 때도 잘 맞춰줘서 편리해요. 다만, 모드 전환이 좀 더 빨랐으면 좋겠어요. 그래도 쓸만한 도구예요!
0
NicholasNelson
11. April 2025 00:09:39 GMT
O Claude 3.7 Sonnet é incrível! Adoro poder escolher quanto tempo ele deve pensar antes de responder. Às vezes preciso de respostas rápidas, outras vezes quero algo mais pensado. É como ter um amigo de IA personalizável. Só queria que fosse um pouco mais rápido ao mudar de modos. Ainda assim, uma ferramenta sólida!
0
DanielRodriguez
11. April 2025 00:09:39 GMT
¡Claude 3.7 Sonnet es genial! Me encanta poder elegir cuánto tiempo quiero que piense antes de responder. A veces necesito respuestas rápidas, y otras veces quiero una respuesta más reflexiva. Es como tener un compañero de IA personalizable. Solo desearía que fuera un poco más rápido al cambiar de modos. Aún así, una herramienta sólida!
0
StephenGonzalez
13. April 2025 08:23:55 GMT
Claude 3.7 Sonnet is pretty cool! Being able to adjust how long it thinks is super useful. Sometimes it's a bit slow, but when you need a detailed answer, it's perfect. I wish it could be quicker for simple questions though.
0






Das neueste KI -Modell von Anthropic, Claude 3.7 Sonett, schüttelt in der Welt der KI. Das erste "Hybrid -KI -Argumentationsmodell" der Branche genannt, soll Ihnen sowohl schnelle Antworten als auch nachdenklichere Antworten geben, je nachdem, was Sie brauchen. Sie können sogar wählen, wie lange Sie über Ihre Fragen "nachdenken" möchten - ziemlich cool, oder?
Die Idee hinter Claude 3.7 Sonett ist es, die Verwendung von AI viel einfacher zu gestalten. Anstatt aus verschiedenen Modellen auszuwählen, möchte Anthropic, dass ein Modell alles umgeht. Ab Montag kann jeder Claude 3.7 -Sonett in die Hände bekommen. Wenn Sie jedoch seine ausgefallenen Argumentationsfunktionen verwenden möchten, müssen Sie sich für eine der Premium -Pläne von Anthropic anmelden. Kostenlose Benutzer erhalten weiterhin eine solide Version des Modells, die Anthropic sagt, dass es besser ist als ihre letzte, Claude 3.5 Sonett.
Jetzt über die Kosten - CLAUDE 3.7 SONNET legt Ihnen 3 US -Dollar pro Million Eingangs -Token und 15 USD pro Million Output -Token zurück. Das ist etwas teurer als einige andere Modelle, wie Openais O3-Mini und Deepseeks R1, aber denken Sie daran, das sind nur Argumentationsmodelle, nicht Hybriden wie Claude.
Anthropic hat große Pläne für Claude. Schließlich möchten sie, dass es herausfindet, wie lange es über Fragen selbst "denken" sollte, ohne dass Sie es einrichten müssen. Dianne Penn, Produkt- und Forschungsleiterin von Anthropic, sagte gegenüber TechCrunch, dass sie Argumentation als eines der vielen Dinge betrachten, die ein Grenzmodell tun sollte, und alle in einem zusammengeführt werden können.
Mit Claude 3.7 Sonett werden Sie sogar sehen, wie es seine Antworten durch ein "sichtbares Scratch Pad" plant. Meistens sehen Sie den gesamten Prozess, aber Anthropic kann einige Teile aus Sicherheitsgründen reduzieren.
In einigen Tests hat sich Claude 3.7 Sonett ziemlich gut gemacht. Auf SWE-Bench, einem Test für Coding-Aufgaben in der realen Welt, erzielte er 62,3%und schlug Openais O3-Mini mit 49,3%aus. Und auf Tau-Bench, das misst, wie gut eine KI in einem Einzelhandel mit simulierten Benutzern und externen APIs interagieren kann, erzielte Claude 3.7 Sonnet 81,2%im Vergleich zu OpenAs O1-Modell, das 73,5%erhielt.
Anthropic sagt auch, dass Claude 3.7 Sonett weniger wahrscheinlich ist, dass sie Fragen beantworten und nuanciertere Unterscheidungen zwischen schädlichen und gutartigen Aufforderungen treffen. Sie haben unnötige Ablehnungen um 45% im Vergleich zu Claude 3.5 -Sonett reduziert.
Zusammen mit Claude 3.7 Sonett wird auch Anthropic ein neues Tool namens Claude Code ausgelöst. Es ist eine Forschungsvorschau, mit der Entwickler bestimmte Aufgaben über Claude direkt von ihrem Terminal ausführen können. In einer Demo zeigte Anthropic, wie Claude Code ein Codierungsprojekt mit einem einfachen Befehl wie "Erklären Sie diese Projektstruktur" analysieren kann. Sie können sogar Plain English verwenden, um eine Codebasis zu ändern, und Claude Code beschreibt seine Änderungen, wie es geht, auf Fehler testen und das Projekt in ein GitHub -Repository weitergeben.
Claude Code steht einer begrenzten Anzahl von Benutzern auf der Basis von "Erster kommen, zuerst" zur Verfügung.
Anthropics Veröffentlichung von Claude 3.7 -Sonett zu einer Zeit, in der AI -Labors nach links und rechts neue Modelle auswirken. Während Anthropic in der Regel einen sorgfältigeren, sicherheitsorientierteren Ansatz verfolgt hat, möchten sie diesmal das Pack führen. Aber wie lange sie weiter bleiben werden, ist jedermanns Vermutung - insbesondere mit dem CEO von OpenAI, Sam Altman, und sagt, dass sie in "Monaten" ein hybrides KI -Modell haben.



Claude 3.7 Sonnet is pretty cool! I love how I can choose how long I want it to think before answering. Sometimes I need quick answers, and other times I want a more thoughtful response. It's like having a customizable AI buddy. Only wish it was a bit faster at switching modes. Still, a solid tool!




クロード3.7ソネットはすごい!考えさせる時間を選べるのが気に入ってます。急いでる時も、じっくり考えてほしい時も対応してくれるから便利。ただ、モード切り替えがもう少し早ければ完璧なんですけどね。それでも、かなり使えるツールです!




클로드 3.7 소넷 정말 멋져요! 생각하는 시간을 선택할 수 있어서 좋아요. 급할 때도, 천천히 생각해줬으면 할 때도 잘 맞춰줘서 편리해요. 다만, 모드 전환이 좀 더 빨랐으면 좋겠어요. 그래도 쓸만한 도구예요!




O Claude 3.7 Sonnet é incrível! Adoro poder escolher quanto tempo ele deve pensar antes de responder. Às vezes preciso de respostas rápidas, outras vezes quero algo mais pensado. É como ter um amigo de IA personalizável. Só queria que fosse um pouco mais rápido ao mudar de modos. Ainda assim, uma ferramenta sólida!




¡Claude 3.7 Sonnet es genial! Me encanta poder elegir cuánto tiempo quiero que piense antes de responder. A veces necesito respuestas rápidas, y otras veces quiero una respuesta más reflexiva. Es como tener un compañero de IA personalizable. Solo desearía que fuera un poco más rápido al cambiar de modos. Aún así, una herramienta sólida!




Claude 3.7 Sonnet is pretty cool! Being able to adjust how long it thinks is super useful. Sometimes it's a bit slow, but when you need a detailed answer, it's perfect. I wish it could be quicker for simple questions though.












