Option
Heim
Nachricht
Milliardäre diskutieren über die Automatisierung von Arbeitsplätzen in der AI-Aktualisierung dieser Woche

Milliardäre diskutieren über die Automatisierung von Arbeitsplätzen in der AI-Aktualisierung dieser Woche

24. Juni 2025
30

Hallo zusammen, willkommen zurück zum AI-Newsletter von TechCrunch! Wenn Sie noch nicht abonniert sind, können Sie sich hier anmelden, um ihn jeden Mittwoch direkt in Ihren Posteingang zu bekommen.

Letzte Woche haben wir eine kleine Pause eingelegt, aber aus gutem Grund – der AI-Nachrichtenzyklus war in Aufruhr, vor allem dank des plötzlichen Aufstiegs des chinesischen AI-Unternehmens DeepSeek. Es war ein Wirbelwind, aber wir sind jetzt hier und gerade rechtzeitig, um Sie über die neuesten Entwicklungen von OpenAI auf dem Laufenden zu halten.

Am Wochenende machte OpenAI-CEO Sam Altman einen Stopp in Tokio, um mit Masayoshi Son, dem Chef von SoftBank, zu sprechen. SoftBank, ein großer Investor in OpenAI, hat sich verpflichtet, ein riesiges Rechenzentrumsprojekt in den USA zu finanzieren. Daher ist es keine Überraschung, dass Altman sich die Zeit nahm, sich mit Son zu treffen.

Worum ging es? Nun, laut Berichten drehte sich alles um AI-"Agenten" und wie sie Arbeitsprozesse optimieren können. Son ließ eine Bombe platzen und kündigte an, dass SoftBank plant, jährlich satte 3 Milliarden Dollar in OpenAI-Produkte zu investieren. Sie arbeiten auch zusammen, um etwas namens "Cristal Intelligence" zu schaffen, das darauf abzielt, Millionen von Büroarbeitsplätzen zu automatisieren.

"Durch die Automatisierung und Autonomisierung aller Aufgaben und Arbeitsabläufe wird SoftBank Corp. sein Geschäft und seine Dienstleistungen transformieren und neuen Wert schaffen," erklärte SoftBank in einer Pressemitteilung am Montag.

Ausstellen bei TechCrunch Sessions: AI

Sichern Sie sich Ihren Platz bei TC Sessions: AI und zeigen Sie über 1.200 Entscheidungsträgern, was Sie entwickelt haben – ohne Ihr Budget zu sprengen. Plätze sind bis zum 9. Mai oder solange die Tische reichen verfügbar.

Ausstellen bei TechCrunch Sessions: AI

Sichern Sie sich Ihren Platz bei TC Sessions: AI und zeigen Sie über 1.200 Entscheidungsträgern, was Sie entwickelt haben – ohne Ihr Budget zu sprengen. Plätze sind bis zum 9. Mai oder solange die Tische reichen verfügbar.

Berkeley, CA | 5. Juni JETZT BUCHEN

Aber lassen Sie uns einen Schritt zurücktreten und die menschliche Seite all dessen betrachten. Wenn CEOs wie Sebastian Siemiatkowski von Klarna damit prahlen, dass AI Menschen ersetzt, und Son ähnliche Ansichten vertritt, ist es leicht, sich von der Vision von Reichtum und Effizienz mitreißen zu lassen. Aber was ist mit den Arbeitnehmern, die ihren Job verlieren könnten? Das ist schwer zu verkraften, besonders wenn diejenigen, die die AI-Revolution anführen, mehr auf Unternehmensgewinne als auf die Auswirkungen auf die Mitarbeiter fokussiert scheinen.

Das ist etwas entmutigend, oder? Unternehmen wie OpenAI und Investoren wie SoftBank gestalten die Zukunft der AI, sprechen aber im Rampenlicht über automatisierte Unternehmen mit weniger Personal. Ich verstehe, sie sind Unternehmen, keine Wohltätigkeitsorganisationen, und die AI-Entwicklung ist teuer. Aber vielleicht würden die Menschen der AI mehr vertrauen, wenn sie etwas mehr Rücksicht auf den menschlichen Aspekt zeigen würden.

Etwas zum Nachdenken.

Nachrichten

  • Tiefe Forschung: OpenAI hat einen neuen AI-"Agenten" eingeführt, der Ihnen hilft, mit ChatGPT tief in komplexe Forschung einzutauchen.
  • O3-mini: In anderen OpenAI-Nachrichten haben sie o3-mini eingeführt, ein neues AI-"Schlussfolgerungs"-Modell. Es ist nicht ihr leistungsstärkstes, aber effizienter und schneller.
  • EU verbietet riskante AI: Seit Sonntag kann die Europäische Union AI-Systeme verbieten, die ein "inakzeptables Risiko" oder Schaden darstellen, einschließlich solcher, die für soziale Bewertung und unterschwellige Werbung verwendet werden.
  • Ein Theaterstück über AI-"Untergangspropheten": Es gibt ein neues Theaterstück, das in die Kultur der AI-"Untergangspropheten" eintaucht, inspiriert von Sam Altmans kurzer Entlassung aus OpenAI im letzten November. Meine Kollegen Dominic und Rebecca haben ihre Gedanken nach der Premiere geteilt.
  • Technologie zur Steigerung der Ernteerträge: Googles X-"Mondschussfabrik" hat Heritable Agriculture vorgestellt, ein Startup, das Daten und maschinelles Lernen nutzt, um Ernteerträge zu verbessern.

Forschungspapier der Woche

Schlussfolgerungsmodelle sind hervorragend darin, schwierige Probleme zu lösen, insbesondere in Wissenschaft und Mathematik. Aber sie sind nicht perfekt. Eine Studie von Tencent-Forschern untersucht "Unterdenken" in diesen Modellen, wo sie vielversprechende Gedankengänge zu früh aufgeben. Die Studie fand heraus, dass dies bei schwierigeren Problemen häufiger vorkommt, was dazu führt, dass Modelle zwischen Ideen springen, ohne eine Lösung zu finden.

Die Forscher schlagen eine "Gedankenwechselstrafe" vor, um Modelle dazu zu ermutigen, jeden Schlussfolgerungsweg vollständig zu erkunden, bevor sie weitergehen, was ihre Genauigkeit verbessern könnte.

Modell der Woche

YuEBildnachweis: YuE

Ein Team, unterstützt von ByteDance von TikTok, dem chinesischen AI-Unternehmen Moonshot und anderen, hat YuE veröffentlicht, ein neues offenes Modell, das hochwertige Musik aus Prompts generieren kann. Es kann Songs von bis zu wenigen Minuten Länge erstellen, komplett mit Gesang und Begleitspuren, und ist unter einer Apache 2.0-Lizenz verfügbar, also kostenlos für kommerzielle Nutzung.

Aber es gibt einige Haken. Das Ausführen von YuE erfordert eine leistungsstarke GPU – das Erzeugen eines 30-Sekunden-Songs dauert sechs Minuten mit einer Nvidia RTX 4090. Außerdem besteht Unsicherheit darüber, ob urheberrechtlich geschützte Daten zum Trainieren des Modells verwendet wurden, was später zu IP-Problemen führen könnte.

Bunt gemischtes

Constitutional ClassifiersBildnachweis: Anthropic

Anthropic behauptet, eine neue Technik namens Constitutional Classifiers entwickelt zu haben, um besser gegen AI-"Jailbreaks" zu schützen. Sie verwendet zwei Sätze von Klassifikatormodellen: einen für Eingaben und einen für Ausgaben. Der Eingabeklassifikator fügt Prompts zu einem gesicherten Modell hinzu, um potenzielle Jailbreaks zu markieren, während der Ausgabeklassifikator Antworten auf schädliche Inhalte überprüft.

Anthropic sagt, diese Methode kann die meisten Jailbreaks abfangen, hat aber ihre Nachteile. Sie macht jede Abfrage 25 % rechenintensiver, und das gesicherte Modell ist etwas weniger wahrscheinlich, auf harmlose Fragen zu antworten.

Verwandter Artikel
Salesforce stellt KI-Digitale Teamkollegen in Slack vor, um mit Microsoft Copilot zu konkurrieren Salesforce stellt KI-Digitale Teamkollegen in Slack vor, um mit Microsoft Copilot zu konkurrieren Salesforce hat eine neue KI-Strategie für den Arbeitsplatz gestartet und spezialisierte „digitale Teamkollegen“ in Slack-Konversationen integriert, wie das Unternehmen am Montag bekannt gab.Das neue T
Oracles 40-Mrd.-Nvidia-Chip-Investition stärkt Texas AI-Rechenzentrum Oracles 40-Mrd.-Nvidia-Chip-Investition stärkt Texas AI-Rechenzentrum Oracle plant, etwa 40 Milliarden Dollar in Nvidia-Chips zu investieren, um ein großes neues Rechenzentrum in Texas zu betreiben, das von OpenAI entwickelt wird, wie die Financial Times berichtet. Dies
Meta AI App führt Premium-Stufe und Werbung ein Meta AI App führt Premium-Stufe und Werbung ein Die AI-App von Meta könnte bald ein kostenpflichtiges Abonnement einführen, ähnlich den Angeboten von Konkurrenten wie OpenAI, Google und Microsoft. Während eines Q1 2025 Earnings Calls skizzierte Met
Kommentare (1)
0/200
BillyRoberts
BillyRoberts 28. Juli 2025 03:19:05 MESZ

Wow, automating jobs away? Billionaires chatting about AI taking over is wild! 😲 Feels like we're in a sci-fi flick, but I wonder if they’re thinking about the folks losing jobs. Hope there’s a plan for that!

Zurück nach oben
OR