Миллиардеры обсуждают автоматизацию рабочих мест в обновлении AI на этой неделе
Привет всем, добро пожаловать в новостную рассылку TechCrunch об ИИ! Если вы ещё не подписаны, подпишитесь здесь, чтобы получать её прямо в ваш почтовый ящик каждую среду.
На прошлой неделе мы взяли небольшую паузу, но по уважительной причине — новости об ИИ были горячими, в основном благодаря внезапному всплеску китайской компании DeepSeek. Это был настоящий вихрь, но мы здесь, чтобы вовремя рассказать вам о последних новостях от OpenAI.
В выходные генеральный директор OpenAI Сэм Альтман посетил Токио, чтобы встретиться с Масайоши Соном, главой SoftBank. SoftBank, крупный инвестор OpenAI, обязалась финансировать масштабный проект дата-центра в США. Неудивительно, что Альтман нашёл время для встречи с Соном.
О чём они говорили? По сообщениям, речь шла об ИИ-агентах и их способности оптимизировать рабочие процессы. Сон сделал громкое заявление, объявив, что SoftBank планирует ежегодно тратить 3 миллиарда долларов на продукты OpenAI. Они также сотрудничают для создания проекта под названием "Cristal Intelligence", целью которого является автоматизация миллионов офисных рабочих мест.
"Автоматизируя и автономизируя все свои задачи и рабочие процессы, SoftBank Corp. преобразит свой бизнес и услуги, создавая новую ценность," — заявила SoftBank в пресс-релизе в понедельник.
Выставка на TechCrunch Sessions: AI
Забронируйте место на TC Sessions: AI и покажите более чем 1200 лицам, принимающим решения, что вы создали — без больших затрат. Места доступны до 9 мая или пока есть столы.
Выставка на TechCrunch Sessions: AI
Забронируйте место на TC Sessions: AI и покажите более чем 1200 лицам, принимающим решения, что вы создали — без больших затрат. Места доступны до 9 мая или пока есть столы.
Беркли, Калифорния | 5 июня ЗАБРОНИРОВАТЬ СЕЙЧАС
Но давайте сделаем шаг назад и подумаем о человеческой стороне вопроса. Когда руководители, такие как Себастьян Семятковски из Klarna, хвастаются, что ИИ заменяет людей, а Сон поддерживает эти настроения, легко увлечься идеей богатства и эффективности. Но что будет с работниками, которые могут остаться без работы? Это тяжело принять, особенно когда лидеры ИИ больше сосредоточены на корпоративной выгоде, чем на влиянии на сотрудников.
Это немного удручает, не правда ли? Компании вроде OpenAI и инвесторы, такие как SoftBank, формируют будущее ИИ, но в центре внимания говорят об автоматизированных бизнесах с меньшим количеством сотрудников. Я понимаю, они бизнес, а не благотворительность, и разработка ИИ дорогостояща. Но, возможно, если бы они проявили больше заботы о человеческом факторе, люди больше доверяли бы ИИ.
Есть над чем подумать.
Новости
- Глубокие исследования: OpenAI представила нового ИИ-агента, который помогает углубляться в сложные исследования с помощью ChatGPT.
- O3-mini: В других новостях от OpenAI, они запустили o3-mini, новую модель ИИ для "рассуждений". Это не самая мощная модель, но она более эффективна и быстра.
- ЕС запрещает рискованный ИИ: С воскресенья Европейский союз может запрещать системы ИИ, представляющие "неприемлемый риск" или вред, включая те, что используются для социальных рейтингов и скрытой рекламы.
- Пьеса об ИИ-"пессимистах": Появилась новая пьеса, исследующая культуру ИИ-"пессимистов", вдохновлённая кратковременным отстранением Сэма Альтмана от OpenAI в ноябре прошлого года. Мои коллеги Доминик и Ребекка поделились своими впечатлениями после премьеры.
- Технологии для повышения урожайности: "Фабрика амбициозных проектов" Google X представила Heritable Agriculture, стартап, использующий данные и машинное обучение для повышения урожайности.
Исследовательская статья недели
Модели рассуждений хороши для решения сложных задач, особенно в науке и математике. Но они не идеальны. Исследование от Tencent выявило проблему "недостаточного обдумывания" в этих моделях, когда они слишком рано отказываются от перспективных линий размышлений. Исследование показало, что это чаще происходит с более сложными задачами, из-за чего модели перескакивают между идеями, не находя решения.
Исследователи предлагают "штраф за смену мыслей", чтобы побудить модели полностью исследовать каждый путь рассуждений, прежде чем переходить к следующему, что может улучшить их точность.
Модель недели
Изображение предоставлено: YuE
Команда, поддерживаемая ByteDance от TikTok, китайской компанией Moonshot и другими, выпустила YuE, новую открытую модель, которая может генерировать высококачественную музыку по запросам. Она способна создавать песни длительностью до нескольких минут с вокалом и сопровождением, и доступна под лицензией Apache 2.0, то есть бесплатно для коммерческого использования.
Но есть нюансы. Для работы YuE нужен мощный графический процессор — создание 30-секундной песни занимает шесть минут на Nvidia RTX 4090. Также есть неопределённость относительно того, использовались ли защищённые авторским правом данные для обучения модели, что может привести к проблемам с интеллектуальной собственностью в будущем.
Сборная солянка
Изображение предоставлено: Anthropic
Anthropic утверждает, что разработала новую технику под названием Constitutional Classifiers для лучшей защиты от "взломов" ИИ. Она использует две группы классификаторов: одну для входных данных, другую для выходных. Классификатор входных данных добавляет подсказки к защищённой модели для выявления потенциальных взломов, а классификатор выходных данных проверяет ответы на наличие вредоносного контента.
Anthropic заявляет, что этот метод может обнаружить большинство взломов, но у него есть недостатки. Каждый запрос становится на 25% более ресурсоёмким, а защищённая модель немного реже отвечает на безобидные вопросы.
Связанная статья
"Dot AI Companion объявляет о закрытии и прекращает предоставление персонализированных услуг"
Dot, приложение-компаньон с искусственным интеллектом, предназначенное для работы в качестве личного друга и доверенного лица, прекращает свою работу, как сообщили в пятницу его разработчики. New Comp
Anthropic разрешила судебное дело о пиратстве книг, созданных искусственным интеллектом
Компания Anthropic достигла разрешения значительного спора с американскими авторами по поводу авторских прав, согласившись на предложенное урегулирование коллективного иска, которое позволит избежать
Figma выпустила инструмент для создания приложений на основе искусственного интеллекта для всех пользователей
Figma Make, инновационная платформа для разработки приложений с подсказками, представленная ранее в этом году, официально вышла из бета-версии и стала доступна для всех пользователей. Этот революционн
Комментарии (2)
JonathanMiller
29 сентября 2025 г., 7:30:35 GMT+03:00
Also die Milliardäre diskutieren wieder über Arbeitsplatz-Automatisierung...das ist ja total neu und überraschend! 😒 Vielleicht sollten die mal mit Leuten reden, die tatsächlich von diesem Wandel betroffen sind, statt nur in ihren Elfenbeintürmen zu schwadronieren.
0
BillyRoberts
28 июля 2025 г., 4:19:05 GMT+03:00
Wow, automating jobs away? Billionaires chatting about AI taking over is wild! 😲 Feels like we're in a sci-fi flick, but I wonder if they’re thinking about the folks losing jobs. Hope there’s a plan for that!
0
Привет всем, добро пожаловать в новостную рассылку TechCrunch об ИИ! Если вы ещё не подписаны, подпишитесь здесь, чтобы получать её прямо в ваш почтовый ящик каждую среду.
На прошлой неделе мы взяли небольшую паузу, но по уважительной причине — новости об ИИ были горячими, в основном благодаря внезапному всплеску китайской компании DeepSeek. Это был настоящий вихрь, но мы здесь, чтобы вовремя рассказать вам о последних новостях от OpenAI.
В выходные генеральный директор OpenAI Сэм Альтман посетил Токио, чтобы встретиться с Масайоши Соном, главой SoftBank. SoftBank, крупный инвестор OpenAI, обязалась финансировать масштабный проект дата-центра в США. Неудивительно, что Альтман нашёл время для встречи с Соном.
О чём они говорили? По сообщениям, речь шла об ИИ-агентах и их способности оптимизировать рабочие процессы. Сон сделал громкое заявление, объявив, что SoftBank планирует ежегодно тратить 3 миллиарда долларов на продукты OpenAI. Они также сотрудничают для создания проекта под названием "Cristal Intelligence", целью которого является автоматизация миллионов офисных рабочих мест.
"Автоматизируя и автономизируя все свои задачи и рабочие процессы, SoftBank Corp. преобразит свой бизнес и услуги, создавая новую ценность," — заявила SoftBank в пресс-релизе в понедельник.
Выставка на TechCrunch Sessions: AI
Забронируйте место на TC Sessions: AI и покажите более чем 1200 лицам, принимающим решения, что вы создали — без больших затрат. Места доступны до 9 мая или пока есть столы.
Выставка на TechCrunch Sessions: AI
Забронируйте место на TC Sessions: AI и покажите более чем 1200 лицам, принимающим решения, что вы создали — без больших затрат. Места доступны до 9 мая или пока есть столы.
Беркли, Калифорния | 5 июня ЗАБРОНИРОВАТЬ СЕЙЧАС
Но давайте сделаем шаг назад и подумаем о человеческой стороне вопроса. Когда руководители, такие как Себастьян Семятковски из Klarna, хвастаются, что ИИ заменяет людей, а Сон поддерживает эти настроения, легко увлечься идеей богатства и эффективности. Но что будет с работниками, которые могут остаться без работы? Это тяжело принять, особенно когда лидеры ИИ больше сосредоточены на корпоративной выгоде, чем на влиянии на сотрудников.
Это немного удручает, не правда ли? Компании вроде OpenAI и инвесторы, такие как SoftBank, формируют будущее ИИ, но в центре внимания говорят об автоматизированных бизнесах с меньшим количеством сотрудников. Я понимаю, они бизнес, а не благотворительность, и разработка ИИ дорогостояща. Но, возможно, если бы они проявили больше заботы о человеческом факторе, люди больше доверяли бы ИИ.
Есть над чем подумать.
Новости
- Глубокие исследования: OpenAI представила нового ИИ-агента, который помогает углубляться в сложные исследования с помощью ChatGPT.
- O3-mini: В других новостях от OpenAI, они запустили o3-mini, новую модель ИИ для "рассуждений". Это не самая мощная модель, но она более эффективна и быстра.
- ЕС запрещает рискованный ИИ: С воскресенья Европейский союз может запрещать системы ИИ, представляющие "неприемлемый риск" или вред, включая те, что используются для социальных рейтингов и скрытой рекламы.
- Пьеса об ИИ-"пессимистах": Появилась новая пьеса, исследующая культуру ИИ-"пессимистов", вдохновлённая кратковременным отстранением Сэма Альтмана от OpenAI в ноябре прошлого года. Мои коллеги Доминик и Ребекка поделились своими впечатлениями после премьеры.
- Технологии для повышения урожайности: "Фабрика амбициозных проектов" Google X представила Heritable Agriculture, стартап, использующий данные и машинное обучение для повышения урожайности.
Исследовательская статья недели
Модели рассуждений хороши для решения сложных задач, особенно в науке и математике. Но они не идеальны. Исследование от Tencent выявило проблему "недостаточного обдумывания" в этих моделях, когда они слишком рано отказываются от перспективных линий размышлений. Исследование показало, что это чаще происходит с более сложными задачами, из-за чего модели перескакивают между идеями, не находя решения.
Исследователи предлагают "штраф за смену мыслей", чтобы побудить модели полностью исследовать каждый путь рассуждений, прежде чем переходить к следующему, что может улучшить их точность.
Модель недели
Изображение предоставлено: YuE
Команда, поддерживаемая ByteDance от TikTok, китайской компанией Moonshot и другими, выпустила YuE, новую открытую модель, которая может генерировать высококачественную музыку по запросам. Она способна создавать песни длительностью до нескольких минут с вокалом и сопровождением, и доступна под лицензией Apache 2.0, то есть бесплатно для коммерческого использования.
Но есть нюансы. Для работы YuE нужен мощный графический процессор — создание 30-секундной песни занимает шесть минут на Nvidia RTX 4090. Также есть неопределённость относительно того, использовались ли защищённые авторским правом данные для обучения модели, что может привести к проблемам с интеллектуальной собственностью в будущем.
Сборная солянка
Изображение предоставлено: Anthropic
Anthropic утверждает, что разработала новую технику под названием Constitutional Classifiers для лучшей защиты от "взломов" ИИ. Она использует две группы классификаторов: одну для входных данных, другую для выходных. Классификатор входных данных добавляет подсказки к защищённой модели для выявления потенциальных взломов, а классификатор выходных данных проверяет ответы на наличие вредоносного контента.
Anthropic заявляет, что этот метод может обнаружить большинство взломов, но у него есть недостатки. Каждый запрос становится на 25% более ресурсоёмким, а защищённая модель немного реже отвечает на безобидные вопросы.



Also die Milliardäre diskutieren wieder über Arbeitsplatz-Automatisierung...das ist ja total neu und überraschend! 😒 Vielleicht sollten die mal mit Leuten reden, die tatsächlich von diesem Wandel betroffen sind, statt nur in ihren Elfenbeintürmen zu schwadronieren.




Wow, automating jobs away? Billionaires chatting about AI taking over is wild! 😲 Feels like we're in a sci-fi flick, but I wonder if they’re thinking about the folks losing jobs. Hope there’s a plan for that!












