Миллиардеры обсуждают автоматизацию рабочих мест в обновлении AI на этой неделе
Привет всем, добро пожаловать в новостную рассылку TechCrunch по AI! Если вы еще не подписаны, вы можете подписаться здесь, чтобы получать ее прямо в ваш почтовый ящик каждую среду.
На прошлой неделе мы сделали небольшой перерыв, но по уважительной причине — новости об AI были горячими, в основном благодаря внезапному взлету китайской компании DeepSeek. Это был настоящий вихрь, но мы здесь, чтобы вовремя рассказать вам о последних новостях от OpenAI.
В выходные генеральный директор OpenAI Сэм Альтман посетил Токио, чтобы встретиться с Масайоши Соном, главой SoftBank. SoftBank, крупный инвестор OpenAI, обязался помочь финансировать масштабный проект дата-центра в США. Поэтому неудивительно, что Альтман нашел время для встречи с Соном.
О чем они говорили? Согласно сообщениям, речь шла об AI "агентах" и о том, как они могут оптимизировать рабочие процессы. Сон ошеломил всех, объявив, что SoftBank планирует ежегодно тратить колоссальные 3 миллиарда долларов на продукты OpenAI. Они также сотрудничают для создания проекта под названием "Cristal Intelligence", целью которого является автоматизация миллионов офисных рабочих мест.
"Автоматизируя и автономизируя все свои задачи и процессы, SoftBank Corp. преобразит свой бизнес и услуги, создавая новую ценность," — заявили в SoftBank в пресс-релизе в понедельник.
Выставка на TechCrunch Sessions: AI
Забронируйте свое место на TC Sessions: AI и покажите более чем 1200 лицам, принимающим решения, что вы создали, не разоряя банк. Места доступны до 9 мая или пока есть столы.
Выставка на TechCrunch Sessions: AI
Забронируйте свое место на TC Sessions: AI и покажите более чем 1200 лицам, принимающим решения, что вы создали, не разоряя банк. Места доступны до 9 мая или пока есть столы.
Беркли, Калифорния | 5 июня ЗАБРОНИРОВАТЬ СЕЙЧАС
Но давайте сделаем шаг назад и рассмотрим человеческий аспект всего этого. Когда генеральные директора, такие как Себастьян Семятковски из Klarna, хвастаются, что AI заменяет людей, а Сон выражает схожие взгляды, легко увлечься идеей богатства и эффективности. Но что насчет работников, которые могут остаться без работы? Это тяжелая пилюля, особенно когда те, кто возглавляет AI-революцию, кажутся более сосредоточенными на корпоративных выгодах, чем на влиянии на сотрудников.
Это немного удручает, не правда ли? Компании, такие как OpenAI, и инвесторы, такие как SoftBank, формируют будущее AI, но в центре внимания говорят об автоматизированных бизнесах с меньшим количеством людей в штате. Я понимаю, это бизнес, а не благотворительность, и разработка AI обходится дорого. Но, возможно, если бы они проявили чуть больше заботы о человеческом факторе, люди больше доверяли бы AI.
Есть над чем задуматься.
Новости
- Глубокие исследования: OpenAI представила нового AI "агента", который помогает углубляться в сложные исследования с использованием ChatGPT.
- O3-mini: В других новостях OpenAI запустила o3-mini, новую модель AI для "рассуждений". Это не самая мощная модель, но она более эффективна и быстра.
- ЕС запрещает рискованные AI: С воскресенья Европейский Союз может запрещать AI-системы, представляющие "неприемлемый риск" или вред, включая те, что используются для социального скоринга и подсознательной рекламы.
- Пьеса об AI "пессимистах": Появилась новая пьеса, погружающаяся в культуру AI "пессимистов", вдохновленная кратковременным отстранением Сэма Альтмана от OpenAI в прошлом ноябре. Мои коллеги Доминик и Ребекка поделились своими впечатлениями после просмотра премьеры.
- Технологии для повышения урожайности: "Фабрика амбициозных идей" Google X представила Heritable Agriculture, стартап, использующий данные и машинное обучение для повышения урожайности.
Исследовательская статья недели
Модели рассуждений отлично справляются с трудными задачами, особенно в науке и математике. Но они не идеальны. Исследование от ученых Tencent рассматривает "недостаточное обдумывание" в этих моделях, когда они слишком рано отказываются от перспективных линий размышлений. Исследование показало, что это чаще происходит с более сложными задачами, из-за чего модели перескакивают между идеями, не находя решения.
Исследователи предлагают "штраф за переключение мыслей", чтобы побудить модели полностью исследовать каждую линию рассуждений, прежде чем переходить к следующей, что может повысить их точность.
Модель недели
Изображение предоставлено: YuE
Команда, поддерживаемая ByteDance от TikTok, китайской AI-компанией Moonshot и другими, выпустила YuE, новую открытую модель, которая может генерировать высококачественную музыку по подсказкам. Она может создавать песни длительностью до нескольких минут с вокалом и сопровождающими треками, и доступна под лицензией Apache 2.0, так что она бесплатна для коммерческого использования.
Но есть некоторые нюансы. Для работы YuE требуется мощный GPU — генерация 30-секундной песни занимает шесть минут с Nvidia RTX 4090. Также есть неопределенность относительно того, использовались ли защищенные авторским правом данные для обучения модели, что может привести к проблемам с интеллектуальной собственностью в будущем.
Сборная солянка
Изображение предоставлено: Anthropic
Anthropic утверждает, что разработала новую технику под названием Constitutional Classifiers для лучшей защиты от "взломов" AI. Она использует две группы классификаторов: одну для входных данных и другую для выходных. Классификатор входных данных добавляет подсказки к защищенной модели для выявления потенциальных взломов, а классификатор выходных данных проверяет ответы на наличие вредоносного контента.
Anthropic утверждает, что этот метод может перехватить большинство взломов, но у него есть недостатки. Он делает каждый запрос на 25% более вычислительно интенсивным, а защищенная модель немного реже отвечает на безобидные вопросы.
Связанная статья
Les milliardaires discutent de l'automatisation des emplois dans la mise à jour IA de cette semaine
Salut à tous, bienvenue dans la newsletter IA de TechCrunch ! Si vous n'êtes pas encore abonné, vous pouvez vous inscrire ici pour la recevoir directement dans votre boîte de réception tous les mercre
Application NotebookLM Lancée: Outil de Connaissance par IA
NotebookLM passe au mobile : votre assistant de recherche alimenté par l'IA débarque sur Android et iOS La réponse à NotebookLM nous a stupéfaits — des millions d'utilisateurs l'o
Le fonds futur de l'IA de Google pourrait devoir avancer prudemment
L’Initiative d’Investissement en IA de Google : Un Changement Stratégique Face à une Surveillance RéglementaireL’annonce récente par Google de son fonds AI Futures marque un mouvem
Комментарии (0)
Привет всем, добро пожаловать в новостную рассылку TechCrunch по AI! Если вы еще не подписаны, вы можете подписаться здесь, чтобы получать ее прямо в ваш почтовый ящик каждую среду.
На прошлой неделе мы сделали небольшой перерыв, но по уважительной причине — новости об AI были горячими, в основном благодаря внезапному взлету китайской компании DeepSeek. Это был настоящий вихрь, но мы здесь, чтобы вовремя рассказать вам о последних новостях от OpenAI.
В выходные генеральный директор OpenAI Сэм Альтман посетил Токио, чтобы встретиться с Масайоши Соном, главой SoftBank. SoftBank, крупный инвестор OpenAI, обязался помочь финансировать масштабный проект дата-центра в США. Поэтому неудивительно, что Альтман нашел время для встречи с Соном.
О чем они говорили? Согласно сообщениям, речь шла об AI "агентах" и о том, как они могут оптимизировать рабочие процессы. Сон ошеломил всех, объявив, что SoftBank планирует ежегодно тратить колоссальные 3 миллиарда долларов на продукты OpenAI. Они также сотрудничают для создания проекта под названием "Cristal Intelligence", целью которого является автоматизация миллионов офисных рабочих мест.
"Автоматизируя и автономизируя все свои задачи и процессы, SoftBank Corp. преобразит свой бизнес и услуги, создавая новую ценность," — заявили в SoftBank в пресс-релизе в понедельник.
Выставка на TechCrunch Sessions: AI
Забронируйте свое место на TC Sessions: AI и покажите более чем 1200 лицам, принимающим решения, что вы создали, не разоряя банк. Места доступны до 9 мая или пока есть столы.
Выставка на TechCrunch Sessions: AI
Забронируйте свое место на TC Sessions: AI и покажите более чем 1200 лицам, принимающим решения, что вы создали, не разоряя банк. Места доступны до 9 мая или пока есть столы.
Беркли, Калифорния | 5 июня ЗАБРОНИРОВАТЬ СЕЙЧАС
Но давайте сделаем шаг назад и рассмотрим человеческий аспект всего этого. Когда генеральные директора, такие как Себастьян Семятковски из Klarna, хвастаются, что AI заменяет людей, а Сон выражает схожие взгляды, легко увлечься идеей богатства и эффективности. Но что насчет работников, которые могут остаться без работы? Это тяжелая пилюля, особенно когда те, кто возглавляет AI-революцию, кажутся более сосредоточенными на корпоративных выгодах, чем на влиянии на сотрудников.
Это немного удручает, не правда ли? Компании, такие как OpenAI, и инвесторы, такие как SoftBank, формируют будущее AI, но в центре внимания говорят об автоматизированных бизнесах с меньшим количеством людей в штате. Я понимаю, это бизнес, а не благотворительность, и разработка AI обходится дорого. Но, возможно, если бы они проявили чуть больше заботы о человеческом факторе, люди больше доверяли бы AI.
Есть над чем задуматься.
Новости
- Глубокие исследования: OpenAI представила нового AI "агента", который помогает углубляться в сложные исследования с использованием ChatGPT.
- O3-mini: В других новостях OpenAI запустила o3-mini, новую модель AI для "рассуждений". Это не самая мощная модель, но она более эффективна и быстра.
- ЕС запрещает рискованные AI: С воскресенья Европейский Союз может запрещать AI-системы, представляющие "неприемлемый риск" или вред, включая те, что используются для социального скоринга и подсознательной рекламы.
- Пьеса об AI "пессимистах": Появилась новая пьеса, погружающаяся в культуру AI "пессимистов", вдохновленная кратковременным отстранением Сэма Альтмана от OpenAI в прошлом ноябре. Мои коллеги Доминик и Ребекка поделились своими впечатлениями после просмотра премьеры.
- Технологии для повышения урожайности: "Фабрика амбициозных идей" Google X представила Heritable Agriculture, стартап, использующий данные и машинное обучение для повышения урожайности.
Исследовательская статья недели
Модели рассуждений отлично справляются с трудными задачами, особенно в науке и математике. Но они не идеальны. Исследование от ученых Tencent рассматривает "недостаточное обдумывание" в этих моделях, когда они слишком рано отказываются от перспективных линий размышлений. Исследование показало, что это чаще происходит с более сложными задачами, из-за чего модели перескакивают между идеями, не находя решения.
Исследователи предлагают "штраф за переключение мыслей", чтобы побудить модели полностью исследовать каждую линию рассуждений, прежде чем переходить к следующей, что может повысить их точность.
Модель недели
Изображение предоставлено: YuE
Команда, поддерживаемая ByteDance от TikTok, китайской AI-компанией Moonshot и другими, выпустила YuE, новую открытую модель, которая может генерировать высококачественную музыку по подсказкам. Она может создавать песни длительностью до нескольких минут с вокалом и сопровождающими треками, и доступна под лицензией Apache 2.0, так что она бесплатна для коммерческого использования.
Но есть некоторые нюансы. Для работы YuE требуется мощный GPU — генерация 30-секундной песни занимает шесть минут с Nvidia RTX 4090. Также есть неопределенность относительно того, использовались ли защищенные авторским правом данные для обучения модели, что может привести к проблемам с интеллектуальной собственностью в будущем.
Сборная солянка
Изображение предоставлено: Anthropic
Anthropic утверждает, что разработала новую технику под названием Constitutional Classifiers для лучшей защиты от "взломов" AI. Она использует две группы классификаторов: одну для входных данных и другую для выходных. Классификатор входных данных добавляет подсказки к защищенной модели для выявления потенциальных взломов, а классификатор выходных данных проверяет ответы на наличие вредоносного контента.
Anthropic утверждает, что этот метод может перехватить большинство взломов, но у него есть недостатки. Он делает каждый запрос на 25% более вычислительно интенсивным, а защищенная модель немного реже отвечает на безобидные вопросы.











