Bilionários Discutem Automatizar Empregos na Atualização de IA Desta Semana
Olá a todos, bem-vindos de volta ao boletim de IA da TechCrunch! Se você ainda não se inscreveu, pode se cadastrar aqui para recebê-lo diretamente na sua caixa de entrada toda quarta-feira.
Fizemos uma pequena pausa na última semana, mas por um bom motivo — o ciclo de notícias de IA estava pegando fogo, graças, em grande parte, ao súbito aumento da empresa chinesa de IA DeepSeek. Foi uma loucura, mas estamos aqui agora, e bem a tempo de atualizar você sobre as últimas novidades da OpenAI.
No fim de semana, o CEO da OpenAI, Sam Altman, fez uma parada em Tóquio para conversar com Masayoshi Son, o chefe da SoftBank. A SoftBank, uma grande investidora na OpenAI, comprometeu-se a ajudar a financiar um enorme projeto de data center nos EUA. Então, não é surpresa que Altman tenha reservado um tempo para se sentar com Son.
Sobre o que eles falaram? Bem, segundo relatos, foi tudo sobre "agentes" de IA e como eles podem otimizar processos de trabalho. Son lançou uma bomba, anunciando que a SoftBank planeja gastar impressionantes $3 bilhões anualmente em produtos da OpenAI. Eles também estão se unindo para criar algo chamado "Cristal Intelligence", com o objetivo de automatizar milhões de empregos de colarinho branco.
"Ao automatizar e autonomizar todas as suas tarefas e fluxos de trabalho, a SoftBank Corp. transformará seus negócios e serviços, e criará novo valor," declarou a SoftBank em um comunicado de imprensa na segunda-feira.
Exponha no TechCrunch Sessions: AI
Garanta seu lugar no TC Sessions: AI e mostre a mais de 1.200 tomadores de decisão o que você construiu — sem gastar muito. As vagas estão disponíveis até 9 de maio ou enquanto durarem as mesas.
Exponha no TechCrunch Sessions: AI
Garanta seu lugar no TC Sessions: AI e mostre a mais de 1.200 tomadores de decisão o que você construiu — sem gastar muito. As vagas estão disponíveis até 9 de maio ou enquanto durarem as mesas.
Berkeley, CA | 5 de junho RESERVE AGORA
Mas vamos dar um passo atrás e considerar o lado humano de tudo isso. Quando CEOs como Sebastian Siemiatkowski da Klarna se gabam de IA substituindo humanos, e Son ecoa sentimentos semelhantes, é fácil se deixar levar pela visão de riqueza e eficiência. Mas e os trabalhadores que podem se encontrar sem emprego? É uma pílula difícil de engolir, especialmente quando aqueles que lideram a carga da IA parecem mais focados nos ganhos corporativos do que no impacto sobre os funcionários.
É um pouco desanimador, não é? Empresas como a OpenAI e investidores como a SoftBank estão moldando o futuro da IA, mas passam seu tempo no centro das atenções falando sobre negócios automatizados com menos pessoas na folha de pagamento. Entendo, são empresas, não instituições de caridade, e o desenvolvimento de IA é caro. Mas talvez se eles mostrassem um pouco mais de preocupação com o elemento humano, as pessoas confiariam mais na IA.
Algo para refletir.
Notícias
- Pesquisa profunda: A OpenAI lançou um novo "agente" de IA projetado para ajudar você a mergulhar em pesquisas complexas usando o ChatGPT.
- O3-mini: Em outras notícias da OpenAI, eles lançaram o o3-mini, um novo modelo de "raciocínio" de IA. Não é o mais poderoso, mas é mais eficiente e rápido.
- UE proíbe IA arriscada: A partir de domingo, a União Europeia pode agora banir sistemas de IA que representem "risco inaceitável" ou dano, incluindo aqueles usados para pontuação social e publicidade subliminar.
- Uma peça sobre "doomers" de IA: Há uma nova peça por aí que mergulha na cultura de "doomers" de IA, inspirada pela breve saída de Sam Altman da OpenAI em novembro passado. Meus colegas Dominic e Rebecca compartilharam suas impressões após assistirem à estreia.
- Tecnologia para aumentar rendimentos agrícolas: A "fábrica de moonshots" do Google, X, apresentou a Heritable Agriculture, uma startup que usa dados e aprendizado de máquina para melhorar os rendimentos agrícolas.
Artigo de pesquisa da semana
Modelos de raciocínio são ótimos para lidar com problemas difíceis, especialmente em ciência e matemática. Mas não são perfeitos. Um estudo de pesquisadores da Tencent analisa o "subpensamento" nesses modelos, onde eles abandonam linhas de pensamento promissoras muito cedo. O estudo descobriu que isso acontece mais com problemas mais difíceis, fazendo com que os modelos saltem entre ideias sem chegar a uma solução.
Os pesquisadores sugerem uma "penalidade de troca de pensamento" para encorajar os modelos a explorar completamente cada caminho de raciocínio antes de passar para o próximo, o que poderia melhorar sua precisão.
Modelo da semana
Créditos da imagem: YuE
Uma equipe apoiada pela ByteDance do TikTok, pela empresa chinesa de IA Moonshot e outros lançou o YuE, um novo modelo aberto que pode gerar música de alta qualidade a partir de prompts. Ele pode criar músicas de até alguns minutos, completas com vocais e faixas de acompanhamento, e está disponível sob uma licença Apache 2.0, então é gratuito para uso comercial.
Mas há algumas ressalvas. Executar o YuE requer uma GPU poderosa — gerar uma música de 30 segundos leva seis minutos com uma Nvidia RTX 4090. Além disso, há incerteza sobre se dados protegidos por direitos autorais foram usados para treinar o modelo, o que poderia levar a problemas de propriedade intelectual no futuro.
Saco de surpresas
Créditos da imagem: Anthropic
A Anthropic afirma ter desenvolvido uma nova técnica chamada Classificadores Constitucionais para proteger melhor contra "jailbreaks" de IA. Ela usa dois conjuntos de modelos classificadores: um para entrada e outro para saída. O classificador de entrada adiciona prompts a um modelo protegido para sinalizar possíveis jailbreaks, enquanto o classificador de saída verifica as respostas por conteúdo prejudicial.
A Anthropic diz que esse método pode capturar a maioria dos jailbreaks, mas não está isento de desvantagens. Ele torna cada consulta 25% mais intensiva computacionalmente, e o modelo protegido é ligeiramente menos propenso a responder a perguntas inofensivas.
Artigo relacionado
Les milliardaires discutent de l'automatisation des emplois dans la mise à jour IA de cette semaine
Salut à tous, bienvenue dans la newsletter IA de TechCrunch ! Si vous n'êtes pas encore abonné, vous pouvez vous inscrire ici pour la recevoir directement dans votre boîte de réception tous les mercre
Application NotebookLM Lancée: Outil de Connaissance par IA
NotebookLM passe au mobile : votre assistant de recherche alimenté par l'IA débarque sur Android et iOS La réponse à NotebookLM nous a stupéfaits — des millions d'utilisateurs l'o
Le fonds futur de l'IA de Google pourrait devoir avancer prudemment
L’Initiative d’Investissement en IA de Google : Un Changement Stratégique Face à une Surveillance RéglementaireL’annonce récente par Google de son fonds AI Futures marque un mouvem
Comentários (0)
0/200
Olá a todos, bem-vindos de volta ao boletim de IA da TechCrunch! Se você ainda não se inscreveu, pode se cadastrar aqui para recebê-lo diretamente na sua caixa de entrada toda quarta-feira.
Fizemos uma pequena pausa na última semana, mas por um bom motivo — o ciclo de notícias de IA estava pegando fogo, graças, em grande parte, ao súbito aumento da empresa chinesa de IA DeepSeek. Foi uma loucura, mas estamos aqui agora, e bem a tempo de atualizar você sobre as últimas novidades da OpenAI.
No fim de semana, o CEO da OpenAI, Sam Altman, fez uma parada em Tóquio para conversar com Masayoshi Son, o chefe da SoftBank. A SoftBank, uma grande investidora na OpenAI, comprometeu-se a ajudar a financiar um enorme projeto de data center nos EUA. Então, não é surpresa que Altman tenha reservado um tempo para se sentar com Son.
Sobre o que eles falaram? Bem, segundo relatos, foi tudo sobre "agentes" de IA e como eles podem otimizar processos de trabalho. Son lançou uma bomba, anunciando que a SoftBank planeja gastar impressionantes $3 bilhões anualmente em produtos da OpenAI. Eles também estão se unindo para criar algo chamado "Cristal Intelligence", com o objetivo de automatizar milhões de empregos de colarinho branco.
"Ao automatizar e autonomizar todas as suas tarefas e fluxos de trabalho, a SoftBank Corp. transformará seus negócios e serviços, e criará novo valor," declarou a SoftBank em um comunicado de imprensa na segunda-feira.
Exponha no TechCrunch Sessions: AI
Garanta seu lugar no TC Sessions: AI e mostre a mais de 1.200 tomadores de decisão o que você construiu — sem gastar muito. As vagas estão disponíveis até 9 de maio ou enquanto durarem as mesas.
Exponha no TechCrunch Sessions: AI
Garanta seu lugar no TC Sessions: AI e mostre a mais de 1.200 tomadores de decisão o que você construiu — sem gastar muito. As vagas estão disponíveis até 9 de maio ou enquanto durarem as mesas.
Berkeley, CA | 5 de junho RESERVE AGORA
Mas vamos dar um passo atrás e considerar o lado humano de tudo isso. Quando CEOs como Sebastian Siemiatkowski da Klarna se gabam de IA substituindo humanos, e Son ecoa sentimentos semelhantes, é fácil se deixar levar pela visão de riqueza e eficiência. Mas e os trabalhadores que podem se encontrar sem emprego? É uma pílula difícil de engolir, especialmente quando aqueles que lideram a carga da IA parecem mais focados nos ganhos corporativos do que no impacto sobre os funcionários.
É um pouco desanimador, não é? Empresas como a OpenAI e investidores como a SoftBank estão moldando o futuro da IA, mas passam seu tempo no centro das atenções falando sobre negócios automatizados com menos pessoas na folha de pagamento. Entendo, são empresas, não instituições de caridade, e o desenvolvimento de IA é caro. Mas talvez se eles mostrassem um pouco mais de preocupação com o elemento humano, as pessoas confiariam mais na IA.
Algo para refletir.
Notícias
- Pesquisa profunda: A OpenAI lançou um novo "agente" de IA projetado para ajudar você a mergulhar em pesquisas complexas usando o ChatGPT.
- O3-mini: Em outras notícias da OpenAI, eles lançaram o o3-mini, um novo modelo de "raciocínio" de IA. Não é o mais poderoso, mas é mais eficiente e rápido.
- UE proíbe IA arriscada: A partir de domingo, a União Europeia pode agora banir sistemas de IA que representem "risco inaceitável" ou dano, incluindo aqueles usados para pontuação social e publicidade subliminar.
- Uma peça sobre "doomers" de IA: Há uma nova peça por aí que mergulha na cultura de "doomers" de IA, inspirada pela breve saída de Sam Altman da OpenAI em novembro passado. Meus colegas Dominic e Rebecca compartilharam suas impressões após assistirem à estreia.
- Tecnologia para aumentar rendimentos agrícolas: A "fábrica de moonshots" do Google, X, apresentou a Heritable Agriculture, uma startup que usa dados e aprendizado de máquina para melhorar os rendimentos agrícolas.
Artigo de pesquisa da semana
Modelos de raciocínio são ótimos para lidar com problemas difíceis, especialmente em ciência e matemática. Mas não são perfeitos. Um estudo de pesquisadores da Tencent analisa o "subpensamento" nesses modelos, onde eles abandonam linhas de pensamento promissoras muito cedo. O estudo descobriu que isso acontece mais com problemas mais difíceis, fazendo com que os modelos saltem entre ideias sem chegar a uma solução.
Os pesquisadores sugerem uma "penalidade de troca de pensamento" para encorajar os modelos a explorar completamente cada caminho de raciocínio antes de passar para o próximo, o que poderia melhorar sua precisão.
Modelo da semana
Créditos da imagem: YuE
Uma equipe apoiada pela ByteDance do TikTok, pela empresa chinesa de IA Moonshot e outros lançou o YuE, um novo modelo aberto que pode gerar música de alta qualidade a partir de prompts. Ele pode criar músicas de até alguns minutos, completas com vocais e faixas de acompanhamento, e está disponível sob uma licença Apache 2.0, então é gratuito para uso comercial.
Mas há algumas ressalvas. Executar o YuE requer uma GPU poderosa — gerar uma música de 30 segundos leva seis minutos com uma Nvidia RTX 4090. Além disso, há incerteza sobre se dados protegidos por direitos autorais foram usados para treinar o modelo, o que poderia levar a problemas de propriedade intelectual no futuro.
Saco de surpresas
Créditos da imagem: Anthropic
A Anthropic afirma ter desenvolvido uma nova técnica chamada Classificadores Constitucionais para proteger melhor contra "jailbreaks" de IA. Ela usa dois conjuntos de modelos classificadores: um para entrada e outro para saída. O classificador de entrada adiciona prompts a um modelo protegido para sinalizar possíveis jailbreaks, enquanto o classificador de saída verifica as respostas por conteúdo prejudicial.
A Anthropic diz que esse método pode capturar a maioria dos jailbreaks, mas não está isento de desvantagens. Ele torna cada consulta 25% mais intensiva computacionalmente, e o modelo protegido é ligeiramente menos propenso a responder a perguntas inofensivas.











