Openi acabou de fazer seu primeiro investimento em segurança cibernética

A IA generativa ampliou significativamente o arsenal disponível para hackers e agentes maliciosos. Desde a criação de vídeos deepfake de CEOs até a geração de recibos falsificados, o potencial de uso indevido é vasto. A OpenAI, um dos principais players no espaço da IA generativa, está plenamente ciente desses riscos. Em um movimento estratégico, a OpenAI fez seu primeiro investimento em uma startup de cibersegurança, apoiando a Adaptive Security, sediada em Nova York, em uma rodada de Série A de US$ 43 milhões co-liderada com a Andreessen Horowitz.
A Adaptive Security adota uma abordagem proativa para a cibersegurança, simulando ataques gerados por IA para treinar funcionários na identificação e neutralização dessas ameaças. Imagine receber uma ligação de alguém que soa exatamente como seu CTO, pedindo um código de verificação. Essa voz não é do seu CTO, mas uma simulação sofisticada criada pela Adaptive Security. A plataforma da empresa vai além de chamadas telefônicas; ela também simula textos e e-mails, avaliando quais áreas de um negócio são mais vulneráveis e treinando a equipe para reconhecer e mitigar esses riscos.
O foco da Adaptive Security está nos ataques de "engenharia social", onde os atacantes enganam funcionários para realizar ações não autorizadas, como clicar em links maliciosos. Essas táticas aparentemente simples podem levar a perdas significativas, como demonstrado pelo caso da Axie Infinity, que perdeu mais de US$ 600 milhões devido a uma fraude de oferta de emprego falsa direcionada a um de seus desenvolvedores em 2022.
De acordo com o cofundador e CEO Brian Long, a IA tornou esses ataques de engenharia social mais fáceis de executar. Desde seu lançamento em 2023, a Adaptive Security expandiu rapidamente sua base de clientes para mais de 100, aproveitando o feedback positivo para garantir o investimento da OpenAI. Long, um empreendedor experiente com saídas bem-sucedidas da TapCommerce (adquirida pelo Twitter por mais de US$ 100 milhões em 2014) e da Attentive (avaliada em mais de US$ 10 bilhões em 2021), planeja usar o novo financiamento para contratar engenheiros e aprimorar a plataforma em meio à contínua "corrida armamentista" de IA contra cibercriminosos.
A Adaptive Security não está sozinha no combate às ameaças impulsionadas por IA. Outras startups, como a Cyberhaven, que recentemente levantou US$ 100 milhões em uma avaliação de US$ 1 bilhão para prevenir o uso indevido de informações sensíveis em ferramentas como o ChatGPT, e a Snyk, que atribui parte de sua receita recorrente anual de mais de US$ 300 milhões ao aumento de códigos gerados por IA inseguros, também estão avançando nesse espaço. Além disso, a empresa de detecção de deepfakes GetReal garantiu US$ 17,5 milhões no último mês para combater essas ameaças avançadas.
À medida que as ameaças de IA evoluem, Long oferece um conselho simples para funcionários preocupados com clonagem de voz: "Exclua sua mensagem de voz." Essa ação simples pode ajudar a proteger contra uma das muitas maneiras pelas quais os hackers podem explorar a tecnologia de IA.
Artigo relacionado
Investimento de US$ 40 bilhões da Oracle em chips Nvidia impulsiona centro de dados de IA no Texas
A Oracle planeja investir aproximadamente US$ 40 bilhões em chips Nvidia para alimentar um grande novo centro de dados no Texas, desenvolvido pela OpenAI, conforme relatado pelo Financial Times. Este
SoftBank Adquire Fábrica da Sharp por $676M para Centro de Dados de IA no Japão
A SoftBank está avançando em seu objetivo de estabelecer um grande centro de IA no Japão, tanto de forma independente quanto por meio de parcerias como a OpenAI. A gigante da tecnologia confirmou na s
Adobe e Figma Integram o Modelo Avançado de Geração de Imagens da OpenAI
A geração de imagens aprimorada da OpenAI no ChatGPT impulsionou um aumento de usuários, alimentado por sua capacidade de produzir visuais no estilo Studio Ghibli e designs únicos, e agora está se exp
Comentários (38)
0/200
EricMiller
22 de Agosto de 2025 à17 02:01:17 WEST
Wow, OpenAI's diving into cybersecurity? Smart move! With AI making deepfakes and fake receipts so easy, it’s about time they tackled the dark side of their own tech. Hope they’re ready for the hacker chaos! 😎
0
JohnHernández
10 de Agosto de 2025 à59 02:00:59 WEST
Wow, OpenAI's diving into cybersecurity? Smart move! Generative AI's a double-edged sword—deepfakes and fake receipts are no joke. Curious to see how they tackle the dark side of AI. 🕵️♂️
0
DavidCarter
28 de Julho de 2025 à21 02:20:21 WEST
Wow, OpenAI jumping into cybersecurity feels like a superhero gearing up to fight their own villainous creations! 😎 Curious how their investment will tackle those sneaky deepfake and scam issues.
0
CarlTaylor
23 de Abril de 2025 à53 18:11:53 WEST
A OpenAI investir em cibersegurança foi uma jogada inteligente! Era hora de alguém lidar com o lado sombrio da IA. Me sinto mais seguro sabendo que eles estão nisso, mas gostaria que compartilhassem mais sobre o que estão fazendo. Mal posso esperar para ver como isso vai se desenrolar! 😏
0
CharlesThomas
22 de Abril de 2025 à6 23:36:06 WEST
OpenAIがサイバーセキュリティに投資したのは賢い決断だと思う!AIの悪用を防ぐための行動が必要だし、安心感がある。ただ、具体的に何をしているのかもっと知りたいな。どうなるか楽しみだよ!😊
0
StevenHill
22 de Abril de 2025 à57 03:43:57 WEST
OpenAI가 사이버 보안에 투자한 건 정말 좋은 선택이야! AI의 어두운 면을 다루는 게 필요해. 안전해진 느낌이 들어. 다만, 실제로 무슨 일을 하고 있는지 더 알려줬으면 좋겠어. 어떻게 될지 기대돼! 😎
0
A IA generativa ampliou significativamente o arsenal disponível para hackers e agentes maliciosos. Desde a criação de vídeos deepfake de CEOs até a geração de recibos falsificados, o potencial de uso indevido é vasto. A OpenAI, um dos principais players no espaço da IA generativa, está plenamente ciente desses riscos. Em um movimento estratégico, a OpenAI fez seu primeiro investimento em uma startup de cibersegurança, apoiando a Adaptive Security, sediada em Nova York, em uma rodada de Série A de US$ 43 milhões co-liderada com a Andreessen Horowitz.
A Adaptive Security adota uma abordagem proativa para a cibersegurança, simulando ataques gerados por IA para treinar funcionários na identificação e neutralização dessas ameaças. Imagine receber uma ligação de alguém que soa exatamente como seu CTO, pedindo um código de verificação. Essa voz não é do seu CTO, mas uma simulação sofisticada criada pela Adaptive Security. A plataforma da empresa vai além de chamadas telefônicas; ela também simula textos e e-mails, avaliando quais áreas de um negócio são mais vulneráveis e treinando a equipe para reconhecer e mitigar esses riscos.
O foco da Adaptive Security está nos ataques de "engenharia social", onde os atacantes enganam funcionários para realizar ações não autorizadas, como clicar em links maliciosos. Essas táticas aparentemente simples podem levar a perdas significativas, como demonstrado pelo caso da Axie Infinity, que perdeu mais de US$ 600 milhões devido a uma fraude de oferta de emprego falsa direcionada a um de seus desenvolvedores em 2022.
De acordo com o cofundador e CEO Brian Long, a IA tornou esses ataques de engenharia social mais fáceis de executar. Desde seu lançamento em 2023, a Adaptive Security expandiu rapidamente sua base de clientes para mais de 100, aproveitando o feedback positivo para garantir o investimento da OpenAI. Long, um empreendedor experiente com saídas bem-sucedidas da TapCommerce (adquirida pelo Twitter por mais de US$ 100 milhões em 2014) e da Attentive (avaliada em mais de US$ 10 bilhões em 2021), planeja usar o novo financiamento para contratar engenheiros e aprimorar a plataforma em meio à contínua "corrida armamentista" de IA contra cibercriminosos.
A Adaptive Security não está sozinha no combate às ameaças impulsionadas por IA. Outras startups, como a Cyberhaven, que recentemente levantou US$ 100 milhões em uma avaliação de US$ 1 bilhão para prevenir o uso indevido de informações sensíveis em ferramentas como o ChatGPT, e a Snyk, que atribui parte de sua receita recorrente anual de mais de US$ 300 milhões ao aumento de códigos gerados por IA inseguros, também estão avançando nesse espaço. Além disso, a empresa de detecção de deepfakes GetReal garantiu US$ 17,5 milhões no último mês para combater essas ameaças avançadas.
À medida que as ameaças de IA evoluem, Long oferece um conselho simples para funcionários preocupados com clonagem de voz: "Exclua sua mensagem de voz." Essa ação simples pode ajudar a proteger contra uma das muitas maneiras pelas quais os hackers podem explorar a tecnologia de IA.


Wow, OpenAI's diving into cybersecurity? Smart move! With AI making deepfakes and fake receipts so easy, it’s about time they tackled the dark side of their own tech. Hope they’re ready for the hacker chaos! 😎




Wow, OpenAI's diving into cybersecurity? Smart move! Generative AI's a double-edged sword—deepfakes and fake receipts are no joke. Curious to see how they tackle the dark side of AI. 🕵️♂️




Wow, OpenAI jumping into cybersecurity feels like a superhero gearing up to fight their own villainous creations! 😎 Curious how their investment will tackle those sneaky deepfake and scam issues.




A OpenAI investir em cibersegurança foi uma jogada inteligente! Era hora de alguém lidar com o lado sombrio da IA. Me sinto mais seguro sabendo que eles estão nisso, mas gostaria que compartilhassem mais sobre o que estão fazendo. Mal posso esperar para ver como isso vai se desenrolar! 😏




OpenAIがサイバーセキュリティに投資したのは賢い決断だと思う!AIの悪用を防ぐための行動が必要だし、安心感がある。ただ、具体的に何をしているのかもっと知りたいな。どうなるか楽しみだよ!😊




OpenAI가 사이버 보안에 투자한 건 정말 좋은 선택이야! AI의 어두운 면을 다루는 게 필요해. 안전해진 느낌이 들어. 다만, 실제로 무슨 일을 하고 있는지 더 알려줬으면 좋겠어. 어떻게 될지 기대돼! 😎












