Openai hat gerade seine erste Cybersicherheitsinvestition getätigt

Generative KI hat das Arsenal, das Hackern und böswilligen Akteuren zur Verfügung steht, erheblich erweitert. Vom Erstellen von Deepfake-Videos von CEOs bis hin zur Generierung gefälschter Quittungen ist das Potenzial für Missbrauch enorm. OpenAI, ein führender Akteur im Bereich der generativen KI, ist sich dieser Risiken sehr bewusst. In einem strategischen Schritt hat OpenAI seine erste Investition in ein Cybersecurity-Startup getätigt und das in New York ansässige Unternehmen Adaptive Security in einer Serie-A-Finanzierungsrunde über 43 Millionen Dollar unterstützt, die gemeinsam mit Andreessen Horowitz geführt wurde.
Adaptive Security verfolgt einen proaktiven Ansatz in der Cybersecurity, indem es KI-generierte Angriffe simuliert, um Mitarbeiter darin zu schulen, diese Bedrohungen zu erkennen und abzuwehren. Stellen Sie sich vor, Sie erhalten einen Anruf von jemandem, der genau wie Ihr CTO klingt und nach einem Verifizierungscode fragt. Diese Stimme gehört nicht Ihrem CTO, sondern ist eine ausgeklügelte Simulation, die von Adaptive Security erstellt wurde. Die Plattform des Unternehmens geht über reine Telefonanrufe hinaus; sie simuliert auch Textnachrichten und E-Mails, um zu bewerten, welche Bereiche eines Unternehmens am anfälligsten sind, und schult die Mitarbeiter, diese Risiken zu erkennen und zu minimieren.
Der Fokus von Adaptive Security liegt auf „Social Engineering“-Hacks, bei denen Angreifer Mitarbeiter dazu bringen, unautorisierte Aktionen durchzuführen, wie etwa auf bösartige Links zu klicken. Diese scheinbar einfachen Taktiken können zu erheblichen Verlusten führen, wie der Fall von Axie Infinity zeigt, das 2022 aufgrund eines gefälschten Jobangebots, das auf einen seiner Entwickler abzielte, über 600 Millionen Dollar verlor.
Laut Mitgründer und CEO Brian Long hat KI diese Social-Engineering-Angriffe erleichtert. Seit der Gründung im Jahr 2023 hat Adaptive Security seine Kundenbasis schnell auf über 100 erweitert und durch positives Feedback die Investition von OpenAI gesichert. Long, ein erfahrener Unternehmer mit erfolgreichen Exits bei TapCommerce (2014 von Twitter für über 100 Millionen Dollar übernommen) und Attentive (2021 mit über 10 Milliarden Dollar bewertet), plant, die neuen Mittel zu nutzen, um Ingenieure einzustellen und die Plattform inmitten des laufenden KI-„Waffenrennens“ gegen Cyberkriminelle zu verbessern.
Adaptive Security ist nicht allein im Umgang mit KI-gesteuerten Bedrohungen. Andere Startups wie Cyberhaven, das kürzlich 100 Millionen Dollar bei einer Bewertung von 1 Milliarde Dollar aufnahm, um den Missbrauch sensibler Informationen in Tools wie ChatGPT zu verhindern, und Snyk, das einen Teil seines über 300 Millionen Dollar ARR auf den Anstieg unsicherer KI-generierter Codes zurückführt, machen ebenfalls Fortschritte in diesem Bereich. Zudem sicherte sich die Deepfake-Erkennungsfirma GetReal letzten Monat 17,5 Millionen Dollar, um diesen fortschrittlichen Bedrohungen entgegenzuwirken.
Da sich KI-Bedrohungen weiterentwickeln, gibt Long einen einfachen Rat für Mitarbeiter, die sich Sorgen um Stimmklonierung machen: „Löschen Sie Ihren Anrufbeantworter.“ Diese einfache Maßnahme kann dazu beitragen, sich vor einer der vielen Möglichkeiten zu schützen, wie Hacker KI-Technologie ausnutzen können.
Verwandter Artikel
Nvidias KI-Hype trifft auf die Realität: 70 % Marge werden inmitten von Inferenzkämpfen kritisch hinterfragt
KI-Chipkriege brechen auf der VB Transform 2025 ausWährend einer hitzigen Podiumsdiskussion auf der VB Transform 2025 wurden die Fronten geklärt. Die aufstrebenden Herausforderer nahmen die dominante
OpenAI wertet ChatGPT Pro auf o3 auf und steigert den Wert des $200 Monatsabonnements
Diese Woche gab es bedeutende KI-Entwicklungen von Tech-Giganten wie Microsoft, Google und Anthropic. OpenAI schließt den Reigen der Ankündigungen mit seinen eigenen bahnbrechenden Updates ab, die übe
Gemeinnützige Organisation setzt KI-Agenten ein, um Spendenaktionen für wohltätige Zwecke zu fördern
Während große Technologieunternehmen KI-"Agenten" als Produktivitätssteigerer für Unternehmen anpreisen, demonstriert eine gemeinnützige Organisation ihr Potenzial für den sozialen Bereich. Sage Futur
Kommentare (38)
0/200
EricMiller
22. August 2025 03:01:17 MESZ
Wow, OpenAI's diving into cybersecurity? Smart move! With AI making deepfakes and fake receipts so easy, it’s about time they tackled the dark side of their own tech. Hope they’re ready for the hacker chaos! 😎
0
JohnHernández
10. August 2025 03:00:59 MESZ
Wow, OpenAI's diving into cybersecurity? Smart move! Generative AI's a double-edged sword—deepfakes and fake receipts are no joke. Curious to see how they tackle the dark side of AI. 🕵️♂️
0
DavidCarter
28. Juli 2025 03:20:21 MESZ
Wow, OpenAI jumping into cybersecurity feels like a superhero gearing up to fight their own villainous creations! 😎 Curious how their investment will tackle those sneaky deepfake and scam issues.
0
CarlTaylor
23. April 2025 19:11:53 MESZ
A OpenAI investir em cibersegurança foi uma jogada inteligente! Era hora de alguém lidar com o lado sombrio da IA. Me sinto mais seguro sabendo que eles estão nisso, mas gostaria que compartilhassem mais sobre o que estão fazendo. Mal posso esperar para ver como isso vai se desenrolar! 😏
0
CharlesThomas
23. April 2025 00:36:06 MESZ
OpenAIがサイバーセキュリティに投資したのは賢い決断だと思う!AIの悪用を防ぐための行動が必要だし、安心感がある。ただ、具体的に何をしているのかもっと知りたいな。どうなるか楽しみだよ!😊
0
StevenHill
22. April 2025 04:43:57 MESZ
OpenAI가 사이버 보안에 투자한 건 정말 좋은 선택이야! AI의 어두운 면을 다루는 게 필요해. 안전해진 느낌이 들어. 다만, 실제로 무슨 일을 하고 있는지 더 알려줬으면 좋겠어. 어떻게 될지 기대돼! 😎
0
Generative KI hat das Arsenal, das Hackern und böswilligen Akteuren zur Verfügung steht, erheblich erweitert. Vom Erstellen von Deepfake-Videos von CEOs bis hin zur Generierung gefälschter Quittungen ist das Potenzial für Missbrauch enorm. OpenAI, ein führender Akteur im Bereich der generativen KI, ist sich dieser Risiken sehr bewusst. In einem strategischen Schritt hat OpenAI seine erste Investition in ein Cybersecurity-Startup getätigt und das in New York ansässige Unternehmen Adaptive Security in einer Serie-A-Finanzierungsrunde über 43 Millionen Dollar unterstützt, die gemeinsam mit Andreessen Horowitz geführt wurde.
Adaptive Security verfolgt einen proaktiven Ansatz in der Cybersecurity, indem es KI-generierte Angriffe simuliert, um Mitarbeiter darin zu schulen, diese Bedrohungen zu erkennen und abzuwehren. Stellen Sie sich vor, Sie erhalten einen Anruf von jemandem, der genau wie Ihr CTO klingt und nach einem Verifizierungscode fragt. Diese Stimme gehört nicht Ihrem CTO, sondern ist eine ausgeklügelte Simulation, die von Adaptive Security erstellt wurde. Die Plattform des Unternehmens geht über reine Telefonanrufe hinaus; sie simuliert auch Textnachrichten und E-Mails, um zu bewerten, welche Bereiche eines Unternehmens am anfälligsten sind, und schult die Mitarbeiter, diese Risiken zu erkennen und zu minimieren.
Der Fokus von Adaptive Security liegt auf „Social Engineering“-Hacks, bei denen Angreifer Mitarbeiter dazu bringen, unautorisierte Aktionen durchzuführen, wie etwa auf bösartige Links zu klicken. Diese scheinbar einfachen Taktiken können zu erheblichen Verlusten führen, wie der Fall von Axie Infinity zeigt, das 2022 aufgrund eines gefälschten Jobangebots, das auf einen seiner Entwickler abzielte, über 600 Millionen Dollar verlor.
Laut Mitgründer und CEO Brian Long hat KI diese Social-Engineering-Angriffe erleichtert. Seit der Gründung im Jahr 2023 hat Adaptive Security seine Kundenbasis schnell auf über 100 erweitert und durch positives Feedback die Investition von OpenAI gesichert. Long, ein erfahrener Unternehmer mit erfolgreichen Exits bei TapCommerce (2014 von Twitter für über 100 Millionen Dollar übernommen) und Attentive (2021 mit über 10 Milliarden Dollar bewertet), plant, die neuen Mittel zu nutzen, um Ingenieure einzustellen und die Plattform inmitten des laufenden KI-„Waffenrennens“ gegen Cyberkriminelle zu verbessern.
Adaptive Security ist nicht allein im Umgang mit KI-gesteuerten Bedrohungen. Andere Startups wie Cyberhaven, das kürzlich 100 Millionen Dollar bei einer Bewertung von 1 Milliarde Dollar aufnahm, um den Missbrauch sensibler Informationen in Tools wie ChatGPT zu verhindern, und Snyk, das einen Teil seines über 300 Millionen Dollar ARR auf den Anstieg unsicherer KI-generierter Codes zurückführt, machen ebenfalls Fortschritte in diesem Bereich. Zudem sicherte sich die Deepfake-Erkennungsfirma GetReal letzten Monat 17,5 Millionen Dollar, um diesen fortschrittlichen Bedrohungen entgegenzuwirken.
Da sich KI-Bedrohungen weiterentwickeln, gibt Long einen einfachen Rat für Mitarbeiter, die sich Sorgen um Stimmklonierung machen: „Löschen Sie Ihren Anrufbeantworter.“ Diese einfache Maßnahme kann dazu beitragen, sich vor einer der vielen Möglichkeiten zu schützen, wie Hacker KI-Technologie ausnutzen können.




Wow, OpenAI's diving into cybersecurity? Smart move! With AI making deepfakes and fake receipts so easy, it’s about time they tackled the dark side of their own tech. Hope they’re ready for the hacker chaos! 😎




Wow, OpenAI's diving into cybersecurity? Smart move! Generative AI's a double-edged sword—deepfakes and fake receipts are no joke. Curious to see how they tackle the dark side of AI. 🕵️♂️




Wow, OpenAI jumping into cybersecurity feels like a superhero gearing up to fight their own villainous creations! 😎 Curious how their investment will tackle those sneaky deepfake and scam issues.




A OpenAI investir em cibersegurança foi uma jogada inteligente! Era hora de alguém lidar com o lado sombrio da IA. Me sinto mais seguro sabendo que eles estão nisso, mas gostaria que compartilhassem mais sobre o que estão fazendo. Mal posso esperar para ver como isso vai se desenrolar! 😏




OpenAIがサイバーセキュリティに投資したのは賢い決断だと思う!AIの悪用を防ぐための行動が必要だし、安心感がある。ただ、具体的に何をしているのかもっと知りたいな。どうなるか楽しみだよ!😊




OpenAI가 사이버 보안에 투자한 건 정말 좋은 선택이야! AI의 어두운 면을 다루는 게 필요해. 안전해진 느낌이 들어. 다만, 실제로 무슨 일을 하고 있는지 더 알려줬으면 좋겠어. 어떻게 될지 기대돼! 😎












