Laut Runway kann sein neuestes KI -Video -Modell tatsächlich konsistente Szenen und Menschen generieren
Runway, ein KI-Startup, hat gerade angekündigt, dass ihr neuestes KI-Videomodell, Gen-4, Szenen und Charaktere über verschiedene Aufnahmen hinweg konsistent halten kann. Das ist eine große Sache, weil KI-generierte Videos oft Probleme haben, eine flüssige Handlung aufrechtzuerhalten. Laut Runways Beitrag auf X soll Gen-4 den Nutzern mehr „Kontinuität und Kontrolle“ beim Erstellen ihrer Geschichten bieten.
Derzeit wird Gen-4 für zahlende Nutzer und Unternehmenskunden eingeführt. Dieses neue Modell ermöglicht es, Charaktere und Objekte zu erstellen, die über verschiedene Aufnahmen hinweg gleich bleiben, und das alles basierend auf nur einem Referenzbild. Man muss lediglich beschreiben, wie die Szene aussehen soll, und Gen-4 liefert konsistente Ergebnisse aus verschiedenen Perspektiven.
Um zu zeigen, was Gen-4 kann, hat Runway ein Video veröffentlicht, in dem eine Frau in verschiedenen Aufnahmen gleich aussieht, selbst wenn sich die Beleuchtung ändert und der Kontext wechselt.
Diese Veröffentlichung folgt kurz auf den Gen-3 Alpha Videogenerator, der vor weniger als einem Jahr angekündigt wurde. Gen-3 ermöglichte es Nutzern, längere Videos zu erstellen, sorgte aber für Kontroversen, da es Berichten zufolge mit einer Vielzahl von YouTube-Videos und illegal heruntergeladenen Filmen trainiert wurde, die aus dem Internet gesammelt wurden.
Verwandter Artikel
Salesforce stellt KI-Digitale Teamkollegen in Slack vor, um mit Microsoft Copilot zu konkurrieren
Salesforce hat eine neue KI-Strategie für den Arbeitsplatz gestartet und spezialisierte „digitale Teamkollegen“ in Slack-Konversationen integriert, wie das Unternehmen am Montag bekannt gab.Das neue T
Oracles 40-Mrd.-Nvidia-Chip-Investition stärkt Texas AI-Rechenzentrum
Oracle plant, etwa 40 Milliarden Dollar in Nvidia-Chips zu investieren, um ein großes neues Rechenzentrum in Texas zu betreiben, das von OpenAI entwickelt wird, wie die Financial Times berichtet. Dies
Sony WH-1000XM6 Kopfhörer-Features vor der Markteinführung enthüllt
Sony wird am 15. Mai den Nachfolger seiner geräuschunterdrückenden WH-1000XM5 Kopfhörer vorstellen, basierend auf durchgesickerten Details, die von Dealabs und Android Authority berichtet wurden.Das k
Kommentare (36)
0/200
RogerGonzalez
2. August 2025 17:07:14 MESZ
This is wild! Runway's Gen-4 keeping scenes and characters consistent? That's a game-changer for AI videos. Can't wait to see filmmakers play with this tech! 🎥
0
BenJackson
18. April 2025 07:41:02 MESZ
Runways Gen-4 ist unglaublich! Die Konsistenz in Szenen und Charakteren habe ich noch nie in AI-Videos gesehen. Es ist, als würde man einen echten Film anschauen! Wünschte, es wäre etwas schneller beim Generieren. 🎬🤯
0
JackMartin
18. April 2025 01:56:24 MESZ
RunwayのGen-4は本当に驚きです!シーンやキャラクターの一貫性は、AIビデオでは見たことがありません。まるで本物の映画を見ているようです!生成速度がもう少し速ければ完璧ですね。🎬🤯
0
JoseLewis
15. April 2025 21:41:07 MESZ
Runway's Gen-4 is a game-changer! Finally, an AI that can keep scenes consistent. Watched a video and it was like watching a real movie! Can't wait to see what they come up with next! 🎬
0
HarryWilliams
14. April 2025 00:39:47 MESZ
Runway's Gen-4 is mind-blowing! The consistency in scenes and characters is something I've never seen before in AI videos. It's like watching a real movie! Just wish it was a bit faster to generate. 🎬🤯
0
RogerSanchez
12. April 2025 19:35:09 MESZ
Runway의 Gen-4는 정말 혁신적이야! 드디어 장면을 일관되게 유지하는 AI가 나왔어. 영상을 봤는데, 마치 진짜 영화를 보는 것 같았어! 다음에 뭐가 나올지 기대돼! 🎬
0
Runway, ein KI-Startup, hat gerade angekündigt, dass ihr neuestes KI-Videomodell, Gen-4, Szenen und Charaktere über verschiedene Aufnahmen hinweg konsistent halten kann. Das ist eine große Sache, weil KI-generierte Videos oft Probleme haben, eine flüssige Handlung aufrechtzuerhalten. Laut Runways Beitrag auf X soll Gen-4 den Nutzern mehr „Kontinuität und Kontrolle“ beim Erstellen ihrer Geschichten bieten.
Derzeit wird Gen-4 für zahlende Nutzer und Unternehmenskunden eingeführt. Dieses neue Modell ermöglicht es, Charaktere und Objekte zu erstellen, die über verschiedene Aufnahmen hinweg gleich bleiben, und das alles basierend auf nur einem Referenzbild. Man muss lediglich beschreiben, wie die Szene aussehen soll, und Gen-4 liefert konsistente Ergebnisse aus verschiedenen Perspektiven.
Um zu zeigen, was Gen-4 kann, hat Runway ein Video veröffentlicht, in dem eine Frau in verschiedenen Aufnahmen gleich aussieht, selbst wenn sich die Beleuchtung ändert und der Kontext wechselt.
Diese Veröffentlichung folgt kurz auf den Gen-3 Alpha Videogenerator, der vor weniger als einem Jahr angekündigt wurde. Gen-3 ermöglichte es Nutzern, längere Videos zu erstellen, sorgte aber für Kontroversen, da es Berichten zufolge mit einer Vielzahl von YouTube-Videos und illegal heruntergeladenen Filmen trainiert wurde, die aus dem Internet gesammelt wurden.



This is wild! Runway's Gen-4 keeping scenes and characters consistent? That's a game-changer for AI videos. Can't wait to see filmmakers play with this tech! 🎥




Runways Gen-4 ist unglaublich! Die Konsistenz in Szenen und Charakteren habe ich noch nie in AI-Videos gesehen. Es ist, als würde man einen echten Film anschauen! Wünschte, es wäre etwas schneller beim Generieren. 🎬🤯




RunwayのGen-4は本当に驚きです!シーンやキャラクターの一貫性は、AIビデオでは見たことがありません。まるで本物の映画を見ているようです!生成速度がもう少し速ければ完璧ですね。🎬🤯




Runway's Gen-4 is a game-changer! Finally, an AI that can keep scenes consistent. Watched a video and it was like watching a real movie! Can't wait to see what they come up with next! 🎬




Runway's Gen-4 is mind-blowing! The consistency in scenes and characters is something I've never seen before in AI videos. It's like watching a real movie! Just wish it was a bit faster to generate. 🎬🤯




Runway의 Gen-4는 정말 혁신적이야! 드디어 장면을 일관되게 유지하는 AI가 나왔어. 영상을 봤는데, 마치 진짜 영화를 보는 것 같았어! 다음에 뭐가 나올지 기대돼! 🎬












