Runway dit que son dernier modèle vidéo d'IA peut en fait générer des scènes et des personnes cohérentes
Runway, une startup d'IA, vient d'annoncer que son dernier modèle de vidéo IA, Gen-4, peut maintenir la cohérence des scènes et des personnages à travers différents plans. C'est une avancée majeure car les vidéos générées par IA ont souvent du mal à maintenir une storyline fluide. Mais selon le post de Runway sur X, Gen-4 est conçu pour offrir aux utilisateurs plus de "continuité et de contrôle" lors de la création de leurs histoires.
Pour l'instant, Gen-4 est déployé pour les utilisateurs payants du service et les clients professionnels. Ce nouveau modèle permet de créer des personnages et des objets qui restent cohérents à travers différents plans, tout en partant d'une seule image de référence. Il suffit de décrire l'apparence souhaitée de la scène, et Gen-4 génère des sorties cohérentes sous différents angles.
Pour démontrer les capacités de Gen-4, Runway a publié une vidéo d'une femme qui apparaît identique dans différents plans, même lorsque l'éclairage change et que le contexte évolue.
Cette sortie intervient peu après leur générateur de vidéos Gen-3 Alpha, annoncé il y a moins d'un an. Gen-3 permettait de créer des vidéos plus longues, mais il a suscité une controverse car il aurait été entraîné sur de nombreuses vidéos YouTube et des films piratés récupérés sur Internet.
Article connexe
Salesforce Dévoile des Coéquipiers Numériques IA dans Slack pour Rivaliser avec Microsoft Copilot
Le nouvel outil, Agentforce dans Slack, permet aux entreprises de créer et de déployer des agents IA spécifiques à des tâches qui recherchent dans les discussions professionnelles, accèdent aux donnée
Investissement de 40 milliards de dollars d'Oracle dans les puces Nvidia pour renforcer le centre de données IA au Texas
Oracle prévoit d'investir environ 40 milliards de dollars dans des puces Nvidia pour alimenter un nouveau centre de données majeur au Texas, développé par OpenAI, selon le Financial Times. Cette trans
Caractéristiques des écouteurs Sony WH-1000XM6 révélées avant le lancement
Sony s'apprête à dévoiler le successeur de ses écouteurs à réduction de bruit WH-1000XM5 le 15 mai, selon des détails divulgués rapportés par Dealabs et Android Authority.Le prochain modèle, nommé WH-
commentaires (36)
0/200
RogerGonzalez
2 août 2025 17:07:14 UTC+02:00
This is wild! Runway's Gen-4 keeping scenes and characters consistent? That's a game-changer for AI videos. Can't wait to see filmmakers play with this tech! 🎥
0
BenJackson
18 avril 2025 07:41:02 UTC+02:00
Runways Gen-4 ist unglaublich! Die Konsistenz in Szenen und Charakteren habe ich noch nie in AI-Videos gesehen. Es ist, als würde man einen echten Film anschauen! Wünschte, es wäre etwas schneller beim Generieren. 🎬🤯
0
JackMartin
18 avril 2025 01:56:24 UTC+02:00
RunwayのGen-4は本当に驚きです!シーンやキャラクターの一貫性は、AIビデオでは見たことがありません。まるで本物の映画を見ているようです!生成速度がもう少し速ければ完璧ですね。🎬🤯
0
JoseLewis
15 avril 2025 21:41:07 UTC+02:00
Runway's Gen-4 is a game-changer! Finally, an AI that can keep scenes consistent. Watched a video and it was like watching a real movie! Can't wait to see what they come up with next! 🎬
0
HarryWilliams
14 avril 2025 00:39:47 UTC+02:00
Runway's Gen-4 is mind-blowing! The consistency in scenes and characters is something I've never seen before in AI videos. It's like watching a real movie! Just wish it was a bit faster to generate. 🎬🤯
0
RogerSanchez
12 avril 2025 19:35:09 UTC+02:00
Runway의 Gen-4는 정말 혁신적이야! 드디어 장면을 일관되게 유지하는 AI가 나왔어. 영상을 봤는데, 마치 진짜 영화를 보는 것 같았어! 다음에 뭐가 나올지 기대돼! 🎬
0
Runway, une startup d'IA, vient d'annoncer que son dernier modèle de vidéo IA, Gen-4, peut maintenir la cohérence des scènes et des personnages à travers différents plans. C'est une avancée majeure car les vidéos générées par IA ont souvent du mal à maintenir une storyline fluide. Mais selon le post de Runway sur X, Gen-4 est conçu pour offrir aux utilisateurs plus de "continuité et de contrôle" lors de la création de leurs histoires.
Pour l'instant, Gen-4 est déployé pour les utilisateurs payants du service et les clients professionnels. Ce nouveau modèle permet de créer des personnages et des objets qui restent cohérents à travers différents plans, tout en partant d'une seule image de référence. Il suffit de décrire l'apparence souhaitée de la scène, et Gen-4 génère des sorties cohérentes sous différents angles.
Pour démontrer les capacités de Gen-4, Runway a publié une vidéo d'une femme qui apparaît identique dans différents plans, même lorsque l'éclairage change et que le contexte évolue.
Cette sortie intervient peu après leur générateur de vidéos Gen-3 Alpha, annoncé il y a moins d'un an. Gen-3 permettait de créer des vidéos plus longues, mais il a suscité une controverse car il aurait été entraîné sur de nombreuses vidéos YouTube et des films piratés récupérés sur Internet.



This is wild! Runway's Gen-4 keeping scenes and characters consistent? That's a game-changer for AI videos. Can't wait to see filmmakers play with this tech! 🎥




Runways Gen-4 ist unglaublich! Die Konsistenz in Szenen und Charakteren habe ich noch nie in AI-Videos gesehen. Es ist, als würde man einen echten Film anschauen! Wünschte, es wäre etwas schneller beim Generieren. 🎬🤯




RunwayのGen-4は本当に驚きです!シーンやキャラクターの一貫性は、AIビデオでは見たことがありません。まるで本物の映画を見ているようです!生成速度がもう少し速ければ完璧ですね。🎬🤯




Runway's Gen-4 is a game-changer! Finally, an AI that can keep scenes consistent. Watched a video and it was like watching a real movie! Can't wait to see what they come up with next! 🎬




Runway's Gen-4 is mind-blowing! The consistency in scenes and characters is something I've never seen before in AI videos. It's like watching a real movie! Just wish it was a bit faster to generate. 🎬🤯




Runway의 Gen-4는 정말 혁신적이야! 드디어 장면을 일관되게 유지하는 AI가 나왔어. 영상을 봤는데, 마치 진짜 영화를 보는 것 같았어! 다음에 뭐가 나올지 기대돼! 🎬












