Runway lance un nouveau modèle de réseau de neurones pour créer des vidéos à partir d'une description textuelle
Miscellanea / / April 02, 2023
C'est un analogue de Midjourney, mais pour de courtes vidéos.
L'intelligence artificielle qui convertit le texte en image est désormais réelle intégrer, mais des réseaux de neurones similaires pour la vidéo ne font que prendre de l'ampleur. À l'avant-garde de cette direction se trouve la startup Runway, qui libéré déjà le deuxième modèle d'IA qui génère de courtes vidéos basées sur plusieurs mots.
Runway propose un éditeur vidéo basé sur le Web spécialisé dans les outils d'apprentissage automatique tels que la suppression de l'arrière-plan. Cette société a participé au développement du modèle texte-image Stable Diffusion, et en février annoncé son premier modèle de montage vidéo AI Gen-1.
Gen-1 s'est concentré sur la conversion de séquences existantes, permettant aux utilisateurs d'appliquer un style particulier de superposition de l'image à la bobine. Le modèle Gen-2 est davantage axé sur la création de vidéos à partir de zéro.
Les démos partagées sur Runway sont courtes, instables et certainement pas photoréalistes, mais même de tels cadres démontrent une bonne compréhension de l'IA de l'espace tridimensionnel, des proportions et de la logique du mouvement objets.
Bien que Gen-2 ne soit pas librement disponible, un porte-parole de Runway a assuré que la société "offrira un large accès dans les semaines à venir".
Les perspectives d'introduction d'une telle IA effraient déjà les experts. Après tout, les réseaux de neurones pour travailler avec la vidéo promettent non seulement de nouvelles possibilités créatives, mais aussi de nouvelles menaces à la désinformation.
Lire aussi🧐
- Photoréalisme et cinq doigts: le réseau de neurones Midjourney passe en version 5
- Le réseau de neurones Midjourney combine désormais des images. Voici 15 "croix" amusantes
- Le réseau de neurones Midjourney a attiré "les plus belles personnes de la planète"