Runway uruchamia nowy model sieci neuronowej do tworzenia filmów z opisu tekstowego
Miscellanea / / April 02, 2023
To jest odpowiednik Midjourney, ale dla krótkich filmów.
Sztuczna inteligencja, która konwertuje tekst na obraz, jest teraz prawdziwa główny nurt, ale podobne sieci neuronowe dla wideo dopiero nabierają rozpędu. Na czele tego kierunku stoi startup Runway, który wydany już drugi model AI generujący krótkie filmy na podstawie kilku słów.
Runway oferuje internetowy edytor wideo, który specjalizuje się w narzędziach do uczenia maszynowego, takich jak usuwanie tła. Firma ta pomogła w opracowaniu modelu zamiany tekstu na obraz w stabilnej dyfuzji, aw lutym ogłoszony jego pierwszy model do edycji wideo AI Gen-1.
Gen-1 skupiła się na konwersji istniejącego materiału filmowego, umożliwiając użytkownikom zastosowanie określonego stylu nakładki z obrazu na rolkę. Model Gen-2 jest bardziej skoncentrowany na tworzeniu filmów od zera.
Dema udostępniane na Runway są krótkie, niestabilne i na pewno nie fotorealistyczne, ale nawet takie kadry świadczą o dobrym zrozumieniu sztucznej inteligencji przestrzeni trójwymiarowej, proporcji i logiki ruchu obiekty.
Chociaż Gen-2 nie jest swobodnie dostępna, rzecznik Runway zapewnił, że firma „zapewni szeroki dostęp w nadchodzących tygodniach”.
Perspektywy wprowadzenia takiej sztucznej inteligencji już teraz przerażają ekspertów. W końcu sieci neuronowe do pracy z wideo obiecują nie tylko nowe możliwości twórcze, ale także nowe zagrożenia dla dezinformacji.
Przeczytaj także🧐
- Fotorealizm i pięć palców: sieć neuronowa Midjourney została zaktualizowana do wersji 5
- Sieć neuronowa Midjourney łączy teraz obrazy. Oto 15 zabawnych „krzyżyków”
- Sieć neuronowa Midjourney przyciągnęła „najpiękniejszych ludzi na świecie”