Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Koniec z drogimi studiami mocap. Runway Act-Two animuje dowolną postać jednym nagraniem. Wystarczy kamerka telefonu

Maciej Lewczuk | 29-09-2025 13:30 |

Koniec z drogimi studiami mocap. Runway Act-Two animuje dowolną postać jednym nagraniem. Wystarczy kamerka telefonuMimo rosnącej jakości i fotorealizmu jedną z największych barier w ich praktycznym wykorzystaniu do tworzenia dłuższych narracji pozostawał brak spójności. Generowane postacie często zmieniały swój wygląd między kolejnymi ujęciami, co uniemożliwiało opowiadanie historii. Jeden z liderów branży wprowadził właśnie rozwiązanie, które ma ostatecznie wyeliminować ten istotny problem i uczynić z AI pełnoprawne narzędzie filmowe.

Act-Two pozwala animować postacie za pomocą prostego wideo, przenosząc ruch na dowolną postać z realistycznym ruchem, mową i ekspresją.

Koniec z drogimi studiami mocap. Runway Act-Two animuje dowolną postać jednym nagraniem. Wystarczy kamerka telefonu [1]

Audio2Face 3D udostępniony za darmo. NVIDIA otwiera kod źródłowy zaawansowanego systemu lip-sync wspomaganego AI

Technologia Runway Act-Two to kolejny krok w rozwoju technologii motion capture wykorzystujących sztuczną inteligencję. Model pozwala na animację postaci poprzez analizę pojedynczego nagrania referencyjnego, które można wykonać nawet kamerką w smartfonie lub komputerze, bez konieczności stosowania markerów czy specjalistycznych kombinezonów. System śledzi kompleksowo mimikę twarzy, gesty dłoni oraz ruch całego ciała, przenosząc te elementy na wybraną postać w czasie rzeczywistym.

Google udostępnia eksperymentalną aplikację desktop search dla Windows z integracją Lens i AI Mode w ramach programu Labs

Technologia Act-Two znacząco przewyższa możliwości poprzednika Act-One, który ograniczał się jedynie do animacji statycznych obrazów. Nowy model obsługuje zarówno zdjęcia jak również filmy jako materiał wyjściowy, oferując większą elastyczność w procesie twórczym. Dodatkowo system automatycznie dodaje ruch kamery i elementy środowiska. Nadaje to animacjom bardziej kinowy charakter. Firma twierdzi, że Act-Two zapewnia znacznie wyższą jakość generowania i spójność ruchu w porównaniu z wcześniejszymi wersjami.

Koniec z drogimi studiami mocap. Runway Act-Two animuje dowolną postać jednym nagraniem. Wystarczy kamerka telefonu [2]

Google Jules to autonomiczny agent AI korzystający z Gemini 2.5 Pro. Samodzielnie pisze, testuje i wdraża kod

Act-Two jest obecnie dostępny wyłącznie dla klientów Enterprise oraz Creative Partners firmy Runway. Model obsługuje nagrania o długości do 30 sekund w różnych formatach, w tym 16:9, 9:16 czy 1:1, z częstotliwością 24 klatek na sekundę. Koszt generacji wynosi 5 kredytów na sekundę przy minimum 3-sekundowym filmie. Jak informowaliśmy wcześniej, Runway wzbudza kontrowersje ze względu na wykorzystywanie materiałów z YouTube bez zgody autorów do trenowania swoich modeli AI. Niemniej firma kontynuuje rozwój zaawansowanych narzędzi do generowania treści multimedialnych, konkurując z innymi rozwiązaniami jak Moonvalley Marey czy wbudowane funkcje AI w Adobe Premiere Pro.

Źródło: Runway
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 16

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.