Live Link Face dla TrueDepth

Od lat smart telefony potrafią coraz więcej i więcej, a niekiedy zastępują nawet komputery. Jeśli ktoś umie wykorzystać pełen potencjał drzemiący w kieszonkowym urządzeniu to wystarczą mu tylko dodatkowe opcjonalne peryferia. Smartfony stają się też panelami sterowania dla wielu specjalnie projektowanych przystawek. Z kolei dodatkowe czujniki przekształcają telefony w bardziej zaawansowane narzędzia. Wystarczy instalacja aplikacji, które je wykorzystają. Live Link Face dla silnika Unreal Engine sprawi, że iPhonem animujemy wirtualnym postaciom ekspresję twarzy.

Live Link Face dla TrueDepth

Nowsze generacje iPhone’ów z kamerą TrueDepth pozwalają precyzyjniej rozpoznać twarz użytkownika, a więc i zabezpieczyć dostęp do urządzenia. Apple stworzyło też trochę bajerów do animowania Animoji lub Memoji. Mniej więcej ten sam schemat zastosowano w aplikacji Live Link Face, gdzie posłuży do bardziej profesjonalnych zadań – projektowania animacji do gier, czy filmów lub reklam. iPhone ma wystarczyć do ożywiania wirtualnych twarzy na potrzeby wielu produkcji. Korzyści są jasne. Tańszy dostęp do rozwiązań, które dotąd zarezerwowane były dla bogatszych firm.

Live Link Face dla TrueDepth animowanie twarzy

Wystarczy inwestycja w odpowiednie uchwyty, by smartfon stabilnie kierował czujniki w stronę naszej buzi. Widać to na obrazku z kostiumem z markerami dla całego ciała. Telefon można też ustawić na biurku, gdzie skupimy się na nagrywaniu i animowaniu samej twarzy. To świetna propozycja dla niezależnych, mniejszych developerów. Z pewnością nie odzwierciedli to możliwości profesjonalnych narzędzi, ale w bardziej budżetowych projektach powinno wystarczyć. Naturalnie wszystko odbywa się w czasie rzeczywistym, więc możemy oceniać efekty przed przeniesieniem ich do nagrań. Oprócz TrueDepth wykorzystano tu framework ARKit, by oprogramowanie lepiej rozumiało odniesienie.

źródło: App Store i unrealengine.com