Na razie do gogli VR/AR dołączane są specjalne kontrolery, przenoszące ruchy naszych rąk do interakcji z wirtualnym środowiskiem. Pojawiają się już rozwiązania, w których wystarczy śledzenie dłoni, by nawigacja gestami była możliwa. Te technologie dopiero się rozwijają, ale już wkrótce działania w taki sposób będą pewnie normą. Naturalność tych technik jest intuicyjna, więc i logiczna przy rozwoju. Trafiłem na kolejne oprogramowanie, chcące dostarczyć sterowanie rękami i to tylko przy użyciu smartfonowej kamerki.

ManoMotion

Oznacza to, że gogle w formie adapterów do smartfonów mogą otrzymać ciekawy interfejs. ManoMotion już teraz oferuje SDK dla developerów, którzy chcą wdrażać śledzenie rąk w swoich aplikacjach na smartfony, tablety i laptopy. Szwedzki start-up istnieje już od dwóch lat, ale rozwój nad ManoMotion trwa już od siedmiu. Celem jest tu poprawa interakcji z nowymi środowiskami (te od niedawna zwróciły na siebie większą uwagę, więc i praca nad oprogramowaniem bardziej kusząca).

ManoMotion współpracuje niemal z dowolną kamerką, dając opcje odczytu ruchu rąk. Można je zaimplementować do aplikacji dla virtual i augmented reality. Na początek najsensowniejsze użycie jest w goglach typu Gear VR, czy Daydream, czyli tych korzystających ze smartfona. W najbliższych kwartałach zacznie przybywać mobilnych programów z AR, więc warto interesować developerów ulepszaniem ich produkcji. Pisałem nawet dziś o kartonowych goglach do Rzeczywistości rozszerzonej, potwierdzając trend.

ManoMotion

Problemem może być zakres widzenia kamerki, bo przecież poruszamy głową, a ręce pozostają w tym samym obszarze. Może kolejne gogle trzeba wyposażać w kilka kamerek wokół gogli? Autorzy obiecują jednak, że samo śledzenie jest dokładne nawet przy dynamicznych ruchach. Jest rozpoznawanie chwytów, pchnięć i wszystko z opcją głębi. Opóźnienei wynosi jedynie 10 milisekund dla smartfonów z iOS, i 17 ms przy Galaxy S6 z Androidem (przy dwuletnim już urządzeniu!). Im lepszy smartfon, tym lepsze osiągi.

Najważniejsze, że ManoMotion nie wymaga instalacji dodatkowego hardware’u. Każdy developer Unity może dodać opcje gestów bez większych problemów. Na papierze software wygląda obiecująco, ale ciekawią mnie realne możliwości. Możliwości można było osobiście sprawdzić podczas demonstracji na Augmented World Expo 2017.

źródło: ManoMotion