Równo rok temu pisałem o ultradźwiękowym systemie sterowania smartfonem od Elliptic Labs. Producent rozwiązania przez ten czas dopracował swój model, ale dopiero teraz pochwalił się efektami prac. Ogólnie chodzi o przeniesienie nawigacji na wyższy level, czyli unikania interfejsu dotykowego, czyli przez gesty ruchów rąk. Właściwie to nic nowego. Moto X 2014 ma system wybudzania urządzenia ruchem dłoni, a ja na swoim Galaxy S5 przewijam czasem strony odpowiednio rozpoznawanym machnięciem ręki. Producent proponuje coś znacznie bardziej zaawansowanego. Projekt o wielu warstwach czułości zbliżania rąk do wyświetlacza. Nie sądzę, by zastąpiło to korzystanie ze sprawdzonego, dotykowego wyświetlacza, ale może być ciekawym wsparciem, no i nowym elementem interakcji w aplikacjach i mobilnych grach.

Produkt ramki dla smartfona ma zaoferować 180-stopniowy odczyt „widzenia” i czucia. Sama technologia już była prezentowana w zeszłym roku, ale najważniejszym celem kolejnej generacji było jej odpowiednie odchudzenie. Sensory muszą mieścić się w poręcznym opakowaniu, jeśli klienci lub producenci elektroniki w ogóle zechcą się tym interesować. Jak widać na załączonych grafikach, model wygląda już całkiem przystępnie i w miarę smukle. Smartfon smartfonem, ale wyobraźcie sobie takowe sterowanie w ubieralnych gadżetach. Myślę, że tutaj byłoby więcej zastosowania. Mniejszy ekranik to limit gestów, a ultradźwiękowe elementy dodałyby nieco gestów w przestrzeni. Rozwiązanie jest już na tak zaawansowanym etapie prac, że na targach CEATEC w Tokio, Elliptic Labs wspólnie z Murata, zapowiedzieli pierwsze działające urządzenia jeszcze w pierwszej połowie 2015 roku.

Zeszłym razem pokazano opcje ogólnego sterowania rękoma w powietrzu. Teraz zaprogramowano akcje w nawigowaniu przez kilka „warstw” czułości zbliżenia ręki do ekranu. To umożliwi różne reakcje oprogramowania w zależności od zapisanego rozpoznawania dłoni. Widać to dobrze na załączonym video, gdzie im bliżej smartfona, tym „głębiej” dostajemy się do aplikacji. Oczywiście te akcje dopracowują już sami programiści i developerzy aplikacji. Ultradźwięki są zdecydowanie dokładniejsze niż optyczne rozpoznawanie ruchu. W przypadku obecnie stosowanych projektów, smartfony odczytują ruchy wyłącznie przed kamerką. Co potrafi taki system sterowania i co może nam dać? Warto to obejrzeć na poniższej demonstracji. Wygląda na to, że na razie sterowanie dostępne jest wyłącznie na Androida.

A jak działa system? W obudowie zmieszczono rodzaj ultradźwiękowego głośniczka i trzech mikrofoników MEMS. Oczywiście najważniejszą częścią jest oprogramowanie, które odpowiednio rozpozna i wyczuje zmiany akustyczne powodowane ruchami rąk. Zakładając jednak, że większość dzisiejszych smartfonów posiada więcej niż jeden mikrofonik, producent urządzenia będzie zmuszony jedyne do wbudowania „głośniczka” oraz instalacji oprogramowania. Mikrofony będą odczytywać echo od napotykanej powierzchni w czasie rzeczywistym i tak cały system będzie wiedział jak blisko znajduje się „przeszkoda”. Wszystko na tyle szybko, że sterowanie wyda nam się intuicyjne i natychmiastowe.

źródło: