W minionym tygodniu przedstawiałem wam na blogu gadżecik Aria, który usprawniał inteligentne zegarki o gestową, jeszcze łatwiejszą obsługę ubieralnego urządzenia. Noszone modele przechodzą właśnie okres adaptacyjny i właśnie ostatnie miesiące pokazują czego jeszcze brakuje w naręcznych urządzeniach. Idealna nawigacja dopiero nadejdzie, a na konferencji Google I/O pokazano jedną z opcji, która być może zawita niebawem na smartwatche. Project Soli to pomysł dopracowywany w Google ATAP od ośmiu miesięcy. Grupka zdolnych inżynierów chce zaproponować całkiem ciekawy sposób poruszania się po systemikach nowoczesnych zegarków i nie tylko. Poświęcono mu chwilę na jednej z sesji i zademonstrowano jak mogą zmienić się ubieralne technologie w najbliższym czasie.

Project Soli to niewielki modulik (mieszczący się nawet w niewielkich gadżetach, m.in. w noszonych modelach elektroniki) potrafiący wyczuwać ruch ręki w czasie rzeczywistym. To coś a’la Leap Motion lub Kinect od Microsoftu, ale w zdecydowanie bardziej zminiaturyzowanej formie. Zaleta jest oczywista – nasze ruchy dłoni mogą być rozpoznawane i zamieniane na akcje, czyli poruszanie się po systemie operacyjnym bez dotykania wyświetlacza. Zamiast użytkowania kamerek mamy mini radar (sensor). Google ATAP przekazuje jasno: najlepszym sposobem poruszania się po OS są nasze ręce, ale niekoniecznie tylko przez fizyczny kontakt z panelem.

Kontrola gestami jest opracowywana już od dawna, ale nie było jeszcze idealnego rozwiązania. Project Soli jest bliski osiągnięciu wygodnego interfejsu. Dlaczego? Bo potrafić ma rozpoznawać nawet drobne ruchy, a nie tylko te wyraźne. Oczywiście technologia zmieni większość urządzeń, ale te ubieralne zyskają najwięcej. Korzyści dla nich są oczywiste i naturalne. To właśnie od nich może zacząć się rewolucja. Większe ekrany tabletów i smartfonów wygodnie obsługujemy dotykiem, zegarki mają mini ekraniki, więc gesty są pożądane. Apple rozwiązało problem małego ekranu na swój sposób: zaprojektowali pokrętełko Digital Crown, co upodabnia nieco smart watch do klasycznego zegarka.

Wygląda na to, że model od Apple wygląda staroświecko przy Project Soli. Zalety gestów opisywałem już przy modelu Aria. Mają one nieco wspólnego. Najważniejsza dla nich jest mimika – bardzo prosta i intuicyjna (Aria nie wymaga angażowania obu rąk, więc jest dla mnie nieco lepsza). Żeby nie być gołosłownym, załączam filmik. Pokazuje on możliwości chipu na kilku przykładach. Google ATAP chce też udostępnić API dla developerów, by technologię powoli wdrażać do realnych urządzeń. Project Soli da programistom wiele elastyczności i nie będzie ograniczało w tworzeniu swoich sposobów interakcji. Nadal jest to jednak eksperymentalny projekt, więc trzeba uzbroić się w cierpliwość.

źródło: Project Soli