ARKit 3.0 – co nowego? Wymóg A12 Bionic!

7 Cze 2019

Dział rozwiązań dla Rzeczywistości Rozszerzonej nabrał większego tempa w swoim ogólnym rozwoju, a wszystko za sprawą produkcji, które zaczęły wykorzystywać te technologie. Apple zawsze podnosiło zainteresowanie nowymi tematami, bo ma siłę oddziaływania. Tak samo jest z AR. Platforma ARKit nie stoi jednak w miejscu i również poprawia swoje możliwości. Na poniedziałkowych WWDC gigant z Cupertino przedstawił trzecią generację swojego software’u. Lepszą, ale niestety niedostępną dla wszystkich. Będzie to oczywiście część nowego systemu iOS 13.

ARKit 3.0 – lepszy, ale dla wszystkich

Pierwsza wersja ARKit też była ograniczona zasięgiem do odpowiednich modeli iPhone’ów, a potem również iPadów. Wymagana była odpowiednia kamerka, ale też chip przetwarzający dane. ARKit 3.0 będzie potrzebował do poprawnego działania A12 Bionic, co oznacza kompatybilność z nieco mniejszą bazą urządzeń z oferty Apple. Z nowinek będą mogli skorzystać posiadacze iPhone’ów XS, XS Max, XR oraz iPadów Pro (11 i 12.9 cala). Tylko one zagwarantują prawidłową pracę przy łączeniu wirtualnego środowiska z realnym otoczeniem w czasie rzeczywistym. To naturalna prawidłowość jeśli chcemy, by aplikacje w Augmented Reality zwiększały swoje możliwości.

ARKit 3.0 – więcej imersji

Co zatem będzie takiego wyjątkowego, że z ogarnięciem rozszerzonej rzeczywistości poradzą sobie tylko mocniejsze smartfon lub tablety z iOS (iPad OS)? Dla przypomnienia krótki wstęp, dla tych, którzy w ogóle nie wiedzą o czym mowa. ARKit i ARKit 2.0 służyły do realizacji aplikacji mobilnych, które łączyły widziane przez kamerkę realne środowisko z tym cyfrowym, dzięki czemu doświadczyć można ciekawsze zabawy i nowych rodzajów rozgrywki. Już nie tylko wyłącznie cyfrowo, ale w połączeniu z tym co faktycznie widzimy. W ten sposób powstały gry, ale też aplikacje sprzedające towary. Dzisiaj korzystają na tym filtry dostosowujące się do poruszającej się twarzy, czy różnego rodzaju nakładki na rozpoznane kadry.

ARKit 3.0

ARKit stopniowo zwiększał swój potencjał, np. dodając większą dokładność, czy opcje zabawy multiplayer. Trzecia odsłona będzie potrafiła jeszcze więcej. Ma zaoferować “real-time body tracking” (Motion Capture), czyli śledzenie ruchu osoby widzianej przez aparat oraz tryb People Occlusion do wyświetlania warstw przed i za użytkownikiem. Umożliwi to uzyskanie większej imersji w odbiorze treści AR. Apple obiecuje przeplatanie się warstw między trzema postaciami, a niezbędna do tego będzie kamerka TrueDepth (tu zadziała też iPhone X, który jako pierwszy wdrożył ten rodzaj kamery). Uwzględnienie osoby między wirtualnymi treściami to ważna sprawa, bo uda się w ten sposób przygotowywać nowy rodzaj aplikacji. Każdy z nas będzie w stanie animować sobą postacie, czy otrzymać łatwy dostęp do efektu green screen.

Warto zaznaczyć, że ARKit 3.0 uwzględni w działaniu obie kamerki urządzenia, więc będzie przetwarzać i realizować materiały przed nami i za nami. Myślę, że w niedalekiej przyszłości spore znaczenie będzie miała współpraca między telefonami, czyli synchronizacja treści wielu graczy. Apple zapowiedziało, że detekcja obrazu obejmuje tu lepszą rozpoznawanie 3D, m.in. przez algorytmy uczenia maszynowego. Innymi słowy – wirtualne warstwy mają lepiej dopasowywać się do rzeczywistości. Załączam przy okazji filmik pokazujący Minecrafta Earth, którego niedawno zapowiedział Microsoft. Z realizację video czekano właśnie do premiery na WWDC.

źródło: Apple.com

O mnie

Michał Sitnik

Eksploruję Internet Rzeczy, przymierzam ubieralne technologie, zamieszkuję smart dom. Blogując promuję nowoczesne rozwiązania, testuję i dzielę się wynikami. Przestrzegam i ostrzegam, ale częściej zachęcam. Gotowy na nową epokę technologiczną z kilkuletnim wyprzedzeniem. Na bieżąco z rozwiązaniami przyszłości. Nie geek!

Czytaj więcej o mnie

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *