En af ledelsens teknologier i udviklingsområdet for forstørret virkelighed er gesturesporing. Det er en ting at sætte nogen i en virtuel eller forstærket verden, men uden en naturlig måde at interagere inden for det er brugeroplevelsen sandsynligvis begrænset. Selvfølgelig kan gestus også bruges til at kontrollere ting i den virkelige verden, og til den ende bruger [Sarah] s seneste projekt denne interessante humane interface-enhed til at styre en drone.

Projektet bruger en springbevægelsessensor til at opdage og samle gestusdataene og føder alle disse oplysninger i Labview. En papegøje ar drone blev valgt til dette projekt på grund af en robust API, der fungerer godt med denne særlige software suite. Det ser ud til, at en masse af det grunt arbejde med at anerkende gestus og sende kommandoer til dronen er taget hånd om bag-scenerne i software, så hvis du søger at gøre dette på egen hånd, er der sandsynligvis en hel del mere arbejde involveret. Når det er sagt, er det ikke noget lille at få dette til at arbejde i første omgang, og videoen nedenfor er værd at se.

Til nogle kan bevægelser virke som en nyhedsteknologi uden virkelige applikationer, men de har virkelige anvendelser for handicappede eller andre med usædvanlig arbejdsgang, der kræver en håndfri tilgang. Indtil videre har vi set håndbevægelsesteknologier, der kører biler, hjælper folk med at komme rundt i den fysiske verden og endda spille Tetris.