Vanaf Android 9.0 Pie heeft Google flinke stappen gezet met de wijze waarop men door het Android-besturingssysteem kan navigeren. Vanaf Android 12 biedt Google zelfs in beperkte mate ‘Machine Learning’ aan om de gesture-navigatie aan te passen aan de wijze waarop iemand zijn telefoon gebruikt.
Gesture-navigatie in Android 12
Sinds de introductie van gesture-navigatie in Android ter vervanging van de oude softwareknoppen, blijven klachten over de werking van de navigatiemethode binnenstromen. In veel apps worden de reguliere navigatieacties binnen applicaties gezien als systeemnavigatieacties, waardoor je plots de app uit wordt gekikkerd, of onbedoeld terugkeert naar de vorige pagina. Vanaf Android 10 werd er wel een oplossing ingebracht: ontwikkelaars konden handmatig exclusie-zones instellen.
Met zulke exclusie-zones werd de gesture-navigatie binnen een bepaald gebied geblokkeerd. Verder werd Android voorzien van gevoeligheidsinstellingen. Men kon via de instellingen instellen hoe snel het systeem zou reageren op een navigatieactie. Voor Android 12 werkt Google aan oplossingen die de werking van gesture-navigatie zal afstemmen op de wensen van gebruikers, zo meldt Quinny899 op XDA-Developers. De ontwikkelaar vond twee van zijn apps in een lijst met 43.000 apps die in het nieuwe besturingssysteem gemonitord worden voor navigatie-acties.

Huidige aanpassingsmogelijkheden van navigatie in Android 12, beeld: Android Police.
Google maakt hiervoor gebruik van een ‘TensorFlow Lite’-model, waarmee machine learning op een telefoon kan plaatsvinden. Volgens Quinny899 maakt Google in het EdgeBackGestureHandler, dat in Android 12 de gesture-navigatie afhandelt, een specifieke vermelding van een ‘bestand’ waarbinnen gegevens van de terug-gesture worden bijgehouden. Aan de hand van een machine learning-model is het mogelijk om een bepaald gedrag te herkennen, en de gesture-navigatie aan te passen aan de hand van de uitkomsten van dit model.
Snelle gesture-navigatie acties
Google voerde ook een andere wijziging door in de gesture-navigatie van Android 12, zo wordt door Android Police omschreven. In Android 12 werken ‘gesture-navigatie acties’ om terug te keren naar het vorige scherm of het thuisscherm vanuit volledig scherm namelijk in één keer. In Android 11 zal je eerst het scherm eenmaal aan moeten tikken en daarna de navigatie-actie uit moeten voeren. Er lijkt wel een aanpassing voor nodig te zijn in de Android-app: in Twitter werkt deze aanpassing niet.
Van de laatstgenoemde aanpassing aan de gestures, kun je verwachten dat Google deze ook echt uit zal werken voor de stabiele versie van Android 12. Of Google het machine learning-model ook uit zal werken voor de stabiele versie – die vermoedelijk aan het einde van het derde kwartaal gelanceerd wordt – is een ander verhaal. Momenteel dient er nog een flag te worden gewijzigd in Android 12 om de machine learning in te schakelen: de aanpassingen zijn dus niet automatisch merkbaar.

Hoop jij dat Google de machine learning-functies doorvoert in Android 12, of ben jij tevreden met de wijze waarop de gesture-navigatie op jouw telefoon werkt? Laat het ons zeker weten in de reacties, en vergeet daarbij niet te vermelden welke Android-versie jij gebruikt.
Reacties
Inloggen of registreren
om een reactie achter te laten
Helaas heb ik geen gesture navigatie, draai nog op Android 8.0