Tout savoir sur : Google déploie une technologie pour rendre les applications plus intelligentes
Vous connaissez bien sûr Google Now, dont l’avenir aura certainement un lien très fort avec Google Assistant, présenté dans nos colonnes hier, suite à la conférence plénière du Google I/O qui a lieu actuellement à Mountain View. L’intérêt de Google Now réside principalement dans la pertinence des informations qu’il affiche. Ces informations sont customisées en fonction de vos centres d’intérêt, des informations personnelles que vous partagez sur les réseaux sociaux, des données qu’il collecte sur Google Maps, Gmail ou Google Calendar, ainsi que de certaines de vos habitudes.
Google Now on Tap : une première étape pour rendre les applications plus pertinentes
Google Now est par exemple en mesure de calculer votre trajet quotidien entre votre domicile et votre lieu de travail en fonction de votre moyen de locomotion, sans que vous ayez à lui demander explicitement. Il affiche la programmation du cinéma à côté du lieu où vous êtes, ainsi que la météo. Il vous prévient quand votre colis Amazon est parti de l’entrepôt et quand il est arrivé à son point relais. Et il vous prévient en avance de phase de votre rendez-vous si la circulation se densifie sur la route. Même chose avec Doze, le nouveau mode économe en énergie d’Android Marshmallow : si le mobile est statique, il choisit d’entrer dans une veille plus profonde, etc.
L'intelligence dans la connaissance contextuelle
Cette pertinence, vous ne la retrouvez pas ailleurs, sauf si le développeur de l’application dispose d’un accès à ces informations pertinentes et s’il s’est donné la peine de créer des outils pour les exploiter. Or, à l’heure actuelle, ceux qui répondent à ces critères sont peu nombreux. Mais ils pourraient le devenir prochainement, car Google a développé de nouveaux outils, présentés lors du Google I/O. Il s’agit d’une demi-douzaine d’API, ou des connecteurs si vous préférez, qu’il suffit d’appeler pour obtenir une information contextuelle et donc adapter le service en fonction de cette information.
Parmi les données ciblées par les API, nous retrouvons l’heure et la date, la position géographique, la météo, le lieu et le type de lieu où l’utilisateur se trouve (un restaurant par exemple), son activité (stationnaire, marche, course ou vélo), les points d’intérêt à proximité (le nom et le type) et la présence ou non d’un casque audio (jack, USB ou Bluetooth). Ces API contrôlent non seulement les informations contextuelles en temps réel, mais gère également les informations qui transitent vers les applications, ainsi que la consommation d’énergie que cela demande.
Un comportement adapté à la situation
L’idée est donc simple : selon le contexte, l’application qui fait appel à ces API aura un comportement différent. Plus loin encore, une application est capable de demander à une API de lui signaler un changement de situation, même quand celle-ci est inactive. Par exemple, si le casque est branché et que l’usager commence à courir, une application musicale peut proposer spontanément une playlist sportive. Si une certaine heure est passée et que l’utilisateur n’est pas chez lui, une application peut lui proposer des adresses pour se restaurer. Si l’utilisateur est sur un site touristique, l’application photo peut se précharger seule afin d’être accessible plus rapidement. Etc.
Plus d’intelligence dans le mobile, c’est exactement ce que souhaite proposer Google avec ces nouvelles API. Bien sûr, l’intégration de ces technologies prendra un peu de temps, d’autant qu’elles ne seront compatibles qu’avec Android N. Nous sommes évidemment curieux de savoir ce que les développeurs en feront.