,

Google I/O 2016 – Les projets de Google ATAP

Avec cette troisième journée s’achève l’édition 2016 de Google I/O. Pour les 10 ans, Google avait vu les choses en grand. Près de 7 000 participants vont rentrer chez eux après avoir pu assister à plus d’une centaine de sessions riches d’enseignements sur le futur, vu depuis Mountain View.

A cette profusion de conférences s’ajoutait des CodeLabs, des stands avec des PC à disposition permettant d’apprendre à utiliser les technologies Google, ainsi que des Offices Hour, des entretiens avec des experts Google à la disposition des participants pour répondre aux questions et approfondir des sujets donnés. Google témoigne ainsi d’un soin particulier porté à ses relations avec les communautés de développeurs, facteur clé de succès pour un acteur qui cherche à créer et à faire prospérer des plateformes et des écosystèmes.

Parmi les projets que Google souhaitait mettre en avant, cette année FireBase avait vraiment une place de choix.  Comme nous le précisions dans le premier jour de cette I/O, Firebase est un outil destiné à utiliser les serveurs et les APIs Google et développer un backend. Nous avons pu également assister à des sessions sur les Progressive WebApp, qui sont un ensemble de techniques pour optimiser une application web et la rendre fonctionnelle en offline ou sur des réseaux très lents. Beaucoup de sessions étaient également consacrées à Android, mais surtout à Daydream, renforçant ainsi les velléités de Mountain View en matière de réalité virtuelle.
Symptôme de l’obsession de Google pour l’Intelligence Artificielle, une large part de l’agenda était dédiée au Machine Learning. Google s’est fait évangéliste en détaillant la façon dont il utilise et met à disposition du plus grand nombre, ses expériences et ses outils. En effet les modèles d’apprentissage que Google utilise pour ses propres systèmes d’Intelligence Artificielle (Google Photos par exemple) sont open-source et disponibles via le projet TensorFlow.

Pour clôturer ces 3 jours, nous avons eu la chance d’assister à la session de Google ATAP, l’équipe de R&D de Google, qui faisait le point sur tous ses derniers projets.

Projet Jacquard

Ce projet de textile intelligent a pris cette année la forme d’une veste conçue en collaboration avec Levi’s. Sur cette veste seule une manche est « tactile » et l’on doit y brancher un connecteur USB. Ce connecteur permet à la fois d’appareiller la veste au téléphone et sert également de batterie au dispositif.

Google Jacquard

La veste sera en vente vers l’été 2017 et une beta limitée vers l’automne 2016

Google Levis

Une application sur le smartphone vient compléter cet ensemble permettant de configurer comment le téléphone doit répondre aux gestures faites sur la veste. Via une API les développeurs auront la possibilité d’ajouter leurs propres fonctionnalités.

Google Levis 2

Projet Soli

Nous avons également eu une démonstration du projet Soli et un éclairage sur les difficultés techniques rencontrées. Il s’agit d’un micro-processeur agissant comme un radar détectant des gestures sans même avoir à toucher le device auquel il est connecté.

La démonstration est vraiment très impressionnante : Google a réussi produire une puce suffisamment petite et consommant seulement 0.052w pour rentrer dans une montre.

Google soli

Non seulement la puce est capable de reconnaître des gestures mais elle est aussi capable de calculer la distance entre votre main et le device.

Un développement kit en mode beta sera bientôt disponible pour les développeurs.

Projet Ara

Le projet Ara est un smartphone modulaire auquel on peut retirer ou ajouter n’importe quel module (caméra, mémoire, capteurs en tous genres, etc.). Cela se fait très simplement puisqu’il n’est pas même pas besoin d’éteindre le téléphone.

Lors de la démonstration le présentateur a exposé le téléphone et y a ajouté une caméra, puis nous a pris en photo. Il a ensuite utilisé la voix (« Ok Google ») pour demander au téléphone de retirer le module de la caméra.

En plus de ses partenaires déjà fabricants de smartphones (Samsung, Sony, …) Google a annoncé de nouveaux partenariats avec des producteurs de capteurs pour avoir encore plus de modules à offrir.

Google Spotlight Stories

Enfin, nous avons pu voir l’équipe de Google Spotlight Stories qui nous a raconté comment Google organise sa production de films en 360 et les techniques utilisées pour raconter des histoires ou attirer l’attention du spectateur à l’endroit où se passe l’action principale.

 

0 commentaires

votre commentaire

Se joindre à la discussion ?
Vous êtes libre de contribuer !

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Inscription newsletter

Ne manquez plus nos derniers articles !