Evènement
24.10.2017

Retour sur le Google Cloud Summit 2017

Suite à la conférence Google Cloud Summit 2017 qui a eu lieu la semaine dernière au Palais des Congrès de Paris, découvrez le retour de l’équipe Margo Conseil, sur ce qu’il faut en retenir.

Cette journée immersive a permis de réunir l’écosystème de Google (dirigeants, clients, partenaires, développeurs, décideurs IT et ingénieurs de Google) autour d’un objectif commun : construire le futur du Cloud !

L’occasion pour nous d’être inspirés par de nouveaux cas d’usage abordant le cloud sous tous ses angles et de participer à de multiples sessions autour de l’offre Google Cloud Platform, et ses nouvelles API de Machine Learning.

Sébastien Marotte a ouvert la conférence en expliquant que si Google n’était pas leader sur le marché du Cloud il n’en demeurait pas moins un acteur de plus en plus incontournable notamment grâces aux avancés sur les technologies du futur.

A ce titre, l’Intelligence Artificielle a été abordée sous différents prismes où chaque sous-discipline était illustrée par des cas pratiques :

·       Le Machine Learning, thématique qui a émergé il y a plus de 50 ans, mais qui aujourd’hui arrive à maturité et trouve ses usages dans l’industrie grâce aux avancés technologiques et à la puissance de calculs des machines actuelles (voir à ce titre CloudML). Google a positionné le Machine Learning au cœur de sa stratégie et l’utilise d’ailleurs dans l’ensemble de ses projets depuis plusieurs années, lui permettant ainsi de réduire de 40% la puissance énergétique de ses Datacenters. Google Cloud Machine Learning propose ainsi un ensemble de services gérés permettent de créer facilement des modèles de Machine Learning adaptés à tous les types et volumes de données.

·       Le Deep Learning avec cette capacité d’apprentissage à travers le cycle d’observation, de mesure et la capacité à formuler des hypothèses, et cela sans forcément partir d’une intuition initiale. On retrouve ainsi la solution DeepMind, rachetée par Google en 2014, qui combine les techniques de l'apprentissage automatique et des neurosciences des systèmes pour construire de puissants algorithmes d'apprentissage généraliste. Il est également possible de construire des modèles à l’aide du Framework TensorFlow Board qui est utilisé dans de nombreux produits Google comme Google Photos ou Google Cloud Speech.

·       Le Voice2Text est également adressé grâce à Google Cloud Speech qui permet aux développeurs de convertir du son en texte en exploitant des réseaux neuronaux dans une API facile à utiliser. Intégrée dans Google Home, cette API reconnait plus de 80 langues et variantes pour transcrire en texte des fichiers audios ou encore utiliser une commande vocale.

·       Le Natural Language Processing (NLP), est exposé au travers d’une API REST intégrée pour faire de l’analyse syntaxique multilingue et d’analyse de sentiments. C’est d’ailleurs l’API utilisée actuellement dans DataDialog, permettant à Google Home de comprendre nos intentions.

·       Enfin, la reconnaissance d’image ou de patterns dans les vidéos, sont rendues possibles avec l’API Cloud Vision et Cloud Video Intelligence (API encore en version Beta) qui détectent les visages au sein d'une image, ainsi que leurs caractéristiques principales comme par exemple l'état émotionnel, extrait le contenu texte dans une image ou encore repère les logos, catégories et contenus explicites…

Comme nous le voyons au travers des usages présentés tout au long des sessions, la transition vers l’Intelligence Artificielle touche tous les secteurs et change notre rapport à la technologie.

Mais Google ne s’arrête pas là et place plus généralement le Big Data au centre de son modèle désormais accessibles à tous via Google Cloud Platform (numéro 1 de l’analyse de données à l’échelle du web). La conférence « Introduction au Big Data : outils et insights » a permis de présenter deux outils de visualisation de données DataLab, outil destiné aux développeurs, et DataStudio qui permet de faire de l’analyse de données calculées.

En conclusion, le virage pris autour de la valorisation de l’offre Google Cloud Platform (GCP) n’a fait que se confirmer tout au long de cette journée.

La véritable caractéristique de tous ces projets est qu’ils sont portés par les métiers et non plus par la DSI. S’il n’y avait qu’une seule chose à retenir de la part des participants : avec la plateforme GCP, un projet de Machine Learning (ML) ou d’Intelligence Artificielle (IA) est un projet simple, puissant et rapide.