Le Big Data est notre présent et notre avenir. Les 2,5 trillions d’octets de données que nous produisons quotidiennement, par nos navigations Web, nos objets connectés, etc. sont devenus en quelques années LA ressource moteur des GAFA (entendez les géants Google, Apple, Facebook et Amazon), qui entendent bien investir dans la collecte, le stockage et les méthodes d’analyse de ces données. Marketing, domaines de la santé et bientôt secteur agricole… Que nous réserve le Big Data de demain ? En quoi les géants du Web pourraient bien transformer notre monde ?
Le Big Data, petite mise au point
Le Big Data définit la collecte, le stockage et l’analyse de ces 2,5 trillions d’octets de données que nous générons chaque jour (source : étude IBM). La multiplication des canaux (Smartphone, tablettes, objets connectés) contribue à accroître ce chiffre déjà extraordinaire et nous ne parlons pas des informations personnelles qui seront récoltées via les drones lorsque ceux-ci pourront légalement survoler (et filmer) les zones urbaines.
L’enjeu est donc triple : d’abord il s’agit de récolter ces données issues de multiples canaux. Il s’agit ensuite de pouvoir les stocker et les « organiser » dans le Cloud. Enfin, le tout consiste à corréler les données entre elles, établir des liens, et ce en temps réel, pour en tirer des conclusions et prendre des décisions. Dans ce contexte, le marketing prédictif est une nouvelle branche du marketing qui arrive à prédire le comportement futur d’un consommateur grâce à l’analyse statistique en temps réel d’un gros volume de données.
Pour vous donner un exemple précis de marketing prédictif : SFR dispose d’un logiciel capable d’alerter son service commercial lorsque l’un de ses abonnés est sur le point de résilier son contrat. Pour anticiper le passage à l’acte, le logiciel récupère les données de navigation de ses clients (via les fameux cookies, comme les mots clés tapés dans les moteurs de recherche, les sites visités…). Il ne reste pour le commercial qu’à « récupérer » les consommateurs au vol, avant qu’ils ne prennent leur décision de partir, permettant à SFR de sauvegarder 75 % de sa clientèle en passe de résilier leur abonnement.
Les GAFA sont fans de Data
Les GAFA (entendez Google, Apple, Facebook et Amazon, soit les maîtres de l’économie actuelle) ont la primeur des données personnelles et en font un commerce florissant. On pourrait même dire qu’ils ont bâti leur empire sur le dos du Big Data. En parallèle, leurs recherches destinées à améliorer la pertinence des analyses ont abouti à la création de formidables outils pour les entreprises.
Voyez Google Correlate, par exemple, qui permet d’identifier les requêtes qui présentent les mêmes tendances (entre 2003 jusqu’à aujourd’hui) ou encore de comparer les résultats d’une même requête à des périodes différentes et / ou des zones géographiques distinctes. En utilisant l’outil, on se rend alors compte qu’il est par exemple capable d’anticiper les saisons idéales pour communiquer selon le secteur d’activité et surtout, de prédire les tendances à venir en matière de mots-clés.
Le Big Data pour anticiper les épidémies
Plus spectaculaire, en 2008, le logiciel Google Flu Trends avait réussi à prédire l’épidémie de grippe aviaire H1N1. L’outil se basait sur les requêtes Internet type « symptômes de la grippe » « maux de tête » ainsi que sur leur localisation pour suivre en temps réel le développement de la maladie et, de facto, prédire les tendances à venir (lieu et date du déclenchement de l’épidémie dans les différentes régions du monde). Si les résultats de Google Flu Trends ont été décriés par la communauté scientifique (sous-estimation de l’épidémie de grippe aviaire en 2009 ; à l’inverse, surestimation de la grippe saisonnière en 2012 et 2013), ils nous ont permis d’entrevoir ce que sera l’avenir, notamment lorsque les algorithmes de calcul se perfectionneront. A quoi bon demander aux médecins d’identifier des sources de contamination a posteriori si un logiciel passe par l’analyse statistique pour prédire les épidémies. « L’analyse de gigantesques volumes de données (elles sont multipliées par deux tous les 12 ans) fait apparaître des corrélations qui se substituent à l’obsession de la causalité », expliquaient Viktor Mayer-Schönberger et Kenneth. Cukier, auteurs de l’ouvrage « Big Data, la révolution des données est en marche ». En termes plus concrets, le perfectionnement des algorithmes d’analyse couplé à l’accroissement du nombre de données exploitables permettra pet être, à terme, remplacer la recherche scientifique, voire la médecine !
Le Big Data et la médecine prédictive
Des applications concrètes vont déjà en ce sens. Aux États-Unis, le logiciel Watson d’IBM assiste les médecins. Il peut émettre le diagnostic précis d’un patient. Pour ce faire, Watson se base sur le dossier médical de milliers de personnes issus de plusieurs hôpitaux qui ont accepté d’ouvrir leur base de données. Watson assiste également les médecins dans la recherche du cancer en cherchant des informations concernant les mutations génétiques particulières qui auraient échappé à l’œil humain. « Watson est un système de connaissance basé sur l’apprentissage, et ses tâches d’acquisition peuvent être automatisées », a précisé le directeur commercial d’IBM Research. En fait, les médecins téléchargent la séquence du gène du patient et Watson cherche ces mutations dans les bases de données mises à sa disposition ainsi que dans la littérature médicale. Il alerte le médecin lorsqu’il détecte une information pertinente.
Bientôt, des données telles que le génome ou le séquençage humain seront mises à disposition des algorithmes, pour une médecine ultra personnalisée et prédictive. Imaginez un monde ou des programmes informatiques seront capables de déterminer votre « profil » en matière de santé, vos prédispositions ; de suivre vos habitudes de vie et votre croissance pour finalement prédire avec certitude quelle maladie ou accident de santé vous subirez et à quelle date précisément. Cette application du Big Data à la médecine est évidemment le challenge des chercheurs, d’ores et déjà en cours de développement.
Cela n’est pas du Big Data, mais notez qu’il y a quelques mois, aux États-Unis, un homme d’une soixantaine d’années a compris qu’il allait être victime d’une crise cardiaque avant d’en ressentir le moindre symptôme, et ce grâce à sa montre connectée aux battements de son cœur. Comme quoi, les nouvelles techno’ au service de la médecine sont en plein boom.
Big Data et transhumanisme
Prévenir les maladies, vaincre la mort : ces challenges sont des idéaux chers aux transhumanistes, personnalités dont la pensée prône l’innovation technologique au profit de l’homme « amélioré », où la maladie, la souffrance physique et même la mort ne seraient pas une fatalité. En droit de modifier son séquençage ADN et les membres de son corps, l’Homme serait un prototype en perfectionnement continu, dans sa version 2, sa version 3, etc.
Dans ce contexte, la maitrise du Big Data (notamment pour son aspect prédictif) a son rôle à jouer et cela tombe bien, nos GAFA y croient et investissent massivement en ce sens, donnant lieu à un mouvement de panique auprès des bio-conservateurs ou simples sceptiques quant aux conséquences de jouer à Dieu. À titre d’exemple, Google a créé Calico, société spécialisée dans la recherche sur les maladies liées au vieillissement. Il est aussi actionnaire dans des startups des nouvelles techno’ appliquées au secteur médical, dans le séquençage ADN et la robotique. En 2013, il embauchait Rey Kurzweil, chercheurs de renom et représentant hyper médiatisé du transhumanisme, pour plancher sur les intelligences artificielles, les cerveaux numériques, l’apprentissage automatique des machines…
Du machine learning au deep learning : contextualiser les données pour des résultats plus performants
Nous l’évoquions plus haut, Watson, le programme capable de diagnostiquer des patients, est un système basé sur l’apprentissage, soit le machine learning. Ici, ses algorithmes améliorent le résultat escompté (ou sa précision) à force de réaliser la tâche pour laquelle ils sont programmés. Le machine learning est un programme qui devient de plus en plus performant à force d’entraînement.
Aujourd’hui, le machine learning devient deep learning, soit apprentissage profond. Les programmes informatiques sont développés sous forme de structure qui s’apparente à un réseau de neurones. Chaque « neurone », appelé unité, sert d’entrée de calcul aux couches d’unités suivantes, etc. permettant une analyse plus « profonde », soit plus contextuelle des données.
Machine ou deep learning, c’est la masse d’informations qui permet la réussite de l’analyse ; nos données sont la nourriture des intelligences artificielles (IA). Avec un volume en constante augmentation, des algorithmes capables d’analyses de plus en plus pointues, vous obtenez… Affaire à suivre ! Et les débats sont d’ores et déjà ouverts.
En attendant, pour la prochaine étape, sachez que Google a annoncé vouloir se lancer dans le Big Data appliqué à l’agriculture. Cette ambition n’est pas étonnante puisque les données en la matière sont de plus en plus conséquentes : drones pour survoler et analyser l’état des sols, applications Web et objets connectés à destination des agriculteurs…
Quant à la protection de nos données personnelles dans un tel contexte, nous ne pouvons qu’entrevoir les conséquences d’éventuels piratages à grande échelle.
Commentaires récents