Big data et panels, un nouveau défi pour l'intelligence humaine

Publié le 29 Août 2013
Pas un jour ne passe, sur le Web, sans qu’il soit fait mention de la révolution que constitue l’accès aux «Big Data». Grâce au numérique, on dispose en effet de volumes de données considérables, qu’il faut savoir stocker et traiter. Quel peut-être l’impact de ce changement de paradigme pour l’industrie de la publicité, du marketing, des médias et des études ? Les modèles d’analyse et de prévision sont-ils vraiment bouleversés ? Lorsque l’on se penche sur la réalité de ce changement technologique, comme a permis de le faire le séminaire organisé par l’IREP le 30 mai 2013, on nuance quelque peu l’ampleur de cette révolution. La seule question qui vaille, comme le signale Philippe Tassi, Directeur Général Adjoint de Médiamétrie et membre du Conseil scientifique de l’IREP, n’est-elle pas de savoir si, ou plutôt à quelles conditions, « bigger » signifie véritablement « better » ? Voici l'analyse de Florence Bourgade, de Mediametrie.


Le changement de paradigme de la donnée

L’accès à des données exhaustives sur un objet d’étude particulier n’est pas en soi une nouveauté. C’était même la règle qui prévalait jusqu’à la fin du XIXe siècle, rappelle Florence Bourgade. Ce n’est qu’en 1895 que, le premier, Anders N. Kiaer, directeur de la Statistique du royaume de Norvège, expose les avantages de l’échantillonnage sur le recensement, à partir du cas de son pays, et en 1925 que la Commission Jensen confirme officiellement le bien-fondé et l’efficacité de cette approche. En 1936, George Gallup, élève du grand théoricien des sondages qu’est Jerzy Neyman, prévoit l’élection de Roosevelt à partir d’un échantillon de 3 000 personnes, à l’encontre de la méthode artisanale dite des « votes de paille ». Par le gain de temps et d’argent qu’il permet, l’échantillonnage s’impose alors comme la méthode de référence statistique du XXe siècle dans tous les domaines d’application.

À la fin du XXe siècle, grâce au numérique, on dispose de bases de données dont la volumétrie était jusque-là inimaginable. Les « Big Data » se présentent ainsi comme un retour possible à une forme d’exhaustivité. Non seulement l’étendue des données recueillies est considérable, mais leur fréquence peut aller jusqu’au temps réel. On observe tout et tout le temps. Les « Big Data » tirent leur intérêt, et la difficulté de leur traitement, de la capacité du numérique à fournir de gros volumes de données en instantané.


Des données enrichies

Il est aujourd’hui possible de connaître, par exemple, le nombre exact de visites d’un site, à chaque instant. Ces données, qui relèvent des « Big Data », ne peuvent néanmoins pas se substituer aux mesures par échantillonnage. Les informations fournies sont différentes, elles se complètent et se précisent l’une l’autre. Les panels apportent des indications très précieuses sur les individus et leurs comportements. Les « Big Data » offrent, quant à elles, des volumes d’informations considérables mais non structurées. Pour la mesure d’audience, réussir à traiter les « Big Data », c’est trouver le modèle qui permette de combiner ces deux types d’informations, pour fournir une mesure plus riche et plus précise.

Médiamétrie a ainsi mis en place de nouvelles mesures, pour l’Internet mobile et pour l’audience d’Internet fixe, tenant compte des apports de l’échantillonnage comme de l’exhaustivité. L’accès aux services Internet via le téléphone mobile prend appui sur l’exploitation des fichiers de logs des opérateurs. Ces données sont qualifiées par le suivi d’un panel de 10 000 personnes pour en enrichir l’analyse. Pour l’Internet fixe, l’approche choisie est celle dite « Panel-up » : c’est l’échantillonnage qui est le socle de la mesure. L’information exhaustive apportée par les « Big Data » est considérée comme une variable auxiliaire, qui permet d’améliorer l’étude. La mesure hybride de type panel-up est, depuis septembre 2012, la référence pour l’Internet fixe en France.


Big Data et modélisation : des perspectives immenses

Ce sont donc bien de nouveaux modèles pour l’analyse de données que suscitent les « Big Data ». Aux traditionnelles fonctions de l’analyse de données que sont les visées descriptives, explicatives et prévisionnelles, s’ajoute, sous l’effet des « Big Data », la nécessité de tirer au mieux parti de ces nouvelles indications, pour enrichir d’autres sources d’information, calibrer des observations, ou identifier des potentialités, grâce à des modèles statistiques et probabilistes toujours plus fins.

Le traitement de ces données et l’invention de ces modèles requièrent des compétences nouvelles et, par conséquent, de nouveaux métiers : les « data scientists » travaillent avec de nouveaux prestataires et de nouvelles organisations informatiques, capables d’assurer le stockage et le traitement instantané de très importants volumes de données.

Mais n’allons pas croire que les « Big Data » signent la victoire du modèle mathématique sur toute autre approche. Le plus gros risque serait de s’en remettre intégralement à des modèles, toujours faillibles (comme ont pu le montrer les modèles financiers), met en garde Florence Bourgade. Plus que jamais, sans doute, l’ampleur des données auxquelles le numérique donne accès sollicite l’intelligence humaine, ses capacités d’interprétation et son recul toujours indispensable par rapport aux contenus qu’on lui soumet, sinon même son éthique. Avec les « Big Data », c’est tout un champ d’analyse qui s’ouvre, pour les statisticiens, dans les années à venir !
Contactez cette société ou un revendeur de ces produits.
Les 10 derniers articles
Les 10 derniers articles
schneider dellups
Services
Service 1 ITRnewsService ITRnews TECH DATA
Top 10Top 10 du jourTop 10 de la semaineTop 10 du mois
 La vidéo du moment
FlashITRmobilesITRgamesITchannel
Commentaires