7x Anticiper 7x Inspirer 7x Décrypter 7x Savoir 7x Faire 7x Recommander 7x Surprendre
Recevoir la newsletter 7x7

Le casse-tête économique du Big Data

Anticiper Par Bertrand Jouvenot 17 avril 2018

Le casse-tête économique du Big Data

Le big data : des données éparpillées, façon puzzle. 

istock
1 2 3 4 5 6 7

Nous entrons dans l’ère des zettabytes… mais nous ne savons pas vraiment nous en servir. Si vous n’avez rien compris à cette phrase, c’est normal. Comprendre le big data, c’est pas donné. Mais on va tout vous expliquer. 

Le big data est tout. Le big  data est partout.

Les mégadonnées (c’est comme ça qu’on devrait dire en français) s’immiscent dans la présidentielle. Emmanuel Macron s’en inspire pour affiner son positionnement. Il a fait traiter par les algorithmes de la startup parisienne Proxem les 100 000 conversations recueillies par les militants de « En Marche ! ».

Le big data, c’est aussi une denrée de choix pour les hackers. Les données de 500 millions de personnes piratées sur les comptes Yahoo, spotify, AirBnb, Amazon, ebay étaient on ne peut plus appétissantes…

Mais le big data, c’est si compliqué à manier qu’on finit par le transformer en réalité virtuelle pour tenter de le comprendre…

Big data ? Big problème surtout ! 

1 Le big data ne se compte plus

On parle donc de big data. Les chiffres sont là. Ils s’expriment dans des unités encore inconnues du grand public, pour la plupart d’entre elles, tant les volumes sont considérables : millions, milliards, trillions, quintillions, décillions, exilions, myrillions[i].

Entre exabytes et yotta (qui équivaut à un septillion), nous serions à l’aune de l’ère des zettabytes. Nous voilà perdus. Autant de mots qui décrivent une réalité, un nouveau monde vers lequel nous nous acheminons, dont les dimensions sont encore méconnues.

Un nouveau champ d’étude s’ouvre alors aux scientifiques. Le simple problème de la quantification, de la mesure et de son expression, deviennent des questions scientifiques en soi. Sans parler des autres questions que le big data introduit.

[i] Selon que l’on se base sur le système de Nicolas Chuquet, la normalisation de Conway et Wheslher, les systèmes d’Archimède, de Gillion, de Myriade ou de Gogol, etc.

2 Le big data interpelle les économistes

Un peu désarmés, sans disposer nécessairement de toutes les mesures et de toutes les données nécessaires, les économistes du monde entier s’attaquent à la question de l’impact du big data.

Le paradoxe est flagrant, le big data ne fournit pas encore de données sur lui-même. Du moins pas assez pour dégager une réponse consensus à une nouvelle question : longtemps vus comme une source de progrès infini, le digital en général et le big data en particulier, auront-ils des effets positifs ou néfastes sur l’économie ?

Il convient donc de comprendre comment le digital pourrait engendrer des effets économiques plus négatifs que positifs, ou l’inverse, avant d’examiner le rôle que la data jouera dans cette dynamique.

Mais nul à ce jour n’est en mesure d’apporter une réponse claire et surtout chiffrée. Des acteurs comme IDC ou Cisco se hasardent à avancer des chiffres. Mais ces derniers restent trop globaux. Lorsque Cisco annonce que le trafic mondial sur Internet s’est multiplié par douze en cinq ans, de 2006 à 2011, atteignant les 23,9 exabytes, ou qu’IDC  estime qu’il y avait 2,7 zettabytes, ou 2,7 sextillion de bytes de données digitales dans le monde en 2012, nous ne sommes guère plus avancés.

Certes le digital constitue un nouveau territoire rempli de promesses de richesses, mais il nous faudrait en savoir davantage. Les explorateurs partis à la découverte des Etats-Unis ne se contentèrent pas de revenir avec des mesures sur les dimensions de ce nouveau continent à exploiter, mais fournirent de précieuses informations sur la nature du pays, précisant si telle ou telle partie était habitable ou non (le désert du Nevada ne l’est pas par exemple), cultivable ou non (les Etats-Unis comptent des zones montagneuses), constructibles ou non (les zones marécageuses ne manquent pas dans certains Etats américains), etc. Il en va de même pour le big data. Les volumes globaux n’informent pas suffisamment sur l’exploitation qui pourrait être faite des données.

3 Les économistes réveillent Joseph Schumpeter

Le digital et le big data posent plusieurs questions à la théorie économique classique.

Tout d’abord, ils nous interrogent sur la validité de la théorie de la destruction créatrice de Joseph Schumpeter, selon laquelle le processus de disparition de secteurs s’accompagne de la création de nouvelles activités économiques. Si la disparition de l’industrie des fabricants de cire, utilisée pour l’éclairage à la bougie, a été remplacée par celle de l’ampoule électrique, il n’est pas encore démontré que les entorses faites par le digital à certaines industries (comme celles des biens culturels ou des médias…) le soient par une nouvelle industrie plus créatrice de valeurs que la précédente.

4 Le big data se heurte de plein fouet à la théorie économique

La gratuité annoncée de la data, son hyper-disponibilité et la démocratisation des moyens pour la collecter, la traiter et la rendre exploitable, semblent sonner le glas de la monétisation de la donnée.

L’open data pose un problème économique vertigineux : comment serait-il possible de vendre ce qui est gratuit ?

De plus, l’accroissement infini du volume des datas disponibles, couplée à l’idée que la data sera source de création de valeurs, heurte de plein fouet une loi économique connue de tous : plus un bien est  rare, plus sa valeur est accrue. Or si les données se font de moins en moins rares, comment pourraient-elles voir leur valeur augmenter ?

5 Les mathématiques peuvent-ils encore permettre de quantifier le big data ?

Friands de mathématiques, les économistes aiment les modélisations.

Alors emboîtons leur le pas au sujet du big data avec par exemple cette question basique : quel est le prix unitaire de la data ?

Si les données se veulent être au cœur de l’économie de demain, le pétrole qui alimente le moteur des entreprises et de nos sociétés, il convient de se poser la question.

Nous ne nous hasarderons pas à y répondre, nous efforçant de poser les termes de la question, ce qui s’avère une entreprise déjà ambitieuse en soi.

Pour commencer, il faudrait un système d’équation, certes simple, mais dont la résolution repose sur la détermination de la valeur de quatre inconnues :

a : nombre total de data à un instant t.

b : nombre total de data commercialisables

c : nombre de data commercialisées

d : chiffre d’affaires total de l’industrie de la data

e : prix unitaire de la data

Un système d’équations dont la formulation serait la suivante :

a > b

b > c

d/c = e

c x e = d

Soit un système d’équations à cinq inconnues qui risquent de le rester.

6 Les data échapperaient à la quantification ?

Plus besoin de trillions et encore moins de myrillions ou autres zillions pour quantifier le web, le monde digital et ses data. Tout au contraire. Nul besoin non plus d’une calculatrice pour estimer que le prix unitaire de la data serait un chiffre commençant par 0 et composé de très nombreuses décimales après la virgule.

Mais par-delà cette première conclusion, sans doute hâtive, d’autres questions se bousculent déjà :

·     Quel est le prix moyen d’une data ?

·     Le prix moyens de la data tend-t-il à diminuer ou à augmenter ?

·     Quel est l’écart type entre la plus chère des donnés et la moins chère d’entre elles ?

·     Qu’est qui justifie que la plus chère des données le soit ?

·     Quelle est cette donnée ?

·     Quelle sera-t-elle demain ?

·     A quelles conditions une donnée n’est pas ou n’est plus commercialisable ?

Etc.

7 Le pétrole de demain n’a pas de prix

Réfléchissons et travaillons scientifiquement en attendant, qui sait, l’équivalent des chocs pétroliers des années 70 qui virent le prix de l’or noir grimper, mais qui cette fois ci seront des Data Chocs rendant l’usage des données plus prohibitifs.

Charge aux entreprises, aux Etats et aux nations d’anticiper les conséquences d’une dépendance croissante de leurs économies à la data, dans un monde où certains acteurs privés, parce qu’ils concentrent et détiennent une part importantes des données utiles, pourraient, inspirés par ce que fit l’OPEP dans le passé, se comporter en cartel de la data. 

Commentaires

Nous suivre

Facebook black Twitter black Linkedin black
Partager Linkedin white Facebook white Twitter white Email white Plus white