Le big-data, c’est pas du pétrole !

image

La donnée est le nouvel or noir de notre époque, matière première de nouveaux modèles économiques, et enjeu octetique au coeur des nouvelles stratégies digitales. Parlons donc extraction… de valeur.

“le big data, du pétrole digital”
Vous avez sûrement déjà entendu cette formule qui circule régulièrement dans la sphère tech. On imagine des gisements de données brutes bien au chaud dans des data centers, qui ne demandent qu’à être forés pour faire jaillir les data-dollars, la ruée vers le bytegold où les entreprises en quête de transformation digitale exploitent leur Data Lake pour diffuser une nouvelle source d’énergie et de revenus avec des 1 et beaucoup de 0 (avant la virgule) !

Comparer la donnée à du pétrole, c’est vouloir sensibiliser à l’enjeu économique que représente le big data dans les prochaines années. Mais si on effectue un petit forage intellectuel, ce postulat peut porter à confusion et décaler la réflexion des vrais enjeux du big data.
Le pétrole est une source d’énergie présente en quantité limitée dans notre écosystème terrestre, l’exploitation des gisements en fait par définition diminuer les réserves disponibles qui sont aujourd’hui estimées à environ 50 ans. Cette ressource a donc tendance à se raréfier, et son exploitation coûtera de plus en plus cher ce qui fera augmenter le prix du pétrole et par extension sa valeur.
L’abondance exponentielle de la donnée

La donnée n’a pas tendance à se raréfier, au contraire la quantité de données ne cesse d’augmenter de façon exponentielle. C’est d’ailleurs pour cela que l’on parle de Big Data. 80 milliards d’objets seront connectés en 2020, soit 15% de tous les objets. Ils ne représenteront qu’une quantité infime des datas générées. Chaque jour, nous créons 2,5 quintillions octets de données (2 500 000 000 000 000 000), et 90 % des données dans le monde ont été créées dans les 2 dernières années. Si on gravait toutes ces informations sur des CD on serait capable de construire 5 tours reliant la terre à la lune.
La valeur de la donnée n’est donc pas, comme pour le pétrole, relative à sa quantité. Les organisations qui détiennent des données ont pourtant tendance à penser que leur richesse va dépendre de leur thésaurisation.
En réalité ce qui augmente la valeur de la donnée c’est sa circulation et son exploitation. Le stock est même plutôt un problème, car l’infrastructure des données va devenir de plus en plus complexe, technique et donc onéreuse. Il s’agit même déjà de faire le tri entre les données à conserver et celles qu’il faut détruire. À ce jour plus de 95 % des données ne sont pas exploitées.
Les gisements de données brutes ne valent donc pas grand chose au regard de leur accroissement exponentiel qui entraîne leur déflation naturelle, la planche à billet numérique tourne trop fort et la dévaluation est systémique.
La vraie valeur se trouve dans l’exploitation à 3 niveaux : structurer et faire circuler les données de façon sécurisée, les transformer de façon intelligente, les redistribuer de façon contextuelle.
Structurer et faire circuler les données.

Ouvrir ses données ne signifie pas “donner ses données”. Il s’agit de les faire circuler dans des écosystème qui vont leur permettre de prendre de la valeur. C’est ma définition de l’open data.
Posséder des données, ce n’est pas systématiquement être capable de leur donner cette valeur, c’est une expertise qui vient d’autres écosystèmes dont il faut se rapprocher, et pour cela il faut canaliser et s’ouvrir vers ces écosystèmes. Car la valeur des données peut augmenter si elles sont associées à d’autres données. L’ouverture consiste donc à générer des flux, de façon sécurisée, pour permettre à vos données d’être exploitées et associées à d’autres données issues d’autres flux.
Transformer la donnée

Sans algorithme, la data n’est rien.
“Il est très difficile de savoir ce qui relève de la donnée ou de son traitement. Les algorithmes mangent de la donnée et produisent une autre donnée, il existe donc une relation ambivalente”. Louis-David Benyayer, co-auteur du livre Datanomics, les nouveaux business models des données précise qu’il s’agit en effet d’une réalité indissociable. Avoir des données en grande quantité sans avoir de capacité de traitement ne permet que de vendre de la donnée au poids, d’être data broker. “L’algorithme et le traitement de la donnée sont des coefficients multiplicateurs de valeur. Inversement, avoir un algorithme parfait, très puissant, sans utiliser des données massives n’a pas beaucoup de valeur.”

Marc-Antoine Navrez,  CEO de Tymate

https://medium.com/france/le-big-data-cest-pas-du-p%C3%A9trole-e87ef43e74c0#.vefcmuf2a

Publicités