Et si c’était les services publics qui tiraient le big data en France…

algorithmes

Selon une étude de CXP et Teradata, les services publics offrent un débouché privilégié pour le big data. Ils pourraient même constituer le moteur de banalisation de cette technologie dans l’ensemble de l’économie. Et, pour une fois, la France serait en avance dans ce domaine.

Le big data, on en parle surtout dans les entreprises. Pourtant c’est dans les services publics qu’il trouve le débouché potentiel le plus prometteur. Sa mise en œuvre bénéficierait non seulement aux opérateurs publics et aux usagers, mais aussi à l’ensemble de l’économie. C’est la conclusion du livre blanc « Les Big Data pour les services publics : enjeux, technologies et usages », publié par le cabinet CXP et le fournisseur de solutions de manipulation des données Teradata.

« Deux évolutions alimentent le big data, explique Emmanuel Lartigue, analyste au CXP. D’une part, la transformation digitale avec la numérisation de tous les services que nous utilisons comme la radio, la télévision ou le téléphone, et l’explosion des objets connectés. D’autre part, la personnalisation des services fournis aux usagers. L’État et le secteur public n’échappent pas à cette double révolution. »

La mine d’or des données publiques

Les opérateurs de services publics, comme les hôpitaux, les transporteurs, les fournisseurs d’énergie ou les opérateurs télécoms, disposent de grands gisements de données qui ne demandent qu’à être exploités pour améliorer les services rendus aux usagers. Il en va de même pour les ministères, les collectivités locales et les agences de l’État comme l’Insee, Pôle emploi, Météo France, la Coface (Compagnie française d’assurance pour le commerce extérieur), Ubifrance (Agence française pour le développement international des entreprises) ou encore l’INPI (Institut national de la propriété intellectuelle).

Les usages potentiels sont nombreux. Ce qui revient en premier, c’est la lutte contre la fraude (fiscale, cotisations sociales, TVA, allocations chômage…) estimée à 80 milliards d’euros par an en France. « Dans un contexte de disette budgétaire, le big data représente un enjeu important pour les finances publiques, affirme l‘analyste du CXP. En récupérant une partie du manque à gagner, l’État réduirait son déficit et se donnerait de la marge dans ses politiques économique et sociale. » Le tout pour un investissement en somme modeste. « En fonction des cas d’usage, il faut compter 500 000 euros à 2 millions de dépenses en solutions big data, estime Olivier Genin, directeur du secteur grand public chez Teradata en France. Autant dire que le retour sur investissement est très rapide. »

Un outil de contrôle, de productivité… et de confiance

Mais pour Emmanuel Lartigue, il faut dépasser l’approche « Terminator » qui vise à lutter contre les fraudeurs, les voleurs, les délinquants et autres menaces publiques. « Il faut passer à une approche positive visant à améliorer la qualité des services rendus aux usagers, conseille-t-il. C’est ainsi que le citoyen fera confiance à l’État et aux opérateurs publics dans l’utilisation de leurs données personnelles. » L’un des exemples des cas d’usage réside dans les villes intelligentes (smart cities) où les opérateurs acceptent de mettre en commun leurs données et les analyser selon un modèle prédictif qui améliore la mobilité urbaine, réduit la consommation d’énergie, optimise l’arrosage des espaces verts, prévient l’insécurité, diminue la pollution… Avec, au final, une meilleure qualité de vie pour les habitants et une gestion plus efficace des ressources publiques.

Paradoxalement, la France, considérée d’habitude à la traîne dans l’usage du numérique par rapport à des pays anglo-saxons comme le Royaume-Uni, serait en avance dans le big data. Selon une étude du cabinet PAC, 65 % des décideurs interrogés disposent de projets de mégadonnées en développement ou en production, contre 56 % outre-Manche et 47 % outre-Rhin. « Il y a une vraie conscience des enjeux du big data dans la sphère publique, note Emmanuel Lartigue. En témoigne la nomination d’un Chief data officer au niveau de l’État en la personne de Henri Verdier. »

un enjeu de souveraineté nationale

Reste à lever deux obstacles structurels spécifiques à la France. Le premier tient au fonctionnement de l’État et des services publics qui privilégie des cycles d’investissement longs de plusieurs années. « Dans le big data, il faut au contraire des cycles courts de moins de 6 moins, explique l’expert du CXP. Il faut accepter la culture du Fail Fast qui consiste à faire un essai rapide et en cas d’échec de passer à autre chose. » L’autre problème vient de l’offre de solutions big data sur le marché. Si l’offre française en outils d’analyse est foisonnante, les plateformes big data, comme les fameuses Appliances qui associent intimement matériel et logiciel, sont le monopole de fournisseurs américains. Peut-on en dépendre pour des services souverains sans risque de sécurité des données ? L‘analyste du CXP assure que non.

par Ridha Loukil 

Publicités