Suisse: il manque 20’000 Data Scientists !

La révolution actuelle du digital se caractérise par l’importance des données et leur maîtrise par les Data Scientists.

image

En Suisse, et notamment dans le domaine de la Santé, ils font massivement défaut!

On peut estimer le manque à 20’000 Data Scientists (aux USA, selon IBM, il en manquerait 1 million).

Qui va sonner l’alarme en Suisse!

En attendant essayons de bien comprendre l’enjeu…. je vous propose donc une courte introduction à la problématique:

Quelles soient structurées ou non, les données deviennent une grosse composante de toutes entités économiques, non seulement parce qu’elles sont créées en très grand nombre mais surtout parce que l’on dispose aujourd’hui d’outils permettant d’effectuer des analyses signifiantes en termes de qualités prédictives. En quelque sorte, les données commencent à « parler » et de plus, elles sont récoltées en grand nombre et sont « signifiantes ».

Pour bien comprendre ce phénomène, il est nécessaire de s’attarder quelques peu sur deux éléments forts qui ont fait changer notre rapport aux données: Le « Big Data » et le « Data Driven ».

1.- Le Big-Data, c’est ce déluge d’informations (de données non-structurées) dont parlait « the Economist » il y a déjà quelques années (25 février 2010). En peu de temps, nous avons collecté et stocké plus de 90% de l’ensemble des données jamais produites dans l’histoire humaine. Inimaginable. C’est ce que l’on appelle les Big-Data! Les On-line Data, les blogs, les tweets, les news, les notifications, les données de géolocalisation, de tracking d’activités, de diagnostic santé ou quantified-self, de e-commerce , etc. Cela est sans fin …on collecte tout et n’importe quoi. On produit toujours plus de données et nous sommes qu’au début du processus, car l’Internet des Objets va engendrer encore plus de données notamment celles qui seront produites entre robots, entre bots et autres algorithmes. Bref, comment tirer profit de cet amoncellement de données de base (raw data) ? Pouvons-nous apprendre quelque chose de ces données? Y a-t-il des caractéristiques intrinsèques (pattern) propres aux données qui pourraient servir la science, la gouvernance, la médecine, l’économie, etc. C’est ce que le Data Scientist, le Data Analytic ou le Data Mining essaient de découvrir.

Plus encore que le stock de données, c’est peut être dans la lecture du flot de données que des renseignements précieux vont nous parvenir! Si nous pouvions apprendre quelque chose sur l’avenir en lisant et interprétant le flot de données alors nous parviendrions à un nouveau niveau dans le calcul des prévisions.

2.- Le Data-Driven est justement cette démarche empirique et pragmatique qui se base sur les flots de données pour la gestion des systèmes d’information, des organismes étatiques, non-étatiques ou des entreprises. Ainsi la société digitale est d’abord caractérisée par les données puis par les algorithmes de traitement de celles-ci. Contrairement à la phase précédente d’automatisation et de robotisation des tâches humaines qui revenait à demander aux machines de réaliser automatiquement certaines travaux que l’homme effectuait auparavant… ici on évoque quelque chose de plus abstrait: la donnée. Quelles soient structurées ou non, les données doivent être collectées et surtout être traitées si possible en continu aussi!

Dès lors et même si ces dernières sont finalement stockées dans de grandes bases de données (Big Data), les données, tout comme les informations non structurées, vont composer une sorte de flux continu qu’il devrait être possible de comprendre instantanément à condition de disposer des outils adéquats.

Aujourd’hui, ces outils modernes d’analyses existent et permettent d’interpréter quasiment en temps réel ce flux de données ou d’informations en améliorant ainsi considérablement les processus décisionnels des entreprises ou des organismes étatiques. L’aide ainsi apportée par ces nouveaux outils concernent aussi d’autres domaines de l’activité humaine comme les processus de recherche (Google, Amazon, etc.) mais aussi de production, de marketing et de logistique pour ne citer que quelques domaines. Tout devient ainsi à flux tendu (ou continu) donnant au passage de nouvelles capacités prédictives aux structures dirigeantes qu’elles soient politiques, entrepreneuriales ou autres.

Regardons un instant ce qui est réellement en train de change.

D’abord, on voit bien que ce monde connecté va produire une quantité inimaginable de données, de renseignements et de connaissances nouvelles qu’il va bien falloir stocker, intégrer et analyser si possible – en temps réel – sinon cela ne servira pas à grand chose.

Le problème est dès lors bien posé: il suffirait d’appliquer une procédure de maîtrise des données! Ceci passerait par la mise en place dans les entreprises et les organisations gouvernementales d’une méthodologie systématique qui aurait comme tâche de faire fonctionner correctement cette nouvelle approche que l’on peut résumer simplement en cinq étapes:

1.- Créer un système complet d’information capable de recevoir des quantités considérables notamment non structurées (stockage)


2.- Mettre en place un réseau de capteurs physiques ou virtuels qui soient en mesure d’absorber ce flux massif et continu de données (captation)


3.- Maîtriser les outils d’analyse et de visualisation de ce flot de données tout cela temps réel (analyse)


4.- Inventer les nouvelles procédures de décision qui découle logiquement de cette nouvelle approche (assistance en intelligence artificielle)


5.- Réinventer un arsenal des procédures de contrôle, d’autocorrection ou de feedback afin de garantir une bonne gouvernance (gouvernance)

Par Xavier Comtesse
http://www.hebdo.ch/les-blogs/un-tsunami-num%C3%A9rique-r%C3%A9volutionne-la-sant%C3%A9/suisse-il-manque-20000-data-scientists

Publicités