#Prédiction n°14
La technologie cognitive sera le nouveau buzzword.
« Pour beaucoup d’entreprises, le lien entre l’informatique cognitive et analytics vont devenir synonymes autant que le sont aujourd’hui analytics et Big Data. »
Il y a là nécessité à reformuler et à préciser de quoi parlent exactement les pythies de Forbes.
(Quoique si on connait ses classiques, on sait que les oracles ont toujours été sibyllins…)
Aujourd’hui, le mariage à la mode est donc celui de l’analytics et du big data. C’est un mariage de raison car le Data Analytics, en tant que science consistant à examiner des masses de données brutes dans l’objectif d’en tirer des enseignements opérationnels et stratégiques pour l’entreprise permet donc de prendre les meilleures décisions.
Si on veut entrer un petit peu dans le détail, on distingue 2 grandes approches : l’Exploratory Data Analysis (EDA) ou analyse de donnée exploratoire qui a pour vocation de découvrir de nouveaux éléments dans les données et la Confirmatory Data Analysis (CDA) ou analyse de données confirmatoire qui permet de prouver si des hypothèses existantes sont vraies ou fausses.
La discipline de base (et ancienne) qu’est l’Analytics a également donné naissance à toute une descendance, plus ou moins légitime : analyse prédictive, analyse prescriptive (on a déjà traité le sujet), analyse en temps réel, l’«advanced » analytics, etc.
Tout cela relève aujourd’hui de l’évidence et beaucoup de ces technologies sont utilisées au quotidien et maitrisées par des ressources très compétentes.
Alors, informatique/technologie cognitive, juste un nouveau buzzword ?
Oui et non.
Oui parce que, finalement, ce terme est un des nombreux avatars sémantiques de l’Intelligence Artificielle.
Non parce que, justement, cela correspond à une tendance technologique bien réelle, de plus en plus indispensable face au déferlement exponentiel des données.
L’informatique cognitive vise, théoriquement, à reproduire le fonctionnement du cerveau humain, essentiellement en ce qui concerne le processus d’apprentissage. Le machine learning en est donc sa composante principale (même si certains puristes diront que c’est l’inverse).
Il était donc parfaitement logique et inéluctable que le traitement et l’analyse des données soient dépendants de technologies visant à accélérer les processus et à prendre en compte des volumétries en augmentation constante.
Qu’est-ce que cela implique concrètement pour les entreprises ?
Pas grand-chose pour celles qui sont déjà avancées sur le sujet : les compétences (analystes, data scientistes, CDO) sont déjà en place, les investissements sont faits ou prévus, la culture de l’entreprise vis-à-vis de la data est mature, les ajustements se feront donc à la marge.
Pas grand-chose non plus pour celles qui ont du retard car le fossé sera tout aussi difficile à combler qu’avant.