Comment générer plus de revenus en entreprise grâce à l’analyse des données?

L’analyse des données est-elle clé ?

Nous sommes dans les premiers temps du stockage et de l’exploitation des données de masse. Dans ce contexte, le terme ‘analyse de données’ peut avoir des significations très différentes. Cela peut aller de simples graphiques de présentation des données jusqu’à des outils de prédictions sophistiqués.  

De manière pragmatique, l’analyse de données est peut-être définie de manière optimale comme « la capacité à générer de la valeur à partir de l’information ».

Comment peut-on mesurer la valeur générée (ROI) à partir des données ?

Le retour sur investissement obtenu à partir de l’analyse des données peut être décrit de la même manière que le retour sur investissement de tout autre projet: en termes de coût et de revenus supplémentaires générés.

Les coûts peuvent être mesurés de manière traditionnelle :

  • Les dépenses,
  • L’investissement en propriété intellectuelle, c’est à dire en efforts fournis à partir de compétences et de savoirs clés,
  • L’investissement en temps,
  • L’investissement en autres ressources, par exemple en infrastructure logicielle.

Donc au final, la valeur ajoutée créée peut être mesurée de manière traditionnelle aussi. C’est simplement la valeur supplémentaire ajoutée au produit final a partir du projet d’analyse de données mené à bien. La valeur créée peut varier en fonction des cas de figure et des cas d’usage.  Dans la plupart des cas Business, la valeur ajoutée créée est le revenu supplémentaire produit par l’activité d’analyse de données.

Dans d’autres cas, il peut s’agir d’atteindre un objectif, comme la par exemple résoudre un problème spécifique.  Dans tous les cas, on peut calculer le ROI de l’analyse de données de la même manière que pour les autres activités non analytiques. 

Qu’est ce qui impacte le plus le ROI de l’analyse de données?

Cela dépend de la manière dont l’analyse des données sera utilisée. La plupart des initiatives en analyse de données se focalise sur la présentation des données et de leurs attributs. 

Mais lorsque les cas d’usage sont examinés plus en détail, invariablement, c’est l’objectif de produit final qui dicte les choix et le plan d’actions.

Dans cette optique, si on considère que l’analyse de données est une boîte noire, elle a une entrée (des données) et une sortie (une préconisation de choix ou d’action). Le retour sur investissement devient alors le ratio de ce qui entre dans cette boîte noire en temps/coûts/ressources et de la pertinence de ce qui en sort.

Le terme « Boîte noire » est utilisé de manière pédagogique, aux fins du présent article. « Boîte noire » représente ici simplement un outil d’analyse abstrait. Il n’est pas question de signifier qu’un outil donné fonctionne comme une boîte noire sans visibilité des fonctions et des éléments internes.

Que signifient concrètement les entrées en temps/coûts/ressources de cette « boîte noire » et la qualité de sa sortie (résultats) ?

La question la plus importante est celle de la qualité des résultats générés par l’analyse de données. Si la création de valeur générée par ces résultats n’est pas significative, le reste de cette équation n’a pas d’importance. Dans ce cas, on ne peut pas rentabiliser l’analyse de données indépendamment des coûts.

Le deuxième problème est celui de l’évaluation de l’ensemble temps/coût/ressources requis pour créer une « boîte noire » d’analyse de données. Ces facteurs impactent différents aspects des projets d’analyse de données.

Il y a d’abord les coûts, qui ont un impact majeur sur le retour sur investissement effectif. Si ces coûts sont significatifs, la valeur ajoutée créée doit être un multiplicateur de ces coûts. C’est la seule solution pour avoir un retour sur investissement acceptable a minima et réellement créer de la valeur. Cela rend la réussite en matière d’analyse de données beaucoup plus compliquée. Cela réduit également l’éventail des solutions  d’analyse de données financièrement viables et exploitables en élevant la barre en termes de coûts.

Ensuite, il y a les besoins en ressources. Si la boîte noire a des exigences complexes, cela limite son application à la disponibilité de ces ressources (par exemple, le matériel informatique, les experts du domaine, les experts en matière d’analyse/statistique, etc. ). Dans ces cas, même si les coûts ne sont pas un souci et que le résultat est suffisamment intéressant, l’analyse de données n’est pas utilisable de manière versatile. 

Le dernier facteur à prendre en compte est le temps. Le plus souvent dans un projet d’analyse de données, le temps est la clé de voûte de l’édifice. En business, le temps de réaction à un changement dans l’environnement marché peut faire la différence entre des entités concurrentes. Dans certains cas, la valeur des données diminue rapidement avec le temps. S’il n’est pas possible d’extraire et d’exploiter la valeur des données avant cette date limite, l’analyse des données ne créera pas de valeur.

Les délais de traitement et d’analyse des données limitent le volume de projet gérables. Si on prend peu de temps pour générer des résultats, on peut couvrir un plus grand spectre de projets. Cela permet d’augmenter le nombre d’opportunités qui peuvent être explorées et exploitées, et éventuellement de les analyser en profondeur.

Comment évaluer un outil au regard de ces éléments ?

Il existe de nombreux outils pour analyser les données. Ils offrent différents niveaux de fonctionnalités. Certains se concentrent sur les aspects numériques, d’autres sur la partie visualisation. On peut se perdre parmi les fonctionnalités, les outils et les process. Il est important de garder à l’esprit que, une boîte noire parfaite et idéale consisterait à prendre en entrée les données, à fixer un objectif et instantanément, à obtenir un excellent résultat sans aucune autre intervention ou expertise requise par l’utilisateur.trice. En fait, dans l’idéal, une telle solution pourrait même être utilisée de manière totalement autonome par tous les usagers.

Il a donc été démontré clairement que si un outil génère un résultat de qualité, le retour sur investissement sera maximisé si le processus d’analyse est minimisé à l’extrême. Tout ce qui ne minimise pas systématiquement le temps, les coûts et les ressources est un frein au retour sur investissement des projets d’analyse des données.

Comment définir un « résultat qualitatif » ?

Un résultat qualitatif doit répondre à deux critères importants.

Le premier est qu’il doit être exploitable opérationnellement. Le résultat doit donner directement et immédiatement les informations nécessaires pour prendre des décisions opérationnelles sans autre considération ou analyse. Par exemple, si vous essayez de prendre des décisions d’arbitrage sur un marché financier, le résultat ne doit pas être composé de graphiques, de statistiques, de prédictions de prix, etc. Il doit fournir sans équivoque une décision à prendre telle que l’achat ou la vente.  S’il ne le fait pas, alors ce n’est pas une solution réellement exploitable. C’est la configuration dans laquelle, une partie du processus d’analyse reste à la charge de l’utilisateur qui doit interpréter les données intermédiaires, tirer ses propres conclusions et décider d’une ligne de conduite. Dans ce cas, il s’agit d’une lacune de l’outil d’analyse. Il laisse une partie du travail (et sans doute la partie la plus critique) à l’utilisateur.

Le deuxième critère auquel il doit répondre est d’avoir un niveau de précision permettant une analyse plus pertinente que s’il n’y avait pas d’effort d’analyse des données. Prenons par exemple un processus de contrôle qualité où l’analyse des données a pour objectif d’augmenter la qualité de la production et les rendements de fabrication en réduisant le nombre d’unités défectueuses produites. L’état de l’art peut être 10 unités défectueuses sur 100 produites. Si grâce aux actions prises suite à l’analyse des données, on réduit ce chiffre à 5, cela réduit le taux de défaillances de 50 %. Un tel résultat répondrait aux critères selon lesquels le résultat apporte un bénéfice au-delà de l’état de l’art.

Comment savoir dans quelles technologies trouver ces caractéristiques ?

La première chose est de savoir s’il existe un(des) outil(s) qui produisent un résultat de qualité exploitable à partir de données d’entrée et d’un objectif donné (une question posée).  Comme mentionné précédemment, si un outil ne correspond pas à ces critères, alors il ne constitue pas une solution viable.  Au mieux, il est sous-optimal.

Et TADA ?

Au regard de ce qui a été énoncé jusque-là, TADA est une excellente solution. TADA dispose d’un algorithme d’analyse de données central, unique et exclusif. Il fournit des résultats de grande qualité utilisables dans un large ensemble de cas d’utilisation. Il minimise activement le temps, le coût et les ressources. TADA occupe donc une position unique et à haute valeur ajoutée. Dans la myriade de solutions d’analyse disponibles aujourd’hui, peu, voire aucune, n’égale TADA au regard de ces caractéristiques essentielles à une analyse à haut retour sur investissement. Il est difficile d’arriver à une conclusion autre que: « Oui, TADA est clé. En effet, il est extrêmement pertinent« .

Share
Partager sur linkedin
Partager sur twitter
Partager sur facebook
Donnez du sens à
vos données

Testez TADA avec nos jeux de données

Vous pourriez également aimer...

Apprentissage semi-supervisé pour la classification des documents

Une main travaille sur un tableau futuriste

Quels sont les usages de l’IA ?

Un homme travaille sur son ordinateur

Qu’est ce que les algorithmes évolutionnaires ?