Toute l'actualité des entreprises et de l'économie en régions

Toute l'actualité des entreprises et de l'économie en régions

Societe.TechMétiersBusiness IntelligenceGlossaire de la Business Intelligence : lexique des définitions à connaitre

Glossaire de la Business Intelligence : lexique des définitions à connaitre

Consultez notre glossaire Business Intelligence pour connaitre tous les termes techniques, acronymes, abréviations et expressions utilisés dans le métier de la Business Intelligence . Ce lexique comprend toutes les définitions des termes clés (d’Analyse comportementale à Visualisation des Données) ainsi que des exemples pour améliorer votre vocabulaire ainsi que votre compréhension de ce domaine.

Dans un contexte économique où la donnée est devenue un actif stratégique, la Business Intelligence (BI) s’impose comme un levier fondamental de performance pour les organisations. Elle regroupe un ensemble de méthodes, d’outils et de processus destinés à collecter, structurer, analyser et restituer les données d’entreprise dans le but d’éclairer la prise de décision. Grâce à des technologies toujours plus accessibles et puissantes, la BI s’est démocratisée : aujourd’hui, les directions générales comme les services opérationnels peuvent s’appuyer sur des indicateurs fiables, visualisés en temps réel, pour piloter avec agilité leur activité.

Ce glossaire a pour ambition de fournir une vue d’ensemble des notions-clés qui composent l’écosystème de la Business Intelligence. Il rassemble les principaux termes techniques, les concepts d’analyse, les outils courants, ainsi que les méthodologies associées à la transformation des données en information utile. De l’analyse comportementale à la visualisation interactive, en passant par le data mining, les tableaux de bord ou encore les requêtes SQL, chaque définition est pensée pour apporter une compréhension claire, opérationnelle et contextualisée.

Analyse comportementale : L’analyse comportementale vise à prédire les intentions ou les futurs comportements d’un utilisateur à partir de ses actions passées ou de son profil. Très utilisée en marketing, elle permet de personnaliser les offres, anticiper les besoins ou détecter les risques (fraude, désabonnement, etc.).

Analyse multidimensionnelle : Elle permet de naviguer dans les données à travers plusieurs axes d’analyse hiérarchisés (par exemple : région > pays > ville). On utilise des opérations comme le drill down (vers le détail) ou le drill up (vers la synthèse) pour explorer les indicateurs selon différents niveaux de granularité.

Analyse Statistique : L’analyse statistique approfondit les premiers constats descriptifs en mobilisant des techniques de calcul probabiliste et d’inférence. Elle permet de comprendre pourquoi une tendance apparaît, de tester des hypothèses, d’identifier des relations causales ou d’évaluer la fiabilité des résultats. Elle constitue un fondement des analyses prédictives et décisionnelles fondées sur la donnée.

Analyse Visuelle : L’analyse visuelle combine exploration de données et narration en temps réel. Grâce à des interfaces interactives, l’utilisateur peut manipuler les données et observer les résultats immédiatement sous forme visuelle. Elle favorise l’interprétation intuitive et rapide, permet d’identifier des anomalies ou corrélations, et soutient la prise de décision agile dans les environnements dynamiques.

Analyses multipolaires : Ce type d’analyse permet une approche décentralisée du big data. Les données sont collectées et analysées dans différents points de l’entreprise, offrant ainsi une meilleure réactivité locale tout en maintenant une cohérence globale. Cela favorise l’agilité des équipes tout en enrichissant les analyses de perspectives diversifiées.

Analytique Descriptive : L’analytique descriptive se concentre sur la compréhension des faits passés à travers une première exploration des données. Elle répond à des questions telles que « que s’est-il passé ? », en s’appuyant sur des moyennes, totaux, fréquences ou agrégats. Cette approche constitue souvent le point de départ de toute analyse avancée, pour identifier les tendances et comportements récurrents.

Anonymisation : L’anonymisation est un processus visant à protéger la vie privée en supprimant ou modifiant les éléments permettant d’identifier une personne dans un jeu de données. C’est une mesure essentielle de conformité au RGPD et un moyen de concilier analyse de données et respect de la confidentialité.

Balanced Scorecard (Tableau de bord prospectif) : Le balanced scorecard est un outil stratégique de gestion de la performance reliant les objectifs financiers et opérationnels à des indicateurs spécifiques. Il intègre différentes dimensions comme les finances, les clients, les processus internes et l’apprentissage organisationnel pour une vision équilibrée de la performance.

Base de données : Une base de données est une structure organisée de stockage d’informations, accessible via des systèmes informatiques. Elle permet l’enregistrement, la recherche et la mise à jour de données structurées (clients, ventes, stocks…), nécessaires à la gestion quotidienne et à l’analyse de l’activité.

BI en libre-service : La BI en libre-service permet aux utilisateurs métier d’explorer et d’analyser les données sans dépendre de l’IT. À l’aide d’outils conviviaux, les utilisateurs peuvent créer leurs propres rapports et tableaux de bord, à condition de disposer de données fiables et validées en amont.

Big Data : Le Big Data désigne les volumes massifs de données générées à grande vitesse et en provenance de multiples sources. Exploité par des technologies avancées, il permet d’identifier des tendances, automatiser certaines décisions ou personnaliser des services. Il s’appuie sur les « 7 V » : volume, variété, vitesse, véracité, valeur, visualisation et variabilité.

Business Intelligence (BI) : La Business Intelligence désigne l’ensemble des technologies, processus et outils permettant de collecter, structurer, analyser et visualiser les données d’une entreprise afin d’orienter les décisions stratégiques. Grâce à des tableaux de bord interactifs et à des rapports dynamiques, elle permet aux décideurs d’exploiter des indicateurs fiables pour piloter leur activité en temps réel et améliorer la performance globale.

CRM (Customer Relationship Management) : Un CRM regroupe les outils et méthodes destinés à gérer efficacement la relation client. Il centralise les informations clients (historique, préférences, interactions) afin d’optimiser la prospection, la fidélisation et le service client, tout en renforçant la coordination entre les équipes commerciales et marketing.

Cube de données (Base OLAP) : Un cube de données est une structure OLAP permettant de stocker des mesures chiffrées selon plusieurs dimensions (temps, produits, régions…). Il facilite l’analyse rapide et flexible des données via des croisements dynamiques, pour répondre à des questions précises sur la performance ou les tendances.

Data Broker : Un data broker est une entreprise spécialisée dans la collecte, l’agrégation, l’analyse et la vente de données personnelles. Ces acteurs interviennent dans des domaines comme le marketing ciblé, l’évaluation de crédit ou la segmentation de marché, souvent sans relation directe avec les individus concernés.

Data Cleansing : Le data cleansing est le processus de détection et de correction des erreurs, doublons ou incohérences dans un jeu de données. Il s’agit d’une étape indispensable avant l’analyse, garantissant la fiabilité et la pertinence des résultats obtenus à partir des données nettoyées.

Data Mart : Le data mart est un sous-ensemble orienté métier du data warehouse. Il regroupe des données spécifiques à une fonction (marketing, RH, finance…) dans un but d’analyse ciblée. Il facilite l’accès rapide à des informations pertinentes pour un domaine précis, tout en allégeant la complexité d’un entrepôt de données global.

Data Mining : Le data mining est un ensemble de techniques statistiques et algorithmiques appliquées à de grands volumes de données dans le but d’identifier des corrélations, modèles ou tendances jusqu’alors insoupçonnés. Utilisé en marketing, finance ou gestion des risques, il permet d’extraire des connaissances décisionnelles à forte valeur ajoutée à partir d’informations brutes.

Data Point : Un data point représente une unité élémentaire de donnée dans un graphique ou tableau, correspondant à une observation unique (ex. : une vente effectuée un jour donné). Il constitue la brique de base des analyses statistiques, permettant de visualiser les tendances et les variations à travers différentes dimensions.

Data Quality : La qualité des données est la capacité à disposer de données précises, complètes, cohérentes et à jour. Elle conditionne la fiabilité des analyses décisionnelles. Les entreprises doivent mettre en place des processus de contrôle rigoureux pour éviter les erreurs, les doublons ou les incohérences.

Data Storytelling : Le data storytelling consiste à mettre en récit les données pour en faciliter la compréhension. En contextualisant les chiffres par des graphiques narratifs ou des scénarios parlants, il aide à captiver l’auditoire et à renforcer l’impact des messages décisionnels ou marketing.

Data Warehouse : Le data warehouse est une base de données centralisée spécifiquement conçue pour l’analyse décisionnelle. Il consolide des données issues des systèmes opérationnels, les historise et les structure de manière optimisée pour l’exploration via des outils analytiques comme l’OLAP ou le data mining. Ce dispositif permet une analyse transverse sur des périodes longues, facilitant la prise de décisions stratégiques.

Datavisualisation : La datavisualisation désigne l’art de transformer des données complexes en représentations graphiques claires (camemberts, histogrammes, cartes…). Cette discipline permet de rendre l’analyse plus intuitive et accessible, en facilitant la lecture, la compréhension et la communication des résultats, même pour les non-spécialistes des données.

Dimension : En analyse multidimensionnelle, une dimension est un axe de lecture des données structuré hiérarchiquement (ex. : temps, géographie, produit). Elle permet de regrouper, filtrer ou comparer les données selon différents niveaux (ex. : année > trimestre > mois), facilitant les vues détaillées ou synthétiques.

Données contextuelles : Les données contextuelles enrichissent les bases traditionnelles en reliant chaque information à un cadre ou une situation spécifique (heure, lieu, comportement…). Elles permettent d’interpréter les données de manière plus fine, notamment dans les analyses comportementales ou la personnalisation de l’expérience utilisateur.

ERP (Enterprise Resource Planning) : Un ERP est un progiciel de gestion intégré qui centralise l’ensemble des processus d’une entreprise (comptabilité, logistique, RH, production…) dans un système unique. Il favorise la cohérence des données, optimise les flux internes et améliore le pilotage global de l’organisation.

ETL (version étendue) : L’ETL dans sa version complète récupère des données de sources variées (bases, fichiers, API), les nettoie, transforme et enrichit (création de formats, vérifications, rejets) avant de les charger dans des bases décisionnelles. Ce processus garantit la qualité, la pertinence et la structuration des données pour l’analyse.

Export : L’export de données consiste à extraire des informations depuis un système pour les utiliser dans un autre format ou logiciel (CSV, Excel, PDF, etc.). Cette fonctionnalité facilite l’échange, l’archivage ou la réutilisation des données en dehors de l’environnement applicatif d’origine.

Filtre : Le filtre est un mécanisme d’analyse permettant d’inclure ou d’exclure certaines données dans un rapport ou un tableau de bord, selon des critères définis. Il sert à personnaliser les vues, isoler des segments précis ou affiner les résultats en fonction de besoins spécifiques.

Fonctions MDX (MultiDimensional eXpressions) : Les fonctions MDX sont des expressions de langage utilisées dans les bases OLAP pour interroger, calculer ou structurer des données multidimensionnelles. Elles permettent de créer des indicateurs complexes, des filtres avancés et des vues hiérarchiques adaptées aux besoins analytiques spécifiques.

Forecasting : Le forecasting est un processus de prévision basé sur l’analyse historique des données, combinée à des modèles statistiques ou algorithmiques. Il est utilisé pour anticiper les ventes, la demande, les charges ou toute variable clé, et constitue un levier stratégique pour la planification.

Gap Analyse : La gap analyse est une méthode d’évaluation qui mesure l’écart entre les performances réelles et les objectifs fixés. Elle identifie les manques en termes de données, de processus ou de ressources, afin de mettre en œuvre des actions correctrices ou d’amélioration continue.

In-Memory : La technologie in-memory permet de stocker et traiter les données directement en mémoire vive, au lieu des disques classiques. Elle offre ainsi des vitesses de traitement considérablement supérieures, indispensables aux analyses en temps réel. Elle est particulièrement utile pour les applications critiques ou embarquées nécessitant des réponses instantanées.

Indicateur : Un indicateur est une combinaison de mesures servant à évaluer une situation ou un processus. Il peut porter sur la qualité, la productivité, la rentabilité ou la satisfaction. C’est un outil de pilotage indispensable pour suivre les performances à différents niveaux de l’organisation.

Indicateur clé de performance (ICP / KPI) : Un KPI est un indicateur quantitatif qui permet de mesurer la progression d’un objectif stratégique ou opérationnel. Il est utilisé pour suivre la performance de l’entreprise, piloter l’activité et prendre des décisions fondées. Les KPI doivent être pertinents, mesurables, atteignables et temporellement définis.

Indicateurs de performance et Benchmarking : Cette pratique consiste à comparer les résultats actuels d’une organisation avec ses performances passées ou celles de concurrents pour évaluer l’efficacité et détecter les axes d’amélioration. Elle s’appuie sur des indicateurs clés et des tableaux de bord, permettant de mesurer les écarts, d’objectiver les réussites ou retards, et de mieux piloter les objectifs stratégiques.

Infocentre : L’infocentre est une base intermédiaire qui duplique les données opérationnelles afin d’alléger les systèmes de production et de fournir aux analystes un accès dédié à l’information. Précurseur du data warehouse, il a facilité l’émergence des premières pratiques d’analyse décisionnelle.

Interface de programmation applicative (API) : Une API est un ensemble de règles et de protocoles qui permet à différents logiciels de communiquer entre eux. Elle offre une intégration fluide des applications, autorise l’automatisation des échanges de données et facilite l’interopérabilité entre systèmes d’information.

Lead Generation : La génération de leads est une stratégie visant à capter des contacts qualifiés (prospects) pour les convertir en clients. Elle repose sur des actions marketing, des outils CRM ou des bases de données ciblées. C’est un levier fondamental dans la croissance commerciale.

Logiciels de business intelligence : Ces logiciels permettent d’extraire, transformer et visualiser les données d’une organisation pour faciliter leur interprétation. Grâce à des fonctions de reporting, d’analyse prédictive et de visualisation dynamique, ils aident les dirigeants à anticiper les évolutions du marché, optimiser les performances et piloter l’activité à l’aide d’indicateurs actualisés en temps réel.

Mesure : La mesure est une donnée chiffrée calculée selon une règle déterminée (ex. : chiffre d’affaires, nombre de commandes). Elle constitue l’élément de base des analyses quantitatives, que l’on retrouve dans les rapports, tableaux de bord et systèmes décisionnels.

Métadonnées : Les métadonnées sont des données servant à décrire d’autres données. Elles précisent des attributs tels que la date de création, l’auteur, le format, ou les droits d’accès d’un fichier. Elles sont essentielles pour l’indexation, la recherche, l’archivage ou la gouvernance des données.

Metrics : Les metrics désignent des mesures précises utilisées pour quantifier les performances ou les activités. Elles peuvent être des volumes (ventes, visiteurs, appels), des taux (conversion, rebond), ou des temps (réponse, chargement). Elles sont indispensables dans le suivi de toute stratégie data-driven.

Modèle de données : Le modèle de données définit la structure logique des données dans un système, précisant les entités, leurs relations et les règles de gestion associées. Il assure la cohérence des bases et facilite l’interopérabilité des applications au sein de l’organisation.

ODBC (Open Database Connectivity) : L’ODBC est une API standardisée qui permet aux applications d’accéder à différentes bases de données quel que soit le système de gestion sous-jacent. Elle facilite l’interconnexion entre outils de BI, tableurs et moteurs de bases relationnelles dans un environnement hétérogène.

OLAP (Online Analytical Processing) : L’OLAP regroupe un ensemble de technologies permettant l’analyse multidimensionnelle des données. Il facilite la navigation dynamique dans différents axes d’analyse (temps, géographie, produit…) par des opérations de drill down ou slice and dice. Il s’adresse aux utilisateurs souhaitant croiser plusieurs indicateurs de manière rapide et intuitive.

Outil de restitution : Un outil de restitution est un logiciel permettant de générer des rapports, des visualisations et des exports de données à destination des utilisateurs finaux. Il traduit les résultats des analyses en supports compréhensibles et exploitables, souvent via des interfaces interactives.

Outil décisionnel : Un outil décisionnel regroupe les solutions logicielles permettant de transformer les données en indicateurs exploitables. Il comprend des fonctions d’agrégation, de visualisation et d’analyse, facilitant la prise de décision stratégique ou opérationnelle. Il est au cœur de toute solution de Business Intelligence.

Préparation des Données : La préparation des données désigne l’ensemble des étapes nécessaires avant toute analyse : collecte, nettoyage, normalisation, enrichissement et structuration des données issues de sources hétérogènes. Elle permet de garantir la qualité, la cohérence et la pertinence des données à analyser, en identifiant les dimensions (axes d’analyse) et mesures (valeurs numériques) nécessaires à la BI.

Rapport : Un rapport est un document de synthèse structurant les données analysées selon un format défini. Il peut contenir des tableaux, graphiques, indicateurs ou textes d’interprétation. Destiné aux parties prenantes, il facilite la communication des résultats et le suivi des performances.

Rapport ad hoc : Le rapport ad hoc est un rapport créé ponctuellement par un utilisateur en fonction d’un besoin spécifique. Contrairement aux rapports standardisés, il est librement conçu à partir des données disponibles et répond à des demandes non anticipées ou urgentes.

Reporting : Le reporting regroupe les processus et outils permettant de diffuser les résultats d’analyse de données auprès des parties prenantes internes ou externes. Il peut s’agir de rapports standards, de synthèses interactives ou de tableaux de bord. L’objectif est de rendre les données exploitables par tous les acteurs décisionnels, afin d’éclairer leurs choix en s’appuyant sur des indicateurs objectifs et actualisés.

Requête ad hoc : Une requête ad hoc est une interrogation ponctuelle et non prédéfinie adressée à une base de données, en réponse à un besoin spécifique d’information. Elle permet une flexibilité d’analyse, en s’écartant des rapports standards pour produire des vues sur mesure.

Requêtes : Les requêtes sont des instructions formulées pour extraire des informations spécifiques à partir d’un jeu de données. En Business Intelligence, elles permettent d’interroger les bases selon des critères ciblés, afin de répondre à une problématique métier. Les requêtes peuvent être simples ou complexes, ad hoc ou automatisées, et sont fondamentales pour l’analyse personnalisée.

Schéma : Un schéma de base de données décrit l’organisation des tables, colonnes, relations et contraintes. Il structure l’architecture d’un entrepôt de données ou d’un modèle analytique, garantissant la lisibilité, la cohérence et l’efficacité des requêtes.

Slice and Dice : Cette méthode consiste à fractionner les données en segments pour les analyser sous différentes perspectives. Elle est couramment utilisée dans les outils OLAP pour explorer finement les corrélations ou isoler des groupes spécifiques selon divers critères.

Snapshot : Un snapshot est une capture figée d’un état de données à un instant donné. Il permet de garder une trace d’une situation historique (stock, performance, solde…), utile pour les comparaisons, audits ou archivages.

Software as a Service (SaaS) : Le SaaS est un modèle de distribution d’applications hébergées dans le cloud, accessibles via internet. Il permet à l’utilisateur d’utiliser des logiciels sans installation locale, avec une mise à jour automatique et un abonnement flexible.

Source de données : Une source de données est l’origine des données utilisées dans un système d’analyse. Elle peut être un fichier, une base relationnelle, un flux en temps réel ou un service web. L’identification et la qualification des sources sont cruciales pour garantir la fiabilité des analyses.

Structured Query Language (SQL) : Le SQL est le langage de requête standardisé permettant d’interroger, manipuler et structurer les données dans les bases relationnelles. Il est utilisé dans la majorité des systèmes BI pour construire des requêtes, créer des tables ou générer des rapports.

Supply Chain Management (SCM) : Le SCM regroupe les outils et méthodes de gestion de la chaîne logistique, depuis l’approvisionnement jusqu’à la distribution. Il permet d’optimiser les flux, d’anticiper les besoins et de réduire les coûts en assurant une coordination efficace entre tous les maillons.

Tableau de bord (rappel) : Outil de visualisation regroupant des indicateurs clés sous forme de graphiques ou tableaux dynamiques. Il permet un suivi en temps réel de l’activité, facilite l’interprétation des résultats et oriente les actions. Il peut être personnalisé selon les besoins de chaque utilisateur ou service.

Visualisation des Données : La visualisation des données traduit les résultats d’analyse sous une forme graphique (diagrammes, camemberts, courbes, cartes). Elle facilite la compréhension des informations, même complexes, et accélère la prise de décision en rendant les insights plus lisibles et mémorisables. C’est un outil essentiel en Business Intelligence pour communiquer efficacement.

Louis Parmentier
Louis Parmentier
Diplômé d'HEC Paris et ancien membre de l'incubateur de l'école, j'ai créé plusieurs startups dans le web, les médias et la culture. Passionné par le journalisme, j'ai lancé Societe.Tech en 2015 afin de suivre l'actualité des entreprises et des logiciels SaaS. Je publie des articles ainsi que des interviews sur les entrepreneurs et sur les éditeurs de logiciels.

Newsletter : L'actualité des entreprises chaque matin et gratuitement dans votre boite mail !

Pour aller plus loin

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Newsletter

Les derniers articles