WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Etude et conception d'un datawarehouse et l'impact du déploiement d'un système décisionnel dans une société de vente et de production


par Cédric MASSAMBA SENDWE
Université protestante de Lubumbashi - Licence 2018
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

I.2.4. Les grandes étapes d'un projet d'Informatique décisionnelle

Un système d'information décisionnel doit passer par quatre grandes étapes à savoir : I.2.4.1. La collecte

La première étape qui est celle de collecte des données ou le Datapumping consiste à aller chercher les données où elles se trouvent. Ces données applicatives métier étant naturellement stockées dans une ou plusieurs bases de données correspondant à chaque application utilisée.

La collecte est donc l'ensemble des tâches consistant à détecter, sélectionner, extraire et filtrer les données brutes issues des environnements pertinents pour obtenir des indicateurs utiles dans le cadre d'aide à la décision.

Ces données applicatives sont extraites, transformées et chargées dans un entrepôt de données ou Data warehouse par un outil de type ETL (Extract-Tranform-Load) qu'on pourra expliciter plus tard.

9

projet de type décisionnel et est la plus délicate à mettre en place dans un système décisionnel complexe.

I.2.4.2. L'intégration

Cette deuxième étape est l'intégration des données. Elle consiste à concentrer les données collectées dans un espace unifié, dont le socle informatique essentiel est l'entrepôt de données. Ce dernier est l'élément central du dispositif dans le sens où il permet aux applications d'aide à la décision de bénéficier d'une source d'information homogène, commune, normalisée et fiable. Cette centralisation permet surtout de s'abstraire de la diversité des sources de données.

Une fois les données centralisées par un outil d'ETL, celles-ci doivent être structurées au sein de l'entrepôt de données. Cette étape est toujours faite par un ETL grâce à un connecteur permettant l'écriture dans le data warehouse. L'intégration est en fait un prétraitement ayant pour but de faciliter l'accès aux données centralisées aux outils d'analyse.

C'est lors de cette étape que les données sont filtrées, triées, homogénéisées, nettoyées et transformées en vue du maintien de la cohérence d'ensemble.

I.2.4.3. La diffusion

Cette fonction appelée autrement Distribution a pour rôle de mettre les données à disposition des utilisateurs. L'objectif prioritaire de cette étape est de segmenter les données en contextes informationnels fortement cohérents, simples à utiliser et qui correspondent à une activité particulière.

Ceci est dit dans la mesure où un entrepôt de données peut héberger des centaines ou des milliers de variables ou indicateurs, mais un contexte de diffusion ne présente que quelques dizaines au maximum pour rester dans l'optique d'une simple exploitation.

Généralement un contexte de diffusion est multidimensionnel, cela veut dire qu'il est modélisable sous forme d'un hypercube et peut donc être mis à disposition via un outil OLAP.

10

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Nous voulons explorer la bonté contrée énorme où tout se tait"   Appolinaire