WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

L'informatique décisionnelle appliquée à  l'agriculture


par Abdoulahi Mariko
PPA-ESGI - Ingénieur d'affaires en solutions technologiques complexe 2018
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Annexe 3 : hypothèses de travail

Hypothèse 1 :

La création de la cybernétique (Science de mécanisme auto gouvernés) par

Norbert Wiener dans les années 1947 a donné au monde scientifique d'autres méthodes de raisonner les problèmes auxquels les hommes font face à travers les époques. Ainsi, dans le domaine des technologies de l'information nous avons assisté à la naissance de concepts révolutionnaires tels que l'Informatique Décisionnelle (Business Intelligence ou BI) et le Big Data (Mégadonnées). Ces deux concepts, même s'ils tendent à chevaucher l'un sur l'autre dans leurs usages fonctionnels, restent complémentaires pour la mise en place d'une solution d'aides à la décision optimale.

Hypothèse 2 :

L'agriculture moderne représente aujourd'hui un des domaines utilisant le plus

des technologies et systèmes d'information pointus. Cependant, elle fait face à des multiples défis en premier lieu le changement climatique, suivi par l'explosion de la démographie mondiale et le défi nutritionnel et les inégalités mondiales.

Vu les problématiques ci-dessus et tenant compte de la maturité technologique dans ce domaine, les acteurs agricoles devront adopter les nouveaux outils informatiques d'aides à la décision pour répondre aux enjeux actuels et futurs du secteur agricole.

Hypothèse 3 :

Depuis quelques années on assiste à l'explosion des solutions informatiques dans

le domaine de la science des données (data science), ces outils même s'ils sont aujourd'hui en amélioration continue assurent la démocratisation du traitement de données de grande échelle et favorise la prise de décisions et la mise en oeuvre de stratégies gagnantes à court et long terme.

À la lumière de ces avancés technologique, nous pouvons aujourd'hui proposer un système unifié d'aide à la décision pertinente pour les acteurs agricoles.

Annexe 4 : Fiches de lectures

FICHE DE LECTURE N° 1 : Méthodes d'approche des projets complexes

Auteur(s) : Roy Etienne, Vernerey Guy Editeur : Maxima

Publication : 2010 -- Pages : 262 ISBN : 978-2-84001-664-9

93

Dans leur ouvrage intitulé « Conduite de projet complexe », Etienne Roy et Guy Vernerey ont proposé une méthode de conduite de projet complexe dont l'essence est nourrie de leurs expériences respectives. En effet, le premier est un chef d'entreprise et accompagne depuis plus de 20 ans des équipes dans la gestion de projets complexe ; Le deuxième est chef de projet et capitalise plus de 25 ans

d'expérience de dans le domaine de la gestion de projet.

Dans ce livre de 262 pages les deux auteurs livres des outils et des méthodes efficaces pour permettre aux acteurs impliqués dans la gestion de projet complexe de bien mener les missions complexes dont ils auront la charge.

Le document peut être scindé en deux parties :

Une première partie (page 15-231) où les deux ingénieurs livrés le contenu de leur méthode qui couvre toutes les étapes d'un projet de son initiation à sa clôture en prenant en compte tous les facteurs d'influences sur le projet complexe.

Dans cette partie nous pouvons noter la présentation de la notion de projet et la définition du projet complexe :

Ainsi, Projet, Projectum ou Projicere (préfixe pro + latin Jicere), est issu de projeter qui veut dire « Jeter vers l'avant ». Etre en projet c'est donc vouloir que ce soit autre chose que c'est qui est actuellement, c'est donc un processus qui « conduit à une situation nouvelle, souvent inédite ».

On peut dire qu'un projet est complexe lorsque sa conduite nécessite l'utilisation de méthodes particulières. En effet, un projet étant un enchevêtrement d'éléments mêlés, l'environnement, les acteurs, les technologies etc. On parle de complexité

94

lorsque « quand un de ces éléments entre en mouvement, on ne peut que très difficilement en prévoir les effets sur l'ensemble ».

Une deuxième partie (page 233-257) qui relate les fondements théoriques de leur approche de la conduite de projets complexe. Ici, ils mettent en évidence deux approches méthodologiques pour la conduite de projet.

Il s'agit de l'approche « Analytique » et de l'approche dite « Systémique ».

Ses deux approches nous permettent de comprendre comment chacun de nous perçoit les problèmes et comment il cherche les solutions à ces problèmes.

L'approche Analytique :

La vision du monde ou de l'environnement dans lequel chacun de nous évolue est influencée très souvent par les savoirs qui sont propagés dans cet espace. Ainsi, en Occident et plus particulièrement en France la vision collective est influencée par des philosophes et mathématiciens. La pensée de DESCARTES est très dominante en France, il est socialement établi que la vision consciente ou inconsciente des Français est Cartésienne.

Dans l'un de ses ouvrages phare, « Discours de la méthode » DESCRATE va nous livrer ce qui sera le fondement de la démarche Analytique.

Il s'agit des quatre (4) préceptes du Discours de la Méthode :

L'évidence, « recevoir jamais aucune chose pour vraie que je ne la connusse évidemment être telle ; c'est-à-dire d'éviter soigneusement la précipitation et la prévention, et de ne comprendre rien de plus en mes jugements que ce qui se présenterait si clairement et si distinctement à mon esprit, que je n'eusse aucune occasion de le mettre en doute ». Il s'agit donc de ne jamais prendre pour vrai que c'est qui est évident pour nous.

L'analyse, « diviser chacune des difficultés que j'examinerais, en autant de parcelles qu'il se pourrait, et qu'il serait requis pour les mieux résoudre ». Ainsi le fait de fragmenter le tout en partie est le meilleur moyen de mieux faire une analyse.

95

La synthèse déductive, « de conduire par ordre mes pensées, en commençant par les objets les plus simples et les plus aisés à connaitre, pour monter peu à peu comme par degrés jusqu'à la connaissance des plus composées, et supposant même de l'ordre entre ceux qui ne se précèdent point naturellement les uns les autres ». Le fait de prioriser l'analyse des éléments les plus simples à comprendre au plus difficile à saisir nous permet d'avoir une appréhension du tout.

Le dénombrement pour percevoir l'ensemble, « de faire partout des dénombrements si entiers et des revues si générales, que je fusse assuré de ne rien omettre ». En fin, il faut recenser et regrouper tous nos éléments d'analyse fragmentée pour être sûr de ne rien omettre sur l'objet de notre analyse.

Ces quatre préceptes fondent l'analyse de type analytique dont l'objectif est de construire un raisonnement final à partir de ce qui est déjà connu, évident. La démarche analytique s'appuie donc sur des modèles prédéfinis pour construire le produit souhaité.

Cependant, Laurent Nottale, Directeur de recherche au C.N.R.S dans l'ouvrage de Réda Benkirane, La Complexité, vertiges et promesses, 18 histoires de sciences, Le Pommier, 2002 (Série d'entretiens avec 18 scientifiques), décrit les limites de la démarche analytique comme suit : « On a longtemps cru que la méthode ordinaire de calcul différentiel devait réaliser en physique l'idée de Descartes. On allait décomposer l'objet à étudier en des parties très petites pour faire en sorte que chacune de ces parties tendent vers zéro. L'espoir était de rendre simple l'objet considéré à partir de ses éléments extrêmement simples et où rien ne bougeait ; il n'y avait plus ensuite qu'à intégrer sur tout l'objet de manière à obtenir ses propriétés globales. Dans la réalité, cela ne marche pas ainsi, car, quand on observe les sous-parties de plus en plus petites d'un objet, on voit apparaitre des choses constamment nouvelles ».

Il apparait clairement que « le tout n'est pas une simple somme des parties, de même que la connaissance du tout n'entraine pas une connaissance de l'ensemble des parties. »

Il est donc évident que dans une démarche de conduite de projet complexe, dont l'effet du mouvement d'au moins un des éléments est imprévisible, nous ne

96

pouvons pas appliquer les étapes clés d'une approche analytique, car elle privilégie la recherche des causes plutôt que la recherche de solutions aux difficultés rencontrées.

L'approche systémique :

Pour définir la systémique, nous pourrions retenir d'emblée le propos d'Edgar Morin, qui considère que « La première leçon systémique est que «le tout est plus que la somme des parties». Cela signi fi e qu'il existe des qualités émergentes, c'est-à-dire qui naissent de l'organisation d'un tout, et qui peuvent rétroagir sur les parties.

Par ailleurs, le tout est également moins que la somme des parties, car les parties peuvent avoir des qualités qui sont inhibées par l'organisation de l'ensemble ».

L'approche systémique englobe l'ensemble des éléments du système étudié, ainsi que leurs interactions et les liaisons du système avec son environnement.

L'analyse ou approche systémique va nous permettre d'ajouter des cordes à notre arc pour comprendre et agir, en nous extrayant d'une logique déterministe. Elle va nous aider à comprendre comment fonctionnent les personnes avec qui nous allons nous impliquer dans nos projets et comment ils se fixent leurs objectifs, compte tenu des systèmes sociaux dans lesquels ils évoluent. Elle va nous conduire à concentrer notre énergie sur l'identi fi cation des buts à atteindre et des moyens à prendre pour cela plutôt que nous focaliser sur la recherche et la compréhension des causes des difficultés.

Différence entre l'approche analytique et l'approche systémique :

97

98

FICHE DE LECTURE N°2 : Big data et informatique décisionnelle

Lien 1 : www.pagesperso-orange.fr/bernard.lupin/

Lien 2 :www.journaldunet.com/solutions/0301/030108_olap.shtml Lien 3 : http://www.piloter.org/businessintelligence/olap.htm Lien 4 : https://fr.slideshare.net/hugfrance/introduction-hdfs

Lecture
web

Informatique décisionnelle

BI, Business Intelligence Système interprétant des données complexes permettant aux dirigeants d'entreprise de prendre des décisions en connaissance de cause. Les données sont analysées selon plusieurs dimensions (type de produits, régions et saisons par exemple). De plus en plus, l'informatique décisionnelle se rapproche de l'intelligence d'affaires, où un système informatique permet la recherche active et l'exploitation, sur le plan décisionnel, de l'ensemble des renseignements stratégiques essentiels qu'une entreprise doit posséder, si elle veut faire face à la concurrence et occuper la première place, dans son secteur d'activité.

L'architecture d'un système décisionnel peut être décomposée en un ensemble de composants. Cette décomposition permet de répartir les tâches entre différents responsables du système et de comprendre la synergie de leurs différents métiers.

1. Les sources de données (ou bases de production)

C'est l'ensemble des sources de données qui contiennent les informations qui serviront à alimenter un entrepôt de données. Ces sources sont dans la grande majorité interne à l'entreprise (capitalisées dans les bases de données opérationnelles), mais peuvent également être externes à l'entreprise (données du marché mondial, audits, documents diffusés sur le WEB, etc.).

2. Un ensemble d'outils ETTL (ou ETL)

Les sources de données utilisées pour constituer un entrepôt de données sont hétérogènes et diffuses. Elles contiennent également des données qui ne seront pas utilisées par l'entrepôt de données. Il est donc nécessaire de disposer d'outils performants et rapides permettant d'extraire (ETTL) les données utiles de ces sources. Ces données extraites doivent être par la suite transformées (ETTL) pour

99

les rendre globalement homogènes (standards). Si ces données sont réparties sur différents ordinateurs dans un réseau diffus, elles doivent initialement être transportées (ETTL) vers le (ou les) ordinateur gérant l'entrepôt de données. Pour finir, ces données normalisées sont chargées (ETTL) dans l'entrepôt de données.

ETL --Extraction, Transformation and Loading

Outil d'extraction Outil informatique destiné à extraire des données de diverses sources (bases de données de production, fichiers, Internet, etc.), à les transformer et à les charger dans un entrepôt de données.

3. Un entrepôt de données

L'entrepôt de données correspond à une représentation multidimensionnelle de l'ensemble des données extraites des sources de données initiales, ainsi qu'à un ensemble de métadonnées contenant les informations relatives à l'environnent de cet entrepôt. La partie essentielle de l'entrepôt est constituée d'une ou plusieurs bases de faits qui traduisent la vie d'une entreprise. Ces bases de faits sont reliées à la description de plusieurs dimensions intervenant dans la représentation multidimensionnelle. Un entrepôt peut être physiquement réparti dans plusieurs magasins métiers (datamarts) regroupés sur un même ordinateur ou sur plusieurs.

DATA MART --Entrepôt métier

Sous-partie d'un entrepôt de données orienté vers un métier particulier de l'entreprise (markéting, finance, gestion de stock, etc.). Le datamart peut être interne ou élément satellite de l'entrepôt de données.

4. Des représentations OLAP de l'entrepôt de données

Ce sont des cubes de données multidimensionnelles extraits dynamiquement de l'entrepôt de données (ou des datamarts). Ils sont assujettis aux rapports, requêtes et analyses devant être fournis aux différents fournisseurs de l'entreprise.

100

5. Des outils de visualisation et d'analyse

Ensemble des outils permettant : d'obtenir les différents indicateurs et rapports de synthèse sur la vie d'une entreprise, de réaliser de façon interactive à travers des interfaces graphiques utilisateurs des requêtes exploratoires dans les cubes dimensionnels, d'exploiter des techniques de datamining sur ces données dimensionnelles.

Datamining

Exploration des données Technique d'analyse utilisant un logiciel (TANAGRA, SIPINA, R-PROJECT, etc.) pour dénicher des tendances ou des corrélations cachées parmi des masses de données, ou encore pour détecter des informations stratégiques ou découvrir de nouvelles connaissances, en s'appuyant sur des méthodes de traitement statistique.

OLAP --OnLine Analytical Processing

Nous avons vu que la structure en hyper-cube des données était la façon la plus naturelle pour visualiser une entreprise comme un tout, car elle est fondée sur les structures réelles de l'activité d'une entreprise et non sur des constructions artificielles dictée par l'informatique. L'exploitation des données d'un entrepôt doit donc correspondre à la manipulation aisée de l'hyper-cube.

C'est ce que propose l'approche OLAP. L'objectif est de permettre aux décideurs de naviguer simplement dans les informations, via la manipulation des diverses dimensions, en vue de dégager plus rapidement les tendances intéressantes de l'entreprise.

Aujourd'hui, OLAP permet aux décideurs, en entreprise, d'avoir accès rapidement et de manière interactive à une information pertinente présentée sous des angles divers et multiples, selon leurs besoins particuliers.

OLAP désigne les bases de données multidimensionnelles (appelées aussi cubes ou hypercubes) destinées à des analyses complexes sur des données.

101

PLATE FORMES ET OUTILS

Dans cette séquence, nous nous intéressons à la plateforme décisionnelle Hadoop. Cette plateforme à l'avantage d'aborder tous les éléments de la chaine décisionnelle.

Le système Hadoop est conçu sur la base de la gestion des données en mode fichier et non sur un mode de base de données. Ce système est appelé le HDFS (Hadoop Distributed File System).

Autour du HDFS sont développés plusieurs outils qui constituent la base technique de Hadoop :

MapReduce : Permet de rechercher et de traiter les informations en parallélisant au maximum l'activité, il assure ainsi une performance et rapidité au niveau du traitement de la donnée.

HBase : Permets le stockage de grandes tables de données.

Zookeeper : permets la gestion et la configuration des tables de donnée.

Hive : Pour analyser les données. D'autres solutions telles que MongoDB, Pig, GoogleBigTable ou encore Amazon Dynamo existe sur le marché pour l'analyse des données.

FICHE DE LECTURE N° 3 : Agriculture numérique

Auteur(s) : Jean-Marie Séronie Éditeur : Éditions France Agricole

Publication : 2016 -- Pages : 145 ISBN : 978-2-85557-475-2

102

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Le don sans la technique n'est qu'une maladie"