WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Système d'information (Gestion de l'information)

( Télécharger le fichier original )
par A.SEMOUD et A.LAYMY
Université Hassan II Mohammedia - Licence 2006
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

III-3- Physique :

Les théories propres à la transmission et à la mesure des signaux dans le cadre de la cybernétique ont introduit le concept de science de l'information et en ont fait un champ d'investigation particulier. Là encore, le concept est loin d'être stabilisé, puisque cette théorie du signal est aussi bien connue sous le nom de théorie de l'information que sous celui de théorie de la communication, avec d'ailleurs les mêmes effets sémantiques pervers qui font que l'on entretient facilement une confusion sur le fond et la forme.

Cette ouverture scientifique a attiré de nombreux esprits qui se sont efforcés d'élaborer une théorie scientifique de l'information, voire d'appliquer la théorie de l'information à la science. Léon Brillouin est parmi ceux-ci. On lui doit une première grande synthèse dans ces domaines.

Contrairement à certains disciples qui agissent dans le champ des sciences humaines, il prend soin de définir le champ de validité de sa conception en restreignant le concept d'information à une seule dimension. Il en donne une définition unique qui écarte a priori ce qu'il appelle la "valeur humaine de l'information", c'est-à-dire le sens, le contenu qu'elle véhicule, et qui n'est compréhensible, évaluable que par les individus qui la reçoivent. Comme la subjectivité de l'appréciation rend particulièrement difficile la mesure de l'information, il est nécessaire, pour établir une définition applicable au plan scientifique, d'écarter cette "valeur humaine" de l'information. Pour traiter l'information sur le plan quantitatif, pour pouvoir la mesurer, il faut ignorer l'intérêt que présente l'information, sa valeur d'usage, pour reprendre un concept de l'économie politique.

Après avoir circonscrit le concept d'information dans son application scientifique, il peut recevoir une première définition. L'information est reliée à

la réduction de l'incertitude. Plus un système peut connaître d'états différents, plus grande est l'incertitude, plus la quantité d'information devra être grande pour la réduire. L'information se présente alors comme une "fonction du rapport des réponses possibles après et avant qu'on l'ait reçue"6. Si l'on obtient une information, le nombre des réponses possibles diminue et lorsque l'information est complète il est possible qu'une seule réponse soit pertinente. On peut déjà entrevoir l'usage lapidaire qui peut être fait de cette conception dans le domaine de la gestion de l'entreprise quand, rompant avec la stricte délimitation de Brillouin, certains auteurs étendent les concepts sans précaution.

Dans ce cas l'information réduit le degré d'incertitude et conduit à une prise de décision ou réponse plus rationnelle, moins arbitraire. Plus le degré d'incertitude initial est grand, plus la masse d'information nécessaire pour définir la solution sera importante.

Brillouin fait ensuite remarquer, à la suite de Léo Szilard et de Claude Shannon, que l'information a un lien remarquable avec la notion employée dans la thermodynamique que l'on nomme entropie. Il n'entre pas dans notre propos d'aller plus avant dans ce domaine. Il y a cependant un aspect de cette théorie qui revêt une importance particulière, sinon capitale. En mettant en relation l'entropie d'un système et l'information, Brillouin montre que toute information se traduit par un accroissement de l'entropie. Dans les cas limites, la précision la plus grande mobiliserait une énergie infinie. Dans une telle conception, l'observateur n'est pas neutre dans le système et il faut que le coût en entropie d'une observation soit négligeable en regard de l'entropie du système pour pouvoir l'ignorer.

Quant à l'information, elle a un prix, un coût, une valeur croissante, consommatrice des ressources internes. Plus elle est précise, plus le coût croît. En d'autres termes, le coût de production marginal est croissant. Ce qui se constate dans le physique des particules au niveau de la microphysique, nous le retrouvons au niveau de la société et de l'entreprise, sur le plan économique, qu'il soit macro ou micro économique.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Il existe une chose plus puissante que toutes les armées du monde, c'est une idée dont l'heure est venue"   Victor Hugo