WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Modélisation et implantation d'un logiciel de gestion des ressources humaines. Cas de l'électricité du Congo "EDC/ Tshikapa"

( Télécharger le fichier original )
par Charles MBUYI TUKANDILE
Institut supérieur de commerce Tshikapa RDC - Graduat en gestion information 2011
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

CHAPITRE PREMIER :

DEFINITION DES CONCEPTS ET L'ETUDE PREALABLE

I.1. DEFINITION DES CONCEPTS

1.1.1. INFORMATIQUE

I.1.1.1. Définitions

L'informatique est définie de différentes manières et selon les auteurs :

1. l'informatique est la science du traitement de l'information dans les domaines scientifiques, techniques, économiques et sociaux (Gaci Mohamed, Alger, 2004, P.13)

2. l'informatique est l'ensemble des disciplines scientifiques et des techniques spécifiquement applicable au traitement de l'information, effectué notamment par des moyens automatiques. (Nébil Ben NESSIB et Khaled RAOUADI, Tunis, 2007, P.4)

3. l'informatique est l'ensemble des méthodes scientifiques et techniques spécialement applicables au traitement de l'information effectuée par des moyens automatiques. Les moyens automatiques sont composés d'éléments matériels (principalement des ordinateurs) et d'éléments logiciels (des systèmes d'exploitation, des logiciels d'application, des progiciels ou logiciels outils). (Jean Paul MUKANYA, ISC-TPA, 2010, P.10)

4. Définition de l'Académie Française ; science du traitement rationnel, notamment par des machines automatiques, de l'information considérée comme le support des connaissances et des communications, dans les domaines technique, économique et social. (J. Farré, Paris, 2010, P).

I.1.1.2 Bref historique

L'histoire de l'informatique couvre environ 12000 années, c'est pourquoi je vous propose ces quelques liens réunis dans un « petit sommaire » :

· De l'an -10000 au XIIIème siècle.

· Du XVIème siècle à la fin du XXIIème.

· De 1884 à 1945

· De 1946 à 1968

· De 1968 à 1991.

1. De l'an -10000 au XIIIème siècle.

Les fondations de l'informatique : la saisie, le codage, le calcul, l'écriture, la logique, le zéro.

C'est durant la période de 10000 à 3000 avant J.C que n'acquit le traitement rationnel de l'information.

En Mésopotamie, 1300 ans plus tard, l'empereur Hammourabi introduit la notion de norme dans le traitement de l'information grâce à sa loi du talion...

Les horloges égyptiennes, qui furent les premiers systèmes de traitement de l'information, apparurent en 1550 avant J.C. les chinois arrivèrent à mesurer la durée d'une année en utilisant un observatoire astronomique en 1200 avant J.C., ils ont aussi, à l'origine de nombreuses inventions ; le papier qui fut un support d'informations révolutionnaire en 105 après J.C.

2. Du XVIème siècle à la fin du XXième siècle

Les découvertes : le binaire, l'électricité, les logarithmes, les boucles de programmes, le téléphone, l'imprimerie et la machine à calcul.

Le XVIIIème siècle fut le temps des machines à calculer ; en 1624 l'Allemand Schickard présenta sa machine mais elle fut détruite la même année. En 1642, la Pascaline du français Pascal fut la première à réellement fonctionner et beaucoup de personnes s'appuieront sur cette découverte. Enfin Leibnitz construisit sa propre machine en 1694 (division et multiplication) suivant le model de Pascal.

Les cartes perforées furent utilisées en 1728 par le français Falcon et en 1800 par un autre Français, Jacquard. Ces cartes servirent dans des machines à tisser.

En 1820, l'arithmomètre du français Thomas connut un énorme succès, 1500 exemplaires vendus dans plusieurs pays. Quelques années plus tard, en 1833, la machine analytique de l'anglais Charles Babbage ne fut qu'un échec, alors qu'elle est toujours considérée comme le premier ordinateur car elle intègre beaucoup de concepts de l'ordinateur contemporain : mémoire, registre, unité  de calcul. Le code morse fut inventé en 1838 et le premier télégraphe fonctionna en 1844.

La mathématicienne Anglaise Lovelace, qui est considérée comme la première programmeuse de l'histoire informatique, instaura en 1840 l'itération d'un programme (la boucle). Collaboratrice de Babbage, elle appela « algorithme » le processus logique permettant l'exécution d'un programme. George Boole est à l'origine en 1854 de l'algèbre binaire.

3. De 1884 à 1946

Les découvertes : l'effet photoélectrique, la diode, les principes de l'automatisme, le BUG d'un programme, la télévision, le binaire et plusieurs théories sur l'information et le calcul.

Pour faire face aux problèmes de transfert de données concernant la démographie, l'américain Hollerith inventa en 1884 la mécanographie qui sera utilisée en 1890 par le gouvernement des Etats-Unis pour recenser la population. Hollerith créa alors la « Tabulating Machine Company » qui donnera naissance au grand groupe IBM « International Business Machine ».

4. De 1946 à 1968

Le triomphe du binaire, la constitution physique de l'ordinateur, le transistor, la cybernétique, l'intelligence artificielle, l'accès au traitement, la télécommunication mondiale.

L'ENIAC (Electronic Numerical Integrator Computer) marqua à tout jamais l'année 1946 car ce fut le premier véritable ordinateur. Cette machine pèse 30tonnes, mesure 24 mètres de long, est haute de 5.4 mètres. Elle utilise 18000 tubes à vides, réussit à traiter à son premier essai un million de cartes perforées, ce qui réjouit ses inventeurs américains Eckert et Mauchly.

A la suite de ce travail, Von Neumann écrivit un rapport sur un ordinateur qui devait succéder à l'ENIAC : L'EDVAC (Electronic Discret Variable Computer).Un conflit entre les différents inventeurs mit terme à sa réalisation.

Une des découvertes les plus importantes de l'histoire humaine est le transistor. Inventé en 1947 par trois américains de la compagnie Bell, il sera l'élément de base des microprocesseurs.

Un an après, c'est un rapport révolutionnaire sur l'asservissement qui fut publié par le mathématicien Américain Wiener. Cette oeuvre reste la base de la robotique actuelle. Shannon rendit sa publication sur la théorie mathématique de la communication, ouvrage clef pour le développement des télécommunications.

1. De 1968 à 1991

Cette période est très riche en découvertes

1968-1977 constitue la période la plus vaste pour le développement de l'informatique. Elle commence avec l'arrivée du mini-ordinateur qui va secouer les conceptions que l'on croyait pourtant bien assises des centres informatiques aux immenses salles à air conditionné. Elle va se terminer en 1977 avec un autre bouleversement, aux conséquences considérables, l'arrivée du micro-ordinateur banalisé (l'Apple II) qui va devenir rapidement un produit grand public, accessible à tous sur les étagères des grandes surfaces. Entre ces deux dates, la télématique acquerra les bases de connaissances nécessaires pour son épanouissement.

Cette apparition des micro-ordinateurs aura pu être réalisée grâce à la découverte fondamentale en 1971 du micro-processeur (l'INTEL 4004). En une période très courte, cette nouvelle puce va réussir à envahir tous les domaines de la société. Si le micro-processeur doit être considérer auprès de l'ENIAC et du transistor comme l'une des trois inventions clefs de l'informatique.

Il ya lieu de retenir plus particulièrement sur cette période les inventions suivantes :

- La souris en 1978. Notion d'interactivité  homme machine

- Le développement des différents réseaux : ARPANET, TELENET et ETHERNET

- La définition des principes de la programmation structurée : PASCAL, LANGAGE C.

- L'arrivée de langages utilisés par l'intelligence artificielle.

- L'évolution des imprimantes : aiguille en 1971, laser en 1975.

- Le disque souple : une nouvelle forme de mémoire. (Jacob MBOMBO, 2010-2011, P.3)

1.1.1.3. Sortes d'informatiques

Actuellement les domaines couverts par l'informatique sont innombrables. Nous citons ici quelques unes :

- L'informatique gestion : elle consiste à simplifier la gestion d'une entreprise. Cette gestion concerne l'administration, la facturation, la comptabilité, le stock ; les personnels, les matériels. en d'autre terme toute activité qui s'effectue au sein de l'entreprise.

- L'informatique industrielle : c'est celle qui s'occupe du contrôle et de la gestion des pièces produites par l'industrie.

- L'informatique robotique : celle-ci concerne toute activité technique qui vise à remplacer l'homme dans certains travaux épuisant, dangereux par des robots. Elle est souvent utilisée pour soulager la misère physique des handicapées ou remplacer les ouvriers qualifiés. Ici la machine assiste la machine outil (robot).

- Informatique bancaire : elle s'occupe de la réduction des couts, du gain de temps dans la manipulation et le transfert des fonds.

- Informatique médicale : elle sert dans le contrôle de processus biologique pur et médical. Aujourd'hui elle est utilisée pour poser des diagnostics, interprète les résultats dans les analyses médicales. Cela ne relève pas de la fiction, procéder à une opération chirurgicale assistée par l'ordinateur.

- Informatique domestique : elle s'intéresse à des outils informatiques en usage de la maison. Il s'agit généralement des capteurs qui déclenchent automatiquement un système installé dans la maison. On parle souvent de la maison intelligente.

- Informatique documentaire : elle permet de gérer et, ou traiter des livres, des articles, des revues, des publications des éditions, des auteurs et autres documents au moyens de l'ordinateur. (Jacob MBOMBO, 2010-2011, P.6)

I.1.2. ORDINATEUR

I.1.2.1 Définition

Selon le Dictionnaire de l'informatique et d'internet ( www.Dictofr.com), l'ordinateur est un nom donné en 1955 aux premières  machines d' IBM par Jaques Perret. (En Anglais : Computer) C'est une machine à traiter électroniquement les  données

Jacob MBOMBO (2010-2011, P.7) quant à lui, définit l'ordinateur comme une machine dotée d'une unité de traitement lui permettant d'exécuter des programmes enregistrés. C'est un ensemble de circuits électroniques servant de manipuler des données sous forme binaire, ou bits.

I.1.2.2 Evolution

L'histoire de l' ordinateur nous provient du fait que l'homme, par nature paresseux, a toujours cherché à améliorer sa façon de calculer, afin de limiter ses erreurs et pour économiser de son temps.

· A l'origine le boulier

Le boulier, appelé aussi « abaque », a été inventé en l'an 700 ; il fut longtemps utilisé et l'est encore aujourd'hui dans certains pays.

· Puis vint le logarithme

On attribue généralement l'invention du logarithme à l'écossais John NEPER (1550-1617, parfois orthographié NAPIER). En effet en 1614 celui-ci démontra que la multiplication et la division pouvaient se ramener à une série d'additions. Ceci permit dès 1620 l'utilisation de la règle à calcul.

Pour autant le vrai père de la théorie des logarithmes est « Mohamed Ybn Moussa Al-KHAWAREZMI », un savant arabe issu de la ville persane appelée « Khawarezm ». Ce savant développa par ailleurs l'Algèbre, terme provenant de l'arabe « Al-Jabr », qui signifie compensation, sous-entendu « la compensation par la recherche de la variable inconnue X afin d'équilibrer les résultats des calculs ».

· Les premières machines à calculer

En 1623, William Schickard inventa la première machine à calculer mécanique.
En 1642, Blaise Pascal créa la machine d'arithmétique (baptisée Pascaline), une machine capable d'effectuer des additions et soustractions, destinée à aider son père, un percepteur de taxes. 

En 1673, Gottfried Wilhelm Von Leibniz ajouta à la Pascaline la multiplication et la division. 
En 1834, Charles Babbage invente la machine à différence, qui permet d'évaluer des fonctions. Cependant il apprend qu'une machine à tisser (métier à tisser Jacquard) est programmée à l'aide de cartes perforées, il se lance donc dans la construction d'une machine à calculer exploitant cette idée révolutionnaire.

C'est en 1820 qu'apparaissent les premiers calculateurs mécaniques à quatre fonctions : addition, soustraction, multiplication, division

Ceux-ci sont rapidement (1885) agrémentés de clavier pour saisir les données.

Des moteurs électriques viennent rapidement supplanter les manivelles.

· Les ordinateurs programmables

En 1938, Konrad Zuse invente un ordinateur qui fonctionne grâce à des relais électromécaniques : le Z3. Cet ordinateur est le premier à utiliser le  binaire au lieu du décimal. 
En 1937, Howard Aiken met au point un ordinateur programmable mesurant 17 m de long et 2.5 mètres de hauteur, permettant de calculer 5 fois plus vite que l'homme : C'est le Mark I d'IBM. 


Il est alors constitué de 3300 engrenages, 1400 commutateurs reliés par 800 km de fil électrique. En 1947, le Mark II voit le jour, ses engrenages sont remplacés par des composants électroniques.

· Les Ordinateur à lampes

En 1942, l'ABC (Atanasoff Berry Computer) du nom de ses concepteurs J.V. Atanasoff et C.Berry voit le jour.

En 1943, le premier ordinateur ne comportant plus de pièces mécaniques est créé grâce à J.Mauchly etJ.Presper Eckert : l'ENIAC (Electronic Numerical Integrator And Computer). Il est composé de 18000 lampes à vide, et occupe une place de 1500 m2. Il fut utilisé pour des calculs ayant servi à mettre au point la bombe H. 
Son principal inconvénient était sa programmation :
l'ENIAC était en effet uniquement programmable manuellement avec des commutateurs ou des câbles à enficher.

La première erreur informatique est due à un insecte qui, attiré par la chaleur, était venu se loger dans les lampes et avait créé un court-circuit. Ainsi le terme anglais pour « insecte » étant « bug », le nom est resté pour désigner une erreur informatique. Le terme bug a été francisé par la suite en bogue, terme désignant également le nom de l'enveloppe épineuse et piquante de la châtaigne.

En effet, les tubes étant de médiocres conducteurs, ils nécessitaient une grande quantité d'énergie électrique qu'ils dissipaient en chaleur. Cette lacune est palliée en 1946 avec la mise au point de l'EDVAC (Electronic Discrete Variable Computer) permettant de stocker les programmes en mémoire (1024 mots en mémoire centrale et 20000 mots en mémoire magnétique).

Le Transistor

En 1948, le transistor est créé par la firme Bell Labs (grâce aux ingénieurs John BardeenWalter Brattainet William Shockley). Il permet dans les années 50 de rendre les ordinateurs moins encombrants, moins gourmands en énergie électrique donc moins coûteux : c'est la révolution dans l'histoire de l'ordinateur.

· Le circuit intégré

Le circuit intégré est mis au point en 1958 par Texas Instruments, il permet de réduire encore la taille et le coût des ordinateurs en intégrant sur un même circuit électronique plusieurs transistors sans utiliser de fil électrique.

· Le Micro-ordinateur

C'est en 1971 qu'apparaît le premier micro-ordinateur : le Kenback 1, avec une mémoire de 256 octets.

· Les Microprocesseurs

En 1971, le premier microprocesseur, l'Intel 4004, fait son apparition. Il permet d'effectuer des opérations sur 4 bits simultanément. 
A la même époque Hewlett Packard commercialise la calculatrice HP-35
Le processeur 8008 d'Intel (permettant de traiter 8 bits simultanément) apparaît en 1972.

En 1973, le processeur 8080 d'Intel garnit les premiers micro-ordinateurs : le Micral et le Altair 8800, avec 256 octets de mémoire. A la fin de l'année 1973, Intel commercialisait déjà des processeurs 10 fois plus rapides que le précédent (le Intel 8080) et comportant 64 ko de mémoire.

En 1976, Steve Wozniak et Steve Jobs créent l'Apple I dans un garage. Cet ordinateur possède un clavier, un microprocesseur à 1 MHz, 4 ko de RAM et 1 ko de mémoire vidéo.
La petite histoire dit que les 2 compères ne savaient pas comment nommer l'ordinateur ; Steve Jobs voyant un pommier dans le jardin décida d'appeler l'ordinateur pomme (en anglais apple) s'il ne trouvait pas de nom pour celui-ci dans les 5 minutes suivantes...

En 1981 IBM commercialise le premier « PC » composé d'un processeur 8088 cadencé à 4.77 MHz.

· Les Ordinateurs aujourd'hui

Il est très difficile de nos jours de suivre l'évolution de l'ordinateur. En effet cette évolution suit la loi de Moore (Intel(c)) : « on peut placer 4 fois plus de transistor sur une puce tous les 3 ans ». 

On devrait ainsi arriver à 1 milliard de transistors sur une puce aux alentours de 2010. (www.commentcamarche.net)

I.1.2. TYPES D'ORDINATEURS

On distingue généralement plusieurs familles d'ordinateurs selon leur format :

- Les mainframes (en français ordinateurs centraux), ordinateurs possédant une grande puissance de calcul, des capacités d'entrée-sortie gigantesques et un haut niveau de fiabilité. Les mainframes sont utilisés dans de grandes entreprises pour effectuer des opérations lourdes de calcul ou de traitement de données volumineuses. Les mainframes sont généralement utilisés dans des architectures centralisées, dont ils sont le coeur.

- Les ordinateurs personnels, parmi lesquels on distingue :

o Les ordinateurs de bureau (en anglais desktop computers), composés d'un boîtier renfermant une carte mère et permettant de raccorder les différents périphériques tels que l'écran.

o Les  ordinateurs portables (en anglais lap top ou notebooks), composé d'un boîtier intégrant un écran dépliable, un clavier et un grand nombre de périphériques incorporés.

- Les tablettes PC (en anglais tablet PC, également appelées ardoises électroniques), composées d'un boîtier intégrant un écran tactile ainsi qu'un certain nombre de périphériques incorporés.

- Les centres multimédia (Media Center), représentant une plate-forme matérielle, destinée à une utilisation dans le salon pour le pilotage des éléments hifi (chaîne hifi, téléviseur, platine DVD, etc.).

- Les  assistants personnels (appelés PDA, pour Personal digital Assistant, ou encore handheld, littéralement «tenu dans la main»), parfois encore qualifiés d'organiseur (en anglais organizer) ou d'agenda électronique, sont des ordinateurs de poche proposant des fonctionnalités liées à l'organisation personnelle. Ils peuvent être dotés des fonctions d'un téléphone portable. On parle alors souvent dans ce cas de smartphone.

- Enfin, les netbooks sont des ordinateurs portables dotés d'un écran de petite dimension (généralement 12") et dont on a remplacé le  disque dur par de la mémoire flash, afin de réduire la consommation électrique (et le coût). (www.commentcamarche.net)

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Les esprits médiocres condamnent d'ordinaire tout ce qui passe leur portée"   François de la Rochefoucauld