WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Administration Linux et mise en place d'un serveur de messagerie

( Télécharger le fichier original )
par Trinité Héros KOUE FODE
Institut supérieur de technologie - Ingénieur des travaux en informatique 2008
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

INTRODUCTION GENERALE

Le réseau informatique est la mise en communication, la circulation des informations sur des machines (PC) distantes les unes des autres. Dans le réseau informatique, il existe plusieurs sortes : le MAN (Metropolitain Area Network), le WAN (World Area Network) et le LAN (Local Area Network).

Notre travail se basera plus sur le LAN avec une petite extension sur le WAN. Le LAN qui est un réseau local pouvant pendre en charge deux à plusieurs machines distantes dans différentes topologies du réseau. Nous verrons dans les pages qui suivent une brève esquisse de ces différentes topologies de mise en réseau et leur fonctionnement.

Nous ne nous arrêtons pas à ce niveau car le travail consistera en effet à décrire ni les différentes architectures du réseau ni les différentes topologies du réseau en informatique mais en fait l'administration d'un système de réseau LAN avec connexion sur le WAN pour permettre de partager une connexion sécurisée.

Ce travail consistera en fait à administrer un réseau ce qui revient à contrôler, gérer et suivre toutes les informations qui trafiquent sur ce réseau et permettre une communication Mail intranet par la mise en place d'un serveur de Messageries.

Pour ce faire, nous aurons le choix entre deux Operating System (Système d'Exploitation) pour gérer notre réseau. Un OS payant et graphique qui est le Microsoft Windows et un autre Open Source et CLI (Command Line) qui est Linux. Nous démontrons leurs avantages et inconvénients dans les lignes qui suivent et où se portera notre choix.

De ce choix nous démarrons notre administration, sa réalisation et sa mise en route pour nous permettre d'avoir un réseau administré et sécurisé ou il y'aura fluidité des informations.

I. BREVE ENTREVUE SUR LE RESEAU

La topologie de réseau

A. Structure BUS :

Un réseau de type BUS se compose d'une longueur continue du câble qui relie deux dispositifs ou plus ensemble. Un réseau de type BUS s'appelle également un réseau Backbone.

B. Structure STAR (Etoile) :

Une structure de réseau Étoile se compose de l'ordinateur individuel relié à un point central sur le réseau. Le réseau Étoile est le type le plus commun de réseau.

C. Structure RING (Anneau) :

Une structure de réseau Anneau se compose de l'ordinateur individuel relié à une longueur simple du câble disposé dans un anneau.

D. Structure Hybride :

La structure hybride de réseau emploie un mélange de différents genres de structures de réseau, comme STAR, BUS et également RING.

TYPE DE RESEAU

Il y a beaucoup de différents types de réseaux employés par des entreprises et des organisations. Trois types importants de systèmes répartis sont :

? LAN (Local Area Network) : est le type le plus commun de réseau trouvé dans les entreprises. Il relie des ordinateurs et des dispositifs situés près de l'un l'autre, tel que dedans un même bâtiment, bureau, etc.

? MAN (Metropolitan Area Network) : une collection de réseaux locaux. Les MAN relient des ordinateurs situés dans le même secteur géographique tel qu'une ville. (LAN + LAN, Village, entreprise <--> entreprise)

? WAN (Wide Area Network) : relie des réseaux locaux et métropolitains ensemble. Les réseaux qui composent d'un réseau étendu peuvent être situés dans tout un pays ou même autour du monde. (LAN + LAN + MAN)

E. SERVEUR

Lors de la mise en place d'une infrastructure de type Intranet, deux directions peuvent être envisagées :

· Soit la confiance est accordée au système de type Microsoft ;

· Soit la confiance est accordée aux systèmes ouverts de type Linux.

Même si ces deux environnement peuvent communiquer entre eux, il y'a un moment ou un choix doit être vraiment réalisé.

Chaque environnement à ses avantages et peut avoir aussi ses inconvénients ; parmi ceux-ci nous citons :

> Pour Microsoft

· Intégration global à tous les niveaux, depuis les postes clients en passant par la gestion du réseau, l'accès aux applications et aux bases de données. Microsoft répond à tous les besoins qu'un Intranet peut requérir ;

· Démarrage d'une solution Intranet relativement aisée ;

· En général les systèmes sont stables mais il faut appliquer un grand nombre de patch pour corriger les erreurs ;

· Le prix des licences sont relativement élevé, tant à l'achat que pendant l'exploitation ;

· La maintenance évolutive est trop chère (humain et matériel) ;

· Le système n'est pas inter opérable ou difficilement (système propriétaire) quoique certaines portes sont ouvertes ;

· La sécurité laisse à désirer bien que la Société Microsoft tente d'améliorer la situation.

> Pour Linux (Open Source)

· Possibilité de trouver des solutions qui correspondent à tous les besoins mais comme la plupart des solutions et outils sont gratuits, la commercialisation, le support peuvent faire défaut (tout est disponible sur Internet mais tout ne résout pas le problème adéquat) ;

· De plus de « vendeurs » portent leurs applications sous Linux, qui deviennent intégrables dans le réseau Open Source (comme serveur de fichier, gestions du réseau, serveur de sauvegarde, barrière de sécurité (pare-feu)....) ;

· Pour des raisons de sécurité et de réactivité à certaines trous de sécurité, nous utiliserons des Open Source ;

· Prix de loin inférieur ;

· Les grands producteurs (IBM, HP, COMPAQ, SUN) offrent des contrats de support à l'année ;

· Peu ou pas de virus, ils ne se lancent pas automatiquement comme sur Microsoft ;

· Normes standard du marché sont utilisés ;

· Système en constance évolution, stable dans le temps, qui compte plus en plus de praticien ;


· Possède dans son paquetage beaucoup de serveur et gratuitement :

· Barriere de sécurité (pare feu)

· Serveur de messagerie (SendMail, PostFix, SquireMail) ;

· Serveur DNS ;

· Serveur NIS ;

· Serveur de fichier (NFS) ;

· Serveur de sauvegarde des données ;

· Serveur LDAP (répertoire électronique, équivalent à Active Directory de Microsoft) ;

· Serveur de bases de données des grands producteurs ;

· Serveurs d'indexations et de repérages des données.

II. ADMINISTRATION DU SYSTEME D'EXPLOITATION

A. INSTALLATION DE LINUX RED HAT 9.0

Le choix du Système s'est fait sur un Système Open Source et nous avons porté sur une distribution Linux (Red Hat 9.0). Pourquoi le choix de cette distribution mais pas d'une autre distribution Linux. Les causes sont multiples :

· Nous disposons des CD ROM d'installation de cette distribution et puis de la dernière version la plus stable;

· Les paquetages d'administration tous sont intégrés dans le CD ROM d'installation et qu'il suffit seulement de les cochés ;

· Les multiples possibilités d'utilisation du Système :

> Bureau, pour une utilisation personnelle dans un cadre privé du système comme Windows XP ou Vista de Microsoft ;

> Poste de travail, plus utilisé par les développeurs puisque les codes sont libres et donc modifiables à volonté et à convenance ;

> Serveur, pour administrer un réseau professionnel et ce sera aussi notre possibilité utilisée ;

> Personnalisé, cette option est la plus compliquée puisque seuls les professionnels du Linux peuvent l'utiliser car elle donne la possibilité de développer un autre Système d'Exploitation à partir de l'ancien et de personnaliser le Système à ses convenances.

· La stabilité du Système

· L'interopérabilité du Système.... Nous ne citons que ceux.

B. LES ETAPES DE L'INSTALLATION

Les prés requis :

· Le PC doit supporter un affichage de 32 Bits ;

· Le PC doit disposer au moins de 128 Mbits de RAM ;

· Le PC doit avoir un peu de mémoire disponible sur le Disque (Même 10 Go est largement suffisant pour le bon fonctionnent d'un Linux contrairement aux dernières versions de Windows) ;

· Apres toutes ces vérifications nous passons à la première étape de l'installation :

1. Boot

Le PC doit nécessairement booter sur le lecteur DVD/CD ROM pour permettre l'installation du Système. Là, au démarrage il faut appuyer sur la touche fonction F2 pour entrer dans le bios pour changer l'ordre de démarrage (master boot). Dans le bios on met en première position le lecteur DVD/CD ROM puis on appui sur la fonction F10 pour valider la nouvelle configuration et sortir du Bios.

2. Démarrage de l'installation

Apres être sortie du Bios, il faut insérer le premier CD ROM d'installation du Red Hat 9.0 (puisqu'il possède trois CD ROM d'installation). Apres il faut redémarrer le PC pour qu'il puisse prendre le CD ROM au démarrage ; si c'est le cas, il ne reste qu'à appuyer sur la touche Valider (Entrée) pour valider l'installation.

3. Choix de la Langue

L'étape primordiale de l'installation et la configuration d'un Système d'Exploitation (Type Serveur) est la langue qui sera utilisé dans le Système. Nous proposons le Français.

4. Choix de l'option du Clavier

Ce choix est en fonction du clavier dont dispose le poste qui doit recevoir ce nouveau Système. Les différents systèmes du clavier dépendent des langues utilisées.

5. Choix de la Souris

Ce choix est indispensable sinon la souris ne marchera pas. Quelques descriptions sur les souris :

· Souris à deux boutons, souris possédant deux touches ;

· Souris à trois boutons, souris possédant une troisième touche au milieu ou à coté ;

· Souris trois boutons et émulation, souris possédant à la place du troisième bouton une molette.

6. Choix de la manière de l'Installation

Dans cette partie, il existe deux manière d'installer Linux si c'est la première installation sinon trois :

· Installer le Système sur tout le disque, formatage complet du disque ;

· Installer en dual boot pour le permettre de fonctionner en collaboration avec un Système d'Exploitation (Si c'est pour faire un dual boot avec un Système Windows, il serait préférable et conseillé d'installer le Système Windows avant le Linux quelque soit sa distribution) ;

· Conserver l'ancienne version du Système linux s'il existe une ancienne version de Linux et faire une mise à niveau.

7. Paramétrage du Grub ou du Lilo

Grub ou le Lilo sont comme pour le Windows le DOS ; nous avons le choix entre le Grub ou le Lilo au démarrage.

8. Configuration des espaces

La configuration des espaces représentent l'utilisation des espaces du disque dur. Si la configuration est manuelle :

· Il faut donner le double de la RAM au Swap L'espace swap dans Linux est utilisé lorsque la mémoire physique (RAM) est pleine. Si le système a besoin de plus de ressources de mémoire et que la mémoire physique est pleine, les pages inactives de la mémoire sont déplacées dans l'espace de swap. Même si l'espace de swap peut aider les ordinateurs disposant d'une quantité de RAM limitée, il ne faut pas le considérer comme un outil remplaçant la RAM. L'espace de swap est situé sur les disques durs ayant un temps d'accès plus lent que la mémoire physique.

· L'espace de swap peut être une partition de swap consacrée (option recommandée), un fichier de swap ou une combinaison de partitions et de fichiers de swap. La taille de votre espace de swap devrait être équivalente à deux fois la RAM de votre ordinateur ou 32 Mo (selon la quantité la plus importante), mais ne doit pas dépasser 2048 Mo (ou 2 Go). (il représente la mémoire virtuel du Système)

· Il faut donner au moins 50 Mbits pour le Lilo ou le Grub selon le choix du Shell de démarrage.

· Si la configuration est automatique, le travail et le calcul se fait automatiquement par le Système.

9. Choix de l'utilisation du Système

Ce choix détermine la façon de l'utilisation de Linux Red Hat 9.0 :

· Bureau ;

· Poste de travail ;

· Serveur (le choix s'est imposé à cette option) ;

· Personnalisé.

10. Choix des paquetages

Arriver à l'avant dernière partie de notre installation, cette étape permet la configuration du Système à notre connivence. Comme nous devons utiliser un Système serveur, nous cochons tous les paquetages disponibles pour éviter que notre configuration ne puisse pas marcher à cause des problèmes des dépendances inter paquetages.

11. Adaptation de l'écran

Nous devons à partir d'ici choisir la bonne configuration qui correspond aux spécificités de notre écran.

12. La manière de l'utilisation

Cette est la partie la plus importante de notre installation et de l'utilisation prochaine de notre Système. Nous avons le choix entre :

v' Le mode texte, l'interface ou le bureau (dépend des prononciations) sera en ligne de commande (CLI, Command Ligne) donc un écran noir qu'il faudrait entrer des codes pour l'utiliser ;

v' Le mode graphique, l'interface sera conviviale comme Windows XP avec des images, des graphiques et des animations.

13. Fin de l'installation

Selon le choix de chacun, il y'a le choix :

· Créer un disque de démarrage, il est obligatoire lors du démarrage d'une nouvelle session du PC à chaque fois ;

· Ne pas créer un d'amorçage (démarrage et amorçage c'est la même chose), là Lilo ou le Grub sera alloué sur un espace du disque dur. Le démarrage du Système se fera donc automatiquement.

· Maintenant il ne reste plus qu'à retirer le troisième CD ROM et redémarrer le PC.

III. FIN DE L'INSTALLATION

Lorsque l'installation de Linux est terminée, le système se réinitialise. Par la suite, chaque fois que l'on démarre Linux, le système demandera un nom d'utilisateur et le mot de passe correspondant. Cette requête peut s'effectuer soit en mode texte, soit en mode graphique; cela dépend de la configuration de la distribution. Par défaut, sous Linux Red Hat 9.0, c'est un écran de login en mode graphique qui est proposé. Quoi qu'il en soit, le principe est le même : on doit se connecter au système avant de pouvoir l'utiliser.

1) Le démarrage de Linux

Durant le démarrage de Linux, nous verrons bon nombre d'informations s'afficher à l'écran. Nous ne devrons nous inquiéter ni du fait que nous n'y comprenons rien, ni que

certains services ne se chargent pas correctement (le mot « fail » peut, rarement, apparaître en rouge, alors que généralement il est indiqué « OK »).

Exemple:

Init version 2.84

bootin

Mounting proc filesystem

Init: Entering runlevel: 5

Montage du système de fichier proc (OK)

Configuration des paramètres du noyau (OK)

Chargement de la configuration clavier (OK)

Remontage du système de fichiers en mode lecture-écriture (OK)

Activation des partitions swap (OK)

2) L'écran de connexion en mode graphique

Figure : L'écran de login en mode graphique.

Nous voici à présent devant l'écran de connexion (également appelé « écran de login») en mode graphique. Nous avons la possibilité d'y changer la langue à utiliser par défaut ou le type de session (par exemple, si nous avons les environnements graphiques Gnome et KDE, tous deux installés, nous pouvons décider avec lequel nous allons travailler). Le plus simple, pour commencer, est d'entrer notre nom d'utilisateur (pierre dans notre exemple) et le mot de passe (nous avons changé le nom d'utilisateur pour raison de sécurité).

3) Le chargement de la session

Après avoir entré notre nom d'utilisateur et notre mot de passe commence le chargement de la session. Nous devrons patienter un peu, le temps que le système effectue

quelques préparatifs (gestionnaire de périphériques, gestionnaire de fenêtres, tableau de bord, etc.). Que nous choisissions Gnome ou KDE comme environnement graphique ne change rien : le système procède aux mêmes initialisations. A présent, du moment que nous utilisons un compte normal, nous pouvons essayer absolument tout ce que nous voulons : nous ne risquons pas d'endommager quoi que ce soit (voir L'utilisation d'un compte normal).

Le chargement d'une session KDE. Ça y est, nous pouvons enfin travailler sous Linux !

Figure : L'écran de connexion en mode texte

Lorsque nous nous connecterons à Linux en mode texte (par exemple parce que notre système est configuré de la sorte ou parce que nous avons fait appel à un terminal virtuel), nous obtiendrons les informations suivantes :

Linux Red Hat release 9 (Shrike)

Kernel 2.4.20-8 on an i686

localhost login: root <ENTRÉE> Password

Last login: Wed Sep 17 19:24:42 on tty1 ( root@enerca.cf)$

Après avoir entré notre nom d'utilisateur, également appelé nom de login, le système nous demande le mot de passe correspondant. Comme nous pourrons le constater, le système ne reflète pas le mot de passe à l'écran (même pas par des astérisques). Pour ce qui est du reste, ce premier écran donne déjà un certain nombre de renseignements :

· la version du noyau (2.4 - les deux premiers chiffres sont les plus importants) ;

· le type de processeur (i686, soit un processeur compatible Intel et équivalent, au minimum, à un Pentium II) ;

· la date et l'heure de notre dernière connexion (ou, plus précisément, de la dernière fois que nous nous étions connectés sur ce compte - pierre dans notre exemple) ;

· le nom d'utilisateur (pierre) ainsi que le nom de la machine (localhost, ce nom ayant été choisi par défaut lors de l'installation et qui, pour bien faire, devrait être changé plus tard) et, sur la même ligne, le nom du répertoire dans lequel nous nous trouvons (pierre, comme le nom d'utilisateur dans ce cas-ci).

Lorsque nous nous retrouvons devant l'invite du Shell, après avoir entré notre mot de passe, nous pouvons lancer l'interface graphique en entrant la commande startx : (pierre@localhost pierre)$ startx <ENTRÉE>

Donc, en résumé, démarrer en mode texte et entrer ensuite startx revient au même que démarrer directement en mode graphique. L'auteur configure ses différents systèmes de façon à ce que le login s'effectue toujours en mode texte et il démarre ensuite manuellement le mode graphique (à l'aide de la commande startx). Cela peut éviter d'être bloqué si un mode graphique non supporté par le moniteur est malencontreusement sélectionné.

4) L'utilisation d'un compte normal

Lorsque l'on découvre pour la première fois Linux, il est fortement conseillé de ne pas utiliser le compte root (encore appelé « compte administrateur ») mais bien un compte normal. La raison en est simple : nous serons soit perdu parmi les centaines de programmes accessibles depuis l'interface graphique, soit bloqué à l'invite du mode texte - sans avoir la moindre idée des commandes à y entrer. Une fausse manoeuvre est alors vite arrivée, ce qui peut, suivant que l'on soit l'utilisateur root ou un simple utilisateur, avoir des conséquences désastreuses ou... aucune importance ! En effet, en tant que simple utilisateur nous ne pourrons jamais dérégler le système ni effacer de fichiers importants. Dans le pire des cas, nous pourrions complètement dérégler nos paramètres de configuration, par exemple à un point tel qu'il sera impossible de récupérer la configuration d'origine de ce compte utilisateur en particulier. A ce moment-là, il n'y aurait qu'à créer un nouveau compte utilisateur (seul l'utilisateur root a ce droit)....

5) La procédure de reboot

Linux est installé sur notre système et nous sommes capables de nous y connecter, mais il nous reste encore bien des choses à apprendre. En effet, même si l'interface graphique de Linux (que nous utilisions Gnome ou KDE) présente des similitudes avec Windows, il en va tout autrement du mécanisme intrinsèque du système d'exploitation. Les différences se situent, entre autres, au niveau du système de fichiers, du mode multi-utilisateurs, de l'installation de nouveaux programmes, de l'interface graphique, etc. Avant d'approfondir ces sujets, voici la démarche à suivre pour quitter Linux. Tout comme c'est le cas pour Windows, il vaut mieux quitter Linux proprement. Il ne suffit pas simplement de couper l'ordinateur : cela pourrait endommager le système de fichiers (voire même, mais c'est très rare, endommager physiquement le disque dur). Si l'ordinateur n'est pas éteint correctement, cela se traduira par un prochain démarrage de Linux ralenti (le système vérifiera si la coupure impromptue n'a pas entraîné la perte de fichiers). Aucune méthode n'est meilleure qu'une autre et il n'est pas nécessaire d'apprendre par coeur des commandes fastidieuses (par exemple shutdown -h 0). Nous en présentons simplement quelques-unes afin que nous puissions nous faire une idée de ce qu'il se passe « sous le capot ».

6) L'arrêt depuis l'interface graphique

Si notre système est configuré, comme c'est le cas par défaut avec la distribution Linux Red Hat 9, pour démarrer en mode graphique, il suffit de quitter la session en cours (par exemple en choisissant dans le menu Quitter puis Quitter KDE) : nous nous retrouvons devant l'écran de connexion en mode graphique et il nous suffira de cliquer sur Arrêter. Cette technique ne fonctionne pas si notre ordinateur démarre en mode texte. En effet, lorsque nous quittons l'interface graphique nous nous retrouvons alors devant l'écran de login en mode texte, qui ne propose pas de bouton Arrêter. Il est également possible d'ouvrir un terminal virtuel depuis l'interface graphique et d'appeler manuellement la commande reboot (ou shutdown).

7) L'appel manuel de la commande reboot

Pour couper ou redémarrer l'ordinateur, il faut lancer soit la commande shutdown, soit la commande reboot (qui appellera alors elle-même la commande shutdown avec les paramètres adéquats). Le système se coupera alors proprement. Lorsque nous avons accès à un Shell (par exemple si nous avons démarré en mode texte ou si nous avons lancé un terminal virtuel dans notre interface graphique), nous pouvons entrer la commande reboot :

(trinite@localhost trinite)$ reboot <ENTRÉE> The system is going down for reboot NOW!!! Init is switching to system level 6

Suivant les distributions de Linux, voire suivant les différentes versions d'une même distribution de Linux, les droits d'exécution de cette commande peuvent varier. Par défaut, Linux Red Hat 9 autorise n'importe quel utilisateur à lancer cette commande et, donc, à redémarrer l'ordinateur.

8) L'appel de la commande shutdown

Normalement seul l'utilisateur root a le droit d'appeler la commande shutdown. Dès lors, nous devrons probablement appeler la commande su avant de lancer la procédure de shutdown. La commande «shutdown -h 0 » (-h pour halt) permet de couper l'ordinateur sans qu'il ne redémarre. Exemple:

(trinite@localhost ~/) $ /sbin/shutdown -h 0

shutdown: you must be root to do that!

(pierre@localhost ~/) $ su

Password:

(root@spyda /home/trinite/) # /sbin/shutdown -h 0

The system is going down for reboot NOW!!!

Init is switching to system level 6

Unmounting file system

L'utilisateur trinite essaye d'appeler la commande shutdown (présente dans le répertoire /sbin/) mais se voit refuser l'accès (« You must be root to do that »). Il lance alors la commande su pour devenir l'utilisateur root et il peut ensuite lancer la procédure de shutdown. Certains utilisateurs gardent leur système Linux allumé durant des semaines, voire des mois et ceci soit par nécessité (par exemple parce que le système sert de serveur) soit par facilité (à quoi bon redémarrer un système qui ne se bloque jamais ?). La commande uptime permet de voir depuis combien de temps le système Linux est démarré. Exemple:

[gospa@enerca ~/] $ uptime

14:46:59 up 15 days, 9:35, 10 users, load average: 0.19, 0.66, 0.57

[gospa@enerca ~/] $

L'utilisateur gospa constate que le système nommé enerca est allumé depuis plus de 15

jours.

9) La session de secours

Même si nous ne connaissons encore aucune commande Unix, il peut être bon de préciser que lors du login en mode graphique nous pouvons lancer une session de secours (dans le menu Session/Secours). Nous nous retrouvons alors devant un bureau vide (aucun environnement graphique, ni Gnome ni KDE, n'est lancé) ne contenant qu'une seule fenêtre : un terminal virtuel. Ce terminal peut alors servir pour réparer le système (par exemple en créant un nouveau compte utilisateur).

Figure : La session de secours permet d'accéder à un terminal virtuel.

10) Le principe multi-utilisateur

Comme tous les systèmes Unix, Linux supporte et, surtout, encourage l'utilisation de plusieurs comptes utilisateurs... même si nous sommes le seul à utiliser le système ! Après avoir installé Linux, au moins deux comptes utilisateurs seront présents sur la machine : l'un étant le compte de l'administrateur (root) et l'autre un simple compte utilisateur, que le programme d'installation nous a invité à créer.

11) Le compte utilisateur

Chaque utilisateur dispose d'un répertoire personnel, placé, par convention, dans le répertoire /home/. C'est dans ce répertoire que l'utilisateur pourra organiser, à sa guise, ses fichiers et répertoires personnels. L'on peut même dire que c'est le seul répertoire dans lequel l'utilisateur a le droit de modifier quelque chose ! La session de secours permet d'accéder à un terminal virtuel. En effet, étant donné le système de permissions d'accès utilisé par Linux, un utilisateur se voit dans l'impossibilité d'effacer ou de modifier des fichiers importants. C'est ce qui explique notamment que les virus ne peuvent pas se reproduire ni d'un utilisateur à un autre, ni d'une machine à une autre. C'est ce qui explique également pourquoi Linux est si robuste : il est impossible qu'une application installée par un utilisateur dérègle tout le système ! Le répertoire principal d'un utilisateur contient également ses fichiers de configuration c'est-à-dire les fichiers de configuration créés par les différents programmes auxquels l'utilisateur a recours. La capture d'écran suivante montre le contenu du répertoire principal des utilisateurs pierre et robin. Nous devons noter qu'il a fallu devenir super utilisateur, ou root, pour pouvoir lister le contenu du répertoire /home/robin/ : c'est normal, il n'y a aucune raison que l'utilisateur pierre puisse avoir accès aux informations personnelles de

l'utilisateur robin ! Le message classique qu'obtient un utilisateur essayant d'ouvrir un fichier auquel il n'a pas le droit d'accéder est : « permission non accordée » (ou parfois « permission denied » puisque les programmes de la Red Hat ne sont pas tous traduits). Si le terminal n'est pas correctement configuré (ou si un programme n'est pas correctement configuré), il se peut également que le message s'affiche en gérant mal les caractères accentués (par exemple : « permission non accordée »). Nous verrons plus loin comment configurer le terminal pour remédier à ce problème. La plupart des fichiers contenus dans les répertoires de ces deux utilisateurs sont des fichiers cachés (leurs noms commencent par un point). Le contenu des répertoires,

/home/pierre/ et /home/robin/.

fichiers de configuration des programmes utilisés. L'on peut ainsi constater, par exemple, que l'utilisateur pierre a déjà utilisé l'environnement Gnome tandis que le répertoire /home/robin/ ne contient que quelques fichiers cachés (c'est normal, car il s'agit d'un compte tout fraîchement créé). Quant aux fichiers personnels, l'utilisateur pierre dispose de quelques images (.gif, .png et .jpg) et de deux fichiers .html. A noter également la présence du répertoire .metacity, qui indique que l'environnement graphique Gnome utilise le gestionnaire de fenêtre metacity. Rien ne nous force à consulter le contenu de notre répertoire personnel depuis un terminal, nous pouvons tout aussi bien recourir à un navigateur de fichiers, tel Nautilus.

Figure : L'ajout d'un nouveau compte utilisateur

Nous pouvons ajouter un nouveau compte utilisateur en nous rendant, par exemple, dans le menu Paramètres systèmes / Groupes et utilisateurs. Le nom d'utilisateur employé pour le login doit être écrit en minuscules. Le répertoire utilisé par défaut se trouve dans le répertoire /home/ et porte le nom de login (par exemple /home/robin/ pour l'utilisateur nommé robin). Le contenu des répertoires /home/pierre/ et /home/robin/.

Ajouter un nouvel utilisateur consiste simplement à créer une nouvelle entrée dans les fichiers de connexion (notamment dans le fichier /etc/passwd - qui contient tous les utilisateurs) ainsi qu'un nouveau répertoire dans le répertoire /home/.

12) Le compte root

Le compte root est quelque peu particulier puisqu'il s'agit du compte de l'administrateur du système. Tout d'abord, il n'est pas situé dans le répertoire /home/ des utilisateurs normaux mais bien directement à la racine du disque dur (répertoire /root/). Ensuite, l'utilisateur root est l'administrateur du système et il a donc tous les droits.

L'ajout d'un utilisateur nommé robin (par exemple) au système. Pour effectuer certaines tâches nous serons obligés d'être, du moins momentanément, l'administrateur du système. Il en sera ainsi, par exemple, lorsque nous désirons installer un nouveau programme ou créer un nouveau compte utilisateur. Etant donné que l'administrateur a tous les droits, il peut modifier ou effacer n'importe quel fichier. Une seule fausse manoeuvre peut alors suffire à compromettre tout le système et c'est pourquoi il est très fortement recommandé de n'utiliser le compte root que lorsque c'est vraiment nécessaire.

13) Les terminaux virtuels

Quelle que soit la version de Linux que nous utilisons, plusieurs terminaux virtuels sont disponibles et ce avant même que nous ne soyons connectés. En effet, étant donné que Linux est multi-utilisateur et multitâche il est possible de connecter simultanément plusieurs utilisateurs (ou plusieurs fois le même utilisateur) au système.

Il est par exemple possible d'ouvrir simultanément plusieurs consoles en mode texte sous X (l'interface graphique des systèmes Unix) et de s'y connecter sous différents noms d'utilisateur. De même, il est possible d'accéder à différents terminaux virtuels ; ce qui, en plus d'être très impressionnant, est fort pratique ! Sur la capture d'écran présente à la page suivante, on peut constater qu'il y a quatre terminaux X ouverts. Deux appartiennent à l'utilisateur carrera, un à l'utilisateur pierre et un à l'utilisateur root (le super utilisateur). On accède à une console en mode texte en combinant les touches <CTRL>+<ALT> avec la touche de fonction correspondant au numéro du terminal qu'on désire obtenir. Par défaut, Linux Red Hat 9 (et beaucoup d'autres distributions de Linux) permet d'utiliser six terminaux virtuels en mode texte (numérotés de 1 à 6). Au démarrage, on est connecté soit au premier terminal en mode texte, soit au premier terminal en mode graphique. Un exemple valant mieux qu'un long discours, voici la démarche à suivre :

· démarrons Linux ;

· connectons-nous en entrant notre nom d'utilisateur - nous nous retrouvons alors face soit à l'invite d'un Shell (en mode texte), soit à l'écran de login de l'interface graphique (suivant la façon dont le système est configuré) ;

· appuyez sur les touches <CTRL>+<ALT>+<F2>...

Autant spécifier que nous venons de faire un reset du système, mais simplement d'accéder pour la première fois à un terminal virtuel, en mode texte. Nous pouvons nous en assurer en « retrouvant » l'interface graphique (<CTRL>+<ALT>+<F7>) ou notre ancien terminal (<CTRL>+<ALT>+<F1>) tel que nous l'avons quitté. Lorsqu'on se connecte pour la première fois à un autre terminal, on se retrouve devant l'invite login. On peut très bien se connecter sur le même compte utilisateur depuis différents terminaux virtuels. Puisque le système propose par défaut six terminaux virtuels en mode texte (de <F1> à <F6>), le système permet d'accéder à l'interface graphique à l'aide de la touche <F7> (<CTRL>+<ALT>+<F7>). Nous verrons plus loin qu'il est même possible de lancer plusieurs interfaces graphiques simultanément et de passer de l'une à l'autre.

Figure : Quatre terminaux virtuels sont ouverts simultanément 14) L'utilisation de plusieurs terminaux

A priori, recourir à différents terminaux ne nous semble peut-être pas utile. Voici donc quelques exemples d'utilisation de ces terminaux et, à n'en pas douter, nous en trouverons bien d'autres...

· Lorsqu'on utilise Linux dans notre entreprise ou chez soi, il vaut mieux travailler en tant que «simple utilisateur » mais il est parfois nécessaire de lancer des commandes en tant qu'utilisateur root et de passer d'un compte à l'autre.

· Si notre Shell ou notre interface graphique plante (ce qui est très rare) ou que nous sommes bloqués dans un logiciel, la commande <CTRL>+<ALT>+<F2>, par exemple, fonctionne généralement encore. Nous pouvons alors rétablir l'ordre dans notre système (par exemple en tuant les processus douteux depuis le compte root).

· Si nous effectuons des manipulations depuis le Shell sur deux répertoires simultanément et que ces deux répertoires ne se trouvent pas du tout au même endroit dans notre système de fichiers, il peut être pratique d'avoir un terminal ouvert sur le premier répertoire et un autre sur le second.

· Certaines tâches mettent du temps à s'exécuter et peuvent donc monopoliser un terminal ou encore afficher des informations et donc bloquer le terminal (en utilisant, par exemple, un terminal pour visualiser en continu un fichier de log). Dans ce cas, il est fort pratique de pouvoir quitter le terminal en question. Il est également fort pratique de pouvoir y revenir de temps à autre, afin de voir où en est l'exécution de la tâche.

La touche <CTRL> n'est nécessaire que lorsqu'on désire quitter l'interface graphique pour un terminal virtuel en mode texte (pour passer d'un terminal virtuel à un autre terminal, ou à

l'interface graphique, la combinaison <ALT>+<FX> suffit), toutefois, il est plus facile de ne retenir que la combinaison <CTRL>+<ALT>+<FX>, qui fonctionne à tous les coups.

IV. CONFIGURATION RESEAU

nous allons traiter maintenant de la configuration du serveur Linux Red Hat 9 en tant que passerelle Internet pour un réseau interne composé de clients Windows. Ce serveur gèrera la connexion Internet ; il sera serveur DHCP, DNS et firewall.

Donc nous allons nous atteler à installer et configurer la connexion Internet sur notre serveur Red Hat (dans notre cas la liaison avec le modem est faite via un câble Ethernet). Il est donc nécessaire que notre machine possède 2 cartes Ethernet.

L'installation et la configuration se font en 3 étapes:

· 1 - 1 Configuration réseau.

· 1 - 2 Installation et configuration du modem.

· 1 - 3 Mise en place d'un Firewall (NAT).

La première des choses à faire est de donner des adresses IP fixes à nos 2 cartes réseaux. Nous cliquons sur le chapeau Redhat ==>Paramètre système =>Réseau.

Nous sélectionnons la carte Eth0 et nous lui donnons une adresse du type ex : 192.168.0.1 et 255.255.255.0 en masque de sous-réseau (adresse de classe C de type privé, carte reliée à notre réseau interne).

Et nous reproduisons la même opération pour la carte Eth1 par un double-clic et nous luidonnons une adresse du type 10.0.0.28 et 255.255.255.0 en masque de sous-réseau ; cette carte sera celle reliée au modem via le câble Ethernet.

Vu que l'onglet DNS est tout proche, on va ajouter les adresses Primaire et Secondaire de notre Provider Internet.

Nous cliquons sur l'onglet Hôtes et indiquer le nom hostname de notre serveur Redhat.

Puis sauvegarder pour valider la configuration : nous faisons Fichier ==> Enregistrer.

Pour vérifier les modifications, nous ouvrons un terminal par un clic-droit sur le bureau et nous nous logons sous root par su, pour relancer le service network par la commande /etc/rc.d/init.d/network restart ou service network restart et faire un ifconfig, nous pouvons observer les nouvelles IP attribuées aux cartes Eth0 et Eth1.

Figure : Installation et configuration modem

V. INSTALLATION DU MODEM

Pour cela, nous allons installer un Package RPM du type rp-pppoexxx i386.rpm, i386 si lors de l'installation nous l'avons oublié.

Pour faire l'installation du Package RPM, nous ouvrons à nouveau un terminal par un clic-

droit sur le bureau et nous nous logons sous root, nous nous plaçons dans le répertoire notre RPM a été téléchargé à l'aide de la commande cd /mon_rep, ls pour lister le répertoire,

puis utiliser la commande rpm -Uvh mon_package.rpm. Une fois installé, il nous reste plus qu'à configurer la connexion PPP0 avec la commande adsl-setup

Nous devons remplir tous les éléments demandés, attention : choisir la bonne carte Ethernet (Eth0 ou Eth1) identifiant, mot de passe, DNS, nous devons être vigilants à la dernière option qui traite du firewall, pour bien indiquer la valeur 0, pour non.

La configuration étant effectuée et le modem branché correctement, nous pouvons lancer une connexion par la commande adsl-start ou adsl-connect, au bout de quelques secondes le Shell nous rend la main.

Nous pouvons vérifier que la connexion est bien active à l'aide de la commande ifconfig, nous devrions voir apparaître une IP pour l'interface PPP0. Si c'est le cas nous pouvons lancer un browser Internet (navigateur) et naviguer sur le Web (Internet Explorer, Google Chrome ou Mozilla Firefox).

Maintenant que notre serveur Linux est bien connecté à Internet, nous allons le configurer afin qu'il puisse faire bénéficier sa connexion aux clients DHCP. Sous Linux, le principe de partage est similaire à ce que l'on peut rencontrer sur les routeurs.

Pour que notre serveur puisse partager sa connexion avec des clients, il est indispensable qu'il fasse du N. A. T. (Network Address Translation - Translations de ports). De plus, nous allons nous servir du service DHCP afin que les clients puissent récupérer les DNS de notre connexion.

En résumé, pour que la configuration des clients soit allégée, nous allons laisser le soin à notre Redhat Linux d'être serveur DHCP pour l'instant et de permettre un rapatriement des adresses DNS aux clients. Ces derniers n'auront plus qu'à se connecter au réseau pour accéder à Internet.

Nous commençons à installer notre Red Hat Linux en serveur DHCP, configuration du NAMED et ensuite la partie N.A.T qui sera mise en place à l'aide de notre firewall logiciel (Firewall Builder).

La première chose est de nous assurer que le DHCP n'est pas déjà installé : Soit en cherchant l'existence du RPM, soit par la présence de l'exécutable dhcpd et named dans /etc/rc.d/init.t par la commande ls /etc/rc.d/init.d.Pour voir s'il est installé en RPM, nous devons utiliser la commande rpm -qa |grep dhcp et rpm -qa |grep named, qui nous listera tous les packages installés portant les chaînes de caractères dhcp ; sinon, pas de panique, les RPM sont disponibles ici dhcp-3.0pl1-23.i386.rpm Pour l'installer, même technique que précédemment: rpm -Uvh dhcp-3.0pl1-23.i386.rpm

Nous pouvons aussi le charger tout simplement en utilisant le RPM de base fournit dans le CD d'installation de REDHAT 9. Pour cela, nous insérons le CD d'installation Linux,

une fenêtre s'ouvre et valider l'ajout d'un nouveau programme ou package, puis nous sélectionnons le RPM ou le serveur à ajouter, dans notre cas ici le serveur DHCP. Dans ce cas, l'installation se fait automatiquement.

Il ne nous reste plus qu'a configurer notre DHCP : Le fichier de configuration est situé dans /etc/dhcpd.conf, nous éditons ce fichier par vi /etc/dhcpd.conf et ajoutons les lignes suivantes:dhcpd.conf

Une fois le DHCP configuré, il nous faut configurer la partie DNS, par le fichier /etc/named.conf, même procédures, nous éditons le fichier par vi, vi /etc/named.conf et nous ajoutons les lignes suivantes : named.conf

Nous allons adapter kokoko.dynd.org de la copie écran par l'URL de notre serveur Apache. Maintenant nous allons lancer les processus named et dhcpd, par la commande /etc/rc.d/init.d/named start, /etc/rc.d/init.d/dhcpd start ou par service named start, service dhcpd start.Le contrôle des services ou processus en cours d'exécution se fait par la commande : ps -ef |grep nom_du_service_rechercher, ici named et dhcpd : ps -ef |grep dhcpd. On voit bien le process en action et la carte réseau affectée ici eth0.

Nous pouvons donc connecter un poste client au(x) réseau(x), nous nous logons, puis nous faisons Démarrer==> Exécuter : cmd ou command et tapez dans la fenêtre DOS ipconfig /all, nous voyons apparaître les lignes suivantes:

Cela signifie que notre serveur DHCP fonctionne, car l'adresse de la passerelle (l'adresse de notre serveur DHCP Linux) et le bail dhcp ont été fournis. Pour finaliser le lancement de ces processus à chaque reboot de la machine, il nous faut vérifier que le service sera bien chargé dans le rc5.d (configuration des services au démarrage), pour cela nous cliquons sur le chapeau Redhat ==>Paramètre système ==>Service.

Nous cochons les lignes des services DHCPD et NAMED, nous pouvons aussi arrêter et redémarrer les services à l'aide des boutons ici en les sélectionnant. Puis faire Fichier==> Enregistrer et valider.

Nous disposons maintenant d'un serveur capable de fournir des adresses IP à des postes sur le réseau.

VI. MISE EN PLACE D'UN FIREWALL (NAT)

Dernière phase, étape 3 : mise en place du Firewall (NAT) pour la Passerelle Internet. L'outil utilisé ici est FIREWALL BUILDER, c'est un programme Graphique qui permet de configurer et de compiler les règles IPTABLES (firewall), afin de sécuriser la connexion et faire de la translation de port pour notre partage de connexion internet (NAT).

FIREWALL BUILDER Release 1:

fwbuilder-1.1.2-1.rh9.i386.rpm fwbuilder-ipf-1.1.2-1.rh9.i386.rpm fwbuilder-ipfw-1.1.2-1.rh9.i386.rpm fwbuilder-ipt-1.1.2-1.rh9.i386.rpm fwbuilder-pf-1.1.2-1.rh9.i386.rpm libfwbuilder-1.0.2-2.rh9.i386.rpm gtkmm-1.2.10-fr3.i386.rpm

libsigc++10-1.0.4-fr3.i386.rpm

FIREWALL BUILDER Release 2:

fwbuilder-2.0.3-1.rh90.i386.rpm fwbuilder-ipfw-2.0.3-1.rh90.i386.rpm fwbuilder-ipf-2.0.3-1.rh90.i386.rpm fwbuilder-ipt-2.0.3-1.rh90.i386.rpm fwbuilder-pf-2.0.3-1.rh90.i386.rpm gtkmm-1.2.10-fr3.i386.rpm

libfwbuilder-2.0.3-1.rh90.i386.rpm libsigc++10-1.0.4-fr3.i386.rpm

Une fois téléchargée, nous installons les RPM par la commande :

rpm -Uvh mon_package1.rpm mon_package2.rpm mon_package3.rpm Une fois le tout installé, deux solutions s'offrent à nous:

télécharger le fichier fwb (firewall builder) ou l'installer manuellement.

a. TELECHARGER ET DECOMPRESSER LE FICHIER fwbuilder dotclear.fwb.tar

Pour décompresser le TAR (fichier compresser), nous ouvrons un terminal sous root puis nous tapons la commande tar -xvf fwbuilder_dotclear.fwb.tar ls -la

Pour vérifier si le fichier est exécutable, sinon nous lui donnons des droits en faisant

chmod 775 fwbuilder_dotclear.fwb chown root:root fwbuilder_dotclear.fwb (à faire pour des raisons de sécurité).

Nous ouvrons un terminal sous root et nous tapons la commande fwbuilder er l'interface graphique se lance, puis nous ouvrons le fichier et l'adaptons en fonction de notre système et de notre configuration : Red (hostname de notre linux), eth0, eth1, nous changeons ou ajoutons les hosts des machines clientes, plus nos services TCP ou autres.

Puis nous faisons un clic sur le bouton compiler (ou clic droit sur icône firewall Red compiler) pour installer les règles, nous ouvrons un terminal et utilisons les commandes suivantes :

cd /root

ls -la /root/*.fw (liste les fichiers contenant l'extension fw)

./mon_fichier.fw (ici ./fwbuilder_dotclear.fw) .

Ça y est, le firewall est actif et les règles NAT sont appliquées, les clients DHCP peuvent surfer en toute tranquillité. Faire juste, pour les clients DHCP sous Windows dans une fenêtre DOS, un 'ipconfig /release' puis ipconfig /renew ou pour un client Linux service network restart

b. INSTALLATION MANUELLE

Nous ouvrons un terminal et tapons la commande fwbuilder l'interface graphique se lance.

Nous sélectionnons le Firewall, un clic-droit nouveau Firewall, puis nous indiquons le hostname de notre serveur et choix du type de firewall logiciel IPTABLES, et l'OS, puis Next.

Nous ajoutons notre carte eth0.

Nous ajoutons notre carte eth1.

Nous ajoutons notre carte lo.

Nous ajoutons notre interface ppp0 (modem), et sélectionnons Adresse dynamique, puis nous faisons un clic sur Finish.

Nous faisons édition ==> Préférences et indiquer le répertoire de travail (bien mettre sous root pour raison de sécurité).

Pour vérifier la configuration du firewall, nous faisons un double-clic sur l'icône firewall Red.

Et configuration firewall. Pour vérifier et ajouter les options puis nous faisons un clic sur OK.

Maintenant nous allons configurer, les domaines (WorkGroup DMZ), nos Hosts clients (Pour des liaisons NAT spécifique: Remote XP, P2P, etc....), nos services TCP et UDP, la politique générale du firewall, les règles pour l'interface PPP0, eth0 (reliée au réseau interne), eth1 (reliée au modem), lo (broadcast) et la fameuse partie NAT (Network Address Translation : Translation De Ports).

Pour configurer notre domaine : nous faisons un clic droit sur Network, et nous sélectionnons nouveau réseau. Ou nous cliquons sur la petite flèche à droite de l'icone suivant et nous faisons nouveau service TCP :

Nous indiquons de surcroit la classe réseau (Classe C).

Puis nous rééditons l'opération pour ce que nous appellerons la DMZ, mini réseau entre notre interface (PPP0) et notre carte eth0 (reliée à notre modem).

Pour configurer les Hosts, nous faisons pour cela un clic droit sur hosts, sélectionner nouveau Hosts. Ou nous faisons un clic sur la petite flèche à droite de l'icone suivant et faire nouveau service TCP :

Nous indiquons le host de notre machine client, nous cliquons sur Next, puis nous sélectionnons configuration manuelle et un clic sur Next et nous ajoutons les cartes réseaux : eth0=192.168.0.4 masque 255.255.255.0 et lo=127.0.0.1 masque idem et valider.

Pour le service TCP, nous faisons un clic sur SERVICE et clic droit sur service TCP pour ajouter nouveau service TCP.Ou une autre possibilité nous cliquons sur la petite flèche à droite de l'icone suivant et faire nouveau service TCP:

Ajouter les ports de destinations désirés.

Cliquer sur la partie marquer USER et sélectionner Standard.

Trouver les services, puis la zone IP, copier l'icône IP_FRAGMENTS par un clic droit et retourner dans USER.

Nous cliquons sur l'onglet politique puis dans le menu, Règle ==> Insérer une règle et nous collons l'icone IP_FRAGMENTS dans service, action en DENY et Source, Destination, Horaires en Any.

Nous cliquons sur l'onglet eth0 et dans le menu, Règle ==> Insérer une règle ensuite nous glissons nos icones crées (domaine, host, service TCP) dans les zones adéquates afin de construire nos règles.

Nous cliquons sur l'onglet eth1 et dans le menu Règle ==> Insérer une règle puis nous glissons nos icones crées (domaine, host, service TCP) dans les zones adéquates afin de construire nos règles.

Nous cliquons sur l'onglet lo puis nous faisons dans le menu, Règle ==> Insérer une règle et nous glissons nos icones crées (domaine, host, service TCP) dans les zones adéquates afin de construire nos règles.

Et aussi nous faisons un clic sur l'onglet PPP0, nous faisons dans le menu Règle ==> Insérer une règle et nous faisons glisser nos icones crées (domaine, host, service TCP) dans les zones adéquates afin de construire nos règles.

Nous cliquons sur l'onglet NAT dans le menu, Règle ==> Insérer une règle et glisser nos icônes crées (domaine, host, service TCP, UDP ou autre) dans les zones adéquates afin de construire nos règles.

Pour sauvegarder nous faisons Fichier ==> Enregistrer. Puis nous faisons un clic sur le bouton compiler (ou clic droit sur icône firewall Red compiler). Apres avoir

Installées les règles, nous faisons un clic sur le bouton Installer (ou clic droit sur icône firewall Red Installer) soit en ouvrant un terminal sous root et utiliser les commandes suivantes :

cd /root ls -la /root/*.fw (liste les fichiers contenant l'extention fw, extension de notre règle firewall). Si le fichier n'est pas exécutable, nous lui donnons les droits en faisant

chmod 755 mon_fichier.fw./mon_fichier.fw (ici ./fwbuilder_dotclear.fw) ou directement par root/mon_fichier.fw . Nous pouvons visualiser alors l'application des Règles Iptables.

Le Firewall et la Passerelle Internet de notre serveur Red Hat Linux sont activés. Les clients DHCP peuvent surfer en toute tranquillité pour l'instant avant de fixer les adresses pour permettre la Messagerie.

VII. CONFIGURATION DE L'AUTHENTIFICATION

Lorsqu'un utilisateur se connecte à un système Red Hat Linux, la combinaison nom d'utilisateur/mot de passe doit être vérifiée, ou authentifiée, comme un utilisateur valide et actif. Dans certaines situations, les informations nécessaires à la vérification de l'utilisateur se trouvent sur le système local et dans d'autres situations, le système demande à une base de données utilisateur se trouvant sur un système distant d'effectuer l'authentification.

L'Outil de configuration d'authentification fournit une interface graphique permettant non seulement de configurer NIS, LDAP et Hesiod de manière à ce qu'ils extraient les informations d'utilisateur mais permettant également la configuration de LDAP, Kerberos et SMB en tant que protocoles d'authentification.

Pour démarrer la version graphique de l'Outil de configuration d'authentification à partir du bureau, nous sélectionnons le bouton Menu principal (sur le panneau) => Paramètres du système => Authentification ou par la commande authconfig-gtk à une invite du Shell (par exemple, dans XTerm GNOME terminal). Afin de démarrer la version texte, nous tapons la commande authconfig à une invite du Shell.

a) INFORMATIONS UTILISATEUR

L'onglet Informations utilisateur offre plusieurs options. Pour activer une option, nous cochons la case de pointage située à côté d'elle. Pour désactiver une option, nous faisons un clic sur la case de pointage située à côté d'elle et tout choix précédent sera annulé. Nous faisons un clic sur OK afin de sortir du programme et mettre en oeuvre les modifications apportées.

Figure : Informations utilisateur

La liste ci-

dessous explique l'élément que chaque option configure:

· Cache d'informations utilisateur

: nous sélectionnons cette option pour

qu'il se lance au démarrage. puisse fonctionner.

· Activer support NIS

activer le démon de cache de service de noms (nscd) et le configurer de manière à ce Le paquetage nscd doit être installé pour que cette option : cette option permet de configurer le système en tant que

client NIS qui se connecte à un serveur NI

S pour l'authentification de l'utilisateur et du Configurer NIS

mot de passe. Nous cliquons sur le bouton pour spécifier le domaine

NIS et le serveur NIS. Si le serveur NIS n'est pas spécifié, le démon essaiera de le trouver par le biais de la diffusion. Le paquetage ypbind doit être installé pour que cette option puisse fonctionner. Si la prise en charge NIS est activée, les services portmap et ypbind sont non seulement lancés mais sont également activés de manière à s'amorcer au démarrage.

· Activer support LDAP : cette option permet de configurer le système de manière à ce qu'il extraie les informations utilisateur par le biais de LDAP. Nous Configurer LDAP pour spécifier le

cliquons sur le bouton DN de la base de

recherche de LDAP et le Serveur LDAP. En sélectionnant Utiliser TLS pour crypter les mots de passe , Transport Layer Security deviendra la méthode de cryptage des mots de passe envoyés au serveur LDAP. Le paquetage openldap-clients doit être installé pour que cette option puisse fonctionner.

· Activ er support Hesiod : cette option permet de configurer le système de manière à ce qu'il extraie ses informations d'une base de données Hesiod distante, y compris les informations utilisateurs. Le paquetage hesiod doit être installé pour que cette option pui

sse fonctionner.

b) AUTHENTIFICATION

L'onglet Authentification

permet la configuration des méthodes d'authentification réseau. Pour activer une option, nous devons cliquer sur la case de pointage vierge placée à côté d'elle. Pour désactiver une option, nous faisons un clic sur la case de pointage située à côté d'elle et tout choix précédent sera annulé.

Figure : Authentification

Les informations suivantes expliquent l'élément que chaque option configure :

· Utiliser des mots de passe masqués : cette opt

ion permet de conserver les mots de passe dans un format de mots de passe masqués dans le fichier /etc/shadow

plutôt que dans le fichier /etc/passwd

. Les mots de passe masqués sont activés par défaut lors de l'installation et leur utilisation est fortement recommandée afin d'augmenter la sécurité du système. Le paquetage shadowutils doit être installé pour que cette option puisse fonctionner.

· Utiliser des mots de passe MD5

: cette option permet d'activer les mots de passe MD5, qui peuvent avoir une longueur allant jusqu'à 256 caractères au lieu de huit ou moins. Cette option est sélectionnée par défaut lors de l'installation et leur utilisation est fortement recommandée afin d'augmenter la sécurité du système.

· Activer support LDAP : cette option permet à

des applications supportant

PAM d'utiliser LDAP pour l'authentification. Nous cliquons sur le bouton pour spécifier les éléments suivants :

Configurer LDAP

> Utiliser TLS pour crypter les mots de passe : cette option permet d'utiliser Transport Layer Security pour crypter des mots de passe envoyés sur le serveur LDAP.

> DN de la base de recherche LDAP : cette option permet d'extraire les informations utilisateurs d'après son Nom Distinct (ou DN de l'anglais 'Distinguished Name').

> Serveur LDAP : cette option permet de spécifier l'adresse IP du serveur LDAP. Le paquetage openldap-clients doit être installé pour que cette option puisse fonctionner.

· Activer le support Kerberos : cette option permet d'activer l'authentification Kerberos. Nous cliquons sur le bouton Configurer Kerberos pour effectuer la configuration :

> Zone : cette option permet de configurer la zone (ou 'Realm') du serveur Kerberos. La zone correspond au réseau utilisant Kerberos, composée d'un ou plusieurs KDC et potentiellement, d'un nombre important de clients.

> KDC : cette option permet de définir le centre de distributeur de tickets (ou KDC, de l'anglais 'Key Distribution Center'), le serveur émettant les tickets de Kerberos.

> Serveurs Admin : cette option permet de spécifier les serveurs d'administration exécutant kadmind. Les paquetages krb5-libs et krb5- workstation doivent être installés pour que cette option puisse fonctionner.

· Activer support SMB : cette option permet de configurer les PAM (les modules d'authentification enfichables) de manière à ce qu'ils utilisent un serveur SMB pour authentifier les utilisateurs. Cliquez sur le bouton Configurer SMB pour spécifier les éléments suivants:

> Groupe de travail : cette option permet de spécifier le groupe de travail SMB à utiliser.

> Contrôleurs de domaine : cette option permet de spécifier les contrôleurs de domaine SMB à utiliser.

Pour notre cas, comme nous devons aussi mettre en place un serveur de messagerie avec le serveur Sendmail nous allons activer LDAP pour permettre une meilleur authentification des utilisateurs.

VIII. CONFIGURATION DU SERVEUR HTTP APACHE

L'Outil de configuration HTTP nous permet de configurer le fichier de configuration /etc/httpd/conf/httpd.conf pour le Serveur HTTP Apache. Il n'utilise pas les anciens fichiers de configuration srm.conf ou access.conf ; nous pouvons donc les laisser vides. Il est possible, à partir de l'interface graphique, de configurer des directives telles que des hôtes virtuels, des attributs de journalisation ou encore un nombre maximal de connexions. Seuls les modules livrés avec Red Hat Linux peuvent être configurés avec l'Outil de configuration

HTTP. Si nous installons des modules supplémentaires, il ne nous sera pas possible de les configurer à l'aide de cet outil. Les paquetages rpm httpd et redhat-config-httpd doivent être préalablement installés si nous souhaitons utiliser l'Outil de configuration HTTP. Pour son fonctionnement, il a également besoin du système X Windows et des privilèges de superutilisateur (ou root). Pour démarrer l'application, nous nous rendons au bouton Menu principal => Paramètres de système => Paramètres de serveur => Serveur HTTP ou nous tapons la commande redhat-config-httpd à l'invite du Shell (dans un terminal XTerm ou GNOME).

Attention

Il ne faudrait pas éditer manuellement le fichier de configuration /etc/httpd/conf/httpd.conf si l'on désire utiliser cet outil. L'Outil de configuration HTTP génère automatiquement ce fichier une fois que nous avons enregistré nos changements et quitté le programme. Si l'on souhaite ajouter des modules supplémentaires ou des options de configuration qui ne sont pas disponibles dans l'Outil de configuration HTTP, nous ne pouvons pas utiliser cet outil.

Ci-dessous figurent les étapes principales de la configuration du Serveur HTTP Apache à l'aide de l'Outil de configuration HTTP :

1. Configurer les paramètres de base dans l'onglet Main (Principal).

2. Cliquer sur l'onglet Virtual Hosts (Hôtes virtuels) et configurer les paramètres par défaut.

3. Dans l'onglet Virtual Hosts (Hôtes virtuels), configurer l'hôte virtuel par défaut.

4. Si l'on souhaite servir plusieurs URL ou hôtes virtuels, on ajoute les hôtes virtuels supplémentaires.

5. Configurer les paramètres du serveur dans l'onglet Server (serveur).

6. Configurer les paramètres de connexion dans l'onglet Performance Tuning (Réglage des performances).

7. Copier tous les fichiers nécessaires dans les répertoires DocumentRoot et cgi-bin.

8. Quitter l'application et choisir d'enregistrer les paramètres.

a) PARAMETRES DE BASE

Nous utilisons l'onglet Main (Principal) pour configurer les paramètres de base du serveur.

Figure : Paramètres de base

De cette manière nous entrons un nom de domaine pleinement qualifié pour lequel nous avons des autorisations d'accès dans la zone de texte Server Name (Nom de serveur). Cette option correspond à la directive ServerName dans httpd.conf. Cette directive ServerName définie le nom d'hôte du serveur Web. Elle est utilisée lors de la création d'URL de retransmission. Si nous ne définissons pas de nom de serveur, le serveur Web essaie de le résoudre à partir de l'adresse IP du système. Le nom de serveur ne doit pas forcément être identique au nom de domaine résolu à partir de l'adresse IP du serveur.

Nous entrons alors l'adresse électronique de la personne qui met à jour le serveur Web dans la zone de texte Adresse électronique du Webmaster. Cette option correspond à la directive ServerAdmin dans httpd.conf. Nous configurons les pages d'erreur du serveur de façon à ce qu'elles contiennent une adresse électronique, celle-ci sera alors utilisée pour transmettre tout problème à l'administrateur du serveur. La valeur par défaut est root@enerca. Nous utilisons la zone Available Addresses (Adresses disponibles) pour définir les ports sur lesquels le serveur acceptera les requêtes entrantes. Cette option correspond à la directive Listen dans httpd.conf. Par défaut, Red Hat configure le Serveur HTTP Apache de manière à ce qu'il écoute le port 80 pour des communications Web non-sécurisées.

Pour cela nous cliquons sur le bouton Add pour définir des ports supplémentaires pour la réception de requêtes. Une fenêtre semblable à celle reproduite dans la Figure ci dessous apparaîtra. Nous pouvons choisir, soit l'option Listen to all addresses pour écouter toutes les adresses IP sur le port défini, ou nous pouvons spécifier une adresse IP spécifique à laquelle le serveur acceptera des connexions dans le champ d'adresse, Address.

Figure : Adresses disponibles

Après avoir défini un Nom du serveur, l'adresse électronique du Webmaster et Adresses disponibles, nous cliquons sur l'onglet Hôtes virtuels puis sur le bouton Modifier les paramètres par défaut. La fenêtre reproduite dans la Figure ci dessous s'ouvre alors. Nous configurons les paramètres par défaut pour le serveur Web dans cette fenêtre. En ajoutant un hôte virtuel, les paramètres que nous indiquons ont la priorité pour cet hôte virtuel. Si une directive n'est pas définie dans les paramètres de l'hôte virtuel, la valeur par défaut est utilisée. Les valeurs par défaut de Liste de recherche page répertoire et Page d'erreur fonctionnent pour la plupart des serveurs.

Figure : Configuration du site

Les entrées énumérées dans Liste de recherche de pages répertoires définissent la directive DirectoryIndex. DirectoryIndex est la page par défaut renvoyée par le serveur lorsqu'un utilisateur demande l'index d'un répertoire en ajoutant une barre oblique (/) à la fin du nom de ce répertoire.

Par exemple, lorsque des utilisateurs demandent la page http://www.enerca.cf/hope/, ils recevront soit la page Hope, si elle existe, soit une liste de répertoires générée par le serveur. Ce dernier essaiera de trouver un des fichiers listés dans la directive Hope et renverra le premier qu'il trouvera. S'il ne trouve aucun de ces fichiers et que cette Options Indexes à

ce répertoire comme valeur, le serveur générera une liste des sous-répertoires et fichiers contenus dans ce répertoire et la renverra, dans un format HTML.

Nous utilisons la section Code d'erreur pour configurer le Serveur HTTP Apache afin qu'il redirige le client vers une URL locale ou externe en cas de problème ou d'erreur. Cette option correspond à la directive ErrorDocument. Si un problème ou une erreur survient lorsqu'un client essaie de se connecter au Serveur HTTP Apache, le bref message d'erreur indiqué dans la colonne Code d'erreur s'affiche par défaut. Pour remplacer cette configuration par défaut, nous sélectionnons le code d'erreur et cliquons sur le bouton Modifier. Nous choisissons Défaut afin d'afficher le message d'erreur par défaut. Nous sélectionnons URL pour rediriger le client vers une URL externe et entrons une URL complète, y compris http:// dans le champ Emplacement. Nous sélectionnons Fichier pour rediriger le client vers une URL interne et entrons un emplacement de fichier sous le document root du serveur Web. L'emplacement doit commencer par une barre oblique (/) et être relatif au document root. Par exemple, pour rediriger un code d'erreur "404 Not Found" (impossible de trouver la page) vers une page Web que nous avons créée dans un fichier nommé 404.html, nous copions 404.html dans DocumentRoot/errors/404.html. Dans ce cas, DocumentRoot correspond au répertoire Document Root que nous avons défini (la valeur par défaut est /var/www/html). Nous sélectionnons ensuite Fichier comme comportement pour le code d'erreur 404 - Not Found et entrer /errors/404.html dans le champ Emplacement.

Nous choisissons l'une des options suivantes dans le menu Erreurs affichées par défaut au bas de la page :

· Montrer le bas de page avec adresse électronique .affiche le bas de page par défaut sur chacune des pages d'erreur ainsi que l'adresse électronique de l'administrateur du site Web spécifiés par la directive ServerAdmin.

· Montrer le bas de page. n'affiche que le bas de page par défaut sur les pages d'erreur.

· Aucun bas de page. n'affiche aucun bas de page sur les pages d'erreur.

b) JOURNALISATION

Par défaut, le serveur enregistre le journal des transferts dans le fichier /var/log/httpd/access_log et le journal des erreurs dans le fichier /var/log/httpd/error_log.

Le journal des transferts contient la liste de toutes les tentatives d'accès au serveur Web. Il enregistre l'adresse IP des clients qui essaient de se connecter, la date ainsi que l'heure de leurs tentatives et les fichiers du serveur Web auxquels ils veulent accéder. Nous entrons le chemin d'accès et le nom du fichier où enregistrer ces informations. Si le chemin d'accès et le nom de fichier ne commencent pas par une barre oblique (/), le chemin est alors relatif au répertoire root du serveur, tel que nous l'avons configuré. Cette option correspond à la directive TransferLog.

Figure : Journalisation

Nous pouvons configurer un format de journal personnalisé en cochant l'option Utiliser les options de journalisation personnalisées et en entrant une chaîne de journal personnalisée dans le champ Personnaliser chaîne journal. Cela permet de configurer la directive LogFormat.

Le journal des erreurs contient une liste des erreurs de serveur. Nous devons entrer le chemin d'accès et le nom du fichier où enregistrer ces informations. Si le chemin d'accès et le nom de fichier ne commencent pas par une barre oblique (/), le chemin est alors relatif au répertoire root du serveur, tel que nous l'avons configuré. Cette option correspond à la directive ErrorLog. Nous utilisons le menu Niveau journal afin de définir le degré de prolixité des messages dans le journal des erreurs. Nous avons le choix (du moins prolixe au plus prolixe) entre emerg, alert, crit, error, warn, notice, info et debug. Cette option correspond à la directive LogLevel.

La valeur choisie dans le menu Recherche DNS inverse définit la directive HostnameLookups. Ne choisir Aucune recherche inverse (No Reverse Lookup) configure la valeur sur "off". Choisir Recherche inverse (Reverse Lookup) configure la valeur sur "on". Choisir Double recherche inverse (Double Reverse Lookup) configure la valeur sur "double". Nous sélectionnons Recherche inverse, le serveur résout automatiquement l'adresse IP de chaque connexion qui demande un document au serveur Web. Cela signifie que notre serveur effectue une ou plusieurs connexions au DNS afin de trouver le nom d'hôte correspondant à une adresse IP donnée.

Si nous sélectionnons Double recherche inverse, notre serveur effectue une double recherche DNS. Autrement dit, après avoir effectué une recherche inverse, le serveur en effectue une deuxième sur le résultat obtenu. Au moins une des adresses IP de la seconde recherche doit correspondre à l'une des adresses de la première. En règle générale, nous devrions conserver la valeur Aucune recherche inverse pour cette option car les requêtes

DNS ajoutent une charge à notre serveur et risquent de le ralentir. Si notre serveur est très occupé, ces recherches, qu'elles soient simples ou doubles, peuvent avoir un effet assez perceptible.

De plus, les recherches inverses et doubles recherches inverses affectent l'activité Internet en général. Toutes les connexions individuelles effectuées pour vérifier les noms d'hôte s'additionnent. Aussi, pour le bien de notre propre serveur Web et de l'Internet, nous conservons la valeur Aucune recherche inverse. Il est parfois nécessaire de modifier des variables d'environnement pour les scripts CGI et les pages à inclure (SSI) au niveau du serveur. Le Serveur HTTP Apache peut utiliser le module mod_env pour configurer les variables d'environnement transmises aux scripts CGI et aux pages SSI. Nous utilisons la page Variables d'environnement pour configurer les directives de ce module.

Figure : Variables d'environnement

Nous utilisons la section Configurer les scripts CGI pour définir une variable d'environnement transmise aux scripts CGI et aux pages SSI. Exemple, pour donner à la variable d'environnement MAXNUM la valeur 50, nous cliquons sur le bouton Ajouter dans la section Configurer les scripts CGI comme le montre la Figure : Variables d'environnement et tapons MAXNUM dans le champ de texte Variable d'environnement et 50 dans le champ de texte Valeur à définir. Nous cliquons ensuite sur OK pour l'ajouter à la liste. La section Configurer les scripts CGI sert à configurer la directive SetEnv. Nous utilisons la section Transmettre aux scripts CGI pour transmettre la valeur d'une variable d'environnement aux scripts CGI lorsque le serveur est lancé pour la première fois. Pour visualiser cette variable d'environnement, nous entrons la commande env à l'invite du Shell. Nous cliquons sur le bouton Ajouter dans la section Transmettre aux scripts CGI et entrons le nom de la variable dans la boîte de dialogue. Puis nous cliquons ensuite sur OK pour l'ajouter à la liste. La section Transmettre aux scripts CGI configure la directive PassEnv. Si nous voulons supprimer une variable d'environnement afin que sa valeur ne soit pas transmise aux scripts CGI et aux pages SSI, nous utilisons la section Désélectionner pour les scripts CGI. Nous cliquons sur Ajouter dans la section Désélectionner pour les scripts

CGI et entrons le nom de la variable d'environnement à désélectionner. Puis nous cliquons sur OK pour l'ajouter à la liste. Cela correspond à la directive UnsetEnv directive.

Pour modifier une de ces valeurs d'environnement, nous la sélectionnons parmi la liste et cliquons sur le bouton Éditer correspondant. Pour supprimer toute entrée de la liste, nous la sélectionnons puis cliquons sur le bouton Supprimer correspondant.

c) REPERTOIRES

Nous utilisons la page Répertoires pour configurer des options de répertoires spécifiques. Cela correspond à la directive « Répertoires ».

Figure : Répertoires

Nous cliquons sur le bouton Modifier dans le coin supérieur droit afin de configurer les Options par défaut des répertoires pour tous les répertoires non spécifiés dans la liste Répertoire ci-dessous. Les options que vous sélectionnez sont énumérées en tant que directive d'options dans la directive « Directory ». Nous pouvons configurer les options suivantes:

· ExecCGI : permet l'exécution de scripts CGI. Les scripts CGI ne sont pas exécutés si cette option n'est pas sélectionnée.

· FollowSymLinks : permet aux liens symboliques d'être suivis.

· Includes : permet les inclusions sur le serveur.

· IncludesNOEXEC : permet les inclusions sur le serveur, mais désactive les commandes #exec et #include dans les scripts CGI.

· Indexes : affiche une liste formatée du contenu d'un répertoire, si aucun DirectoryIndex (tel que index.html) n'existe dans le répertoire demandé.

· Multiview.prend en charge la multi vue à contenu variable; cette option est désactivée par défaut.

· SymLinksIfOwnerMatch : suit les liens symboliques uniquement si le propriétaire du fichier ou du répertoire cible est le même que celui du lien.

Pour spécifier des options pour des répertoires particuliers, nous devons cliquer sur le bouton Ajouter situé près de la zone de liste Répertoire. La fenêtre présentée dans la Figure : Paramètres des répertoires s'ouvre alors.

Nous entrons le répertoire à configurer dans le champ Répertoire situé au bas de la fenêtre. Nous sélectionnons les options dans la liste située à droite et configurons la directive Order au moyen des options situées à gauche. La directive Order contrôle l'ordre dans lequel les directives d'autorisation et de refus sont évaluées. Dans les champs de texte Autoriser les hôtes à partir de et Refuser les hôtes à partir de, nous pouvons spécifier l'un des éléments suivants:

· Autoriser tous les hôtes : nous entrons all pour autoriser l'accès à tous les hôtes.

· Nom de domaine partiel : autorise tous les hôtes dont le nom correspond à, ou se termine par, une chaîne spécifique.

· Adresse IP complète : accorde l'accès à une adresse IP spécifique.

· Un sous-réseau : par exemple 192.168.1.0/255.255.255.0

· Une spécification CIDR de réseau par exemple 10.3.0.0/16

Figure : Paramètres des répertoires

Nous cochons la case Permettre aux fichiers .htaccess d'écraser les options du répertoire, les directives de configuration du fichier .htaccess ont la priorité.

Nous utilisons l'Outil de configuration HTTP pour configurer des hôtes virtuels. Les hôtes virtuels nous permettent d'exécuter différents serveurs pour différentes adresses IP, différents noms d'hôte ou différents ports sur un même ordinateur. Par exemple, nous pouvons exécuter les sites Web http://www.enerca.com et http://www.centrale-energie.com sur le même serveur Web à l'aide d'hôtes virtuels. Cette option correspond à la directive « VirtualHost » pour l'hôte virtuel par défaut ainsi que pour les hôtes virtuels basés sur l'adresse IP. Cela correspond à la directive « NameVirtualHost » pour un hôte virtuel basé sur le nom. Les directives définies pour un hôte virtuel ne s'appliquent qu'à cet hôte virtuel. Si une directive est définie pour l'ensemble du serveur au moyen du bouton Modifier paramètres par défaut et n'est pas définie

dans les paramètres de l'hôte virtuel, le paramètre par défaut est alors utilisé. Nous pourrions définir Adresse électronique du Webmaster dans l'onglet Main et ne pas indiquer d'adresse électronique individuelle pour chacun des hôtes virtuels. L'Outil de configuration HTTP inclut un hôte virtuel par défaut.

Figure : Hôtes virtuels

d) AJOUT ET MODIFICATION D'UN HOTE VIRTUEL

Pour ajouter un hôte virtuel, nous devons cliquer sur l'onglet Hôtes virtuels puis sur le bouton Ajouter. Nous pouvons également modifier un hôte virtuel en le sélectionnant dans la liste, puis en cliquant sur le bouton Modifier.

e) OPTIONS GENERALES

Les paramètres des Options générales ne s'appliquent qu'à l'hôte virtuel que nous configurons. Nous définissons le nom de l'hôte virtuel dans la zone de texte Nom de l'hôte virtuel. Ce nom est utilisé par l'Outil de configuration HTTP pour établir une distinction entre les hôtes virtuels.

Nous définissons la valeur de Répertoire racine du document en indiquant le répertoire qui contient le document racine (ou root) (index.html) de l'hôte virtuel. Cette option correspond à la directive DocumentRoot dans la directive « VirtualHost ». Toutefois, dans Red Hat Linux 9, le DocumentRoot par défaut est /var/www/html. L'Adresse électronique du Webmaster correspond à la directive ServerAdmin dans la directive VirtualHost. Cette adresse électronique est utilisée dans le bas de page des pages d'erreur si nous choisissons d'y afficher un bas de page contenant une adresse électronique. Dans la section Informations sur l'hôte, nous sélectionnons Hôte virtuel par défaut, Hôte virtuel basé sur IP ou Hôte virtuel basé sur le nom :


· Hôte virtuel par défaut.

Un seul hôte virtuel par défaut doit être configuré (il n'existe qu'une seule configuration par défaut). Les paramètres par défaut de l'hôte virtuel sont utilisés lorsque l'adresse IP demandée n'est pas explicitement indiquée dans un autre hôte virtuel. Si aucun hôte virtuel par défaut n'est défini, les paramètres du serveur principal sont utilisés.

· Hôte virtuel basé sur IP.

Si nous choisissons Hôte virtuel basé sur IP, une fenêtre s'ouvre pour configurer la directive « VirtualHost » en fonction de l'adresse IP du serveur. Nous spécifions cette adresse IP dans le champ Adresse IP. Nous pouvons spécifier plusieurs adresses IP en les séparant par un espace. Pour spécifier un port, nous utilisons la syntaxe Adresse IP: Port. Nous utilisons : * pour configurer tous les ports de l'adresse IP. Nous spécifions le nom de l'hôte virtuel dans le champ Nom d'hôte du serveur.

· Hôte virtuel basé sur le nom.

Si nous sélectionnons Hôte virtuel basé sur le nom, une fenêtre s'ouvre pour configurer la directive NameVirtualHost en fonction du nom d'hôte du serveur. Nous devons spécifier l'adresse IP dans le champ Adresse IP. Si nous spécifions plusieurs adresses IP, nous devons les séparer par un espace. Pour spécifier un port, nous utilisons la syntaxe Adresse IP: Port. Nous utilisons : * pour configurer tous les ports de l'adresse IP. Nous spécifions le nom de l'hôte virtuel dans le champ Nom d'hôte du serveur.

Dans la section Alias, nous cliquons sur Ajouter pour attribuer un surnom à l'hôte. Ajouter un surnom à cet hôte équivaut à ajouter une directive ServerAlias dans la directive NameVirtualHost.

f) SSL Remarque :

Nous ne pouvons pas utiliser un hôte virtuel basé sur un nom avec SSL car l'établissement d'une liaison SSL (lorsque le navigateur accepte le certificat du serveur Web sécurisé) s'effectue avant la requête HTTP qui identifie l'hôte virtuel basé sur le nom approprié. Par conséquent, si nous souhaitons utiliser un hôte virtuel basé sur un nom, nous devons utiliser notre serveur Web non-sécurisé.

Figure : Prise en charge SSL

Si le Serveur HTTP Apache n'est pas configuré pour la prise en charge SSL, les communications entre le Serveur HTTP Apache et ses clients ne sont pas cryptées. Cela convient aux sites Web ne contenant aucune information personnelle ou confidentielle. Par exemple, un site Web Open Source qui distribue de la documentation et des logiciels Open Source n'a nullement besoin de communications sécurisées. En revanche, un site Web de commerce électronique qui traite des informations telles que des numéros de cartes de crédit devrait utiliser la prise en charge SSL Apache pour crypter ses communications. L'activation de la prise en charge SSL Apache permet d'utiliser le module de sécurité mod_ssl. Pour l'activer à partir de l'Outil de configuration HTTP, nous devons accorder l'accès par le port 443 sous l'onglet Principal => Adresses disponibles. Nous sélectionnons ensuite le nom d'hôte virtuel dans l'onglet Hôtes virtuels et nous cliquons sur le bouton Modifier puis nous sélectionnons SSL dans le menu de gauche et cochons l'option Activer support SSL, comme le montre la Figure prise en charge SSL. La section Configuration SSL est déjà configurée et contient un certificat numérique fictif. Ces certificats fournissent l'authentification au serveur Web sécurisé et identifient ce dernier auprès des navigateurs Web clients. Nous devons acheter notre propre certificat numérique ce qui ne sera pas possible pour notre cas.

g) OPTIONS SUPPLEMENTAIRES POUR LES HOTES VIRTUELS

Les options Configuration du site, Variables d'environnement et Répertoires pour les hôtes virtuels correspondent aux mêmes directives que celles définies à l'aide du bouton Modifier les paramètres par défaut, à une différence près que les options définies ici s'appliquent aux hôtes virtuels individuels que nous configurons.

h) PARAMETRES DU SERVEUR

L'onglet Serveur nous permet de configurer les paramètres de base du serveur. Les paramètres par défaut attribués aux différentes options conviennent à la plupart des situations.

Figure : Configuration du serveur

La valeur Lock File correspond à la directive LockFile. Cette dernière définit le chemin d'accès au fichier de verrouillage utilisé lorsque le serveur est compilé avec USE_FCNTL_SERIALIZED_ACCEPT ou USE_FLOCK_SERIALIZED_ACCEPT. Il doit être enregistré sur le disque local. La valeur par défaut sera laissée sauf si le répertoire logs est situé sur un partage NFS. Dans ce cas, nous devons changer la valeur par défaut par un emplacement sur le disque local, dans un répertoire qui ne peut être lu que par l'utilisateur root.

La valeur Fichier PID correspond à la directive PidFile. Cette directive définit le fichier dans lequel le serveur enregistre son ID de processus (pid). L'accès en lecture de ce fichier doit être réservé à l'utilisateur root. Il est préférable de laisser, dans la plupart des cas, la valeur par défaut. La valeur Répertoire Core Dump correspond à la directive CoreDumpDirectory. Le Serveur HTTP Apache essaie de passer à ce répertoire avant de vider le noyau. La valeur par défaut est ServerRoot. Toutefois, si l'utilisateur sous lequel est exécuté le serveur ne peut écrire dans ce répertoire, le vidage du noyau ne peut être enregistré. Cette valeur sera modifiée tout en spécifiant un répertoire pour lequel cette configuration du Serveur HTTP Apache utilisateur à un droit d'écriture pour pourvoir enregistrer le vidage du noyau sur le disque à des fins de débogage.

La valeur Utilisateur (User) correspond à la directive User. Elle définit liD utilisateur utilisé par le serveur pour répondre aux requêtes. Les paramètres de cet utilisateur déterminent les droits d'accès au serveur. Tout chier inaccessible pour cet utilisateur le sera également pour les visiteurs du site Web. La valeur par défaut d'User est apache.

L'utilisateur ne doit avoir que les autorisations nécessaires pour accéder aux fichiers qui doivent être visibles aux yeux du monde externe. Il sera aussi le propriétaire de tout processus CGI engendré par le serveur. De plus, il ne devrait pas être autorisé à exécuter du code si ce n'est pour répondre à des requêtes HTTP.

i) REGLAGE DES PERFORMANCES

Pour ce fait nous devons cliquer sur l'onglet Réglage des performances pour configurer le nombre maximal de processus serveur enfants souhaités ainsi que les options du Serveur HTTP Apache pour les connexions client. Les paramètres par défaut attribués à ces options conviennent à la plupart des situations. La modification de ces paramètres risque d'affecter les performances générales du serveur Web.

Figure : Réglage des performances

Nous pouvons configurer l'option Nombre max de connexions sur le nombre maximal de requêtes client simultanées que peut gérer le serveur. Pour chaque connexion, un processus httpd enfant est créé. Une fois que le nombre maximal de processus est atteint, personne ne peut se connecter au serveur Web tant qu'un processus enfant n'est pas libéré. Cette option correspond à la directive MaxClients. Délai d'attente pour la connexion définit, en secondes, le temps pendant lequel le serveur doit attendre la réception et la transmission d'informations lors de communications. Plus spécifiquement, cette option définit le temps pendant lequel le serveur attend pour recevoir une requête GET, des paquets TCP sur une requête POST ou PUT et le temps pendant lequel il attend les accusés de réception en réponse aux paquets TCP. Cette valeur est par défaut 300 secondes, ce qui convient à la plupart des situations. Cette option correspond à la directive TimeOut. Nous configurons Nombre max de requêtes par connexion sur le nombre maximal de requêtes autorisées par connexion persistante. La valeur par défaut est 100, ce qui doit convenir à la plupart des situations. Cette option correspond à la directive MaxRequestsPerChild. Si nous cochons l'option Autoriser requêtes illimitées par connexion, la directive MaxKeepAliveRequests prend la valeur 0 et un nombre illimité de requêtes est alors autorisé.

Si nous désélectionnons l'option Autoriser connexions persistantes, la directive KeepAlive prend la valeur "false" (Faux). Si elle est cochée, la directive KeepAlive prend la valeur "true" (Vrai) et la directive KeepAliveTimeout prend alors comme valeur le nombre indiqué dans l'option Délai d'attente pour la prochaine connexion. Cette directive établit le

nombre de secondes pendant lequel le serveur attendra une requête ultérieure, après qu'une requête ait été servie, avant de fermer la connexion. Cependant, la valeur Délai d'attente de connexion s'applique une fois qu'une requête a été reçue.

Au cas où nous indiquons une valeur élevée pour l'option Connexions persistantes, cela risque de ralentir le serveur, en fonction du nombre d'utilisateurs qui essaient de s'y connecter. Plus ils sont nombreux, plus le nombre de processus serveur qui attendent une autre connexion du dernier client à s'y être connecté est important.

j) ENREGISTREMENT DES PARAMETRES

Si nous ne souhaitons pas enregistrer les paramètres de configuration du Serveur HTTP Apache, nous pouvons cliquer sur le bouton Annuler dans le coin inférieur droit de la fenêtre de l'Outil de configuration HTTP. Le système demande alors de confirmer cette décision. Si l'on clique sur Oui pour confirmer ce choix, les paramètres ne sont pas enregistrés.

Au cas contraire nous l'enregistrons en faisant un clic sur le bouton OK dans le coin inférieur droit de la fenêtre de l'Outil de configuration HTTP. Une fenêtre de dialogue s'affiche et nous cliquons sur Oui, les paramètres sont enregistrés dans le fichier /etc/httpd/conf/httpd.conf. Le fichier de configuration d'origine est alors écrasé.

Si l'on utilise l'Outil de configuration HTTP pour la première fois, une boîte de dialogue avertit que le fichier de configuration a été modifié manuellement. Si l'Outil de configuration http s'aperçoit que le fichier de configuration httpd.conf a été modifié manuellement, il enregistre le fichier modifié sous /etc/httpd/conf/httpd.conf.bak.

IMPORTANT

Après avoir enregistré les paramètres, il faut redémarrer le démon httpd au moyen de la commande service httpd restart. Pour ce faire, nous devons être connecté en tant que super utilisateur (ou root).

IX. CONFIGURATION DES UTILISATEURS ET DES GROUPES

L'outil Gestionnaire d'utilisateurs nous permet d'afficher, de modifier, d'ajouter et de supprimer des utilisateurs et groupes locaux. Pour utiliser le Gestionnaire d'utilisateurs, nous devons exécuter le système X Windows et avoir les privilèges du super-utilisateur. Le paquetage RPM redhat-config-users doit également être installé. Pour démarrer le Gestionnaire d'utilisateurs à partir du bureau, nous allons au bouton Menu principal (sur le panneau) => Paramètres Système => Utilisateurs et groupes ou tapons la commande redhat-config-users à l'invite du Shell (par exemple, dans un terminal X Term ou GNOME).

Figure : Gestionnaire d'utilisateurs

Pour afficher une liste de tous les utilisateurs locaux du système, nous cliquons sur l'onglet Utilisateurs (Users). Pour afficher une liste de tous les groupes locaux du système, nous cliquons sur l'onglet Groupes. Si nous devons trouver un groupe ou un utilisateur spécifique, nous tapons les premières lettres de son nom dans le champ Filtrer par (Filter by). Et nous appuyons sur [Entrée] ou nous cliquons sur Appliquer le filtre (Apply filter). La liste filtrée s'affichera alors à l'écran. Pour trier les utilisateurs ou les groupes, nous cliquons sur le nom de la colonne. Les utilisateurs ou groupes seront triés selon la valeur de cette colonne.

Red Hat Linux réserve les ID utilisateur au-dessous de 500 aux utilisateurs du système. Par défaut, le Gestionnaire d'utilisateurs n'affiche pas les utilisateurs du système. Pour afficher tous les utilisateurs, y compris les utilisateurs du système, nous désélectionnons Préférences => Filtrer les utilisateurs et groupes du système (Filter system users and groups) dans le menu déroulant.

A. AJOUT D'UN NOUVEL UTILISATEUR

Pour ajouter un nouvel utilisateur, nous cliquons sur le bouton Ajouter utilisateur (Add User). Une fenêtre apparaît, comme le montre la Figure : Nouvel utilisateur

Nous Tapons le nom d'utilisateur et le nom complet pour le nouvel utilisateur dans les champs appropriés. Nous entrons le mot de passe correspondant dans les champs Mot de passe (Password) et Confirmer le mot de passe. Le mot de passe doit comporter au moins six caractères.

NB :

Plus le mot de passe de l'utilisateur sera long, plus il sera difficile pour quelqu'un d'autre de le deviner et de se connecter sans permission sous ce compte. Il est aussi recommandé de ne pas baser le mot de passe sur un nom et de choisir une combinaison de lettres, chiffres et caractères spéciaux par exemple : clarisse@123.

Nous sélectionnons un Shell de connexion. Mais autant nous rappeler que la valeur par défaut est /bin/bash. Le répertoire d'enregistrement par défaut est /home/nom d'utilisateur

(Username). Nous pouvons changer le répertoire d'enregistrement qui est créé pour l'utilisateur, ou choisir de ne pas créer de répertoire en désélectionnant Créer un répertoire home (Create home directory).

En créant un répertoire personnel (home), nous devons savoir que les fichiers de configuration par défaut seront copiés du répertoire /etc/skel dans le nouveau répertoire home.

Red Hat Linux utilise un système dit groupe privé d'utilisateurs (UPG de l'anglais 'User Private Group'). Le système UPG n'ajoute et ne change rien dans la manière UNIX standard de traiter les groupes; il offre seulement une nouvelle convention. Chaque fois que l'on crée un nouvel utilisateur, un groupe unique avec le même nom que l'utilisateur est aussi créé par défaut. Si nous ne souhaitons pas créer ce groupe, nous désélectionnons Créer un groupe privé pour l'utilisateur (Create a private group for the user).

Pour spécifier un ID utilisateur pour l'utilisateur, nous sélectionnons Spécifier un ID utilisateur manuellement (Specify user ID manually). Si l'option n'est pas sélectionnée, le prochain ID utilisateur libre après le numéro 500 sera assigné au nouvel utilisateur. Red Hat Linux réserve les ID utilisateur au dessous de 500 aux utilisateurs du système.

Nous Cliquons sur OK pour créer l'utilisateur.

Figure : Nouvel utilisateur

Pour configurer des propriétés d'utilisateur plus avancées, comme l'expiration des mots de passe, nous modifions les propriétés de l'utilisateur après l'avoir ajouté.

Pour ajouter l'utilisateur à des groupes supplémentaires, nous cliquons sur l'onglet Utilisateur (User), nous sélectionnons l'utilisateur, puis nous cliquons sur Propriétés (Properties). Dans la fenêtre Propriétés de l'utilisateur (User Properties), nous sélectionnons alors l'onglet Groupes. Nous sélectionnons aussi les groupes auxquels on veut que l'utilisateur fasse partie, et nous sélectionnons le groupe principal pour l'utilisateur puis nous faisons un clic sur OK.

B. MODIFICATION DES PROPRIETES DE L'UTILISATEUR

Pour afficher les propriétés d'un utilisateur existant, nous devons cliquer sur l'onglet Utilisateurs (Users), nous sélectionnons âpres l'utilisateur dans la liste des utilisateurs et on fait un clic sur Propriétés (Properties) (ou sélectionner Fichier => Propriétés dans le menu déroulant). Une fenêtre semblable à celle reproduite dans la Figure ci dessous apparaîtra alors.

Figure : Propriétés de l'utilisateur

La fenêtre Propriétés de l'utilisateur (User Properties) est divisée en pages contenant des onglets :

· Informations utilisateur (User Data) : des informations de base sur l'utilisateur sont configurées lorsque nous ajoutons l'utilisateur. Nous utilisons cet onglet pour changer le nom complet, le mot de passe, le répertoire personnel ou le Shell pour la connexion.

· Information du compte (Account Info) : nous sélectionnons Activer l'expiration du compte (Enable account expiration) pour que le compte expire à une certaine date. Nous entrons la date dans les champs affichés. Alors nous sélectionnons Compte utilisateur verrouillé (User account is locked) pour verrouiller le compte utilisateur afin que l'utilisateur ne puisse plus se connecter au système.

· Informations mot de passe (Password Info) : Cet onglet montre la date à laquelle l'utilisateur a changé son mot de passe pour la dernière fois. Pour forcer l'utilisateur à changer son mot de passe après un certain nombre de jours, nous sélectionnons Activer l'expiration du mot de passe (Enable password expiration). Nous pouvons aussi sélectionner le nombre de jours avant que l'utilisateur ne soit autorisé à changer son mot de passe, le nombre de jours avant que l'utilisateur ne reçoive un message lui demandant de changer de mot de passe et le nombre de jours avant que le compte ne devienne inactif.

· Groupes : nous sélectionnons les groupes auxquels nous souhaitons que l'utilisateur fasse partie ainsi que le groupe primaire de l'utilisateur.

C. AJOUT D'UN NOUVEAU GROUPE

Pour ajouter un nouveau groupe utilisateur, nous cliquons sur le bouton Ajouter groupe (Add Group). Une fenêtre semblable à celle reproduite à la Figure ci dessous s'affichera à l'écran. Nous entrons le nom du nouveau groupe. Pour spécifier un ID groupe pour le nouveau groupe, nous sélectionnons Spécifier l'ID groupe manuellement (Specify group ID manually) et sélectionnons le GID. Red Hat Linux réserve les ID groupe inférieurs à 500 aux groupes du système.

Nous cliquons sur OK pour créer le groupe. Le nouveau groupe apparaîtra dans la liste des groupes.

Figure : Nouveau groupe

D. MODIFICATION DES PROPRIETES DU GROUPE

Pour afficher les propriétés d'un groupe existant, nous choisissons le groupe voulu dans la liste et nous cliquons sur Propriétés (Properties) à partir du bouton de menu (ou Fichier => Propriétés dans le menu déroulant). Une fenêtre semblable à celle reproduite dans la Figure ci-dessous apparaîtra.

Figure : Propriétés des groupes

L'onglet Utilisateurs du groupe (Group Users) affiche les utilisateurs qui sont membres du groupe. Nous sélectionnons des utilisateurs supplémentaires pour les ajouter au groupe et désélectionnons des utilisateurs pour les retirer du groupe. Nous faisons un Clic sur OK ou Appliquer (Apply) pour changer les utilisateurs du groupe.

X. CONFIGURATION DE BIND

Pour bien comprendre cette partie, nous devons connaître les principes de base de BIND et de DNS car son but n'est pas d'en expliquer les concepts. Cette partie explique en effet la façon d'utiliser l'Outil de configuration Bind (redhat-config-bind) pour configurer des zones de serveur BIND de base.

Cet outil crée le fichier de configuration /etc/named.conf ainsi que les fichiers de configuration de zones dans le répertoire /var/named à chaque fois que nous appliquons nos changements.

IMPORTANT

Ne pas modifier pas le fichier de configuration /etc/named.conf. L'utilitaire Outil de configuration Bind le génère une fois que nous avons appliqué nos changements. Si nous souhaitons configurer des paramètres que l'Outil de configuration Bind ne permet pas de configurer, il faut les ajouter à /etc/named.custom.

L'utilitaire Outil de configuration Bind requiert le système X Window et l'accès superutilisateur (ou root). Pour lancer l'Outil de configuration Bind, nous cliquons sur le bouton Menu principal (sur le panneau) => Paramètres de système => Paramètres serveur => Service de résolution d'adresse IP (Domain Name Service) ou nous tapons la commande redhat-config-bind à l'invite du Shell (dans un terminal XTerm ou GNOME, par exemple).

Figure : Outil de configuration Bind

L'utilitaire Outil de configuration Bind configure le répertoire de zone par défaut sur /var/named. Tous les fichiers de zone spécifiés sont placés sous ce répertoire. L'Outil de configuration Bind inclut également un contrôle de base de la syntaxe lors de la saisie de valeurs. Par exemple, dans le cadre de la saisie d'une adresse IP valide, nous ne pouvons entrer que des numéros et des points (.) dans la zone texte.

L'Outil de configuration Bind nous permet d'ajouter une zone maître de retransmission, une zone maître inverse et une zone esclave. Une fois les zones ajoutées, nous pouvons les modifier ou les supprimer de la fenêtre principale comme cela est expliqué dans la Figure ci dessus.

Après avoir ajouté, modifié ou supprimé une zone, nous faisons un clic sur le bouton Enregistrer ou nous sélectionnons Fichier => Enregistrer pour écrire le fichier de configuration /etc/named.conf et tous les fichiers de zones individuels dans le répertoire /var/named. En enregistrant nos changements, le service named procède au rechargement des fichiers de configuration. Nous pouvons également sélectionner Fichier => Quitter pour enregistrer les modifications avant de quitter l'application.

1. AJOUT D'UNE ZONE MAITRE DE RETRANSMISSION

Pour ajouter une zone maître de retransmission (également appelée maître primaire), nous cliquons sur le bouton Nouvelle, nous sélectionnons Zone maître de retransmission et nous entrons le nom de domaine de la zone maître dans la zone texte, Nom de domaine.

Une nouvelle fenêtre similaire à celle présentée dans la Figure : Ajout d'une zone maître de retransmission apparaît avec les options suivantes:

· Nom : Nom de domaine qui a été saisi dans la fenêtre précédente.

· Nom de fichier : Nom du fichier de la base de données DNS, relatif à /var/named. Il est préétabli au nom de domaine suivi de .zone.

· Contact : Adresse électronique du contact principal de la zone maître.

· Serveur de noms primaires (SOA) : Enregistrement SOA ('state of authority'). Cette entrée spécifie le serveur de noms qui représente la meilleure source d'informations pour ce domaine.

· Numéro de série : Numéro de série du fichier de la base de données DNS. Ce numéro doit être incrémenté chaque fois que nous modifions le fichier, afin que les serveurs de

noms esclaves de la zone récupèrent les dernières données. L'Outil de configuration Bind incrémente ce numéro d'une unité lorsque la configuration change. Ce numéro peut également être modifié manuellement en cliquant sur le bouton Établir situé près de la valeur Numéro de série.

· Paramètres de temps : les valeurs Rafraîchir, Réessayer, Expirer et Minimum TTL ('Time to Live', littéralement Temps de vie) qui sont conservées dans le fichier de base de données DNS. Toutes les valeurs sont exprimées en secondes.

· Enregistrements : Ajout, modification et suppression de ressources enregistrées de type Hôte, Alias et Serveur de noms.

Figure : Ajout d'une zone maître de retransmission

Un Serveur de noms primaire (SOA) doit être spécifié ainsi qu'au moins un enregistrement de serveur de noms en cliquant sur le bouton Ajouter dans la section Enregistrements section.

Après avoir configuré une zone maître de retransmission, nous cliquons sur OK pour revenir à la fenêtre principale, comme le montre la Figure : outil de configuration. À partir du menu déroulant, nous cliquons sur Enregistrer pour d'une part, écrire le fichier de configuration /etc/named.conf et tous les fichiers de zone individuels dans le répertoire /var/named et d'autre part, demander au démon de recharger les fichiers de configuration. Suite à la configuration, une entrée semblable à l'extrait ci-dessous est enregistrée dans /etc/named.conf:

zone" forward.eenerca.cf.com"{

typemaster;

file" forward.enerca.cf.zone";

};

Elle crée également le fichier /var/named/ forward.enerca.cf.zone en y indiquant les informations ci-dessous :

$TTL86400

@INSOAns.enerca.cf.root.localhost( 2;serial

28800;refresh

7200;retry

604800;expire

86400;ttl

)

INNS192.168.1.1.

2. AJOUT D'UNE ZONE MAITRE INVERSE

Pour ajouter une zone maître inverse, nous cliquons sur le bouton Ajouter et sélectionnons Zone maître inverse. Nous entrons les trois premiers octets de la plage d'adresses IP que nous souhaitons configurer. Par exemple, si nous configurons la plage d'adresses IP 192.168.10.0/255.255.255.0, nous entrons 192.168.10 dans la zone texte d'Adresse IP (3 premiers Octets).

Une nouvelle fenêtre s'affiche à l'écran, comme le montre la Figure avec les options ci-dessous:

1. Adresse IP : Les trois premiers octets que nous avons entrés dans la fenêtre précédente.

2. Adresse IP inverse : Non-modifiable ; Préconfigurée en fonction de l'adresse IP entrée.

3. Contact : Adresse électronique du contact principal de la zone maître.

4. Nom de fichier : Nom du fichier de la base de données DNS dans le répertoire /var/named.

5. Serveur de noms primaire (SOA) : enregistrement SOA ('state of authority)'. Ceci spécifie le serveur de noms qui représente la meilleure source d'informations pour ce domaine.

6. Numéro de série : Numéro de série du fichier de la base de données DNS. Ce numéro doit être incrémenté chaque fois que nous modifions le fichier, afin que les serveurs de noms esclaves de la zone récupèrent les dernières données. L'Outil de configuration Bind incrémente ce numéro d'une unité lorsque la configuration change. Il peut également être incrémenté manuellement en cliquant sur le bouton Établir situé près de la valeur Numéro de série.

7. Paramètres de temps : Valeurs Rafraîchir, Réessayer, Expirer et Minimum TTL (Time to Live, littéralement Temps de vie) qui sont conservées dans le chier de la base de données DNS.

8. Serveurs de noms : Ajout, modification et suppression de serveurs de noms pour la zone maître inverse. Un nom de serveur est au minimum requis.

9. Table d'adresses inverses : Liste des adresses IP de la zone maître inverse ainsi que des noms d'hôtes correspondants. Pour la zone maître inverse 192.168.10, nous pouvons ajouter 192.168.10.1 dans Table d'adresses inverses avec le nom d'hôte lumiere.enerca.cf. Le nom d'hôte doit se terminer par un point (.) pour indiquer qu'il s'agit d'un nom d'hôte complet.

Figure : Ajout d'une zone maître inverse

Un Serveur de noms primaire (SOA) doit être spécifié ainsi qu'au moins un enregistrement de serveur de noms en cliquant sur le bouton Ajouter dans la section Serveurs de noms.

Après avoir configuré une zone maître inverse, nous cliquons sur OK pour revenir à la fenêtre principale. À partir du menu déroulant, nous cliquons sur Enregistrer pour d'une part, écrire le fichier de configuration /etc/named.conf et tous les fichiers de zone individuels dans le répertoire /var/named et d'autre part, demander au démon de recharger les fichiers de configuration. Suite à la configuration, une entrée semblable à l'extrait ci-dessous est enregistrée dans /etc/named.conf :

zone"10.168.192.in-addr.arpa"{

typemaster;

file"10.168.192.in-addr.arpa.zone";

};

Elle crée également le fichier /var/named/10.168.192.in-addr.arpa.zone, qui contient les informations suivantes :

$TTL86400

@INSOAns.enerca.cf.root.localhost(

2;serial

28800;refresh

7200;retry

604800;expire

86400;ttk

)

@ INNSns2.enerca.cf.

1INPTRone.enerca.cf.

2INPTRtwo.enerca.cf.

3. AJOUT D'UNE ZONE ESCLAVE

Pour ajouter une zone esclave (également appelée maître secondaire), nous cliquons sur le bouton Ajouter et sélectionnons Zone esclave. En ce moment nous entrons le nom de domaine de la zone esclave dans la zone texte Nom de domaine.

Une nouvelle fenêtre s'affiche à l'écran, comme le montre la Figure ci dessous, avec les options ci-dessous :

· Nom : Le nom de domaine qui a été entré dans la fenêtre précédente.

· Liste des maîtres : Les serveurs de noms à partir desquels la zone esclave récupère ses données.

Chaque valeur doit être une adresse IP valide. La zone de texte ne peut contenir que des numéros et des points (.).

· Nom de fichier : Nom du fichier de la base de données DNS contenu dans /var/named.

Figure : Ajout d'une zone esclave

Après avoir configuré la zone esclave, nous cliquons sur OK pour revenir à la fenêtre principale. Alors nous cliquons sur Enregistrer pour écrire le fichier de configuration /etc/named.conf et demander au démon de recharger les fichiers de configuration.

Suite à la configuration, une entrée semblable à l'extrait ci-dessous est enregistrée dans /etc/named.conf :

zone" slave.enerca.cf"{

typeslave;

file" slave.enerca.cf.zone";

masters{

1.2.3.4;

};

};

Le fichier de configuration /var/named/ slave.enerca.cf.zone est créé par le service named lorsqu'il télécharge les données de zone du ou des serveurs maîtres.

XI. SYSTEME DE FICHIERS RESEAU (NFS - 'NETWORK FILE SYSTEM')

Le système de fichiers réseau (ou NFS de l'anglais 'Network File System') est un moyen de partager des fichiers entre plusieurs machines sur un même réseau comme si les fichiers se trouvaient sur le disque dur local. Red Hat Linux peut être à la fois un serveur NFS et un client NFS, ce qui signifie qu'il peut exporter des systèmes de fichiers vers d'autres systèmes et monter des systèmes de fichiers exportés à partir d'autres machines.

a) POURQUOI UTILISER NFS?

NFS peut être utilisé pour partager des répertoires de fichiers entre plusieurs utilisateurs sur un même réseau. Par exemple, un groupe d'utilisateurs qui travaillent sur un même projet peut accéder aux fichiers de ce projet en utilisant un répertoire partagé du système de fichiers NFS (généralement appelée partage NFS) monté dans le répertoire /myproject. Pour accéder aux fichiers partagés, l'utilisateur entre dans le répertoire /myproject de son ordinateur sans taper de mot de passe ni de commande particulière. L'utilisateur travaille comme si le répertoire se trouvait sur son ordinateur local.

b) MONTAGE DE SYSTEMES DE FICHIERS NFS

Il faut utiliser la commande mount pour monter un système de fichiers NFS partagé d'un autre ordinateur:

mountshadowman.enerca.cf:/misc/export/misc/local

c) AVERTISSEMENT

Le répertoire du point de montage de l'ordinateur local (/misc/local dans l'exemple cidessus) doit exister. Dans cette commande, shadowman.enerca.cf est le nom d'hôte du serveur de fichiers NFS, /misc/export est le répertoire que shadowman exporte et /misc/local est l'emplacement de l'ordinateur local où nous voulons monter le système de fichiers. Une fois que nous avons exécuté la commande mount (et si nous avons les autorisations appropriées du serveur NFS shadowman.enerca.cf), l'utilisateur peut exécuter la commande ls /misc/local pour afficher une liste des fichiers de /misc/export sur shadowman.enerca.cf.

d) MONTAGE DES SYSTEMES DE FICHIERS NFS AU MOYEN DE /ETC/FSTAB

Pour monter un partage NFS à partir d'une autre machine, nous pouvons également ajouter une ligne au fichier /etc/fstab. La ligne doit contenir le nom d'hôte du serveur NFS, le répertoire du serveur qui est exporté et le répertoire de l'ordinateur local où nous désirons monter le partage NFS. Nous devons être connecté en tant que super-utilisateur (ou root) pour

pouvoir modifier le fichier /etc/fstab. La syntaxe générale de la ligne contenue dans /etc/fstab est la suivante:

server:/usr/local/pub/pubnfsrsize=8192,wsize=8192,timeo=14,intr

Le point de montage /pub doit exister sur l'ordinateur client. Après avoir ajouté cette ligne à /etc/fstab sur le système client, entrez la commande mount /pub à l'invite de Shell; le point de montage /pub sera monté à partir du serveur.

e) MONTAGE DE SYSTEMES DE FICHIERS NFS AU MOYEN D'AUTOFS

La troisième technique de montage d'un partage NFS concerne l'utilisation d'autofs. Autofs utilise le démon automount pour gérer les points de montage en ne les montant de façon dynamique que lorsqu'on y accède. Autofs consulte le fichier de configuration maître /etc/auto.master pour déterminer quels points de montage sont définis. Il amorce ensuite un processus de montage automatique avec les paramètres adéquats pour chaque point de montage. Chaque ligne du fichier de configuration maître définit un point de montage et un fichier de configuration séparé qui définit les systèmes de fichiers devant être montés sur ce point de montage. Par exemple, si le fichier /etc/auto.misc définit des points de montage dans le répertoire /misc, cette relation est définie dans le fichier /etc/auto.master. Chaque entrée dans auto.master comporte trois champs. Le premier fournit le point de montage. Le deuxième correspond à l'emplacement du fichier de configuration et le troisième champ est en option. Ce dernier peut contenir des informations telles qu'une valeur de dépassement du délai d'attente. Par exemple, pour monter le répertoire /proj52 de l'ordinateur distant lumiere.enerca.cf sur le point de montage /misc/myproject du serveur, nous ajoutons au fichier auto.master la ligne suivante:

/misc/etc/auto.misc--timeout60

Nous ajoutons la ligne suivante au fichier /etc/auto.misc:

myproject rw,soft,intr,rsize=8192,wsize= 8192lumiere.enerca.cf:/proj52

Le premier champ de /etc/auto.misc affiche le nom du sous-répertoire /misc. Ce répertoire est créé de façon dynamique par automount. Il ne devrait en réalité pas exister sur l'ordinateur client. Le deuxième champ contient les options de montage, telles que rw pour l'accès en lecture (r: read) et en écriture (w: write). Le troisième champ indique l'adresse du serveur NFS d'exportation, comprenant le nom d'hôte et le répertoire.

Remarque

Le répertoire /misc doit exister sur le système de fichiers local. Celui-ci ne devrait pas contenir de sous-répertoires de /misc. Autofs est un service. Pour le démarrer, nous entrons à l'invite du Shell les commandes suivantes :

/sbin/serviceautofsrestart

Pour afficher les points de montage actifs, nous entrons la commande suivante à l'invite du Shell :

/sbin/serviceautofsstatus

Si nous modifions le fichier de configuration /etc/auto.master pendant qu'autofs s'exécute, nous devons dire au démon automount de recharger le fichier en entrant la commande suivante à l'invite du Shell :

/sbin/serviceautofsreload

f) EXPORTATION DE SYSTEMES DE FICHIERS NFS

Le partage de fichiers d'un serveur NFS s'appelle l'exportation de répertoires. L'Outil de configuration du serveur NFS peut être utilisé pour configurer un système en tant que serveur NFS. Pour utiliser l'Outil de configuration du serveur NFS, le système X Window doit être en cours d'exécution, nous devons être connecté en tant que super-utilisateur (ou root) et le paquetage RPM redhat-config-nfs doit être installé sur le système. Pour lancer l'application, nous sélectionnons le bouton Menu principal (sur le tableau de bord) => Paramètres de système => Paramètres de serveur => Serveur NFS, ou nous pouvons taper la commande redhat-config-nfs à l'invite du Shell.

Figure : Outil de configuration du serveur NFS

Pour créer un partage NFS, il faut cliquer sur le bouton Ajouter. La boîte de dialogue reproduite dans la Figure ci dessus s'affiche. L'onglet Informations de base requiert les informations suivantes :

v' Répertoire. Indique le répertoire à partager, comme par exemple /tmp.

v' Hôte(s). Indique le ou les hôtes qui partageront le répertoire. Pour une explication relative aux différents formats possibles

v' Autorisations de base. Indique si le répertoire doit avoir des autorisations en lectureseule ou en lecture-écriture.

Figure : Ajout d'un partage

L'onglet Options générales permet de configurer les options suivantes:

· Autoriser les connexions des ports 1024 et supérieurs. Les services lancés sur les numéros de ports inférieurs à 1024 doivent être lancés en tant que super-utilisateur (ou root). Nous sélectionnons cette option pour permettre au service NFS d'être lancé par un utilisateur autre qu'un super-utilisateur. Cette option correspond à insecure.

· Activer le verrouillage des fichiers non-sûrs. Une requête de verrouillage n'est pas nécessaire. Cette option correspond à insecure_locks.

· Désactiver le contrôle de la sous-arborescence. Si un sous-répertoire d'un système de fichiers est exporté, mais pas la totalité de ce système, le serveur vérifie que le fichier requis se trouve bien dans le sous-répertoire exporté. Cette vérification s'appelle vérification de la sous-arborescence.

Nous sélectionnons cette option pour désactiver la vérification de la sous-arborescence. Si tout le système de fichiers est exporté et que cette option est sélectionnée, le taux de transfert sera plus rapide. Cette option correspond à no_subtree_check :

· Synchroniser les opérations d'écriture sur demande. Activée par défaut, cette option ne permet pas au serveur de répondre à des requêtes avant que les modifications effectuées par la requête ne soient enregistrées sur le disque. Cette option correspond à sync. Si elle n'est pas sélectionnée, l'option async est utilisée.

· Forcer la synchronisation immédiate des opérations d'écriture. Ne pas retarder l'enregistrement sur disque. Cette option correspond à no_wdelay. L'onglet Accès utilisateur permet de configurer les options suivantes:

? Considérer l'utilisateur root distant comme root local. Par défaut, les ID d'utilisateur et de groupe de l'utilisateur root sont tous deux égaux à 0. L'écrasement de l'utilisateur root lie l'ID d'utilisateur 0 et l'ID de groupe 0 aux ID d'utilisateur et de groupe d'anonymes afin que le root du client n'ait pas de privilèges super-utilisateur (ou root) sur le serveur NFS. Si cette option est sélectionnée, l'utilisateur root n'est pas lié à l'utilisateur anonyme et le super-utilisateur d'un client dispose de privilèges root sur les répertoires exportés. Cette option peut réduire de façon importante le niveau de sécurité du système. Nous ne la sélectionnons que si cela s'avère absolument nécessaire. Cette option correspond à no_root_squash.

? Considérer tous les utilisateurs clients comme des utilisateurs anonymes. Si cette option est sélectionnée, tous les ID d'utilisateur et de groupe sont liés à l'utilisateur anonyme. Cette option correspond à all_squash.

? Spécifier l'ID de l'utilisateur local pour les utilisateurs anonymes. Si l'option Considérer tous les utilisateurs clients comme des utilisateurs anonymes est sélectionnée, nous pouvons spécifier un ID d'utilisateur pour l'utilisateur anonyme. Cette option correspond à anonuid.

? Spécifier l'ID de groupe local pour les utilisateurs anonymes. Si l'option Considérer tous les utilisateurs clients comme des utilisateurs anonymes est sélectionnée, nous pouvons spécifier un ID de groupe pour l'utilisateur anonyme. Cette option correspond à anongid.

Pour modifier un partage NFS existant, nous le sélectionnons dans la liste et cliquons sur le bouton Propriétés. Pour supprimer un partage NFS existant, nous le sélectionnons dans la liste et nous cliquons sur le bouton Supprimer.

Après avoir cliqué sur OK pour valider l'ajout, la modification ou la suppression d'un partage NFS de la liste, les modifications prennent effet immédiatement. Le démon serveur est relancé et l'ancien fichier de configuration est enregistré en tant que /etc/exports.bak. Le nouveau fichier de configuration quant à lui, est enregistré dans /etc/exports.

L'utilitaire Outil de configuration du serveur NFS lit et enregistre (ou écrit) directement dans le fichier de configuration /etc/exports. Le fichier peut donc être modifié manuellement après avoir utilisé cet outil qui peut également être utilisé après avoir modifié manuellement le fichier (si toutefois celui-ci a été modifié en respectant la syntaxe).

XII. CONFIGURATION DE SAMBA

Samba est un logiciel libre et une mise en oeuvre du protocole SMB/CIFS sous GNU/Linux, initialement développée par l'australien Andrew Tridgell. Il est sous licence GNU GPL 3. Son nom provient du protocole SMB (Server message block), le nom du protocole standard de Microsoft, auquel ont été ajoutées les deux voyelles a : « SaMBa ».

À partir de la version 3, Samba fournit des fichiers et services d'impression pour divers clients Windows et peut s'intégrer à un domaine Windows Server, soit en tant que contrôleur de domaine principal (PDC) ou en tant que membre d'un domaine. Il peut également faire partie d'un domaine Active Directory. Il fonctionne sur la plupart des systèmes Unix, comme GNU/Linux, Solaris, AIX et les variantes BSD, y compris Apple, Mac OX X Server (qui a été ajoutée au client Mac OS X en version 10.2). Samba fait partie intégrante de presque toutes les distributions GNU/Linux.

SAMBA est un serveur de fichiers pour Linux compatible avec les réseaux Microsoft Windows. Autrement dit, le Serveur SAMBA réalise le partage de ressources (fichiers, imprimante) entre machines fonctionnant avec un système Microsoft Windows et un système Linux (en licence GNU GPL, donc libre).

Nous allons voir dans cet article, la procédure à suivre pour pouvoir intégrer une machine Linux dans un domaine NT.

Pour configurer le serveur Samba il faudrait d'abord tester la présence du paquetage de

Samba

rpm | grep /etc/samba/smb.conf

Cas 1

Si le paquetage existe il reste maintenant à connaitre son statuts

service smb.conf statuts

Si le service est arrété, il faudrait le démarrer avec la commande

service smb.conf start

Cas 2

Si le paquetage n'existe pas alors il faudrait l'installer

apt install /etc/samba/smb.conf

Si nous sommes le Super utilisateur qui est root par défaut

Ou la commande si non

su apt install /etc/samba/smb.conf

Si nous sommes un simple utilisateur, avec la commande su vous prenez la main sur le super utilisateur qui est root. Apres le test du statut du service samba, il faut maintenant l'éditer pour pouvoir le modifier.

vi /etc/samba/smb.conf

a. Configuration de base pour Samba

La configuration générale du serveur samba se passe dans la section [global] du fichier /etc/samba/smb.conf, on va donc y ajouter les options suivantes :

[global]

# Nom du groupe de travail ou du domaine workgroup = WORKGROUP

# nom de la machine (= hostname) netbios name = xblade

# Nom qui apparaît lors du parcours réseau (%h = hostname) server string = %h

# Activation du cryptage des mots de passe encrypt passwords = yes

# Mode authentification security = user

# On accepte les inconnus en leurs donnant un droit d'accès en tant qu'invité map to guest = Bad User

# Liste des utilisateurs non valide ; invalid users = toto

# Pour pouvoir synchroniser l'horloge des clients sur celle du serveur ; time server = Yes

# Options de connexions

socket options = TCP_NODELAY SO_RCVBUF=8192 SO_SNDBUF=8192 ; hosts allow = 192.168.0. EXCEPT 192.168.0.35

; hosts deny = ALL

# Configuration des logs du serveur, taille en kb log file = /var/log/samba/%m.log

max log size = 1000

Ici notre serveur est configuré pour appartenir au groupe de travail WORKGROUP. Celui-ci fonctionnera normalement, après redémarrage du service samba avec la commande /etc/init.d/smb restart. Il ne faudra pas oublier de créer les comptes utilisateurs, en utilisant la commande smbpasswd -a trinite.

b. Intégration de Samba dans un domaine NT

Fichier de configuration pour joindre un domaine NT qui se nomme ENERCA :

[global]

workgroup = MONDOMAINE security = domain

# Configuration de winbind winbind separator = \

winbind cache time = 10 template shell = /bin/bash template homedir = /home/%D/%U

idmap uid = 10000-20000 idmap gid = 10000-20000 winbind enum users = yes winbind enum groups = yes

Une fois samba lancé, nous pouvons joindre notre domaine avec :

[root@xblade ~]net rpc join -U administrator Password: *****

Joined domain ENERCA .

Apres la configuration, il faut tester le serveur #testparm smb.conf

Ou

testparm > « nom d'un répertoire »

S'il n'y a pas de problème, il ne reste qu'à donner les droits pour la lecture/écriture/exécution pour permettre au poste Windows de browser le serveur

chmod 764 /etc/samba/smb.conf

Apres l'attribution des droits, il faut maintenant redémarrer les services de samba

service smb.conf restart supprimer les barrières de sécurité

#iptables -F

c. Démarrage du service

Lancer le service SAMBA en tapant la commande : service smb start. L'option restart permet de relancer le serveur et stop pour l'arrêter.

d. Visualisation du voisinage réseau

Nous allons voir ici comment se connecter au serveur depuis une machine Linux ou Windows.

e. Vérification de l'existence d'un serveur samba

Le client Samba (smbclient) permet de fournir une interface en ligne de commande pour accéder aux ressources SAMBA á partir d'une machine de type Unix (Linux).

Pour vérifier l'existence d'un serveur SAMBA sur le réseau et de lister les ressources qu'il partage nous tapons la commande suivante :

#smbclient nom_serveur_smb

f) Connexion a partir de Windows

Pour se connecter avec samba, il faut partir sur le voisinage réseau.

Puis cliquer sur « voir les ordinateurs du groupe de travail »

XIII. AJOUT D'UNE IMPRIMANTE SAMBA (SMB)

Pour ajouter une imprimante à laquelle on accède à l'aide du protocole SMB (comme une imprimante reliée à un système Microsoft Windows), nous cliquons sur le bouton Nouveau dans la fenêtre principale de l'Outil de configuration de l'imprimante. La fenêtre reproduite dans la Figure : Ajout d'une imprimante SMB apparaîtra alors. Ensuite nous cliquons sur Suivant pour continuer.

Nous sélectionnons Windows (SMB) réseau dans le menu Sélectionner un type de file d'attente puis cliquer sur Suivant. Si l'imprimante est reliée à un système Microsoft Windows, nous choisissons ce type de file d'attente.

Figure : Ajout d'une imprimante SMB

Comme le montre la Figure : Ajout d'une imprimante SMB

, les partages SMB sont détectés automatiquement et listés. Nous faisons clic sur la flèche à côté de chaque nom de partage pour obtenir une liste plus détaillée. Dans cette liste, nous choisissons une imprimante.

Si l'imprimante que nous souhaitons partagée n'apparaît pas dans la liste, nous cliquons sur le bouton Spécifier situé à droite. Les champs de texte relatifs aux options suivantes apparaissent alors :

· Groupe de travail : le nom du groupe de travail associé à l'imprimante partagée.

· Serveur

: le nom du serveur partageant l'imprimante.

· Partage : le nom de l'imprimante partagé e au moyen de laquelle nous voulons imprimer. Ce nom doit être le même que celui défini comme l'imprimante Samba sur l'ordinateur Windows distant.

· Nom d'utilisateur

: le nom d'utilisateur sous lequel nous devons nous connecter pour accéder à l'imprimante.

Cet utilisateur doit exister sur le système Windows et doit avoir l'autorisation d'accéder à l'imprimante. Le nom d'utilisateur par défaut est

généralement invité (Guest)

pour les serveurs Windows, ou personne (person) pour

les serveurs Samba.

· Mot de passe

: le mot de passe (si nécessaire) de l'utilisateur spécifié dans le champ Nom d'utilisateur.

Nous cliquons sur le bouton Suivant pour continuer. L'

Outil de configuration de l'imprimante essaiera alors de se connecter à l'imprimante partagée. Si cette dernière nécessite un nom d'utilisateur et un mot de passe, une fenêtre de dialogue apparaîtra pour nous inviter à saisir un nom d'utilisateur et un mot de passe valides. Dans le cas où un mauvais nom de partage aurait été spécifié, nous avons la possibilité le modifier ici également. Si le nom d'un groupe de travail est nécessaire pour la connexion au partage, il peut être spécifié dans cette boîte de dialogue. La fenêtre en question est la même que celle apparaissant lorsque nous cliquons sur le bouton Spécifier.

1) SELECTION D'UN MODELE D'IMPRIMANTE ET FIN DU PROCESSUS Après avoir sélectionné le type de file d'attente de l'imprimante, l'étape suivante consiste à sélectionner le modèle de cette imprimante.

Une fenêtre semblable à celle reproduite dans la Figure : Sélection d'un modèle d'imprimante

apparaît. Si le modèle n'a pas été détecté automatiquement, nous le sélectionnons dans la liste fournie. Les imprimantes sont réparties par fabricants. Nous

l'imprimante dans le

choisissons le nom du fabricant de menu déroulant. Les modèles

d'imprimantes sont mis à jour chaque fois qu'un nouveau fabricant est sélectionné. Nous choisissons le modèle d'imprimante dans la liste.

Figure : Sélection d'un modèle d'imprimante

Le pilote d'impression recommandé est choi

si en fonction du modèle d'imprimante retenu. Le pilote d'impression traite les données que nous souhaitons imprimer dans un format que l'imprimante comprend. Étant donné qu'une imprimante locale est reliée directement à un ordinateur, nous avons besoin d'un pilote d'impression pour traiter les données envoyées à l'imprimante.

Si nous configurons une imprimante distante (IPP, LPD, SMB, or NCP), le serveur d'impression distant dispose généralement de son propre pilote d'impression. Si nous sélectionnons un

pilote d'impression supplémentaire sur un ordinateur local, les données

-

seront filtrées plusieurs fois, et converties dans un format non reconnu par l'imprimante.

Afin de nous assurer que les données ne seront pas filtrées plusieurs fois, nous allons tout d'abord de sélectionner Générique pour le fabricant et

File d'attente d'impression de

base ou Imprimante Postscript

pour le modèle de l'imprimante. Après avoir validé les

Si le test

modifications, nous imprimons une page test pour vérifier la nouvelle configuration.

échoue, il est possible qu'aucun pilote d'impression ne soit configuré pour le serveur d'impression distant. Nous sélectionnons maintenant un pilote d'impression en fonction du fabricant et du modèle de l'imprimante distante, de valider les modifications et d'imprimer une page test

2) CONFIRMATION DE LA CONFIGURATION DE L'IMPRIMANTE

La dernière étape consiste à confirmer notre configuration d'imprimante. Nous cliquons sur Appliquer pour ajouter la file d'impression si les paramètres sont corrects. Nous cliquons alors sur Précédent

pour modifier la configuration de l'imprimante.

Nous cliquons sur le bouton Appliquer dans la fenêtre principale pour enregistrer nos modifications et redémarrer le daemon d'impression. Après avoir appliqué les modifications, nous imprimons une page test pour vérifier que la configuration est bien correcte.

3) MODIFICATION DES IMPRIMANTES EXISTANTES

Pour supprimer une imprimante existante, nous sélectionnons l'imprimante et nous cliquons sur le bouton Supprimer dans la barre d'outils. L 'imprimante est alors retirée de la liste. Nous cliquons sur Appliquer pour enregistrer les changements et redémarrer le daemon d'impression.

Pour définir l'imprimante par défaut, nous sélectionnons l'imprimante dans la liste et nous cliquons sur le bouton Défaut dans la ba rre d'outils. L'icône d'imprimante par défaut apparaît alors dans la colonne Défaut de l'imprimante par défaut présente dans la liste.

Après avoir ajouté n otre ou nos imprimante(s), nous modifions les paramètres en sélectionnant l'imprimante dans la liste et en cliquant sur le bouton Éditer. La fenêtre à onglets reproduite dans la Figure : Modification d'une imprimante apparaît alors. Elle affiche les valeurs actuelles pour l'imprimante que nous avons sélectionnée. Nous apportons tous les changements souha ités et nous faisons un clic sur OK. Nous Cliquons ensuite sur Appliquer dans la fenêtre principale de l' Outil de configuration de l'imprimante pour e nregistrer les changements et redémarrer le daemon d'impression.

Figure : Modification d'une imprimante

4) NOM DE LA FILE D'ATTENTE

Si on décide de renommer une imprimante ou de changer sa courte description, nous Nom de la file d'attente

modifions la valeur dans l'onglet . Nous cliquons sur OK pour

retourner à la fenêtre principale. Le nouveau nom de l'imprimante devrait alors apparaître

Appliquer

dans la liste des imprimantes. Nous faisons un Clic sur pour enregistrer la

modification et redémarrer le daemon d'impression.

5) TYPE DE FILE D'ATTENTE

L'onglet Type de file d'attente montre le type de file d'attente que nous avons sélectionné lorsque nous avons ajouté l'imprimante ainsi que ses paramètres. Il est possible de changer le type de file d'attente ou simplement les paramètres de l'imprimante. Après avoir effectué les modifications en cliquant sur OK pour retourner à la fenêtre principale. Et cliquer ensuite sur Appliquer pour enregistrer la modification et redémarrer le daemon d'impression.

Selon le type de file d'attente choisi, différentes options s'afficheront. Voici la section appropriée traitant de l'ajout d'une imprimante afin d'obtenir une description des options.

a) PILOTE D'IMPRIMANTE

L'onglet Pilote d'imprimante montre le pilote d'imprimante actuellement utilisé. Si nous voulons le changer, nous devons faire clic sur OK pour retourner à la fenêtre principale. Nous cliquons ensuite sur Appliquer pour enregistrer les changements et redémarrer le daemon d'impression.

b) OPTIONS DE PILOTE

L'onglet Options de pilote affiche les options avancées de l'imprimante. Celles-ci varient selon le pilote. Parmi les options courantes figurent :

· Sélectionner Envoyer saut de page (FF) (de l'anglais 'Form-Feed') si la dernière page du travail d'impression n'est pas éjectée de l'imprimante (par exemple si la lumière d'alimentation clignote). Si cela ne fonctionne pas, il faut essayer de sélectionner Envoyer Fin-de-transmission (EOT) (de l'anglais 'End Of Transmission'). Certaines imprimantes nécessitent à la fois Envoyer saut de page (FF) et Envoyer Fin-detransmission (EOT) pour éjecter la dernière page. Cette option n'est disponible qu'avec le système d'impression LPRng.

· L'option Envoyer Fin-de-transmission (EOT) devrait être utilisée lorsque l'envoi d'un saut de page (FF) ne fonctionne pas. Cette option n'est disponible qu'avec un système d'impression LPRng.

· L'option Supposer que les données inconnues font partie d'un texte devrait être sélectionnée si le pilote d'imprimante ne reconnaît pas certaines données qui lui sont envoyées. Ne pas sélectionner cette option que s'il y'a des problèmes d'impression. Lorsque cette option est sélectionnée, le pilote d'imprimante suppose que toute donnée non-reconnue est du texte et il essaie donc de l'imprimer en tant que tel. Si cette option est sélectionnée en même temps que l'option Convertir le texte en Postscript, le pilote d'imprimante suppose que les données inconnues sont du texte et les convertit en PostScript. Cette option n'est disponible qu'avec un système d'impression LPRng.

· L'option Préparer Postscript devrait être sélectionnée si l'on veut imprimer des caractères dépassant le jeu ASCII de base et que leur sortie n'est pas correcte (comme pour les caractères japonais). Cette option va retraduire les polices PostScript nonstandard afin qu'elles puissent être correctement imprimées.

Si l'imprimante ne prend pas en charge les polices qui sont entrain d'être imprimer, il faut alors essayer de sélectionner cette option. Par exemple on la choisit pour imprimer des polices japonaises sur une imprimante non-japonaise.

Un temps supplémentaire est nécessaire pour accomplir cette action. Cette option est à choisir lorsque l'on rencontre des problèmes pour imprimer correctement les polices.

· L'option Pré-filtrage GhostScript, permet de sélectionner Pas de pré-filtrage, Convertir en PS niveau 1, ou Convertir en PS niveau 2 dans le cas où l'imprimante rencontrerait des problèmes lors du traitement de certains niveaux de PostScript. Cette option est seulement disponible si le pilote PostScript est utilisé avec le système d'impression CUPS.

· L'option Convertir le texte en Postscript est sélectionnée par défaut. Si l'imprimante peut imprimer du texte en clair, il est conseillé de désélectionner cette option afin de réduire le temps d'impression. Cette option n'est pas disponible avec le système d'impression CUPS car le texte est toujours converti en PostScript.

· L'option Format de la page permet de sélectionner le format papier pour l'imprimante, comme par exemple A4, A3, US légal et US lettre.

· L'option Filtre effectif de locale est configurée par défaut sur C.

· L'option Source de support adopte par défaut la valeur Valeur par défaut de l'imprimante. On peut Modifier cette option pour utiliser du papier d'un endroit différent.

Lorsque la modification des options de pilote est terminée, nous cliquons sur OK pour retourner à la fenêtre principale. Et nous faisons un clic sur Appliquer pour enregistrer les changements puis redémarrer le daemon d'impression.

XIV. CONFIGURATION DE L'AGENT DE TRANSPORT DE COURRIER

(ATC)

Il est essentiel d'avoir un Agent de Transport de Courrier (ATC ou MTA de l'anglais 'Mail Transport Agent') pour pouvoir envoyer des courriers électroniques depuis un système Red Hat Linux. Un Agent de Gestion de Courrier (AGC ou MUA de l'anglais 'Mail User Agent') comme Evolution, Mozilla Mail et Mutt, est utilisé pour lire et composer des courriers électroniques. Lorsqu'un utilisateur envoie un courrier depuis un agent de gestion du courrier, le message est transmis à l'ATC qui le fait suivre à une série d'ATC, jusqu'à ce qu'il arrive à destination.

Même si un utilisateur n'a pas l'intention d'envoyer de courrier depuis le système, des tâches automatiques ou des programmes systèmes peuvent utiliser la commande /bin/mail pour envoyer un courrier électronique contenant les messages de journal à l'utilisateur root du système local.

Red Hat Linux 9 fournit deux ATC: Sendmail et Postfix. S'ils sont tous les deux installés, SendMail est l'ATC par défaut. Le programme Commutateur d'agent de transport de courrier permet à un utilisateur de choisir SendMail ou postfix comme MTA par défaut pour

le système. Le paquetage RPM redhat-switch-mail doit être installé de manière à utiliser la version texte du programme Commutateur d'agent de transport de courrier. Si nous souhaitons utiliser la version graphique, le paquetage redhat-switch-mail-gnome doit également être installé.

Pour lancer le programme Commutateur d'agent de transport de courrier, nous devons sélectionner le bouton Menu principal (sur le panneau) => Extras => Outils de système => Commutateur d'agent de transport de courrier, ou nous tapons la commande redhatswitch-mail à l'invite du Shell (dans un terminal XTerm ou GNOME, par exemple).

Le programme détecte automatiquement si X Window est en cours d'exécution. Si c'est le cas, le programme démarre en mode graphique. Si X Window n'est pas détecté, il démarre en mode texte. Nous pouvons forcer le Commutateur d'agent de transport de courrier à fonctionner en mode texte en utilisant la commande redhat-switch-mail-nox.

Figure : Commutateur d'agent de transport de courrier

Si nous sélectionnons OK pour changer le MTA, le daemon mail sera activé de manière à être lancé lors du démarrage alors que le daemon mail désélectionné sera lui désactivé afin de ne par être lancé lors du démarrage. Comme le daemon mail sélectionné est lancé alors que l'autre daemon est arrêté, les changements prennent effet immédiatement.

XV. CONFIGURATION DU SERVEUR DE MESSAGERIE

A. MESSAGERIE SendMail

Agent de gestion de courrier Mail User Agent - MUA

C`est le client de messagerie. Il permet de lire et de composer des messageries électroniques. Autre fonction : récupération des messages via les protocoles POP et IMAP

Agent de transfert de courrier

Mail Transfert Agent - MTA. Il permet de transférer les mails d`un serveur de messagerie a un autre via le protocole SMTP.

Agent de distribution du courrier

Mail Delivery Agent - MDA. Il est le composant de routage des messages dans les différentes boites aux lettres. Utilise par le MTA auquel il est souvent intègre.

B. PROTOCOLES

1) Protocole IMAP

Internet Message Acces Protocol. C'est l'accès à distance à des messages stockés par le client de messagerie. Les messages électroniques sont stockés sur le serveur ou les utilisateurs les consultent ou les suppriment. Il utilise le Port 143.

2) Protocole POP

Post Office Protocol

Il permet à des clients de messagerie de retirer du courrier depuis des serveurs distants et de l'enregistrer sur un serveur local. Il utilise le Port 110.

Protocole SMTP

Simple Mail Transfert Protocol

C'est le protocole d'envoi du courrier. Il utilise le Port 25.

C. INSTALLATION ET CONFIGURATION DE SENDMAIL

Vérification de l'existence # rpm - qa | grep SendMail

1. Installation

Normalement SendMail est installé dans le CD ROM d'installation de Red Hat 9.0 ; il faut le cocher lors de l'installation du CD ROM.

2. Lutte contre les spams

Editer le fichier /etc/mail/ sendmail.mc

Il faut alors décommenter la ligne ci-dessous pour interdire les commandes vrfy, expn, etc, sur le serveur mail :

Define (`confPRIVACY_FLAGS', `authwarnings, novrfy, noexpn, restricqrun'). Il permet de lutter contre les spams.

3. Ouverture du port 25

Nous devons modifier la ligne ci-dessous pour permettre l'ouverture des connexions Telnet sur le Port 25. Par défaut, cette ligne est dé-commentée. Ce qui explique que seules les utilisateurs locales á une machine puissent s'envoyer des mails.

Dnl DAEMON OPTION (`port = SMTP, Addr = 127.0.0.1 Name = MTA')

4. Activation des macros

Pour cela nous générons la macro m4

# m4 /etc/mail/ sendmail.mc > /etc/ sendmail.cf

5. Redémarrage du service

Pour permettre la mise en marche du SendMail, nous faisons la commande : # service SendMail restart

6. Barriere de sécurité

Les barrières de sécurité interdisent l'utilisation efficace de la messagerie; # iptables -F

Vérification de l'ouverture du Port 25 # telnet 127.0.0.1 25

7. Test de fonctionnement

Apres toute configuration, il faut tester le fonctionnement du serveur. Avec cette commande nous pouvons tester le serveur SendMail :

# /usr/sbin/SendMail -d0.1 -bt, /dev/null

Si le résultat suivant apparait :

(short domain name) $w = <nom de la machine>

(canonical domain name) $j = <nom de la machine. Nom de

domaine.domaine)

(subdomain name) $m = <nom de domaine. Domaine)

(mode name) $k = (nom de la machine. Nom de

domaine.domaine)

Le serveur sendMail fonctionne correctement.

8. Vérification de l'envoi

Au préalable, pour être certain que l'envoi des messages sera effectif nous faisons la commande telnet sur le port smtp

# telnet adresse IP (une adresse d'un PC du réseau) 25 (port SMTP)

9. Envoi d'un mail

#mail admin@enerca.cf

10. Consultation des mails

Pour consulter les mails dans la file d'attente: #vi /var/spool/mail/nom_user

11. Problème a éviter

Dans la configuration de SendMail, le nom donné á la machine (hostname) doit être identique á celui renseigné au niveau du DNS (fichier /etc/hosts). Autrement dit, il doit y voir une adéquation entre le hostname du DNS (local) et le hostname de SendMail.

12. Masque du nom de machine

Il faut éditer le fichier de configuration de SendMail

#vi /etc/mail/ sendmail.mc

Nous ajoutons la ligne suivante :

MASQUERADE_AS (nom_de_machine)

Sauvegarder et quitter Echap (ou Esc) : x!

Apres générer la macro m4

# m4 /etc/mail/ sendmail.mc > /etc/ sendmail.cf

Redémarrer le service SendMail #service SendMail restart

NB : MASQUERADE_AS (nom de domaine.domaine) masque le nom de machine du domaine enerca.cf dans l'Email de l'expéditeur.

D. CONFIGURATION DES SERVEURS POP/ IMAP

1) Différences entre pop et imap

On se connecte toujours pour la synchronisation entre client et le serveur avec IMAP.

2) Fonctionnalité du pop 3

Envoi de message via le protocole SMTP et récupère de message via le protocole

POP.

3) Installation du pop 3

#tar -xvzf imap-xxx.tar.gz -C /usr/local

4) Configuration du serveur pop

Il faudrait d'abord éditer le fichier xinetd

vi /etc/xinetd.d/ipop3

Mettre disable á no

Sauvegarder et quitter

Echap : x!

Puis redémarrer le daemon xinetd restart

#service xinetd restart

NB : le serveur POP3 permet de recevoir les messages. Même chose pour le serveur IMAP.

5) Test de fonctionnement

La commande suivante permet de tester le fonctionnement du serveur SendMail #/usr/sbin/sendmail -d0.1 -bt < /dev/null.

Au préalable, pour être certain que la réception des messages sera effective il faut faire un Telnet sur le port POP

#telnet adresse IP (port POP)

Et aussi faire un Telnet sur le port IMAP #telnet adresse IP (port IMAP)

6) Vérification des messages en attente

Pour vérifier les messages en attente et qui doivent être envoyés. #mailq

7) Configuration client

Dans notre cas de messagerie tous les clients sont sur Microsoft Windows (et plus précisément sur Windows XP).

> Lancer le client de messagerie Outlook

> Dans l'interface, cliquer sur démarrer

> Ouverture de configuration de Comptes de Messagerie

> Cliquer sur configurer manuellement les paramètres du serveur ou les types de serveurs supplémentaires

> Ouverture de l'assistant de Connexion Choix du service de messagerie

> Renseigner le champ nom complet

> Dans la boite de dialogue d'E-mail par le biais de laquelle la réception de courrier se fera.

> Dans la boite de dialogue Noms de courrier électronique, renseigner les champs : > Mon serveur de courrier entrant : pour le type de serveur POP ou IMAP

> Serveur de courrier entrant : pour le nom du serveur entrant

> Serveur de courrier sortant : pour le nom du serveur sortant

> Dans la boite de dialogue Connexion á la messagerie, fournir le mot de passe su compte

> Cocher la case relative au type de connexion dont on dispose et cliquer sur Suivant > La boite de dialogue Félicitation indique que la connexion a été réussie.

> Cliquer sur nouveau

> Test de l'envoi et de la réception avec Outlook.

CONCLUSION

En effet, l'administration d'un réseau informatique permet la fluidité, le contrôle des informations dans ce réseau. Notre choix s'est porté sur un Système Open Source pour sa sécurité croissante et la stabilité de son système.

Notre travail de mémoire testé avec succès au sein de l'entreprise Enerca sera nous l'espérons un outil de travail pour une prochaine administration dans ce domaine. En somme, nous pouvons conclure cette administration a été un succès dans sa mise en oeuvre et nous espérons toujours d'approfondir nos connaissances dans ce domaine.

BIBLIOGRAPHIE ET WEBOGRAPHIE

Cours de Système d'Exploitation, 3eme Année Génie Informatique

Jargon informatique www.redhat.com www.fedora.com www.ubuntu.fr www.wikipedia.fr www.linuxfrance.fr Dictionnaire du linux Forum de Fedora Forum d'Ubuntu

Livre « le réseau », édition Eyrolle, Jacques FOUQUET

LEXIQUE

Apache : serveur http non seulement libre mais aussi parmi les meilleurs et les plus répandus. Basé sur le code et les idées du serveur NCSSA httpd avec beaucoup de pactchs au départ d'où son nom « A PAtCHy sErver ».

Authentification : (cryptographie) opération par laquelle le destinataire et/ou l'émetteur d'un message s'assure(nt) de l'identité de son (leur) interlocuteur. C'est utilisé entre les utilisateurs des sytèmes aussi bien qu'entre des processus.

BIND : Berkeley Internet Name Domain, implantation d'un Domain Name Server réalisée par l'Université de Berkeley. Bind est un logiciel libre en position de monopole dans son domaine.

Boot : c'est l'abréviation de bootstrap ; programme lancé à l'allumage d'un ordinateur et destiné à installer le SE en mémoire et à l'initialiser. Le « secteur de boot » ou « boot sector » est le tout premier secteur d'un disque qui peut contenir un bootstrap.

CLI : Command Line Interpreter ; interpréteur de Ligne de Commande de programme servant d'interface, recevant et interprétant les commandes envoyées en mode texte par l'utilisateur (i.e sous la forme de frappes au clavier). Une autre manière de faire est d'utiliser une Interface Graphique. Sous Ms DOS par exemple, c'est COMMAND COM.

Client-serveur : architecture de réseau dans laquelle les traitements sont repartis entre les clients qui demandent les informations dont ils ont besoin au(x) serveurs(s).

DHCP : Dynamic Host Configuration Protocol, protocole d'attribution dynamique des adresses sur un réseau IP basé sur le bootP de façon à pouvoir avoir plus de terminaux que d'adresse. Il permet d'une façon générale d'administrer à distance toute la configuration IP d'une machine.

DNS : Domain Name Server ou Domain Nam System ; service essentiel de l'Internet assurant la conversion des noms de domaine en adresse IP. L'intérêt essentiel est de disposer de noms de machines plus faciles à mémoriser.

File d'attente : ensemble d'objets dans lequel le premier disponible est le premier à y avoir été placé. Avec un système de priorité, le premier entré n'est en fait pas toujours le premier servi, mais il est sur d'être servi.

Firewall : police de l'informatique ; barriere permettant d'isoler un ordinateur du réseau (tout en ne le débranchant pas complètement) pour éviter tout piratage.

FTP : File Transfer Protocol, protocole de transfert de fichier. Le FTP peut fonctionner en mode actif ou passif ; dans le premier cas, le client contacte le serveur sur le port 21 et celui-ci rappelle sur le port 20. Dans le mode passif, c'est le client qui initie toutes les connexions et seul le port 21 du serveur est utilisé.

Gnome : GNU Network Object Environment Desktop ; c'est-à-dire environement de bureau, tournant sous X.

GNU : GNU is not Unit (la définition est récursive), SE cousin d'Unix mis dans le domaine public par la FSF assez difficile à maitriser car très puissant et au service d'assistance technique assuré par les utilisateurs même ainsi que par des sociétés commerciales.

GPL : General Public License, le statut juridique des logiciels distribués « librement » à l'origine a commencé comme ça : « Everyone is permitted to copy and distribute verbatim copies of this license document but changing it is not allowed. »

Groupe : ensemble d'utilisateurs d'un système qui ont les mêmes droits sur certaines ressources.

GRUB : Grand Unified Bootloader ; chargeur de système d'exploitation du projet GNU. Il est très doué dans son domaine et sait lancer des systèmes très différents sur une même machine (mais pas en même temps) y compris Hurd.

Html : Hyper Text Markup Language est le format de données conçu pour représenter les pages web. C'est un langage de balisage qui permet d'écrire de l'hypertexte, d'où son nom. HTML permet également de structurer sémantiquement et de mettre en forme le contenu des pages, d'inclure des ressources multimédias dont des images, des formulaires de saisie, et des éléments programmables tels que des applets. Il permet de créer des documents interopérables avec des équipements très variés de manière conforme aux exigences de l'accessibilité du web. Il est souvent utilisé conjointement avec des langages de programmation (JavaScript) et des formats de présentation feuilles de style en cascade). HTML est initialement dérivé du Standard Generalize Markup Language (SGML).

http : Hyper Text Transfer Protocol. Protocol de transmission dédié aux clients et aux serveurs du Web. Facile à implanter car un transfert de données est associé une connexion, il devient lourd car il multiplie les connexions.

https : Hyper Text Transfer Protocol Secure. Protocol de transmission issu de Nescape lié à une connexion par Socket sécurisée, autrement dit http avec une pincée de SSL.

IMAP : Internet Message Acces Protocol. Protocole, dans sa version 4, de gestion de messagerie, destiné à remplacer POP 3, qui est nettement moins performant. IMAP sait ainsi stocker le courrier sur le serveur et pas sur le client et gérer toute la chose de façon correctement sécurisée.

Iptables : est un logiciel libre de l'espace utilisateur Linux grâce auquel l'administrateur système peut configurer les chaînes et règles dans le pare-feu en espace noyau (et qui est composé par des modules Netfilter).

KDE : Desktop intégré fonctionnant sous X, basé sur la bibliothèque Qt, et copiant l'interface de MS-Windows. Son grand concurrent est Gnome.

Kerberos : système de sécurité et d'authentification des utilisateurs, mis au point par le projet Athena au MIT. Le principe est de s'adresser à un serveur d'authentification qui vous remet un « ticket » (certificat) avec lequel vous pouvez accéder à la ressource que vous demandez.

LDAP : Lightweight Directory Access Protocol ; protocole de gestion d'annuaires de réseau conçu à l'Université du Michigan et reconnu par la plupart des grosses sociétés du secteur. C'est aussi le nom des annuaires gérés par l'intermédiaire de ce protocole.

LILO : LInux Loader, programme qui s'installe dans le MBR, afin de pouvoir utiliser plusieurs systèmes d'exploitation sur la même machine, dont bien évidemment Linux.

Linux : l'une des plus connues des versions d'Unix libres (plus exactement distribue sous GPL) développée à partir de 1991 par étudiant finlandais, Linux Torvalds, tout seul à l'origine, qui trouvait d'une part les limitations de Minix insupportables et d'autres part les versions commerciales d'Unix trop chères. Il a su convaincre la communauté mondiale des utilisateurs de l'Internet de l'aider dans sa tache. Maintenant Linux est devenu un SE à part entière.

Login : procédure de connexion sur un système, un hote, en général protégé par un mot de passe.

Macro : macro-commande ou macrocommande ; commande formée par une succession d'autres commandes répétitives et pas forcément structurées. Les commandes macro sont de plus en plus complet de sortent qu'une macro va du simple double-clic automatisé à la petite application.

MBR : Master Boot Record ; le premier secteur absolu sur un disque dur de PC.

Modem : abréviation de MODulateur DEMotulateur. Périphérique permettant de convertir des signaux analogiques en numériques et inversement et de les transférer par une ligne téléphonique.

NAT : Network Address Translation. Méthode de traduction d'adresse IP non routables en adresses routables et réciproquement, et qui permet de connecter de nombreuses machines au réseau en n'utilisant qu'un minimum d'adresses officielles.

NFS : Network File System ; c'est un SGF (Système de Gestion de Fichiers) de réseau défini par un protocole sans connexion présenté par Sun en 1995 pour des stations sans disque.

NIS : Network Information Service ; service d'information sur le réseau. Service donnant accés à des bases de réseau fournissant par exemple des adresses IP, Ethernet, des mots de passe ou des noms de serveur. Aussi connu sous le nom de « Yellow Pages ».

Nom de domaine : chaîne de caractère identifiant un ensemble d'adresse IP. Exemple de nom de domaine : enerca.cf.

Paquetage : archive rassemblant les fichiers, informations, et procédures nécessaires à l'installation d'un logiciel sur une plateforme donnée (package en anglais).

Partage : le fait de mettre des ressources à la disposition de plusieurs utilisateurs (qui peuvent être programmés) et par extension la ou les ressource(s= concernée(s).

Passerelle : Système logiciel et/ou matériel gérant le passage d'un environnement à un autre, en assurant la conversion des informations d'un format à l'autre.

Pilote : logiciel permettant de gérer un périphérique de le piloter c'est-à-dire de lui envoyer les bonnes commandes au bon moment (driver en anglais).

POP : Protocol Office Protocol ; protocole de transfert de courrier électronique, prévu pour synchroniser les messages et reconnu par l'ISOC.

Port :

· Prise permettant de connecter un ordinateur à ses périphériques. Il existe deux types de ports séries et les ports parallèles

· Canal de communication.

PostScript : langage de description de page proposé en 1984 par la firme Adobe très utilisé (souvent en émulation) par les imprimantes laser. Les caractères sont décrits par les courbes de bézier.

Processus : programme en cours d'exécution avec son environnement.

Proxy : serveur recevant des requêtes qui ne lui sont pas destinées et qui les transmet aux autres. Cela permet à quelqu'un qui se trouve derrière un firewall d'avoir accès à des ressources sans prendre de risques. Le Proxy sait aussi être intelligent : quand il reçoit une requête, il stocke le résultat. Si la même requête lui est à nouveau envoyée, il vérifie que le résultat n'a pas modifié et renvoie le résultat qu'il a « déjà sous la main » à celui qui a fait la requête (fonctionnant ainsi comme un cache).

Red Hat : l'une des distributions de Linux en vogue, éditée par la société du même nom. Elle est considérée comme l'une des plus simples, devant la Debian et la Slackware, mais est surtout utilisée pour les serveurs, et est très concurrencée par Mandrake sur les clients. En 2003, la version grand public de la distribution a été abandonnée au point du projet Fedora.

Root : nom du compte administrateur sous certains systèmes Unix en particulier les distributions Linux.

Routeur : dispositif matériel ou logiciel permettant de diriger les messages vers le bon destinataire, dans un réseau.

Samba : est un logiciel libre et une mise en oeuvre du protocole SMB/CIFS sous GNU/Linux, initialement développée par l'australien Andrew Tridgell. Il est sous licence GNU GPL 3. Son nom provient du protocole SMB (Server message block), le nom du protocole standard de Microsoft, auquel ont été ajoutées les deux voyelles a : « SaMBa ». À partir de la version 3, Samba fournit des fichiers et services d'impression pour divers clients Windows et peut s'intégrer à un domaine Windows Server, soit en tant que contrôleur de domaine principal (PDC) ou en tant que membre d'un domaine. Il peut également faire partie d'un domaine Active Directory.

Sendmail : c'est un serveur de messagerie électronique dont le code source est ouvert. Il se charge de la livraison et de l'envoi de courriers électroniques (courriels).

Serveurs : ordinateur détenant des ressources particulière et qu'il met à la disposition d'autres ordinateurs par l'intermédiaire d'un réseau. On parle d'architecture client-serveur.

Site : ensemble (plus ou moins) cohérent de documents Web.

SMTP : Simple Mail Transfer Protocol, protocole de la famille TCP/IP utilisé pour le transfert de courrier éléctronique. Utilisé evidemment sur Internet et reconnu par ISOC.

SOA : Start Of Authority, enregistrement indiquant qu'un serveur DNS contient les informations « autorisées » sur un domaine particulier. En gros c'est qui sait et personne d'autre.

Socket : norme de mode de communication sur réseau, mis au point à Berkeley, qui permet à une application de dialoguer avec un protocole.

SSH : Secure Shell. Shell permettant de se connecter de façon sécurisée sur une machine distante et d'y exécuter des programmes, toujours de façon sécurisée de chiffrement et destiné à destiné à remplacer Telnet, rsh ou rlogin.

SSL : Secure Socket Layer. Sockets sécurisée utilisées principalement par Nescape à l'origine, puis reconnues ISOC (Internet SOCiety).

Swap : le fait d'utiliser une partie d'un disque dur comme de la mémoire vive (mémoire électronique).

TCP/IP : Transmission Control Protocol/Internet Protocol. Les deux protocoles de communication qui forment les fondements de l'internet, spécifiés dans la RFC 793.

TLS : Transport Layer Security, protocole de sécurisation de la couche transport défini par la RFC 2246. La version 1.0 de TLS est en fait SSL.

Topologie : organisation physique, cartographie d'un réseau, qui n'a rien à voir avec la disposition des systèmes qui y sont reliés. C'est la description du câblage du réseau.

TTL : Time To Live, durée de vie d'un paquet dans un réseau, sorte de date de péremption. Chaque fois que le paquet entre dans un routeur, son TTL est décrémenté et quand il tombe à zéro le paquet est détruit même s'il n'est pas encore parvenu à destination (de cette manière, par exemple, des paquets ayant un destinataire inexistant ne peuvent pas encombrer indéfinitivement le réseau en tournant en rond).

URL : Uniform Ressource Locator ; sur le Web, c'est la méthode d'accès à un document distant créant ainsi par exemple un lien hypertexte avec la syntaxe <type_connexion>://<serveur> / <ressource>/ ...

Utilisateur : une personne qui travaille pour de vrai sur un ordinateur, le considérant comme un moyen et pas comme une fin.

WEB : methode d'exploitation de l'Internet par l'usage de l'hypertexte et mis au point par un chercheur du CERN, Tim BERNER-LEE. On parle « du Web » même s'il s'agit en réalité du « World Wide Wed » ou du « W3 ».

X Window System : interface graphique de l'environnement Unix, mise au point et dans le domaine public par le MT. Basé sur le protocole X, il permet l'exportation de display sur des

machines distantes. D'une lenteur et d'une lourdeur incomparable compos d'une multitude de surcouches.






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Ceux qui vivent sont ceux qui luttent"   Victor Hugo