WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Internet : Une nouvelle dimension du Système International

( Télécharger le fichier original )
par Arnaud GARRIGUES
Université des Sciences Sociales - Toulouse 1 - Master 1 De Science Politique 2006
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Internet : Une nouvelle dimension du Système International

Sous la direction de Mr Igor LEFEVRE
Université des Sciences Sociales - Toulouse 1

Remerciements

Remerciements tout d'abord à notre directeur de mémoire, Mr LEFEVRE, qui par son expérience, son écoute et son humour a réussi à encadrer et à mettre en valeur une recherche motivée mais parfois désordonnée.

Remerciements à toutes les personnes que j'ai pu interviewer en direct ou par email : Mme Anne-Rachel INNE, Mr Joseph BREHAM, Mr Louis POUZIN et Mr José BALLANCHO. Sans eux, ce mémoire n'aurait pu exister. Merci à eux de leur disponibilité et de leur aide jamais démenties.

Remerciements à ma mère qui m'a aidé, notamment par ses relectures, ses commentaires, son aide matérielle et son point de vue profane qui m'a obligé à revoir mes propos et mon travail. Merci à elle pour tout cela.

Introduction

Avec 1, 35 milliards d'utilisateurs en 2007 d'après une étude du cabinet d'analyse Research and Markets1, des revenus estimés à 524 milliards de dollars par des économistes français2 en 2001 et une croissance égale à 50% de l'augmentation du PIB des Etats-Unis, Internet est devenu un enjeu des plus actuels.

La structure du « réseau des réseaux » ou « Inter-Networks », Internet, est complexe et pourtant très intéressante à étudier car certaines de ces spécificités techniques ont engendrées des enjeux conséquents. Le premier exemple et le plus connu est celui du service DNS, équivalent d'un annuaire permettant de relier une adresse physique (IP)3 à une adresse virtuelle tapée sur un clavier (URL - Ex. : www.univ-tlse1.fr). La gestion de ce service est essentielle car sans lui, Internet ne serait pas accessible à la plupart des utilisateurs : on pourrait dire qu'il ne fonctionnerait pas. Le second exemple tient à la nature « neutre » ou bien encore à l'intelligence « décentralisée » du réseau. Cela signifie qu'Internet est un simple outil de transmission : peu lui importe la nature de ce qu'il transporte puisque c'est « au bout » de la chaîne de transmission que l'information va être analysée, décodée et utilisée. Au final, ces aspects purement techniques ne doivent pas être écartés en raison des importants enjeux politiques qu'ils entraînent. Ces enjeux trouvent notamment un écho dans les relations internationales et c'est l'objet de ce travail de décrypter ces enjeux et d'en donner une brève analyse.

Le second aspect d'Internet est celui de sa gestion proprement dite, de sa « gouvernance ». Le retard affiché par la quasi-totalité des Etats (mis à part les Etats-Unis) au regard de l'importance croissante que prend le réseau en termes d'économie ou bien encore de diffusion de la démocratie..., a pour effet de donner un « coup de fouet » à la prise en compte politique et diplomatique de cet objet dans les Relations Internationales. Cependant, s'arrêter aux Etats pour analyser l'importance d'Internet serait une erreur,

1 Information extraite de la Veille Stratégique concernant Internet disponible à : http://arnaudgarrigues.blog.com .

2 Gaudeul A., & Julien B. (2001), Revue Economique., V. 52

3 Il est difficile d'être pertinent à propos d'Internet sans être technique. Cependant, tous les termes seront abondamment expliqués dans la première partie. Quant à ceux-là, ils paraissent encore abordables.

d'autant plus que la plupart des acteurs habituellement décrits dans le système international ont à un niveau ou à un autre, intégré le réseau.

Par ailleurs, il ne s'agit pas de décrire une géopolitique d'Internet comme plusieurs auteurs ont pu le faire4. Le terme géopolitique renvoie par trop à la notion de territoire et bien évidemment, de géographie. Or, ici, l'objet est tout sauf unidimensionnel. En effet, on peut d'abord le diviser en deux parties : celle des enjeux techniques d'une part et des enjeux de la gouvernance d'autre part. Une subdivision est encore possible dans la partie technique : on considérerait alors trois niveaux de réflexions : le niveau des infrastructures physiques du réseau, le niveau des protocoles basiques du réseau et enfin, le niveau de la nature des données transportées par le réseau. On ne peut donc se référer simplement à un cadre géopolitique car bien qu'il soit bidimensionnel (géographique et politique), il est par nature incapable de rendre compte des phénomènes liés à Internet. Enfin, il est encore possible de diviser la partie purement politique d'Internet, les phénomènes créés par la simple existence et l'utilisation du réseau, en plusieurs parties. En effet, en terme de relations internationales, Internet agite tous les niveaux, que ce soit le système, les états ou bien les autres acteurs.

Enfin, un dernier commentaire s'impose. En raison des enjeux que le système Internet induit, des acteurs qu'il implique et des dynamiques que l'on peut y trouver, on ne peut s'empêcher de penser au pétrole ou bien encore au nucléaire. L'importance prise par ce qui ne peut être vu à la base que comme des outils (pour l'industrie, pour la stratégie militaire) et les enjeux qui en résultent en termes de relations internationales, tout cela constitue un ensemble de phénomènes très proches de ceux que l'on peut observer à propos d'Internet. Ce sera donc l'objet de ce mémoire que de montrer en quoi Internet constitue une nouvelle dimension du Système International.

4 Notamment : Godeluck, S. (2002). La Géopolitique d'Internet : La découverte ou bien encore le dossier du même titre dans le 3ème numéro de 2006 de la revue spécialisée Politique Etrangère.

Prolégomènes

L'objectif de cette partie sera de mettre en valeur plusieurs points déterminants : le cadre d'analyse choisi, la problématique et les hypothèses qui ont été construites, la justification et l'annonce du plan et les outils de recherche utilisés et méthodologiquement justifiés et expliqués.

Le but est ici de mettre en avant tous les choix méthodologiques qui ont été faits que ce soit dans le choix du type d'analyse ou bien des outils de recherche utilisés. Par ailleurs, cela permet de construire l'articulation logique de ce mémoire, de donner aux analyses qui seront développées plus de pertinence et ainsi donner à ce travail un caractère plus scientifiq ue.

Analyse Stratégique :

Analyser Internet conduit à se poser des questions entrant dans des dimensions multiples. Actuellement, une simple recherche sur Internet dans les catalogues des facultés permet de voir que l'aspect social ou économique d'Internet (blogs, nouvelles formes de démocratie,...) est très en vogue. Or ici, l'intérêt est porté uniquement sur une vision stratégique d'Internet et dans les relations internationales plus précisément. Ainsi, il est donc nécessaire de bien définir le sens de l'analyse dans laquelle nous allons inclure cette recherche.

Le type d'analyse choisi est donc l'analyse stratégique. En effet, Raymond Aron a affirmé que

« toute étude concrète des relations internationales est une étude sociologique »5. Or, ici, il

est question d'analyser un objet social (Internet) dans une optique de Relations Internationales. Une analyse de type sociologique paraît donc pertinente. L'intérêt porté aux enjeux et aux relations de pouvoirs, de dominations...renvoie de façon immédiate à une analyse stratégique. Cependant, Il semble nécessaire à ce niveau de justifier une telle affirmation qui, sans cela, serait péremptoire et pour ce faire, de décrire plus précisément les fondements et la méthode de l'analyse stratégique.

5 ARON, R. (1967). Qu'est ce qu'une théorie des Relations Internationale, Revue Française de Science Politique, 17 (5), Octobre 1967, p. 837-861.

Les travaux de Michel Crozier et de Francis Pavé6 ont livré une méthode et une description de l'analyse stratégique permettant de fixer le cadre d'analyse et les modèles logiques liés à ce type d'analyse.

Tout d'abord, l'analyse stratégique se situe dans une logique heuristique : elle a pour but de découvrir un objet social. La pratique du raisonnement, les techniques d'investigation lui sont propres et sont bien particulières.

Elle repose sur divers postulats, qui peuvent être contestés ainsi que le disent les auteurs, mais qui permettent de fonder une représentation de l'objet social en vue d'un but bien particulier. Dans le cadre de ces idées, elle met en place trois notions fondées sur des postulats :

L'Acteur. C'est l'objet central de l'analyse. Il est capable de calcul et de choix : il est rationnel au moins en partie. L'analyse ne se pose pas de questions sur la nature de l'acteur : il est acteur simplement parce qu'il appartient à un contexte d'action (il agit sur Internet ou sur la nature, l'évolution d'Internet), c'est presque un agent. L'étude permet de reconstruire empiriquement l'acteur et c'est pourquoi on ne se pose pas de questions sur lui : seules ses caractéristiques par rapport à l'objet social intéressent. L'acteur est l'élément de premier plan de l'analyse et selon les auteurs, cela s'explique par le fait qu'il est le seul à avoir la capacité à mobiliser et faire exister les contraintes, les problèmes, les solutions et les opportunités.

Le Pouvoir : c'est la seconde notion pertinente de l'analyse. Le postulat lié à cette notion est une vision des rapports humains « médiatisés » par des relations de pouvoir. Si, pour des relations humaines, le postulat est contestable, il paraît en revanche, parfaitement adapté à l'étude du système international. L'objet est ici de montrer que cette vision est adaptée à l'étude d'Internet. Cette façon de voir permet d'introduire différents éléments : l'existence de conflits, d'accords ou d'alliances et évite une vue trop consensuelle. Par ailleurs, son plus grand avantage est de considérer l'instabilité et la conflictualité comme normales et de chercher à expliquer la stabilité, la régularité. L'adaptation de cette vision à un système international considéré comme anarchique, hobbesien est manifeste. L'intuition la rapproche d'une certaine vision d'Internet, apportée notamment par les éléments que j'ai pu citer au début du résumé de la phase exploratoire (inflation normative, lien entre le terrorisme et le réseau...). Par ailleurs, une telle vision a le mérite d'expliquer l'absence de

6 Voir Bibliographie en fin de mémoire

« comportements à logique linéaire » de certains acteurs en lien avec la considération du pouvoir comme une motivation : il s'agit tout simplement d'expliquer les « stratégies » entendues ici au sens commun. Cette vision concentre aussi le raisonnement sur les relations entre les acteurs, l'existence de minorités et de volonté de domination et la capacité des acteurs à créer des compétences et des capacités pour répondre à leur motivation. Cette vision n'est pas sans rappeler la guerre de l'information à laquelle fait référence Jean Guisnel7.

Système : adopter une analyse stratégique, c'est sous-entendre l'existence d'un système. En effet, l'étude du pouvoir comme motivation absolue est un postulat qui entraîne l'existence de relations d'interdépendances entre les acteurs. Cela veut donc dire que l'on fait un « pari » sur l'existence de ces relations dans la réalité sans quoi, il est impossible de faire une telle analyse. Le postulat donc, ou « hypothèse heuristique », est qu'il existe un ordre ou une interdépendance des acteurs. Les conséquences d'un tel postulat sont que l'on s'abstient de rechercher la cause de cet ordre (bien que l'on puisse le faire dans un autre cadre d'analyse) au bénéfice du « comment ».

Problématique et Hypothèses :

Au final, l'enchaînement des postulats donne le raisonnement suivant : la motivation est le pouvoir, ce qui entraîne une interdépendance des acteurs dans la recherche de pouvoir, ce qui donc explique les phénomènes. On parle alors d'endogénéisation des phénomènes : on trouve leur explication dans les relations entre les acteurs. C'est pourquoi la notion de système s'intègre à l'analyse stratégique. La relation avec le système international est donc immédiate : la vision réaliste s'adapte tout particulièrement bien à ce type d'analyse et l'objet du mémoire est donc de montrer l'existence d'un tel système. Or précisément, la délimitation du système est un objet de recherche comme disent les auteurs. Cela permet donc de constituer une partie de la problématique.

Après avoir décrit les principaux fondements de l'analyse stratégique, il est alors possible de donner la problématique de mon mémoire :

7 GUISNEL, J. ((2005).Guerres dans le Cyberespace - Services secrets et Internet : La Découverte

La question principale que l'on peut se poser est la suivante : En quoi Internet est-il certes un univers nouveau mais où les dynamiques observables sont comparables à celles du système international contemporain et où les acteurs impliqués dans ces dynamiques sont aussi ceux du système international ?

Cette problématique a plusieurs mérites. Le premier est qu'elle rappelle qu'Internet est un « univers nouveau », ce qui renvoie à la fois à sa spécificité qu'il faudra expliquer mais aussi aux capacités des acteurs à créer des compétences, des moyens et à faire surgir les opportunités comme il a été dit plus haut à propos de l'analyse stratégique. Le second aspect est qu'elle permet à la fois de revenir sur les acteurs, cela est dit de façon explicite mais aussi de revenir sur les relations de pouvoir. En effet, la mise à jour des « dynamiques » évoquées dans la problématique devrait, pour autant que les hypothèses soient justes, mettre en avant des relations entre acteurs basées sur un besoin de pouvoir et de contrôle. Enfin, le dernier atout d'une telle problématique est de permettre de reconstruire un système, que ce soit en premier lieu, un système Internet ou bien encore une fois, si les hypothèses sont justes, le Système International d'aujourd'hui. Si l'on peut reconstruire un tel système en étudiant Internet, c'est que ce dernier est intégré dans un système plus général et donc, qu'il constitue bien une nouvelle dimension du Système International.

Evoquant les hypothèses, il paraît judicieux de les développer rapidement. Ayant amplement développé la méthode et les caractéristiques de la problématique, énoncer ces hypothèses est dorénavant aisé.

La première et la plus évidente est qu'Internet constitue un système bien particulier qui va au-delà d'un simple outil. Il a été fait référence dans l'Introduction à une comparaison avec le nucléaire ou le pétrole en raison des « débordements » ayant lieu au-delà de la simple nature d'outils. La première hypothèse est donc celle-ci : Internet est un objet social en plus d'un outil dont les conséquences issues de l'utilisation de masse et du développement vont bien au-delà de sa nature simple d'outil de communication.

La seconde concerne l'existence d'un système Internet que l'on peut décrire stratégiquement. La vision « cachée » derrière cette hypothèse est plutôt « réaliste » au sens des théories des Relations Internationales et peut être dédoublée en deux sous-hypothèses : l'existence de relations de pouvoirs d'une part et d'acteurs d'autre part tels que définis dans la méthodologie de l'analyse Stratégique.

La dernière hypothèse repose sur la définition des acteurs et des dynamiques ou des relations mises à jour. Cette étude prétend montrer que les identités des acteurs en présence sont les mêmes que celles des acteurs du Système International et que les relations de pouvoir y sont de même nature. C'est-à-dire qu'elles prétendent défendre ou obtenir les mêmes choses et ce pour les même raisons : du contrôle, de la sécurité, une capacité de réponse voire de contrainte plus forte en raison de la souveraineté.

La démonstration de ces hypothèses entend montrer par corollaire qu'Internet est devenu un enjeu du Système International, qu'il est intégré dans le Système International et doit donc être considéré comme tel pour les politiques futures.

Justification du Plan :

Le fonctionnement d'Internet est relativement complexe et ce, pour plusieurs raisons. Toutes ces raisons n'ont pas forcément pour corollaire immédiat de créer des enjeux mais il est nécessaire de maîtriser les concepts et les termes pour comprendre les analyses qui suivront. Il s'agit aussi de décrire « l'univers nouveau » évoqué dans la problématique.

Cependant, certains aspects du fonctionnement sont effectivement en tant que tels des enjeux et, afin d'éviter des descriptions plus tardives, la description sera faite de telle manière que ces problématiques apparaîtront clairement.

Internet est une structure multidimensionnelle par nature. En premier parce que le fonctionnement n'est pas abordable de façon linéaire, la plupart des actions de base de l'internaute débutant déclenchant des réactions en chaîne à plusieurs « étages » nécessaires à la réalisation de l'opération envisagée. Cela veut donc dire que le fonctionnement technique du réseau est difficile à expliquer et nécessite déjà un travail important.

Ensuite, il y a l'aspect administratif et politique correspondant à la gestion d'Internet, à sa gouvernance. Les interactions entre l'ICANN8, le gouvernement américain, celui des autres états, les entreprises se font dans un cadre précis qu'il convient de décrire. Ces relations en tant que telles seront abordées dans la seconde partie.

Pour respecter ce premier double aspect, la division la plus pertinente paraissait être la suivante : « l'Architecture du réseau » où seront expliqués le fonctionnement technique et l'aspect « Administration » où sera développée et définie la gouvernance d'Internet.

8 Voir la Première Partie pour un exposé sur l'ICANN.

Tout cela constitue donc une première partie qui sera nommée : « Histoire et fonctionnement d'Internet d'un point de vue stratégique ». On décrira donc les éléments cités plus haut en insistant sur l'aspect stratégique qui leur sont liés.

Une fois les concepts et l'histoire maîtrisés, l'analyse en tant que telle peut débuter. La problématique du mémoire consistait à relever les principaux enjeux stratégiques de l'objet et à montrer que malgré les aspects nouveaux (dus principalement à l'aspect technique, ce qui donne tout son sens à la première partie), les acteurs et les dynamiques fondamentales de la prise de pouvoir ne changeaient pas par rapport à ce que l'on pouvait trouver dans le système international contemporain. Au final, les lectures, les interviews et la veille stratégique faite sur Internet m'ont conduit à recenser diverses problématiques et différentes façons de les expliquer ou de les concevoir. C'est ce qui va être développé dans la seconde partie.

Aussi, adopter un outil utilisé dans les théories de relations internationales semble pertinent et c'est pourquoi la seconde partie se fonde sur les niveaux d'analyses. En effet, le propre de ce type d'outil est de considérer la multicausalité des phénomènes sociaux comme évidente et de proposer des explications les plus larges possibles. C'est ce qu'affirme Barry BUZAN dans son article : « The level of analysis problem is about how to identify and treat different types of location in which sources of explanation for observed phenomena can be found».9 Autrement dit : « Le problème des niveaux d'analyses est de savoir comment identifier et traiter différentes sources auprès desquelles on peut trouver des explications aux phénomènes observés ».

Pour cette raison, le choix de cet outil apparait des plus pertinents lorsque l'on considère qu'Internet est un phénomène mondial qui conserve pourtant des caractéristiques bien particulières aux niveaux des états ou des individus.

Le choix du nombre des niveaux d'analyse et de leur signification relève d'une seconde réflexion. Une fois, le choix de cet outil méthodologiquement justifié, il faut savoir comment s'en servir. Plusieurs théoriciens des relations internationales ont travaillé sur le nombre de niveaux d'analyse, leurs significations et leurs distinctions.

K. WALTZ retenait trois niveaux : systémique, étatique et individuel. J.ROSENAU, quant à lui retient 5 niveaux (systémique, sociétal, gouvernemental, rôle de l'individu, particularités de

9 BUZAN B., (2001), The level of Analysis Problem Reconsidered, Theories in International Relations : University of Pennsylvania Press

10 Ibid.

l'individu) et PAPP en adopte 6 en rajoutant un niveau, les sous-systèmes.10L'approche défendue par WALTZ paraît ici la plus à même de permettre de traiter l'objet dans l'optique choisie. Cependant, c'est en quelque sorte la qualité des développements qui permettront de justifier définitivement ce choix.

Cette approche veut respecter les particularités d'Internet, à savoir l'importance de l'individu par rapport au groupe auquel il peut appartenir (terroriste, criminel...) et le fait que l'anarchie au sens littéral du terme (absence de pouvoir central) caractérise particulièrement bien ce système.

Tout cela constitue donc une seconde partie qui sera nommée : « Analyse des enjeux ». Les subdivisions seront au nombre de 3 : une première pour le Système, une seconde pour l'Etat et une dernière pour l'Individu.

Concernant la dernière partie, son but est double : montrer une approche critique du travail réalisé auparavant et pouvoir apporter des éléments récoltés notamment au niveau des entretiens ou des lectures de tous les « bords » politiques ou encore idéologiques.

Par ailleurs, considérant que le lecteur est maintenant averti des différentes problématiques, dynamiques et tendances se développant sur ou autour du réseau, il est possible de montrer un affrontement de nature plus philosophique derrière ses développements stratégiques.

Enfin, comme dit précédemment, la question de la validité, de la généralisation des observations et peut-être même des prénotions imposées, doit être posée. C'est l'objet de cette partie.

Par ailleurs, ce développement aura pour objectif de reprendre les différents outils utilisés et de montrer que par nature, ils induisent des biais de compréhension et de représentation de la réalité. Il faut noter aussi que l'utilisation de ces outils conduit à définir certaines variables et ces définitions peuvent conduire à des erreurs de compréhension.

Ce seront donc ces deux aspects qui seront développés ici. La démonstration de l'utilisation des outils et le choix des variables seront, eux, développés dans la suite de cette partie.

Un second développement à l'intérieur de cette partie aura pour objet de développer les philosophies ou les grandes idées sous-tendant les actions et les prises de positions des différents acteurs d'Internet.

En effet, et c'est la première critique, le rédacteur n'a pas été totalement exempt de partispris et ses opinions ont sans doute influencé les développements précédents. Il sera donc intéressant d'essayer de donner un écho à certaines opinions ou prises de positions afin de permettre une plus grande objectivité des éléments déjà exposés. Il s'agit de faire « parler les acteurs ». Par ailleurs, il faut bien voir que l'étude a deux biais relativement importants que l'on ne peut ignorer :

- Un temps d'étude trop court : cela a pour conséquence une sorte d'étude à partir d'une « photographie » d'Internet. A la fois parce que l'objet est très jeune et parce qu'il évolue à une vitesse impressionnante, un tel mémoire ne peut bien rendre des enjeux, des stratégies et des développements. Certains évènements ont eu lieu pendant l'étude et les étudier est particulièrement difficile à ce niveau de temps et d'expérience de recherche.

- L'objet est réellement vaste et l'appréhender à la fois, dans sa généralité et dans ses particularismes est de l'ordre de l'impossible en si peu de temps et de place. Cela dit, cela permet d'avoir des axes de recherche et de poser des questions pour des recherches ultérieures.

Outils méthodologiques de recherche :

Après avoir défini la problématique et justifié le plan, il convient de justifier les méthodes utilisées pour l'étude et la résolution de ce problème. Pour cela, il semble pertinent de faire à nouveau un rapide retour méthodologique sur l'analyse stratégique et surtout ses implications en termes de modèle de logique.

Selon M. CROZIER, la posture intellectuelle naturelle liée à une telle analyse est une posture d'induction. Il s'agit effectivement de reconstruire un modèle représentant la logique et les propriétés d'un « ordre local »11.

11 CROZIER M., &PAVE F. (1994), Analyse stratégique - Colloque de Cerisy: Ed. Du Seuil, p. 133 -153

Cela implique plusieurs éléments fondamentaux. Le premier est qu'une posture d'induction entraîne la construction d'un modèle mimétique fondé sur des observations empiriques. Il s'agit ici uniquement des idées tirées d'une reprise du cours12.

Le second élément est propre à l'analyse stratégique. En effet, selon les auteurs, reconstruire sous forme de modèle un ordre local a une première implication : la nécessité d'avoir une description et une analyse des faits poussées. La seconde implication est l'utilisation de la comparaison afin de mettre en exergue les faits significatifs et d'avoir à disposition des résultats d'études faites à proximité du sujet.

Au final, la méthode utilisée est donc une méthode inductivo-comparative. Le lien avec mon sujet est fait sans effort car il postule l'existence d'un « Système Internet » et l'induction va permettre de construire ce système ou alors d'infirmer cette hypothèse. Quant à la comparaison, elle est satisfaite par le rapport au système international tel que présenté dans nos cours et en empruntant des éléments au paradigme réaliste (les relations liées au pouvoir) et au transnationalisme (un certain dépérissement de l'Etat et des relations dépassant les frontières étatiques habituelles).

Ce retour méthodologique permet donc d'avoir des précisions quant aux méthodes les plus adaptées pour fournir des réponses.

La méthode utilisée est bipartite : elle a un aspect comparatif et un aspect inductif. L'aspect comparatif et les sujets de comparaison amènent logiquement à considérer l'analyse documentaire comme un moyen privilégié d'acquérir les outils, notions et connaissances nécessaires à cette étape de l'analyse.

L'aspect inductif a plusieurs conséquences : la première est qu'étant donné que les hypothèses sont empiriques, formulées à partir de constatations faites en recherche préliminaire sur Internet, il faut se confronter au réel pour pouvoir les tester. De plus, les indicateurs permettant de s'orienter dans l'analyse et de confirmer ces hypothèses sont données par le réel : ce n'est qu'une conséquence de ce qui a été dit plus haut. Il faut donc un « aller-retour » entre le réel et le conceptuel pour pouvoir dégager des hypothèses, construire un modèle testé par les réponses aux hypothèses et enfin obtenir par le biais des indicateurs, les résultats des tests des hypothèses et donc la validité du modèle.

Dans ce cadre là, c'est l'entretien semi-directif qui paraît être la meilleure façon de se confronter au réel. En effet, l'analyse stratégique met en avant les acteurs et l'entretien

12 Cours de Travaux Dirigés de Mr LEFEVRE.

permet de rencontrer ces acteurs. De plus, cela permet de recueillir un matériau de recherche précis et de qualité, permettant ainsi de construire le système.

Par ailleurs, il paraît intéressant de noter que si l'entretien semi-directif est performant, il a besoin d'une grille précise, préalablement préparée, pour obtenir les informations souhaitées13. Or, la recherche documentaire effectuée dans le cadre de la comparaison permet de réduire le champ des investigations, de constituer les indicateurs de comparaison et donc de construire une partie de la grille de questions.

Ayant ainsi justifié les méthodes au regard du cadre d'analyse, il convient maintenant de les confronter au terrain. Il faut donc dans un premier temps, faire un point rapide sur la nature et les caractéristiques du terrain.

Le terrain choisi est donc Internet. Cependant, la problématique postule une analyse stratégique d'Internet, à la fois phénomène et objet. Cela a pour conséquence d'avoir des acteurs ayant entre eux des relations liées au pouvoir. Cela modifie donc le terrain qui devient donc à la fois Internet mais aussi tous les acteurs ayant des comportements stratégiques sur Internet. Par ailleurs, le type d'analyse choisi amène à la constitution d'un système et l'aspect comparatif de cette méthode est lié au système international. En résumé, il s'agit donc d'étudier Internet en se demandant en quoi il s'intègre dans le Système International et donc d'étudier les acteurs ayant des menées stratégiques dans le Système International et à fortiori, Internet. On a donc la définition du terrain et il ne reste plus qu'à montrer que les méthodes choisies sont parfaitement adaptées à un tel terrain.

Premièrement, la comparaison avec le système international nécessite une bonne documentation sur ce sujet. Cela nécessite de bien connaître les différentes actions se menant sur le réseau ou autour, de même que les tendances, les dynamiques. Tout cela conduit à se documenter sur les analyses réalisées par des spécialistes des Relations Internationales ou d'Internet ou bien des spécialistes dans les deux matières. L'analyse documentaire paraît donc être la méthode la plus indiquée.

Deuxièmement, la confrontation avec le réel est, on l'a vue, nécessaire pour pouvoir tester les hypothèses. Or, le « réel » de ce terrain est constitué principalement d'acteurs qui sont prépondérants dans cette analyse. La confrontation au réel passe donc par la confrontation avec ces acteurs. On a ainsi la seconde méthode : l'entretien semi-directif qui permet de tester les hypothèses et de faire produire de l'information à l'acteur d'Internet.

13 Voir la Grille en question en annexe

Les méthodes ainsi justifiées par rapport au cadre d'analyse et au terrain, il faut maintenant préciser les conditions d'utilisation de ces méthodes.

La nature du terrain est bien particulière et le cadre d'analyse choisi également : il s'agit d'une analyse stratégique d'Internet avec une orientation certaine dans le domaine des relations internationales.

De cela, on tire plusieurs conséquences : la première est qu'il ne s'agit pas d'analyse du type de celles que peut proposer la sociologie électorale par exemple. On est dans le cadre d'une analyse stratégique : on observe les acteurs, de quelque nature qu'ils puissent être, et leurs relations de pouvoir. Donc, étant donné la diversité des acteurs (états, individus, firmes multinationales...), il est très difficile de recourir à certains outils que sont par exemple les questionnaires ou même les focus groups. Cela est corroboré par la nature des relations étudiées : les relations de pouvoirs sont par nature discrètes et les acteurs, peu enclins à les divulguer où à les expliciter. Donc, certains outils sont à proscrire de par leur caractère inadéquat.

La seconde conséquence est la complexité du terrain. En effet, Internet reste quand même à la fois un espace vaste mais aussi un monde extrêmement complexe et notamment, en termes de relations internationales ou d'acteurs ayant pour objectif un relatif contrôle de cet objet. Aussi, en raison des contraintes de temps de cette étude, de l'évolution très rapide de l'objet et des contraintes liées à la nature des acteurs, il était nécessaire à la fois de trouver des sources fiables et préalablement renseignées, d'essayer d'avoir une vision de l'intérieur de certains des acteurs et enfin de maintenir une connexion avec l'évolution de l'objet très rapide. Il aurait été dommage de rendre une étude dont certaines informations étaient périmées alors qu'il aurait été possible de les mettre à jour.

Tout cela a pour conséquence de valoriser certains outils et ce sont ceux qui ont été utilisés : l'analyse bibliographique, l'entretien semi-directif et le processus de veille stratégique qui constitue une analyse bibliographique bien particulière. Un retour rapide sur ces outils s'impose maintenant.

Concernant l'analyse bibliographique, le corpus choisi a été surtout celui des périodiques de langue française et anglo-saxonne. Plusieurs raisons à cela : la première est que si le nombre d'ouvrages consacrés à Internet commence à devenir important, la plupart s'intéresse à la sociologie d'Internet dans le monde du travail ou encore de l'éducation pour ne citer que ceux-là. En effet, peu d'entre eux s'intéressent à la configuration des pouvoirs dans ou autour d'Internet et étant donné à la fois, la relative jeunesse de l'objet et l'intensité actuelle

de la question stratégique, les périodiques paraissaient tout indiqués. Le choix des périodiques résulte d'une « stratégie » simple tenant essentiellement à des questions pratiques : le corpus a été limité aux revues de la Bibliothèque Universitaire de l'Université Toulouse 1 traitant des questions de relations internationales, de stratégique, de sécurité et de défense. Ainsi construit, ce corpus paraissait à même d'apporter une conscience relativement large du sujet et en même temps, de respecter une certaine diversité de points de vue (Europe, Etats-Unis), de façon de travailler (France, Etats-Unis) ou encore d'aspects du sujets (défense, sécurité...).Concernant les choix bibliographiques, tout paraît avoir été explicité mais les défauts de la méthode et les défauts dans l'utilisation de la méthode seront explicités en partie 3.

Les entretiens semi-directifs ont été réalisés à partir d'une grille d'entretien basée sur les hypothèses de travail. Idéalement, il aurait été souhaitable de rencontrer des représentants de tous les types d'acteurs sur Internet : l'ICANN, les états, les hackers, les firmes multinationales, l'ONU... Au final, trois entretiens ont été réalisés en direct et un dernier par e-mail. Le premier a été fait avec un membre de l'ICANN, Mme INNE, ayant un travail politique de liaison avec une région bien particulière du monde, l'Afrique. Le second a été réalisé avec une personne ayant réalisé un mémoire de DEA sur l'incitation au terrorisme et ayant travaillé pour l'ONUDC, notamment en relation avec l'informatique, Internet et le terrorisme, Mr BREHAM. Le dernier a été réalisé avec un spécialiste de l'informatique, Mr POUZIN ayant participé à la création de réseaux dans les années 70, réseaux à structure proche de celle d'Internet. Dernièrement, il a participé aux travaux préparatoires du SMSI14 et au sommet lui-même. Il milite actuellement au sein d'une association pour la promotion des langues dites naturelles au sein d'Internet. Enfin, l'entretien par e-mail s'est déroulé avec un officier de la Marine spécialisé dans la communication, Mr BALLANCHO.

La grille d'entretien a été réalisée notamment en se basant sur les cours et sur des ouvrages méthodologiques15. Elle a donc été construite de façon à permettre à la fois d'obtenir des informations sur l'acteur interrogé et sur ces relations de pouvoir tout en jouant avec les contraintes du « non-dit » de ces relations de pouvoir. Au final, elle s'est articulée autour de deux grands thèmes : les tendances, les dynamiques sur Internet en premier et les acteurs participant à ces dynamiques en second. Une subdivision était apportée afin d'éviter les biais : il était demandé une vision professionnelle et une vision plus personnelle de la

14 Sommet Mondial de la Société de l'Information qui s'est tenu pour la première fois à Genève en 2003.

15 Cités dans la bibliographie.

situation. Enfin, des éléments plus libres de considération générale étaient également demandés à la fois pour des questions d'intérêt général et aussi, afin d'avoir un meilleur aperçu de la personne interrogée.

Le dernier outil, la veille stratégique, a été réalisé sur 6 sites web d'informations générales ou spécialisées16. Le choix de ces sites témoigne de deux considérations. La première est que ces sites ont été désignés par des spécialistes en informatique et Internet comme les meilleurs, informations recoupées par le simple fait que toutes les données relevées ailleurs ont toujours été retrouvées par la suite sur ces mêmes sites. Par ailleurs, des sites d'informations générales comme Google News dont le fonctionnement simple consiste à afficher les informations statistiquement les plus répandues dans le cadre de sujets généraux, ont toujours donné ces sites comme sources. Ces 6 sites ont donc été consultés très régulièrement (entre 3 et 5 fois par semaines) et ont été relevées toutes les informations relatives à l'aspect stratégique des évolutions d'Internet. Ce relevé présente donc chaque information, datée, résumée et la ou les sources. Il a permis beaucoup de découvertes et une meilleure compréhension de certains évènements.

Voilà donc, développés les outils méthodologiques de recherche utilisés. Bien évidemment, chacun présente des failles en tant que tel ou dans leurs utilisations mais comme il a déjà été dit, la dernière partie traitera de ces différents biais ou problèmes.

16 Les sites sont dans la partie Bibliographie. La veille est disponible à cette adresse : http://arnaudgarrigues.blog.com

Plan

Introduction p. 4

Prolégomènes p. 6

Partie 1 : Histoire et fonctionnement d'Internet d'un point de vue stratégique p. 21

I- Histoire p.21

A- 1969-1998 : le temps des professionnels p. 21

B- 1998 à nos jours : l'apparition du reste du monde p. 24

II- Fonctionnement p. 26

A- Architecture du système p.26

a) Infrastructures p. 27

b) Protocoles Techniques Basiques p. 29

B- Administration, Gouvernance et Politique p. 34

a) Une structure contestée : l'ICANN p. 35

b) SMSI et FGI p. 37

Partie 2 : Analyse des enjeux p. 39

I- Le système Internet et le système International p. 40

A- Internet : Une égale répartition de la Ressource ? p.40

B- Eléments de Gouvernance et de Contrôle p. 42

a) Economie Mondialisée p. 42

b) Démocratie et Cultures p. 45

C- Internet : un Système Stable ? p.46

II- Les Etats : Du Nord au Sud, une préoccupation désormais commune p. 48

A- Les Etats et Internet : La souveraineté p. 48

B- Les Etats et Internet : Sécurité et Contrôle p. 52

III- Les Individus et Internet : activisme, cybercriminalité, terrorisme p. 57

A- Activisme et Internet p. 57

B- Cybercriminalité p. 59

C- Terrorisme p. 61

Partie 3 : Vision critique méthodique et quelques éléments d'évolutions envisageables p. 64

I- Des outils de recherche biaisés par nature et par utilisation p. 64

A- Biais Norm atifs p. 64

B- Biais Méthodologiques p. 66

II- Que faut-il attendre des évolutions d'Internet ? p. 68

Conclusion p. 71

Bibliographie p. 74

Annexes p. 78

Première Partie : Histoire et fonctionnement d'Internet d'un point de vue
stratégique

Après cette longue mais nécessaire introduction relative à la méthodologie de tout ordre, il paraît nécessaire de s'intéresser au coeur du sujet. Comme il a été dit précédemment, un rappel de l'histoire et du fonctionnement d'Internet doit être fait. On se consacrera en premier lieu à l'histoire de l'objet toujours en mettant en avant l'aspect stratégique.

I- Histoire

Ainsi qu'on va pouvoir le constater, l'évolution d'Internet s'est faite en deux temps. Cette distinction n'est pas arbitraire. En effet, avant 98, Internet a été le fruit d'une conception universitaire administré par les tenants de la « Woodstock-era ». Cette expression imagée provient de Kenneth Neil Cukier dans un article paru dans la revue spécialisée Foreign Affairs17 et entend démontrer, en référence au mouvement hippie qui suivit la tenue de cet évènement, à quel point la gestion et le développement d'Internet par les universitaires avait quelque chose de fondamentalement idéaliste. Cependant, en 98, naît l'ICANN et c'est à ce moment là qu'Internet devient à la fois un objet de « business » mais aussi commence à connaître son développement sans précédent. Voilà donc pour la distinction.

A- De 1969 à 1998 : le temps des professionnels

C'est en 1969 qu'Internet naît dans les laboratoires des universités américaines. Le projet a été commandité par l'armée des Etats-Unis qui, en ces temps de Guerre Froide et d'incertitude stratégique, a voulu développer et construire un réseau susceptible de remplacer les réseaux habituels au cas où ceux-ci seraient détruits lors d'une attaque nucléaire ou stratégique contre les réseaux de télécommunications. Ce sera l'Agence pour les Projets Technologiques Evolués (Advanced Research Projects Agency - ARPA)

17 CUKIER, K.N., (1995), Who Will Control the Internet, Foreign Affairs, 84, 6, Nov.-Dec 1995., p. 10

appartenant au Département de la Défense américain qui fournira les fonds et s'occupera du projet.

De 1969 à 1982 seront développés les grands protocoles qui permettent à Internet de fonctionner aujourd'hui (TCP/IP, FTP, Telnet...). En effet, comme on le montrera dans le II de cette partie, ce sont toujours ces protocoles fondés dans les années 70-80 qui permettent à Internet de fonctionner. Différentes universités vont être intégrées au projet et vont héberger des « noeuds », c'est-à-dire des serveurs « ressources » d'Internet : le Massachusetts Institute of Technology (le célèbre MIT de Boston), University of California Los Angeles (UCLA), University of South California (USC). Le Département de la Défense américain abrite aussi un de ces noeuds. Par ailleurs, il est à noter qu'à ce moment là, Internet existe sous le nom d'Arpanet en raison du nom de l'agence américaine qui en a fait la commande. En 1974, Vint CERF et Bob KAHN finissent l'écriture des protocoles TCP et IP en leur donnant leurs spécifications techniques.

Jusqu'en 1980, le développement du réseau n'est pas encore finalisé et s'il commence à se diffuser aux USA, il reste très largement cantonné aux universités et au monde universitaire qui voit en lui un moyen formidable de partage des connaissances. On voit déjà se dessiner une certaine opposition dans la façon de concevoir le Net. En 1982, les protocoles TCP et IP sont implantés et on peut donc dater la naissance d'Internet à ce jour. En 1983, 562 noeuds sont interconnectés et forment le réseau Arpanet. C'est à cette époque que la division se fait entre Internet qui est alors créé en tant que tel et Milnet, la version militaire du réseau. Internet continuera sa croissance jusqu'à atteindre le million d'ordinateurs connectés environ 10 ans plus tard, en 1992.

Une personne est à citer aussi, il s'agit de Jon POSTEL. Universitaire et informaticien parmi la poignée de main d'ingénieurs qui ont participé à la construction d'Internet c'est lui qui va gérer Internet jusqu'en 98. Ce sera lui qui écrira notamment les « Request For Comments » ou RFC : cet ensemble de textes constitue en quelque sorte la « Bible » d'Internet18, le socle de son fonctionnement à la fois technique mais aussi administratif. Les sujets traités sont assez larges et il a même prévu la gestion des noms de domaines dans ces textes.

Dans les années 80-90, le problème commence à venir du nombre d'ordinateur interconnectés et de la capacité de tel ordinateur à rejoindre tel autre. En effet, le problème des doublons d'adresses et la difficulté à trouver sa route vont obliger Jon POSTEL à mettre

18 L'expression provient de la retranscription de l'interview effectuée avec Mme INNE, membre de l'ICANN.

en place le service DNS19 (Domain Name System). Cela se traduira notamment par la création des noms de domaines qui proviennent en fait d'une liste de codes conservée à l'ISO, la liste des codes-pays 3166/1. C'est à ce moment que furent créés les Country Code Top Level Domains (CCTLD)20, c'est à dire tous les domaines réservés au pays. Cependant, la gestion de ces noms de domaines sur lesquels les pays détiennent en général la souveraineté a été faite par POSTEL jusqu'en 98 et de manière plutôt aléatoire.

Les CCTLD ont été créés en même temps que les GTLD (Generic Top Level Domains) qui correspondent eux aux .com, .biz... Or, ces domaines plus généraux ne correspondent à aucun droit de souveraineté et des entreprises ont immédiatement vu le potentiel de tels outils.

En 1992, fut créé l'ISOC (Internet Society), sorte d'association, ayant pour objectif de promouvoir Internet de par le monde et plus généralement l'interconnexion des systèmes de communication. Son siège est à Reston en Virginie et elle entretient des contacts étroits avec l'ICANN et les organisations affiliées. Toute personne peut devenir membre de l'ISOC.

C'est ainsi que Network Solutions (aujourd'hui Verisign) s'est « porté volontaire » en 1996 pour gérer, non gratuitement, bien évidemment, le .com. Le département du Commerce américain qui s'était vu transmettre la gestion de la ressource par le Département de la Défense qui avait obtenu le réseau militaire souhaité et dont l'objet n'était sûrement pas une gestion commerciale d'Internet, a donc passé un contrat avec cette entreprise. Or, dans le même temps, J. Postel continuait sa gestion plus aléatoire et « universitaire » des CCTLD, dans une vision totalement différente d'Internet.

La multiplication des demandes de contrats et les pressions persistantes pour une gestion commerciale de la ressource a conduit le Département du Commerce à envisager une autre possibilité de gestion d'Internet. C'est ainsi que sous l'administration Clinton, une sorte de plénipotentiaire fut désigné afin d'engager des pourparlers avec toutes les parties en présence afin de déterminer la meilleur solution de gestion dans l'avenir. Ira MAGAZINER fut donc chargé de ces consultations.

Après plusieurs consultations et de très intenses négociations (si intenses que J. POSTEL mourut à ce moment-là d'une crise cardiaque), c'est en 98 que l'ICANN fut créé. L'Internet Corporation for Assigned Names and Numbers est un nom trouvé par J. POSTEL lui-même et

19 Se reporter au II pour l'explication

20 Ex. : .fr pour la France, .de pour l'Allemagne etc. ...

il devait en devenir le premier employé avant son décès. Esther DYSON, première présidente du Conseil d'Administration nomma le premier PDG, Mike ROBERTS et réussit à donner à l'ICANN sa structure de fonctionnement et sa capacité de travail actuelle. Cette société de droit privé californien basée aux environs de Los Angeles a donc la possibilité de signer les contrats avec les entreprises souhaitant acquérir des noms de domaines et les administrer.

B- De 1998 à nos jours : l'apparition du reste du monde

A partir des années 2000, on peut sans conteste affirmer que la croissance d'Internet fut fulgurante. Du million d'ordinateurs connectés en 92, le milliard d'ordinateurs connectés a été franchi courant 2005.

Hormis les USA qui ont présidé à la création d'Internet, les Etats se sont « éveillés » petit à petit à Internet. L'utilisation de plus en plus importante du réseau par les entreprises, le phénomène des start-up et la bulle Internet et son éclatement ont contribué à la diffusion du réseau à grande échelle.

Les grandes capacités d'échange de savoir, les contenus dérivés comme la télévision, le téléphone ont contribué à l'essor d'Internet et à son nombre grandissant d'utilisateur.

Dans un autre ordre d'idée, la constatation des dégâts causés par les hackers, leurs démesurées capacités de nuisance, la cybercriminalité, le terrorisme ont obligé les états à se saisir du problème.

Si certains états ont légitimement des questions concernant la sécurité et la souveraineté, d'autres, plus autoritaires, y voient la fin de leurs régimes et mettent en place des répressions intenses contre les internautes se positionnant contre le régime en place. C'est notamment le cas de la Chine ou de la Tunisie. Il existe une liste « noire » de pays opposés à Internet.

Tout cela induit une difficulté de compréhension, des problèmes nouveaux et la nécessité de réponse à toutes des questions a conduit l'ONU, par ailleurs relativement absente de cette problématique, à organiser le premier sommet mondial de la société de l'information à Genève en 2003. Cela a permis une première prise en compte du problème et la rencontre des différents acteurs entre eux. La France a envoyé un ambassadeur à ce sommet montrant ainsi que les implications pouvaient devenir cruciales.

En 2004, Kofi Annan a créé eu sein de l'ONU, un groupe de 40 personnes chargées de rendre un rapport sur la question de la gouvernance d'Internet. Ce rapport réclamait notamment le transfert de la gestion d'Internet à l'ONU. Cependant, conscient de la montée des revendications nationales de plus en plus fortes, Washington qui auparavant, pensait garantir une autonomie totale à l'ICANN pour 2006, a refusé d'y souscrire. La preuve en est que des accords ont été repassés entre la société et le Département du Commerce américain en 2006.

La seconde phase du SMIS s'est tenue à Tunis en 2005. La tension internationale du moment sans doute exacerbée par d'autres évènements et la position des Etats-Unis à propos d'Internet ont conduit ce sommet à un relatif fiasco. Relatif car la participation a été surprenante, notamment de la part de la société civile : 18 000 personnes se sont rendus làbas. Relatif échec encore à cause de la création de Forum pour la Gouvernance d'Internet, qui bien que n'ayant aucun pouvoir de décision, constitue un lieu de débat ouvert à tous.

La première session de ce Forum s'est tenue à Athènes en novembre 2006. 1200 participants se sont rendus là bas ainsi que des représentants de l'ONU. La nature du Forum étant telle, aucune décision n'a été prise. Mais le nombre de proposition pour accueillir le Forum témoigne de l'importance de la question et de la volonté des pays de prendre en charge la question. C'est à l'occasion de telles réunions qu'a été dévoilée la conception d'Internet par l'ONU : selon l'organisation, il s'agit d'une « ressource publique mondiale ».

Cependant, à côté de ces élans démocratiques pour la gouvernance d'Internet, il ne faut pas oublier de tenir compte des tendances à la balkanisation que peut connaître actuellement Internet. Le développement de protocoles incompatibles avec le reste du réseau, la création de service DNS « personnalisés » par la Chine ou l'Arabie Saoudite sont une tendance plutôt homicide par rapport au réseau.

L'évolution depuis la création d'Internet, du besoin militaire allié à la vocation universitaire à la récupération par les entreprises à des fins économiques pour terminer par la peur des états, montre combien cette question peut-être importante. Il ne faut pas oublier que cette évolution est d'une rapidité saisissante. En effet, à peine environ 40 ans séparent Aujourd'hui des premiers pas du projet. Et la plupart des grands changements ne datent que de 10 ans à peine. C'est donc un phénomène d'une importance considérable en relations internationales car ainsi que l'on peut le voir, absolument tous les acteurs ont été cités au

cours de cette histoire et tous ont approché le réseau avec l'intention de profiter de ce qu'il offre ou avec une certaine peur, une envie mais aucun ne l'a considéré avec « dédain ».

Cet aperçu rapide de l'histoire d'Internet comporte un certain nombre de sigles techniques et de concepts difficiles à appréhender. Aussi, la partie suivante sera consacrée à l'explicitation du fonctionnement du système Internet.

II- Fonctionnement d'Internet

Ce développement sera divisé en deux. La première partie sera essentiellement technique et remplira un double-rôle : rendre compte du fonctionnement d'Internet d'un point de vue technique en insistant sur les aspects pouvant créer des enjeux et donner les explications des sigles et des concepts techniques. En effet, si on a pu rapidement utiliser ces concepts auparavant, la suite fera montre d'un usage beaucoup plus intensif. La seconde partie quant à elle, abordera l'architecture des différents organes de gestion, de contrôle et de gouvernance d'Internet. A cette occasion, nous nous attarderons quelque peu sur la notion de gouvernance, non pas en tant que concept nouveau dans la science politique mais dans son sens pour Internet.

A- Architecture du Système technique

Avant de commencer à traiter de ce sujet, deux notions importantes doivent être expliquées. La première est celle de réseau « de bout en bout » ou « end-to-end » ou bien encore à « intelligence décentralisée ». Comme on a pu le faire remarquer plus haut, Internet a été créé en dehors de tout contexte de normalisation21. Cela a pour conséquence une très forte volonté des concepteurs d'interconnecter des réseaux qui pouvaient avoir des conceptions différentes. Aussi, le réseau est-il à la fois adaptable et surtout indépendant du contenu qu'il transporte. Cela veut dire que quelque soit le contenu transporté, ce sont les « terminaux » ou encore les ordinateurs en fin de chaîne de transmission qui vont créer les données, les coder puis, les analyser, les retranscrire et enfin, les utiliser.

21 Se référer aux notes de retranscription de l'entretien avec Louis Pouzin, notamment sur les réseaux Cyclades.

Un Ex. : Lorsque vous « surfez » sur le Web, les pages que vous affichez dans votre navigateur vous sont envoyées directement sur votre ordinateur par les serveurs sur lesquelles elles sont enregistrées. Il n'est nulle part question d'une « fenêtre » de lecture sur ces mêmes serveurs. De même, l'envoi d'un film sur Internet n'est significatif pour le receveur que s'il le lit sur son ordinateur. Dans les deux cas, pour Internet lui-même, il n'y a aucune différence de nature entre la page et le film.

La seconde notion permettra de clarifier les explications. Elle a été empruntée à Lawrence Lessig22 dans son article sur Internet paru dans Foreign Policy. Il construit une représentation en trois niveaux d'Internet particulièrement efficiente et c'est celle-ci que nous allons utiliser. Le premier niveau, de base concerne les infrastructures, les serveurs, les « câbles » de transmission. Le second concerne les protocoles réseau de base (TCP/ IP, DNS) permettant l'acheminement des données. Le dernier quand à lui est tout simplement celui du contenu (Pages Web, Mp3, films...).

En combinant les deux notions exposées, le lecteur pourra se faire une idée bien plus claire de la nature du réseau et de son fonctionnement.

a) Infrastructures

Le coeur d'Internet est constitué de systèmes intermédiaires ou réseaux de taille inférieure reliés entre eux par des liens que sont les supports de transmissions comme les câbles de fibres optiques transocéaniques23, le tout constituant un maillage.

Par ailleurs, le coeur du service DNS (annuaire) est géré par 13 serveurs racines (root servers). Ils sont répartis de la façon suivant et cela constitue déjà un enjeu : 9 aux USA, 2 en Europe, 1 au Japon et 1 au Kenya. La racine (les 13 serveurs) est complétée par un grand nombre de serveurs DNS de niveau inférieur.

Cependant, peut-être conscient de l'apparente fragilité du système encore attaqué il y a peu de temps, l'ICANN a mis en place un nombre relativement important de serveurs miroirs (identique) à ces 13 serveurs. Le nombre de ces miroirs est entre 120 et 130.

22 LESSIG, L. (2001), The Internet Under Siege, Foreign Policy, Nov.-Dec. 2001, p. 56-65

23 Cette définition de base est très largement empruntée à l'ouvrage Internet, de la célèbre collection « Que sais-je ? ». Voir bibliographie.

Par ailleurs, il faut être bien conscient que la plupart du temps, les requêtes (ex. : lorsque vous tapez une adresse ou cliquez sur un lien hypertexte) ne passent pas par les serveurs racines. Malgré le peu d'information relatif dont disposent les serveurs de plus bas niveau, le très grand nombre de ces serveurs et l'existence des « caches »24 ont pour conséquence une utilisation relativement rare de ces serveurs racines25.

L'organisation du DNS est faite de façon hiérarchique en fonction de l'organisation des noms de domaines. Cependant, cette organisation des serveurs DNS pose problème. En effet, Paris par exemple, ne possède pas de tel serveur et est donc obligé d'être connecté en plus à la fois à celui du Kenya et à Tokyo. Par ailleurs, cela met aussi des pays en situation de dépendance à Internet car malgré tout, le service DNS reste indispensable dans le fonctionnement d'Internet.

Après avoir réussi à résoudre l'adresse, l'ordinateur sait donc « où » il doit aller chercher les informations. Cependant, il ne connaît pas toujours la route à emprunter pour y aller. Or, ce « routage » comme est appelé cette opération technique nécessite d'autres serveurs et surtout des points de passages entre des réseaux différents.

Ce routage est effectué très souvent par des serveurs imposants, importants à des points de contacts qui ont été décidés par des réseaux différents. Par exemple, il n'existe que 7 points de contacts entre le réseau des Etats-Unis et le réseau européen. Cela permet donc de relativiser car il faut bien imaginer que tout le trafic passe par là. Il peut certes emprunter des routes différentes et plus ou moins longues et c'est ce qui fait la richesse d'Internet mais il reste certain que ces autres routes auront aussi des points de passages obligés. Or, ces points de passages sont gérés par des serveurs de taille plus que conséquente, ce qui fait que certaines entreprises seules sont capables de concevoir de telles machines et bénéficient d'un marché important et d'une capacité d'action sur les flux très importants aussi. C'est notamment le cas de CISCO.

Enfin, il est à savoir que ces routeurs entretiennent, pour fonctionner, des tables de routage indiquant les prochains points de passage pour les routes, gardant en fait en mémoire toutes

24 La mémoire cache est la mémoire contenue dans les ordinateurs et qui mémorise à la fois les chemins empruntés pour aller à telle ou telle adresse mais aussi les liens entre les IP et les URL, se passant ainsi du service DNS.

25 Il existe 13 serveurs DNS pour la France, de niveau intermédiaire et dont s'occupe notamment l'AFNIC, l'Association Française pour le Nommage Internet en Coopération qui gère en même temps le .fr.

les informations quant à ces routes. Cependant, à la fois, la capacité de ces serveurs est limitée en termes de mémoire d'abord et de capacité de gestion du nombre de requêtes, ce qui crée aussi un enjeu.

Il est à noter qu'il existe aussi un maillage Internet réalisé par satellite mais l'utilisation de cette technologie pour certaines zones oubliées par les câbles, reste relativement limitée. Par ailleurs, l'existence de la fracture numérique montre bien l'incapacité de certaines zones à se doter d'Internet et le fait que les grandes « lignes » de support de télécommunication ont « oublié » ces zones. A ce sujet, il est intéressant de savoir que la Banque Mondiale vient d'approuver le déblocage de 123 milliards d'euros pour financer des infrastructures Internet à haut-débit pour le Kenya, Madagascar et le Burundi qui en sont dépourvus.

Enfin, il ne faut pas oublier actuellement le développement des technologies WiMax26, transmission par ondes radios à des échelles départementales ou régionales, l'arrivée de la fibre optique chez les particuliers (Fiber to The Home - FTH), et le financement par la commission européenne27 d'un dernier support de transmission, le CPL ou Courant Porteur en Ligne. Tout cela montre l'importance que prennent actuellement la capacité de connexion et les enjeux que l'on peut imaginer.

Avec l'exposé de ces dernières techniques prend fin le développement concernant l'infrastructure d'Internet. Nous allons maintenant nous intéresser aux protocoles de base.

b) Protocoles techniques basiques

En fait, nous allons surtout expliquer le service DNS. Cependant, quelques précisions seront faites auparavant.

Tout d'abord, la première question que l'on doit se poser est : qu'est-ce qu'une adresse IP ?

Une adresse IP est une suite de chiffres présentés comme suit : 234. 245. 165. 168. Il s'agit donc d'une suite de quatre groupes de chiffres. Ces chiffres peuvent être au nombre de 1, de 2 ou de 3. Ex. : 1. 245. 65. 167. Le terme IP signifie Internet Protocole.

26 Sorte de Wifi à l'échelle régionale. Certains départements ont fait le choix de cette technologie pour désenclaver certaines zones.

27 A hauteur de 9 millions dans le cadre du projet OPERA.

La première constatation de ce type d'adresses est que son nombre est limité. En effet, la première adresse serait donc 0.0.0.0 et la dernière 255.255.255.255. Cela constitue donc ce que l'on appelle actuellement une ressource rare. En effet, le nombre d'adresses maximum est de 232 avec cette version de l'IP encore la plus répandue IPv428. C'est pour cela qu'un nouveau type d'adressage a été conçu, l'IPv6 qui lui, conçu différemment est virtuellement inépuisable. En réalité, il y aurait 2128 d'adresses possibles et on comprend mieux le « virtuellement ».

En terme pratique, toute machine se connectant à un réseau dit « TCP/IP », c'est-à-dire un réseau se servant des protocoles d'Internet doit donner à chaque terminal ou ordinateur connecté, une telle adresse. Cependant, tous les ordinateurs ne sont pas connectés à Internet : ils peuvent être connectés à un réseau qui lui est connecté grâce à un ordinateur à Internet. Ainsi, X ordinateurs appartenant à un réseau Y auront chacun une seule et unique IP, Z, sur Internet, tout en ayant X IP internes sur le réseau « interne » ce qui relativise tout de même la raréfaction de ces adresses.

Enfin, lorsqu'on sait que ces adresses font l'objet de transactions économiques et que chaque fournisseur d'accès à Internet est obligé d'acheter des IP sous des formes de transactions économiques parfois originales, on comprend que des enjeux puissent se constituer. Nous y reviendrons dans la suite de ce mémoire.

Le protocole TCP - Transmission Control Protocol- est souvent associé au protocole IP. On désigne généralement Internet et les réseaux qui utilisent les mêmes protocoles comme des réseaux « TCP/IP ». Ce protocole est celui qui garantit le transfert des données entre les différents ordinateurs. Il est important de préciser une chose dans le cadre de ces transferts. L'information envoyée d'un ordinateur à un autre sur Internet est divisée en « paquets », en partie d'information. Ces informations sont envoyées munies de l'adresse de l'expéditeur et de l'adresse du récepteur. Cela implique qu'il n'est pas nécessaire que toutes les informations passent par les mêmes groupes de réseaux de niveau inférieurs. En d'autres termes, elles n'empruntent pas forcément le même chemin et passent à différents endroits et par différents noeuds. Les concepteurs d'Internet avaient conscience de cela et surtout du fait que le passage par différent réseau impliquait probablement des redécoupages de ces paquets ou des agencements différents. C'est pour cela que les protocoles ont été conçus sur le principe de l'adaptation et de l'interconnexion. Contrairement aux réseaux Cyclad,

28 Pour Internet Protocole version 4.

basés sur un pari de normalisation des réseaux, Internet supporte les différences de réseaux et de normes et c'est ce qui en fait la richesse. Cependant, une tendance actuelle tend à contrecarrer cela et engendre un mouvement de balkanisation d'Internet. Nous y reviendrons plus tard.

Le dernier protocole auquel on s'intéressera concerne le DNS - Domain Name Service. C'est sans doute le plus intéressant et certains n'hésitent pas à dire que maîtriser le DNS, c'est maîtriser Internet.

L'acronyme DNS regroupe plusieurs choses : une procédure technique permettant de « résoudre » les adresses, des serveurs avec des fonctions spécifiques et une organisation hiérarchique des membres d'Internet.

Concernant la procédure technique, il s'agit d'un annuaire hiérarchisé mettant en rapport les adresses web URL (Uniform Ressource Locator) du type : http://ww.univ-tlse1.fr et les adresses IP correspondantes telles que nous avons vues plus haut.

Comme nous l'avons dit plus haut, chaque « machine » connectée en permanence et qui héberge des sites web a besoin d'une adresse IP pour être intégrée sur le réseau. Cependant, plusieurs choses sont alors possibles : la première, c'est le simple fait qu'un serveur hébergeant des sites web peut en héberger plusieurs et qu'il lui est nécessaire de savoir ce que l'on veut obtenir de ce serveur. La seconde raison est que les routeurs qui indiquent la route à suivre fonctionnent avec les IP, tout simplement parce que la gestion des sites ou des domaines est très difficile en raison, entre autres, de leur capacité de mouvement29. Donc, satisfaire une requête de la part d'un internaute, c'est-à-dire tout simplement afficher le site demandé réclame la connaissance de deux éléments : l'IP et l'adresse en tant que telle du site. C'est là qu'intervient les serveurs DNS, en fournissant la ou les IP nécessaires pour arriver au site, l'URL provenant elle de la mémoire de l'internaute, de son navigateur ou bien des moteurs de recherche30. Ainsi, l'absence de DNS a pour conséquence l'incapacité de la machine à utiliser Internet et à se diriger dans le réseau : il ne s'agit alors pas d'un manque d'indication sur la route à suivre mais tout simplement qu'elle ne sait pas où aller.

29 Ex. : le site radioblog a changé de domaine (. Fr à .com) en moins d'une semaine car il était devenu illégal en France.

30 Google, Yahoo et les autres

Cependant, le DNS existe en raison de l'organisation d'Internet en domaines. L'expansion de l'ordinateur et la difficulté de gestion du routage dans les années 90 ont eu pour conséquence un phénomène orignal mais gênant : il était devenu plus facile d'indiquer la route à suivre que l'IP de destination ou encore l'adresse. C'est pour cela que Jon POSTEL a créé les CCTLD et qu'ont été créés les GTLD.

Les CCTLD31 et les GTLD32 correspondent donc à la partie supérieure de l'organisation hiérarchique des domaines. Le premier désigne les domaines appartenant au pays et les seconds sont plus généraux et généralement gérés comme une ressource économique pour les entreprises. La liste des noms de domaines et leur organisation hiérarchique est disponible en annexe.

Pour expliciter la nature de ces noms de domaine, nous prendrons 3 exemples :

1er Ex. : http://www.univ-tlse1.fr : Lorsqu'on analyse cette adresse, nous avons tout d'abord une suite de lettre et de sigles techniques « http:// » qui ne nous intéressent pas ici. Les trois « w » désignent le World Wide Web, c'est-à-dire l'espace particulier de contenu dans lequel nous naviguons. Le reste est plus intéressant : le « univ-tlse1 » est le nom du sous-domaine dans lequel nous naviguons et qui appartient lui, à un domaine plus important, celui du CCTLD français, le .fr. Si vous vous référez à l'annexe 1, vous comprendrez aisément cette disposition hiérarchique.

2ème Ex. : http://arnaudgarrigues.free.fr : Il s'agit ici d'une page personnelle mise à disposition par un fournisseur d'accès à Internet. Nous avons ici une subdivision supplémentaire. Nous sommes dans le sous-domaine « arnaudgarrigues »appartenant au sous domaine « free » qui appartient lui au CCTLD français.

3ème exemple : www.google.com : Le site du moteur de recherche bien connu lui nous montre seulement que quelque soit la nature du domaine de niveau supérieur envisagée, qu'il soit général ou bien « national », la rédaction est la même. Seul le nom de domaine change.

Cependant, il ne faut pas oublier de préciser que le « arnaudgarrigues.free.fr » est un nom de domaine bien particulier et constitue un domaine bien particulier. De même que le « google.com » ou le « univ-tlse1.fr ». Il y a une responsabilité sur ce domaine et des droits

31 Country Code Top Level Domains: .fr, .de

32 Generic Top Level Domains: .com, .biz

patrimoniaux33 de même qu'il y a souveraineté sur les CCTLD. C'est pourquoi tout cela créé des enjeux.

La conséquence première du DNS est son caractère obligatoire pour le fonctionnement d'Internet. La seconde est que toute personne voulant créer un site doit en passer par les noms de domaines. En conséquence de quoi, la gestion du DNS et son évolution sont devenues un des aspects les plus importants d'Internet et des plus controversés.

Le dernier aspect de l'architecture d'Internet auquel nous allons nous intéresser est celui des contenus. On sait donc maintenant comment sont positionnées les infrastructures dans le système et nous avons décrit les protocoles basiques et permis ainsi une meilleure compréhension d'Internet.

Cependant, aucun mot n'a été dit à propos du Web, de la Toile... Lorsque vous surfez sur Internet à l'aide des moteurs de recherche ou des sites enregistrés sur votre ordinateur, vous utilisez des programmes spéciaux appelés Navigateurs. Ces navigateurs vont aller chercher pour les utilisateurs les informations nécessaires sur les serveurs où elles sont enregistrées et les compiler, les traiter afin d'afficher les pages web auxquelles nous sommes habitués.

Le Web ou plus exactement le World Wide Web a été inventé par Tim-Berners LEE, un chercheur du CERN34, dans les années 90. C'est lui qui va inventer les protocoles clés que sont le HTTP, les URL et le langage de programmation de base des sites web, le HTML. En 93, aux Etats-Unis, naît le premier navigateur Mosaic qui sera rapidement remplacé par Netscape. Cette interface entre l'utilisateur et le système va permettre aux non-spécialistes d'y accéder plus facilement et c'est à partir de ce moment que l'utilisation d'Internet va grimper en flèche. Si le Web n'a pas de conséquence immédiate en termes de politique ou de Relations Internationales, il paraît important de savoir comment le placer dans le système Internet.

D'autres logiciels ont vu le jour, concernant les contenus, et se sont rapidement popularisés. C'est notamment le cas des logiciels de Peer-to-Peer (P2P) comme Kazaa ou eMule. Ou bien

33 J. POSTEL a écris dans les RFC que les noms de domaine n'appartiennent en théorie à personne. Tant que vous payez pour l'obtenir, il est à vous. L'arrêt de ces paiements entraîne la disparition de ces noms de domaine. Cependant, cela n'est pas vrai pour les CCTLD en raison de la souveraineté.

34 Conseil Européen pour la Recherche Nucléaire

encore les logiciels de discussion en ligne tels que MSN Messenger. La dernière innovation est le Web 2.0 dont l'évolution passionne actuellement un certain nombre de chercheurs et dont l'évolution principale concerne la relation entre les internautes et leurs utilisations de plus en plus importantes d'Internet dans la vie de tous les jours et pour des tâches qui auparavant, ne concernaient en rien le Web. C'est notamment le cas de l'administration en ligne qui pose des problèmes comme la sécurité ou l'indépendance de ces systèmes.

Ici se termine donc l'exposé de l'architecture d'Internet. De plus, l'importance du DNS entraîne l'importance accrue de la personne chargée de la gestion de ce service. C'est pourquoi nous allons nous intéresser dans la partie suivante à cette personne morale : l' I CAN N.

B- Administration, Gouvernance et Politique du Système Internet

Après les développements à propos du fonctionnement technique d'Internet, nous allons maintenant aborder l'aspect plus « politique » de la gestion du réseau. La nature décentralisée de l'objet le rend très difficile à contrôler et de plus, la tendance libertaire existant depuis la création ne rend pas facile une telle prise de contrôle. C'est pour cela que la notion d'Administration du réseau, dans le sens d'une gestion où l'aspect politique est pris en compte peut être pertinente. La notion de gouvernance quant à elle sera d'abord explicitée dans la strict cadre d'Internet et peut être rattachée à la tendance actuelle qui a permis la création des Sommets Mondiaux de la Société de l'Information (SMSI) et du Forum sur la Gouvernance d'Internet (FGI). Enfin, l'aspect politique du réseau constituera une approche transcendante de cette partie afin d'obtenir une vision non pas seulement technique mais aussi politique et surtout stratégique de l'articulation des différents organes se préoccupant à la fois de la bonne marche d'Internet et de son devenir.

Aussi, nous nous intéresserons dans un premier temps à l'ICANN qui constitue la structure principale dans le Système Internet avant de revenir sur les SMSI, leurs conséquences et plus particulièrement sur le FGI.

a) Une structure contestée : l'ICANN

Fondée en 98 et baptisée par J. POSTEL, l'ICANN est une entreprise à but non lucratif de droit privé californien. Cette première information a son importance. En effet, l'installation en Californie provient en partie de la possibilité légale, rarement offerte ailleurs, de créer des firmes à but non lucratif. Comme on se le rappelle, l'ICANN a d'abord constitué la solution aux problèmes de passation des contrats qui se posait au Département américain du Commerce. C'est pour cette raison qu'il fallait qu'elle soit une entreprise et non pas une simple association ou une agence de l'Etat. L'aspect non-lucratif permet de garder un certain idéal dans la gestion d'Internet, justement par ailleurs soumis aux règles du jeu économique.

La mission première de l'ICANN est essentiellement technique : son mandat est limité à la gestion du service DNS, des noms de domaine et aux évolutions techniques que l'on peut y apporter35. L'aspect « gestionnaire » lui permet de passer les contrats nécessaires avec les entreprises souhaitant avoir une gestion commerciale de certains noms de domaine. C'est l'exemple du .com dont la gestion est assurée par Verisign. Cependant, la nécessité de mise à jour de la racine (root dans l'Annexe 1) a pour conséquence une persistance des relations avec l'ICANN. Autrement dit, les registry36 comme Verisign doivent un certain nombre de contreparties contractuelles à l' ICAN N.

Par ailleurs, la multiplication des revendications politiques liées à certain sujets37 a obligé l'ICANN à se saisir de certains problèmes politiques et à les intégrer dans son administration du DNS. C'est pourquoi par exemple, il y a longtemps eu débat autour du .xxx et que finalement, l'ICANN s'est prononcé contre alors même que les propositions commerciales autour étaient cohérentes et auraient permis la création et une gestion correcte de ce domaine38.

Cependant, si les critiques adressées à Internet sont souvent ciblés contre l'ICANN, cela démontre avant tout une méconnaissance de toutes les organisations existant autour. On

35 DNSSEC par exemple est une innovation relativement récente censée permettre une meilleure sécurisation à la fois des serveurs mais aussi du service.

36 Les registry sont les entreprises chargées de la gestion d'un GTLD. A un niveau inférieur, les registrar se chargent de la vente de ces différents GTLD directement au client lambda.

37 Notamment le cas du point .xxx pour les sites à contenu pornographique.

38 Eléments provenant de l'entretien réalisé avec la représentante de l'ICANN, Mme INNE.

peut affirmer qu'il existe une sorte d'univers autour de l'ICANN constitué d'un certain nombre d'entités que nous allons décrire maintenant.

La première organisation à laquelle nous allons nous intéresser est l'ISOC ou Internet Society. Fondée en 1992 et basée à Reston aux Etats-Unis, on peut l'assimiler à une association de par le simple fait que toute personne qu'elle soit physique ou morale peut faire partie de l'ISOC. Répartie dans un grand nombre de pays, son but principal est de promouvoir Internet, la coordination et l'interconnexion. L'oublier aurait été une erreur en raison du nombre relativement important de membres individuels, 20 000 et surtout du nombre d'organisations membres, 100. C'est pour ces deux raisons que l'ISOC se définit comme une organisation internationale.

Concernant l'ICANN, il faut savoir qu'en parallèle de cette organisation existent deux structures en parallèle. La première de ces structures est l'IETF ou encore Internet Engineering Task Force dont le but premier est de travailler sur les évolutions techniques de demain. L'IANA ou Internet Assigned Number Authority, a pour tâche la gestion technique des IP, la mise à jour de la racine et autres procédures technique nécessaires.

A propos de la structure interne de l'ICANN, on peut établir un schéma hiérarchique. La tête étant constituée d'un Conseil d'Administration (souvent appelée « Board ») à côté duquel travaille un Ombudsman, appellation fort ancienne de ce qui est aujourd'hui en France, un médiateur comme le Médiateur de la République.

Le niveau immédiatement inférieur de l'ICANN est constitué d'une équipe de 60 personnes qui constituent le personnel en tant que tel de la société. A sa tête, un Président, actuellement Paul TWOMEY depuis mars 2003.

A la suite de ces organes appartenant en propre à l'ICANN, foisonnent plusieurs comités dont les rôles sont très divers et qui couvrent la totalité des questions techniques et politiques d'Internet. Les voici :

ASO - Adress Supporting Organisation : Il s'agit du comité central de gestion de la distribution des adresses IP dans le monde. Par ailleurs, cette distribution est faite au sein de 5 régions divisant le globe à l'intérieur desquelles agissent des RIR (Registre Internet Régional), qui gèrent cette distribution pour la région en question. Ces divisions correspondent aux cinq continents et celui de l'Eu rope est nommé RIPE.

GNSO - Generic Name Supporting Organisation : Le but de ce comité est de traiter toutes les questions politiques liées au GTLSD. A l'intérieur de cette structure, il existe un grand

nombre d'autres comités plus spécialisés qui vont se charger de la question de la propriété intellectuelle, des questions liées au FAI ou ISP39.

CCNSO - Country Code Name Supporting Organisation : Ce comité est le pendant du précédent. Il va traiter de questions équivalentes bien que plus spécialisées car dépendant des Etats. Cependant, il n'est pas question de représentation des Etats en tant que tel ici.

GAC - Gouvernmental Advisory Commitee : C'est au coeur de ce comité que les gouvernements vont avoir un siège et un droit de parole. En revanche, ils n'ont pas réellement de pouvoir de décision, seulement un pouvoir de recommandation. C'est ici que vont être abordées certaines des grandes questions qui touchent actuellement Internet.

Les derniers comités (SSAC, RSSAC et TAG) constituent des comités à vocation essentiellement techniques. On va y discuter des spécifications techniques liées à la sécurité par exemple.

Société à but non lucratif, l'ICANN ne bénéficie d'aucune aide du gouvernement américain. En effet, elle est financée en fait au niveau des registry (comme Verisign) qui leur reversent une commission sur tous les noms de domaines vendus. Par ailleurs, les contrats prévoient aussi des frais d'accréditation, d'enregistrement...Les pays dont le nombre de nom de domaine est très important participent parfois de façon aléatoire en octroyant certains montants. C'est notamment le cas de l'Allemagne, second pays consommateur de noms de domaines avec 11 millions de .de.

Après cet exposé sur l'ICANN, il est important de savoir que n'importe qui, qu'il soit simple citoyen ou bien Etat ou encore entreprise peut participer aux réunions de l'ICANN.40

b) SMSI et FGI

Rapidement, afin de terminer cette première partie nous allons nous intéresser aux SMSI et au FGI.

39 Fournisseur d'Accès à Internet ou encore Internet Service Provider.

40 La dernière s'étant tenue à Lisbonne fin Avril 2007.

Les SMSI sont le fruit d'un travail de l'ONU. Le premier s'est déroulé en Genève en 2003 avec la présence du Secrétaire Général de l'ONU, Kofi ANNAN et a permis la rencontre entre les différents acteurs d'Internet et la prise en compte de l'étendue des problématiques. En effet, Mr POUZIN a pu évoquer la « perplexité » des membres de la délégation français qui ont fait appel à lui, notamment pour participer aux travaux préparatoires de ce sommet.

Le second sommet s'est tenu lui à Tunis en 2005. Ce sommet peut en revanche être qualifié d'échec en raison de l'incapacité des différents acteurs qui entre temps, avaient pris conscience (pour ceux qui ne l'avaient pas réalisé auparavant) de l'importance de la ressource et du caractère original de son mode de gestion, à obtenir des Etats-Unis, des concessions sur ce mode de gouvernance. Cependant, ce sommet a permis la création de l'Internet Governance Forum, sorte d'agora rassemblant les différentes « parties » d'Internet ayant une volonté de débattre autour de la gouvernance. C'est aussi à ce sommet qu'a été retenue une définition de la gouvernance d'Internet qui sera celle que nous retiendrons aussi. Le groupe de travail sur la gouvernance l'a défini comme « l'élaboration et

l'application par les Etats, le secteur privé et la société civile, dans le cadre de leurs rôles respectifs, de principes, normes et règles, procédures de prise de décisions et programmes communs propres à modeler l'évolution et l'utiisation d'Internet ».

Le FGI s'est tenu à Athènes en novembre 2006. Il comprenait un petit nombre de représentants par rapport au sommet mondial de Tunis : 18 000 membres contre 1200. Néanmoins, Françoise MASSIT-FOLLEA, écrivant pour le site Homo-Numericus a pu remarquer la grandissante professionnalisation des acteurs d'Internet. D'autres sujets ont été abordés comme l'IPv6 ou encore le problème des langues naturelles, grand enjeu et cheval de bataille de Mr POUZIN.

Avec cela se termine cette première partie essentiellement descriptive. Cependant, la lecture de ces développements auront mis en évidence un certain nombre d'enjeux probables ou certains que nous décrypterons dans la seconde partie.

Seconde Partie : Analyse des enjeux

Après avoir abondamment développé le fonctionnement de ce que l'on pourra dorénavant appeler le Système Internet, nous allons maintenant nous intéresser aux enjeux dont la présence a pu être dévoilée dans la première partie.

La partie « Prolégomènes » consacrée, dans l'Introduction, à la mise en place des différents outils méthodologiques de référence a mis en avant l'utilisation d'un outil plébiscité dans les théories de relations internationales et sur lequel a notamment travaillé Barry BUZAN. Le choix opéré de se consacrer uniquement à trois « points de vue » ne veut pas dire que les autres acteurs auront été oubliés. Seulement, certains acteurs comme les entreprises ne méritaient pas, au sens de l'auteur, une partie qui leur soit consacrée en raison du fait qu'elles s'intègrent dans un ensemble plus général que l'on pourrait qualifier « d'économie internationale ». Or, ce genre de thématique s'intègre bien mieux dans l'aspect systémique des enjeux d'Internet que dans une vue plus rigide qui aurait privilégié les acteurs. Par ailleurs, si l'Etat peut paraître complètement remis en cause par la croissance de la valeur de l'information et son aspect transnational41, son implication actuelle dans la « question » Internet et le grand nombre de problématiques qui ont dépendu ou dépendent encore à l'heure actuelle de l'Etat, justifient amplement une partie qui lui soit consacré. La dernière partie consacrée à une vision par l'Individu sera peut-être plus difficile à justifier a priori mais, au sens de l'auteur, Internet ne peut se comprendre sans accorder une valeur très importante à l'individu en ce que le Net lui apporte un pouvoir de nuisance démesuré ou une tribune, une audience et une écoute tout aussi démesurée au regard des moyens em p loyés.

Nous allons donc nous intéresser maintenant aux enjeux systémiques que l'on peut rencontrer à l'égard d'Internet. Il faut toutefois préciser que cet exposé aborde un certain nombre de thématiques ou de problématiques tout en étant certain de n'avoir pas tout relevé à leurs propos. Il n'est pas plus certain que toutes les thématiques envisageables ici aient été relevées. Cet exposé sera constitué des points saillants qu'il a été possible de relever au cours des entretiens ou bien des lectures de l'analyse bibliographique.

41 Pour plus d'information, se référer à l'article de Nye et Keohane cité en bibliographie : Power and Interdependance in the Information Age.

I- Système Internet et Système International

Dans ce développement, nous aborderons trois points. Le premier concernera l'égalité de l'accès à Internet au sens large du terme. Le second développement s'intéressera aux éléments de gouvernance et de contrôle liés à Internet. La dernière fera un rapide point sur l'aspect de la sécurité du système dans son ensemble.

A- Internet : une égale répartition de la Ressource ?

NON : Pour plusieurs raisons, on peut affirmer qu'Internet est assez inégalement réparti dans le monde. Pour certains auteurs, cela constitue même des enjeux géopolitiques. On peut voir dans les efforts financiers de la Banque Mondiale en faveur des pays africains, un élément de confortation de cette idée42. Dans cette partie, nous aborderons 4 points afin de démontrer des défauts de répartition dans le monde. Cependant, il est à noter que l'importance d'Internet est un présupposé obligatoire bien que non démontré formellement.

Le premier point que nous allons aborder concerne les adresses IP. Comme nous avons pu le développer dans la première partie, cette adressage machine et « physique » est obligatoire : une IP désigne toute machine désirant se connecter au réseau et être reconnu. Cependant, le nombre d'IP à disposition dans la version actuelle est limité et constitue une ressource rare. La gestion de cette ressource rare devient un élément de première importance que l'on peut relativiser toutefois avec l'apport de l'IPv6, dernière version plus complexe mais disponible de façon quasi-infinie. Cependant, il faut bien se rendre compte que l'IPv6 n'est pas encore complètement déployée et que cela ne résout pas tous les autres problèmes. D'après Mr POUZIN, 72% des IPv4 sont actuellement alloués43, c'est-à-dire qu'elles ne sont plus disponibles. Par ailleurs, le principe de distribution de ces IP est tel que l'on peut observer prés de 40% de ces IP alloués uniquement aux Etats-Unis. Cela signifie

42 123 Milliards d'Euros débloqués. Fait évoqué dans la Première Partie.

43 Les dernières vérifications (février 2007) sont: 72 % de l'espace IP a été alloué. Les USA détiennent 50 % de l'espace total, soit 70 % de l'espace alloué.

que tous les autres pays se partagent le reste et que le nombre d'IP disponible par personne dans certains pays est ridiculement bas. Cela constitue donc un premier enjeu d'importance stratégique. De plus, l'apparition d'une nouvelle tendance, l'Internet des objets qui consiste à mettre en place toute une informatique de réseaux à propos des objets, permettant de le situer, de connaître leur déplacement...porte un sérieux coup à l'idée de l'infinie disponibilité de l'IPv6. L'absence de véritable accord et les inégalités que l'on peut observer constitue à coup sûr un enjeu de premier ordre.

Cette constatation nous amène au second point, concernant lui les RIR. Ces structures, dépendantes de l'ICANN à un certain degré ont pour objectif de gérer de façon optimale la ressource IP. Cependant, la certitude quant à l'optimalité de l'organisation de ces « gestionnaires » n'est pas certaine. En effet, dans chaque région, les RIR ont formé des associations avec les opérateurs de télécommunication locaux et leur vendent des IP par le biais de tarifs d'adhésion, les RIR étant des entités à but non lucratif. Toujours selon Mr POUZIN, cette gestion s'apparente à celle d'un cartel et ne permet pas une gestion optimale des IP. En effet, cela conduit à la création de tables de routage44 énormes due en particulier à une répartition non géographiquement déterminée de ces IP. Or, non seulement ces tables de routage font approcher dangereusement la limite des possibilités en terme de serveurs mais aussi, cantonnent le choix des serveurs utilisés au plus performant du marché et offrent à certaines entreprises des marchés gigantesques et des quasi-monopoles.

Cette allusion aux routeurs et aux infrastructures nous amène à notre point suivant. Concernant ces mêmes infrastructures, il faut savoir que les grands noeuds et les grands points de contact entre les différents réseaux « continentaux » dépendent des accords passés entre les grands opérateurs de télécommunications. Cela a pour conséquence une gestion économique mais qui ne bénéficie pas à tous et l'observation de l'Annexe 5 montre bien cela. En effet, on peut bien voir que certaines zones sont particulièrement mal desservies et donc très dépendantes (Australie, Asie du Sud-est, Amérique du Sud, Afrique). Par ailleurs, lorsqu'on sait que tout le trafic Internet a été interrompu pour un grand nombre de pays d'Asie du Sud-est dernièrement, on comprend mieux les enjeux que cela peut représenter. En effet, une catastrophe naturelle ayant entrainé la rupture des câbles fibres optiques entre la Californie et l'Asie et étant donnée la dépendance de cette région à l'Etat Californien, il a fallu un temps important ne serait-ce même que pour rerouter les télécommunications par les serveurs européens. Cela montre donc bien à quel point cette

44 Pour le routage et son utilisation, reportez-vous à la première partie. La table de routage n'est que le mémoire des routes et des IP, en tant que départs et destination, qu'entretiennent les routeurs en question.

dépendance est dangereuse pour certains pays. L'absence a priori de plan de déploiement politiquement soutenu et beaucoup plus général a pour conséquence une inégalité dans l'accès à Internet de certains pays.

Cette inégalité se manifeste notamment au travers de ce que l'on a appelé la Fracture Numérique. Les Annexes 3 et 4 montrent bien que certains pays n'ont pas d'accès à Internet ou bien que les accès sont en très petit nombre. Effectivement, certains pays comme la Tunisie ou la Chine, en raison de leur attitude autoritaire vis-à-vis d'Internet ne doivent pas être pris en compte. Cependant, un certain nombre de pays d'Afrique, une bonne partie de la Russie et à une moindre échelle, l'Amérique du Sud, tout cela constitue des sortes « d'espaces vides » d'Internet. L'intervention de la Banque Mondiale prouve bien la prise en compte de ce phénomène qui a pu être abordé dans les SMSI. Quoi qu'il en soit, cela constitue un enjeu important et pourrait s'intégrer à certains agendas dans les années à venir.

Ainsi se termine ce premier exposé sur la répartition de l'accès à Internet. Cette ressource comme n'hésitent plus à l'appeler certains auteurs a donc des problèmes que l'on connaît déjà. En effet, l'incapacité de la logique commerciale non contrôlée politiquement à amener les ressources partout est bien connue. Aussi, cette situation met en jeu des acteurs bien connus et des situations que l'on pourrait qualifier de « déjà-vu ».

B- Eléments de Gouvernance et de Con trôle

L'objectif de cette partie est de tenter d'analyser et de donner quelques explications aux phénomènes de revendication et de volonté de contrôle que l'on peut observer de façon actuellement. Nous nous intéresserons donc à l'économie mondialisée, à la diffusion de la démocratie et au problème des langues.

a) Economie Mondialisée

Concernant l'économie mondialisée, ce terme générique ne cherche pas à poser des concepts mais à englober de la manière la plus large possible des phénomènes économiques

de natures parfois très différentes. Aussi doit-il être conçu comme une généralisation sans doute abusive mais utile afin de définir un contexte.

Dans ce contexte ainsi défini, nous aborderons trois points. Le premier concerne l'implication d'Internet en ce que le système a engendré de phénomènes économiques. A cet égard, le premier exemple qui vient à l'esprit est l'extraordinaire essor qu'a connu ce que l'on a appelé les « start-up ». Ce nom montre bien leur caractéristique principale : leur capacité de croissance très importante très peu de temps après leur création. Cet univers de service a depuis perdu de sa fantastique attractivité, notamment depuis l'éclatement de la bulle Internet. L'éclatement de cette bulle a pu montrer qu'une économie ne pouvait se construire sans production industrielle. Cependant, l'apport considérable d'Internet à des petites entreprises ou le développement bien connu de certains sites de ventes en ligne montre bien comment Internet peut apporter un réel changement dans l'économie mondiale. Que ce soit par la création de sites censés appuyer la vente traditionnelle ( Fnac.com par exemple) ou de sites de ventes en ligne exemptés de taxes, de frais de stock et de toute l'infrastructure couteuse (Amazon par exemple), Internet est devenu un outil prépondérant dans les pratiques économiques. Les chiffres de la Revue économique, anciens mais révélateurs parlent de sommes autour de 500 milliards de dollars, soit la moitié du PIB français environ. Par ailleurs, les économies réalisées pour des entreprises grâce à Internet peuvent être conséquentes (100 millions de dollars pour Caterpillar par exemple). Le travail de R. LITAN montre bien quelles sont les différentes facettes du renouveau économique par rapport à Internet en démontant quelques idées reçues mais en montrant aussi qu'il est difficile de quantifier réellement l'apport d'Internet. La vision stratégique sera satisfaite en ajoutant l'élément suivant : la volonté actuelle des entreprises de préserver Internet de la domination des Etats est révélateur des enjeux qu'Internet cristallise.

Le second point concerne notamment un des problèmes majeurs actuellement sur Internet : la propriété intellectuelle et ce que l'on appelle Peer-to-peer ou encore P2P45. Cette partie aurait pu être traitée avec la cybercriminalité mais la notion de crime paraissait trop importante par rapport à celle de piratage de musique ou de films. L'article « Internet Under Siege » aborde cette question d'un point de vue original et par chance, particulièrement adapté à ce mémoire. Constatant que toute innovation technologique majeure entraîne des changements économiques considérables (Ex. : La révolution Industrielle), il démontre que ces bouleversements ont pour conséquences de scinder ce monde en deux « camps ». Le

45 Cet acronyme désignant les échanges de fichiers entre Internautes par le biais de logiciel de partage que sont les Kazaa, eMule et autres fonctionnant sur le même système de base.

premier, doté des richesses de la première période, va refuser les changements et se « battre » contre, tandis que le second, bien évidemment, va tout mettre en oeuvre pour profiter du changement et abattre les fortunes héritées de l'ancien système. A cet égard, l'exemple de l'industrie de la musique est révélateur. Auparavant, 5 compagnies contrôlaient 84% du marché de la musique et donc, non seulement se trouvaient en situation d'oligopole mais pouvaient en plus, dans une certaine mesure, imposer les goûts des clients. Depuis l'apparition d'Internet, ce marché est complètement remis en cause. Non seulement, le piratage informatique génère des pertes certaines pour les multinationales de l'industrie de la musique mais de plus, Internet rend difficile le maintien de contrôle. Ces pertes ont des conséquences notables : la proposition de musique à meilleure marché sur des sites « légaux », ce qui est une bonne chose, une inflation législative désordonnée et inadaptée46 et l'incapacité à répondre à certains sites comme Radioblog47. La seconde conséquence est l'incapacité de ces multinationales à garder le monde de la musique sous contrôle. En effet, si auparavant un artiste voulant réussir devait à un moment ou à un autre, passait par ces firmes, dorénavant, il existe un moyen alternatif par Internet. De plus, Internet leur offre des tribunes d'écoute gigantesque leur permettant de ne pas payer le très couteux tribut que constituait l'enregistrement de maquettes sur CD.

Le dernier point de cette partie concerne les infrastructures d'Internet. L'installation des réseaux de télécommunications que sont les câbles de fibres optiques constitue des marchés économiques importants et cependant, cela ne répond pas totalement aux besoins mondiaux. Cela a été démontré dans la partie précédente. Cependant, le problème vient de la concentration réelle et de l'élitisme de ces firmes. En effet, comme on a pu le montrer, l'organisation d'Internet favorise les firmes les plus avancées technologiquement. Par ailleurs, ces firmes n'étant pas nombreuses, cela constitue des oligopoles qui non seulement, ne sont pas réellement aptes à répondre à toutes les demandes mais cela crée aussi des dangers lorsqu'une de ces entreprises se met en faillite et n'assure plus ces services. Ainsi, l'opérateur KPNQWest qui assurait 60% du trafic européen s'est mis en faillite en 2002 faisant craindre une désorganisation totale du trafic européen. Les FAI, prévenus à temps ont pu prendre des mesures correctives d'urgence. Mais le fait demeure que l'organisation ne présente pas toutes les garanties voulues de stabilité en grande partie à cause de ces

46 La dernière loi en date est une transposition d'une directive européenne. Elle a été adoptée en 2006 après plusieurs autres lois et décision sans réels effets sur le sujet.

47 Ce site propose l'écoute sans téléchargement de musique. Interdit par la SACEM, il est allé s'enregistrer dans un serveur non français et a réapparu une semaine après.

oligopoles. Par ailleurs, la concurrence relative de ces marchés entraîne des surcoûts exorbitants et donc l'incapacité des pays émergents, pauvres ou en développement de les financer et donc d'obtenir des accès à Internet. Ce qui leur permettraient d'obtenir des débouchés économiques.

Ainsi se finit cet exposé sur l'économie mondialisée et les conséquences à propos d'Internet. Nous allons maintenant aborder un aspect plus politique, notamment avec la diffusion de la démocratie et le problème des langues naturelles.

b) Démocratie et Cultures

L'administration américaine actuelle se constitue en porte-étendard de la démocratie. La démocratie devient actuellement un standard et un enjeu ne serait-ce que parce qu'elle constitue souvent le préalable dans certains tractations internationales. De ce point de vue, on peut dire qu'Internet peut favoriser la démocratie en permettant l'expression des points de vue de tous, de passer outre la censure des pays autoritaires et en favorisant les appels à la « société internationale ». Cependant, Internet est aussi une arme de guerre et si les démocrates l'utilisent, les terroristes l'utilisent aussi, de même que les différentes milices et autres combattants de la liberté que l'on peut trouver partout dans le monde. Par ailleurs, les états-majors ont intégré depuis un certain temps, la guerre de l'information à leur arsenal. C. HARBULOT, directeur de l'école de guerre économique, parle de guerre cognitive et de toutes les techniques permettant la « création de connaissance con çues pour façonner les modes de pensées et orienter les règles de conduites ». Dans ce cadre là, Internet devient non plus un média pacifiste empreint d'idéalisme mais une arme de guerre en tant que telle. C'est pourquoi le contrôle d'Internet revêt des tels enjeux : la défense en temps de guerre, qu'elle soit économique ou « réelle », et la possibilité de diffuser la démocratie.

Un des problèmes d'Internet que l'on peut associer à la mondialisation est sa tendance, abondamment décrite dans les médias, à faire disparaître les cultures particulières au profit d'une culture générale. Nous n'allons pas discuter cette affirmation. Cependant, le problème des langues sur Internet est un des plus sérieux actuellement et peut être rattaché à cette conception de la mondialisation. En effet, il est difficile de détacher Internet des Etats-Unis du moins d'un point de vue culturel, l'Annexe 6 montrant bien la répartition linguistique des internautes.

Cependant, le problème vient surtout de la conception actuelle d'Internet qui ne comprend, pour toute la partie technique, que l'utilisation d'un unique type de caractère, le standard IDN défini par l'IETF. En conséquence de quoi, tous les noms de domaines et toutes les URL seront écrits à partir de ce standard composé d'un alphabet « occidental » basique qui n'intègre même pas les accents. C'est pourquoi ce phénomène devient si important : il est légitime pour les internautes du monde entier de vouloir et de pouvoir écrire les parties techniques d'Internet dans leur langue (et ses caractères) maternelle. Cette affaire est si intense qu'elle a été abordée au cours des différents SMSI. L'implication de L. POUZIN n'est sans doute pas étrangère à la notoriété de cette question. L'association EUROLINC dont il est membre ou l'initiative NETPIA, du nom d'une entreprise coréenne qui permettrait justement ce type d'écriture sont parmi les résultats de cette prise de conscience. Pour autant, l'absence d'intégration à la racine de ces langues ne permet pas encore d'avoir un système généralisé. Par ailleurs, la mondialisation et son impact sur les cultures sont au coeur de nombreux enjeux et c'est pourquoi celui-ci, malgré son apparent caractère technique, ne doit pas être considéré comme minoritaire.

Ainsi se termine cette partie consacrée à l'exposé de certaines des raisons conduisant à cette volonté de contrôle et de construction des modèles de gouvernance alternatif. Ces raisons sont entendues au niveau systématique. Nous allons maintenant aborder un passage sur la stabilité du système et ses conséquences.

C- Internet : Un système stable ?

Pas vraiment : Cette partie assez courte abordera trois des principaux problèmes d'Internet afin de montrer que l'absence de capacité d'entente à un niveau international conduit à une diffusion du réseau bien plus large que les capacités de contrôle des organismes existants.

La première raison de cette instabilité concerne encore une fois les infrastructures. Comme on a pu le voir, l'organisation de ces réseaux de télécommunication n'est pas construite de façon à ce que le réseau puisse réellement fonctionner sans interruption quoi qu'il arrive. En effet, l'exemple de la coupure d'Internet dans l'Asie du Sud-est ou encore la faillite de l'opérateur européen ont montré certes, la capacité de réponse relativement rapide des acteurs d'Internet mais aussi et surtout, les failles qui existent. En effet, que l'on observe l'organisation des réseaux de télécommunications ou l'organisation des serveurs et des

routeurs, le tout souffre de failles certaines et reconnues qui remettent en cause la stabilité d'Internet. L'existence de seulement 7 points de contacts entre l'Europe et les Etats-Unis est-elle une solution viable pour aujourd'hui mais surtout pour demain avec la croissance que connaît Internet ? Cela donc, constitue un enjeu de sécurité car s'il est vrai qu'Internet s'arrêtant est déjà sans doute une catastrophe au moins économique en soi, le problème provient des nombreux VPN (Virtual Private Network) - des réseaux privés et sécurisés qui utilisent les infrastructures d'Internet. En effet, ces réseaux appartenant parfois à des agences des Etats ont des besoins de continuité de service peut-être encore plus importants que les entreprises. Voilà donc un enjeu crucial.

Le second problème provient de l'organisation du DNS. Selon Mr POUZIN, elle est inutile et mal calibrée. Des standards de modèle de communication à l'international comme celui du GSM devraient inspirer une nouvelle répartition du DNS. En fait, pour Mr POUZIN, c'est l'existence de la racine en elle-même qui est inutile : elle devrait être remplacé par une répartition géographique de ces serveurs, plus à même de satisfaire des exigences de sécurité et de transport des données plus rapides et plus logiques. Parlant de sécurité, le DNS n'est pas forcément un service fiable et sécurisé, la création du protocole DNSSEC montre bien à quel point cela concerne les services techniques. Par ailleurs, les attaques répétées des pirates sur ces serveurs montrent bien la conscience qu'ils ont eux, de leur probable capacité à mettre en panne ces serveurs, ce qui serait la fin d'Internet. Enlevez les serveurs DNS dont l'adresse est enregistrée sur votre ordinateur et si la connexion pourra être établie, la navigation sera impossible. Par ailleurs, la multiplication des « miroirs » des serveurs sources déjà évoquée peut être interprétée comme une tentative de pallier à un système instable ou dépassé.

Enfin, le dernier aspect est purement sécuritaire. Toujours selon Mr POUZIN, deux remarques sont à faire. La première est que le nombre de « zombies », c'est-à-dire des ordinateurs ou des serveurs contrôlés par des pirates et programmés pour effectuer des actions menant à l'arrêt du système, est très grand (environ 4,5 millions en 2006 selon la société de conception de logiciels de sécurité SYMANTEC). Cela veut dire qu'Internet pourrait être « mis à plat 48» très rapidement. Par ailleurs, cela veut aussi dire que ces serveurs sont contrôlés notamment pas des cybercriminels qui y voient un avantage certain à préserver un système qui leur rapporte de très importantes sommes d'argent.

48 Expression imagée mais réelle empruntée à Mr POUZIN.

Ainsi se termine cette analyse systémique des enjeux d'Internet. Un certain nombre d'enjeux de niveau systémique doivent donc être compris comme étant à propos ou au coeur d'Internet. Cette analyse terminée, nous allons nous intéresser aux enjeux que l'on peut analyser du point de vue de l'Etat.

II- Les Etats : du Nord au Sud, une préoccupation désormais commune

Une approche simpliste d'Internet et mal documentée aurait très probablement pour conséquence une absence de prise en considération de l'Etat dans le « problèmes » Internet. Cependant, si l'Etat peut paraître une entité de référence déplacée pour analyser Internet, il n'en reste pas moins un cadre pertinent par le nombre et l'importance des problématiques que l'on peut traiter à son niveau d'analyse.

Concernant l'Etat, notre approche sera très similaire à celle utilisée dans la partie concernant le système. Nous nous attacherons en premier lieu à l'examen des questions liées à la souveraineté avant d'analyser celles concernant la sécurité. Ces deux thématiques principales pourront montrer combien aussi reste pertinente la notion d'Etat, même pour analyser des phénomènes comme ceux qui ont lieu sur ou autour d'Internet.

A- Les Etats et Internet : la Souveraineté

La souveraineté, telle qu'elle est conçue en science politique, possède deux faces. La première, interne, a pour conséquence que l'autorité souveraine ne connaît pas d'autorité qui lui soit supérieure dans les limites du territoire où cette souveraineté s'étend. La seconde, externe, a pour conséquence la capacité d'un pays, aussi petit soit-il à refuser les intrusions politiques de toute sorte de la part d'un autre pays. En d'autres termes, un Etats souverain est indépendant des autres dans le Système International et il ne connaît pas d'autorité supérieure à lui à l'intérieur de son pays. Cette distinction guidera notre exposé de la première partie et aussi, pourrons-nous peut-être montrer que le concept actuel de souveraineté est sans doute dépassé.

Les statuts d'Internet prévoient la souveraineté des Etats sur leur CCTLD49. Cette souveraineté se traduit notamment par un certain nombre de droits sur leur domaine réservé. En France, l'AFNIC ou Association Française pour le Nommage Internet en Coopération a la charge de gérer tout ce qui a trait au nommage dans le cadre du .fr. Cela a par ailleurs un certain nombre de conséquences relativement importantes en termes de contrôle. En effet, si l'AFNIC possède certaines prérogatives de gestion, elle n'a en revanche aucun pouvoir de police lié par exemple à l'utilisation concomitante de domaine de même nom. Cela démontre une relative inefficacité dans la capacité de résoudre les litiges et les conflits régulièrement. Cependant, cette souveraineté conserve tout de même des implications pratiques : la preuve en est du conflit entre le registrar luxembourgeois EuroDNS et l'AFNIC. Ce registrar avait, dans le cadre d'une affaire complexe, détourné la charge de l'AFNIC et cela avait conduit au blocage d'un nombre de domaine assez important (environ 4500). Par ailleurs, un décret assez récent a pour objectif de redonner au .fr un aspect plus policé, contrôlé.

Extrait : un nom de domaine en .fr « ne peut porter atteinte au nom, à l'image ou à la renommée de la République française, de ses institutions nationales, des services publics nationaux, d'une collectivité territoriale ou d'un groupement de collectivités territoriales, ou avoir pour objet ou pour effet d'induire une confusion dans l'esprit du public ».

Ce court extrait montre bien que l'Etat français entend bien faire de son domaine, une zone de droit, une sorte d'extension virtuelle du territoire français. Ainsi, la notion de souveraineté à propos d'Internet trouve un écho relativement important.

Par ailleurs, il ne faut pas oublier que l'existence en tant qu'Etat implique la détention d'un CCTLD. Cela a des implications politiques relativement importantes. Cela garantit notamment un siège à l'ICANN en tant qu'Etat, c'est-à-dire au niveau du GAC ou du CCNSO. Il est intéressant de noter que si l'ICANN réfute l'établissement d'une souveraineté ou la naissance d'un Etat à cause de la création d'un CCTLD, cela a pu poser des problèmes. En effet, la création du .tw pour Taïwan a entraîné des protestations de la part de la Chine qui a pu y voir une reconnaissance implicite de la souveraineté de l'île. On peut très bien imaginer que dans un avenir proche, la création de tels noms de domaine prenne une importance accrue avec le développement d'Internet et donc se pose en témoins de reconnaissance de souveraineté. Autrement dit, la question qui s'ensuit immédiatement est la capacité de l'ICANN à reconnaitre cette souveraineté, en fonction de quels critères et sous quels

49 Repris dans l'agenda de Tunis en 2005.

contrôles ou influences. On comprend donc la gêne de la firme californienne lors du conflit avec la Chine et ses multiples dénégations quant aux implications de la création d'un CCTLD.

D'un point de vue plus international ou cosmopolite, la prise en compte des implications et la volonté politique de gérer de façon logique et continue ces domaines n'est pas uniforme. Cela est dû à plusieurs choses : tout d'abord, les Etats n'ont pas de suite reconnu le formidable potentiel d'Internet et ont donc accumulé des années de retard dans la prise en compte des nouvelles données politiques, techniques et internationales. C'est aussi pour cela que les pays du Sud manifestent un peut-être plus grand intérêt dans tous les débats organisés autour de la Gouvernance d'Internet. L'absence relative du réseau leur permet d'espérer encore une croissance contrôlée de la ressource et la possibilité d'en profiter un maximum. Par ailleurs comme a pu le faire remarquer Mr POUZIN ou Mme INNE, les grands états ne proposent pas forcément d'alternatives, ne sont pas forcément capables de reprendre le contrôle dans une dispersion déjà très avancée et ont tendance à se servir d'Internet comme biais de négociation dans un cadre plus large, notamment avec les EtatsUnis. La conséquence peut être interprétée comme un alignement sur la politique des EtatsUnis envers Internet, tel qu'observé par Mr POUZIN, dans les grands sommets afin d'obtenir une sorte de « dette » diplomatique qui pourra être capitalisée dans d'autres négociations. Le problème, si cette vision est réelle, est la perte que cela engendre en termes de préoccupations à propos du Réseau et de son devenir. La seconde raison à cette absence se trouve dans la gestion faite par Jon POSTEL. L'attribution de la gestion des CCLTD de façon non systématique a eu pour effet un désengagement des Etats. Pour autant, le retour de l'Etat est marqué notamment par l'exemple suivant que nous allons traiter : la polémique du .iq, irakien.

A en croire, certaines sources50, le début de la seconde guerre en Irak en 2003 aurait coïncidé avec la « disparition » du CCTLD irakien. Des analystes ont sauté à la conclusion que les Etats-Unis s'étaient purement et simplement débarrassé de ce domaine pour des raisons de représailles et de sécurité. Cela a bien pu montrer l'importance que pouvait dorénavant revêtir Internet dans un conflit et donc, d'un point de vue stratégique. Cependant, l'interview réalisée avec Mme INNE, membre de l'ICANN, a donné une toute autre version. En effet, les RFC rédigés par Jon POSTEL affirment que l'absence de gestion d'un domaine a pour conséquence sa disparition progressive au sein du DNS. En d'autres termes, si les ordinateurs et les serveurs hébergeant des sites du domaine en question étaient toujours connectés et accessibles, ils devenaient littéralement introuvables sur le Réseau.

50 Notamment la revue Politique Etrangère.

La gestion du .iq avait été donnée par J.POSTEL à un américano-irakien qui y avait enregistré des sites pour ses entreprises (le .iq ne comprenait que 6 sous-domaines). Il s'est avéré, sans que l'on puisse connaître le poids des coïncidences, que cet homme avait réalisé des opérations de trafic de toutes sortes, notamment pour le compte de terroristes. Il a dont été arrêté et se trouve encore à l'heure actuelle en prison. En conséquence de quoi, la gestion de ce CCTLD a été arrêtée et il a fini par disparaître des serveurs DNS. Cela permet donc de relativiser les raisons de cet arrêt d'un point de vue des faits mais ne change rien à l'importance stratégique accordée par les auteurs à une telle action du gouvernement des Etats-Unis, action conçue de cette manière bien particulière.

Il est à noter que selon Mme INNE, une opération de cette sorte serait impossible, ce qui garantit la souveraineté des Etats et permet aussi de montrer l'importance que l'on peut y accorder. Un des problèmes posés aussi par cette souveraineté d'un point de vue internationale est bien explicité par les bases de données « Who Is ». Cette allusion humoristique au célèbre annuaire de la haute société britannique se réfère néanmoins à des besoins plus prosaïques. En effet, cela désigne simplement les coordonnées et les informations nécessaires au bon fonctionnement des noms de domaines, informations relatives aux détenteurs de nom de domaine, à l'intérieur de domaine plus important. L'ICANN juge nécessaire ces informations afin de pouvoir assurer la continuité du service. Cependant, les différences législatives ont pour conséquence de créer des conflits : la CNIL, par exemple, en France impose un strict contrôle sur de telles bases de données. Aussi, malgré l'enjeu de continuité de service Internet et les problèmes que cela peut poser en cas de faillite de ces registry ou registrar, le conflit autour de ces bases de données reste important. Peut-on imaginer la France donnant à l'ICANN les informations à propos des détenteurs de domaines en .fr alors même qu'elle est souveraine sur ce domaine ? Difficilement, en raison de la souveraineté et là réside tout le problème.

A propos de la souveraineté, il est intéressant de noter qu'Internet induit des phénomènes de mutation de la considération qu'on lui donne. En effet, l'excellent article de D. DREZNER51 montre très bien l'existence d'un marché des CCTLD, un marché à l'intérieur duquel de très petits états vont aller vendre à des grandes entreprises des domaines comme ces CCTLD. Offrant ainsi à ces entreprises un cadre Internet légalement protégé, cela constitue pour ces états des sources de revenus conséquentes : le .tv pour l'île de Tuvalu a été vendu pour 4

51 DREZNER, D. W., Sovereignty for Sale, Foreign Policy, Sep.-Oct., 2001.

millions de dollars par an pendant 10 ans. Cependant, il est à noter que ces ventes engendrent des phénomènes de création de paradis fiscaux ou de blanchiment d'argent (ce qui va souvent ensemble). Le Fonds Monétaire International, FMI, estime à 1,5 milliard de dollars, le montant blanchi grâce à ce système de vente de souveraineté.

Enfin, le phénomène des micro-états développé par F. LASSERRE pour le Groupe de Recherche en Economie et Sécurité est très intéressant. Il montre bien à quel point la notion de souveraineté peut être diluée ou redéfinie dans l'univers Internet. La multiplication des Nations, des Royaumes ou des Souverainetés sur Internet ne doit cependant pas être pris pour un jeu. Si certain sont fantaisistes, d'autres peuvent être dangereux ou poser des questions jurid iques épineuses. En effet, la Principauté de Sealand installée sur une ancienne plate-forme en eau territoriale de la marine britannique émet des passeports dont certains ont été retrouvés sur des criminels dans d'autres pays. Elle a aussi été pressentie pour accueillir des serveurs Internet, serveurs qui auraient hébergé le très célèbre site, The Pirate Bay, plate-forme de téléchargements P2P. Voici donc un exemple des enjeux que constitue la création sur Internet de ces micronations.

Ainsi se termine cet exposé à propos de la souveraineté. Nous avons pu voir à quel point le concept de souveraineté pouvait être en mutation entraînant des enjeux importants. Non content de devoir s'adapter aux exigences d'Internet, il est soit remis en cause par les pratiques de quelques uns soit considéré comme une ressource commerciale. Nous allons maintenant nous intéresser aux problématiques de contrôle et de sécurité à propos d'Internet, du point de vue des Etats.

B- Les Etats et Internet : Sécurité et Contrôle

Dans cette partie, nous allons aborder plusieurs problématiques au travers notamment de deux exemples, celui de la Chine et celui de la cryptographie.

Tout d'abord, la première question que l'on doit se poser en termes de Sécurité est de savoir exactement en quoi Internet peut-il constituer un danger.

Une première réponse est que la quantité de données transitant par Internet est positivement impressionnante. La première conséquence pour les agences de renseignements et de sécurité des gouvernements est leur incapacité réelle à analyser

toutes ces données. En effet, si l'on peut agir sur les flux Internet de façon relative, en les bloquant en partie ou en les filtrant, notamment en fonction de leur nature, il est impossible de les analyser en totalité. Même des outils développés dans les agences gouvernementales américaines comme le système Echelon (qui dépend aussi d'accords internationaux) ne peuvent pas prétendre à tout analyser. Le renseignement sur Internet peut donc être vu comme cela : il est à l'heure actuelle possible pour les services de renseignements d'obtenir pratiquement toutes les informations qu'ils veulent à deux conditions. La première concerne une idée précise de la localisation des informations recherchées et la seconde, la possibilité d'avoir à côté de la pratique informatique pure, des moyens de renseignements et de pressions autres52.

La seconde réponse se trouve dans le système Internet. En effet, il n'est pas faux de considérer qu'une information transitant sur Internet est comme une carte postale dans les systèmes postaux : tout le monde peut lire le contenu et voir à la fois l'expéditeur et le destinataire. Par ailleurs, les derniers modes de connexion tel que le Wifi ou connexion sans fil par ondes radio ne sont absolument pas sécurisés dans la transmission, par exemple, entre vos ordinateurs et les routeurs de l'Université. La cryptographie permet donc de pallier aux problèmes du contenu mais pas des adresses.

La sécurité, c'est aussi la volonté des entreprises de se protéger de l'espionnage industriel dont les conséquences en termes de sommes d'argent ne peuvent être ignorées. C'est pourquoi il existe des formations à la protection informatique et Internet dispensés par du personnel appartenant à l'administration française, preuve de l'importance du sujet. Cette prise en considération s'est traduite notamment par un assez intense conflit à propos de la cryptographie, en France et aux Etats-Unis de la même façon. Nous traiterons de cet exemple afin de montrer un des enjeux d'Internet.

Enfin, la Sécurité, c'est à la fois pour un pays, la volonté de protéger ses administrations et ses infrastructures53 contre les déstabilisations mais aussi contre le terrorisme. Mais c'est aussi parfois une interprétation agressive faite par les pays, notamment les pays à régime autoritaire.

52 Eléments issus d'un entretien à propos d'une opération de la DGSE où l'interviewé avait participé de façon marginale.

53 Lire la veille à propos de la désorganisation de la distribution de carburant en Argentine par la faute d'un pirate informatique.

Intéressons-nous à la cryptographie dans un premier temps afin de montrer au travers d'un exemple, les enjeux de sécurité qui peuvent être issus d'Internet.

La cryptographie remonte très loin dans l'histoire. Une des premières utilisations de l'informatique dans cette matière a été pour casser les codes de la machine Enigma utilisé par les Allemands durant la Seconde Guerre Mondiale. Sur Internet, la cryptographie a posé plusieurs problèmes.

Le premier venait des Etats : leur incertitude quant à ce média et les problèmes qui pouvaient en survenir ont très tôt par exemple obligé les Etats-Unis à vouloir contrôler et même interdire la cryptographie54. De la volonté d'imposer une puce de contrôle à tout micro-ordinateur (le Clipper Chip) à l'interdiction de tout moyen de codage qui serait impossible aux militaires de briser, les évolutions ont donné de nombreux conflits.

En effet et c'est le second problème, que ce soit les entreprises, pour un évident besoin de confidentialité ou les individus, pour la protection de la vie privée, un vaste mouvement de protestation a eu lieu, affirmant la nécessité de la cryptographie dans un monde où l'information devenait primordiale et de plus en plus dangereuse. En France, si les cryptages liés aux authentifications ne sont pas contrôlés, tous les autres étaient soumis jusqu'en 90 à l'autorisation expresse du Premier Ministre. Aujourd'hui, c'est une autorité qui est chargée de délivrer les autorisations mais la distinction demeure. Or, sur Internet, le cryptage devient une nécessité dés lors que de plus en plus de services sensibles passent par ses infrastructures : la consultation de vos comptes bancaires ou le paiement en ligne par exemple.

Le problème de la cryptographie vient de la création d'un « espace immatériel » complètement inaccessible à l'Etat. C'est pourquoi cela la rend si dangereuse du point de vue des Etats. La situation était donc bloquée jusqu' à l'apparition d'un nouveau mode de cryptage révolutionnaire parfaitement adapté à Internet et qui a remis en cause tout le contrôle étatique sur Internet. L'administration Clinton a donc décidé de traiter Internet comme une zone de libre-échange, donc exempt de contrôle total, sans appartenance, en dehors du droit national. La notion prouve le problème et les enjeux que cela engendre.

Ce mode de cryptographie, appelé PGP pour Pretty Good Privacy, que l'on pourrait traduire par « Plutôt Bonne Intimité » a été développé par un américain, Philip ZIMMERMANN. Son logiciel est tellement révolutionnaire et problématique qu'il a été poursuivi par les autorités

54 L'ouvrage de Jean GUISNEL est à cet égard très complet.

qui ont fini par abandonner les poursuites, certainement sans réelles bases légales, mais politiquement catastrophiques. Le logiciel pallie au principal défaut de la cryptographie en supprimant le besoin de communiquer le code de codage au destinataire. En effet, le principe est celui de la cryptographie asymétrique et se base sur l'utilisation de deux clés de codage dépendantes l'une de l'autre : une clé publique et une clé privée. La première est disponible à la vue de tous et permet à celui qui veut faire passer un document à son titulaire de coder le document susdit et de l'envoyer. Ainsi codé, l'expéditeur ne peut le décoder : seul le destinataire le pourra en employant ses deux clés. La clé privée n'étant jamais montrée à qui que ce soit, ni même enregistrée sur un ordinateur s'il le fallait. Ainsi, plus de problèmes de transmission des codes et ceci, associé aux capacités de codage très grande associées à ce système, il est devenu pratiquement impossible de casser ce type de code. Ainsi la cryptographie, si elle résolvait les problèmes des entreprises et des individus, pose dorénavant un problème grave aux Etats notamment en matière de terrorisme et de cybercriminalité.

Deux atténuations tout de même, le nombre d'utilisateurs reste restreint, seuls de réels professionnels ou passionnés d'Internet étant au courant de ces innovations et par ailleurs, cela ne résout pas le problème de la lisibilité des expéditeurs et destinataires.

Ainsi, au travers de la cryptographie, nous avons pu voir quels ont été les enjeux importants de Sécurité induits par l'existence d'Internet. Nous allons maintenant nous intéresser notamment aux derniers développements technologies adoptés pour des raisons sécuritaires. C'est ici que nous parlerons de la Chine.

La première innovation est celle des logiciels libres. Cette tendance au début concentrée autour du développement d'un système d'exploitation concurrent de Windows, LINUX, a ensuite atteint tous les types de logiciels autour de deux façons de voir. La première est que la création des logiciels doit être libre et ne doit pas être commercialisée du tout, c'est pourquoi chacun doit pouvoir accéder à tout sans restriction. C'est là le rôle d'Internet. Les logiciels sont alors mis à disposition de même que les codes-sources, ce qui permet de les modifier et de les enrichir. La seconde vision témoigne d'une certaine révolution dans la vente de ces logiciels. Partageant la façon de voir de la première ou alors témoignant d'un marketing original, ces entreprises construisent des logiciels gratuits mais font payer les services qui peuvent être nécessaires à côté ou constituer des « plus ». Par ailleurs, ils vont aussi développer des logiciels plus spécialisés : tout cela constituant de la discrimination économique bien organisée.

Cependant, et c'est ce qui va donner tout son essor à cette communauté, ces logiciels vont attirer un grand nombre d'Etats. En effet, l'avantage de ces logiciels est d'amener de la diversité dans un monde informatique largement encore dominé par des informaticiens anglo-saxons. Microsoft est très présent, à la fois pour les systèmes d'exploitations mais aussi pour les logiciels bureautiques ou de navigation. La crainte de possibles attaques ou d'invasion informatique par le biais de portes cachées dissimulées dans les codes de ces logiciels ont conduit des Etats comme Cuba à programmer l'équipement de tous ses services avec des logiciels libres retravaillés par leurs propres informaticiens. Par ailleurs, la gratuité de ces produits n'est pas sans intéresser les Etats et on peut y voir une raison de l'implication de la France dans cette tendance.

La seconde innovation concerne le DNS, encore une fois. En effet, la Chine vient de mettre en place un nouveau protocole appelé IPv9. Ce protocole qui paraît ne pas être un protocole d'adressage comme ceux que l'on a pu voir aurait notamment créé une zone réseau en dehors d'Internet ou bien juste connecté au réseau mondial par des plates-formes surveillées et sélectionnées. Cependant, un certain flou règne à propos de cette notion bien que l'on sache que l'Arabie Saoudite prépare une infrastructure de même type. Les raisons principales que l'on puisse trouver à ce phénomène inquiétant, parfois appelé « balkanisation d'Internet » sont de deux ordres : la crainte liée à un contrôle trop omniprésent des Etats-Unis sur Internet et l'absence trop importante d'autre langue que l'anglais. En effet, la particularité de ces infrastructures serait d'offrir une navigation dans la langue de leur concepteur et une majorité de sites et de noms de domaines dans cette même langue. On comprend mieux pourquoi ces pays ont voulu mettre en place ce type d'initiative mais il ne faut pas oublier que ce genre de tendance fait craindre la fin d'Internet ainsi conçu aujourd'hui.

Pour terminer avec cette partie liée au contrôle, il ne faut pas oublier de parler des « 13 ennemis » d'Internet : Arabie Saoudite, Belarus, Birmanie, Chine, Corée du Nord, Cuba, Egypte, Iran, Ouzbékistan, Syrie, Tunisie, Turkménistan, Viêt-Nam. Cette liste a été notamment établie à partir des travaux de l'ONG Reporters Sans Frontières. Il s'agit en fait des pays pratiquant certaines ou toutes es activités suivante à propos d'Internet : censure, filtrage, poursuite, condamnation et emprisonnement des internautes, contrôle des blogs, poursuite des blogueurs...La liste est longue mais il est certain qu'aujourd'hui, un certain nombre de régimes considèrent Internet comme un danger pour leur stabilité (des régimes, pas des pays) et n'hésitent pas à tout essayer pour s'en préserver. Par ailleurs, certains pays indiqués dans l'Annexe 3 comme n'ayant pas d'accès à Internet, sont aussi des pays considérés comme opposés à Internet : Tunisie et Corée du Nord, notamment.

Ainsi se finit ce développement consacré à l'Etat et ses problématiques au travers d'Internet. Comme on le voit, la préservation de la souveraineté et la sécurité, de même que les questions de culture et de démocratie appartiennent aux dynamiques nourries par Internet. Or, toutes ces questions sont au coeur de problématiques comparables dans le Système International. Abordons maintenant l'Individu et ses implications sur Internet.

III- Les Individus et Internet : Activisme, Cybercriminalité et Terrorisme

Ce dernier développement de la seconde partie a pour but de montrer à quel point le développement d'Internet a été, est et reste très influencé par les individus qui y interagissent. En effet, l'auteur établit comme hypothèse de présentation pour cette partie l'importance de l'individu, importance dont l'existence est corroborée par la grande présence de cette société civile au SMSI.

Afin de montrer cette importance, nous aborderons trois points principaux dans cette partie : l'activisme sur et à propos d'Internet, la cybercriminalité et le terrorisme. Cependant, sans réaliser une étude précise de chacune de ces thématiques, nous évoquerons quelques éléments susceptibles d'appuyer cette hypothèse.

A- Activisme et Internet

Si le lien entre l'activisme et Internet n'est pas aisé à faire, nous allons démontrer qu'il est dû principalement à des affrontements à propos de conception sur la nature profonde du réseau. Par ailleurs, l'activisme dont on parle ici n'a rien à voir avec le terrorisme ou la révolution : il s'agit plus d'un conflit politique généralisé ayant pour but la victoire d'une conception d'Internet sur une autre en vue de favoriser tel type de développement et d'obtenir tel Internet demain.

Les premiers activistes auxquels nous nous intéresserons seront notamment J. POSTEL et P. ZIMMERMANN. La gestion d'Internet réalisée par POSTEL alors même que le DOC55venait de

55 Département du Commerce des Etats-Unis.

« vendre » la gestion du .com à Verisign et que celui-ci en faisait une utilisation commerciale intensive et généralisée montre bien comment cette conception a pu être tenace. Par ailleurs, l'intensité des débats ayant précédé la création de l'ICANN et sa participation active à ces débats controversés montre bien l'importance de la question. ZIMMERMANN, quant à lui, a inventé le système révolutionnaire PGP dans une vision résolument égalitaire et pourrait-on dire « démocratique » du système. Il a ainsi pu dire : « PGP donne aux gens le

pouvoir de prendre en main leur intimité. Il y a un besoin social croissant pour cela. C'est pourquoi je l'ai créé. ». Il explique aussi que « Si l'intimité est mise hors la loi, seuls les horsla-loi auront une intimité. Les agences de renseignement ont accès à une bonne technologie cryptographique. De même les trafiquants d'armes et de drogue. Mais les gens ordinaires et les organisations politiques de base n'avaient pour la plupart pas eu accès à ces technologies cryptographiques de «qualité militaire» abordable. Jusqu'à pré sent. ». Ces quelques citations

montrent bien à quel point cette vision d'Internet a pu être importante. En effet, il est de notoriété publique que la réaction américaine à la mise à disposition de ce logiciel a été très négative et l'on comprend facilement pourquoi à la lumière des éléments décrits dans les développements sur l'Etat.

Dans un autre type d'action, il y a la création en 1990 de l'EFF ou Electronic Frontier Foundation. Créée par des hommes d'affaires, John Perry BARLOW et Mitchell KAPOR, cette fondation a pour but d'élargir la prise de conscience à propos de la sécurité sur Internet et sur l'importante notion que si Internet est un terrain parfait pour des activités immorales ou illégales, il est possible de faire autre chose d'Internet. Ainsi, dans les textes constitutifs :

« Dans les conditions présentes, le cyberespace est une région frontière, peuplée par quelques technologues endurcis capables de supporter les interfaces primitives des ordinateurs, les protocoles de communication incompatibles, les barricades des propriétaires, les ambiguïtés culturelles ou légales, et l'absence totale de guides ou de commodité. Sans aucun doute, les vieux concepts de propriété, d'expression, d'identité, de mouvement et de contexte ne s'appliquent pas dans un monde où ils ne peuvent pas exister. La souveraineté sur ce monde n 'est pas non plus correctement définie. De grandes institutions réclament déjà des fiefs, mais la plupart des actuels indigènes de ce territoire sont solitaires et indépendants, parfois à un degré pathologique. C'est donc un terrain parfait pour que se développent à la fois les hors-la-loi et les milices ».

L'activisme « bénéf ique » ne peut être abordé sans parler du travail de Mr Louis POUZIN. Ce récipiendaire de la légion d'honneur a participé à la création des réseaux Cyclades et développé les protocoles de base qui seront repris en grande partie par Vint CERF dans la création d'Internet. Participant toujours à la vie d'Internet, il s'est engagé dans le problème

des langues naturelles sur Internet, notamment au travers de l'association Eurolinc ou de l'initiative NETPIA. Le but de cette association est de conserver à Internet une capacité toujours plus grande à toucher le monde entier, notamment en supprimant ce qui peut être considéré comme un barrage important : celui des langues. Il est très difficile de naviguer sur Internet sans un minimum d'anglais et toute l'infrastructure ne prend en compte que des caractères « occidentaux ». Aussi, il est nécessaire de changer cela pour garder une unicité d'Internet.

Dans un autre registre, des groupes hétéroclites, composés à la base de Hackers56 comme le Computer Chaos Club ont vu le jour. Il refuse la censure de toute nature, prône la liberté et se joue généralement des frontières du Web afin de montrer leur utilité. Hackers à la base mais cependant bien plus que cela comme en témoigne le piratage d'une banque et le vol de milliers de Deutsche Mark avant de les restituer le lendemain. Ce groupe atypique pouvait donc être classé parmi les activistes du Web.

Comme on a pu le montrer ici, l'activisme sur le Web a toujours existé. Basé sur les individus en grande partie, cet activisme cible des individus en prônant l'égalité et le refus de toute censure ou pervertissement d'Internet. Cependant, tous les individus n'ont pas des aspirations morales aussi élevées et nous allons maintenant nous intéresser à la cybercriminalité.

B- Cybercriminalité

Le problème de la cybercriminalité a été longtemps à la fois un problème de définition mais aussi un problème d'intention. En effet, on a longtemps associé le piratage des systèmes hyper-protégés à des petits génies, seuls ou en petits groupes à la recherche de l'exploit et de la démonstration de leurs capacités intellectuelles. Seulement et plus récemment, la cybercriminalité a rejoint le cadre général de la criminalité sans toutefois perdre cet aspect plus « joueur ». Sans réellement entrer dans le détail de la cybercriminalité, il s'agira de montrer quelles sont les grandes tendances de la cybercriminalité et les enjeux que cela entraîne.

56 Pirates informatiques.

Concernant la cybercriminalité purement économique, on trouvera notamment le SPAM ou courrier publicitaire non désiré et à des fins malhonnêtes ou encore pourriel dont le coût est actuellement 50 milliards de dollars57 aux entreprises par an. Le problème vient de la très grande difficulté à mettre fin à cela en raison de l'utilisation de serveurs zombies dont nous parlions dans la partie consacrée au Système. Aussi, le SPAM devient-il un enjeu important à propos d'Internet.

La guerre économique, elle qui diffère de ce procédé et qui compte l'espionnage économique, le vol de renseignements et le piratage informatique à fin de recueil de données couteraient 59 milliards de dollars par an aux 1000 premières entreprises américaines.

La contrefaçon elle, représente un des moyens les plus efficaces pour les organisations criminels de se financer. Elle trouve évidemment sur Internet, un moyen privilégié de diffusion, notamment pour des DVD pirates ou autres. La veille stratégique a permis de recenser l'arrestation et le démantèlement récent d'un trafic de cigarettes organisés sur plusieurs pays. L'arrestation de la branche française fait douter de la réelle efficacité de ce type d'opération sur ce type de trafic et montre bien en quoi Internet peut constituer une plate-forme d'organisation des plus utiles et démontre aussi la difficulté à obtenir des opérations coordonnées et des résultats au niveau international.

D'un point de vue moins économique, les problèmes des virus sont importants. Qu'ils soient virus, trojans ou vers, c'est-à-dire voués à la destruction, ou à permettre d'accéder à certain ordinateurs ou destinés à bloquer le trafic, ces opérations ont des coûts relativement importants à la fois pour les personnes et les entreprises58. Par ailleurs, le blocage voire la destruction des ordinateurs personnels de certains, les vols d'identités, d'informations personnelles, bancaires et autres constituent des enjeux très importants pour les individus. Dans le cadre bien particulier de la fraude dite « nigériane » qui utilise Internet pour abuser de la crédulité des personnes visées, on a même assisté à des assassinats des victimes qui s'étaient rebellés. Ce type d'escroquerie est censé rapporter des centaines de millions de dollars à leurs auteurs selon les autorités américaines.

De même, les très nombreuses chaînes de messages à renvoyer à plusieurs personnes de votre entourage sous peine généralement de « malchance éternelle » sont souvent des

57 Pour ces éléments et les suivants, merci à Mr LACOSTE pour son cours de cybercriminalité internationale.

58 130 000 dollars en moyenne par attaques de virus.

opérations destinées à perturber voire à rendre inutilisables certains serveurs de messagerie qui s'écrouleraient sous le trop grand nombre d'emails à traiter. De même que les célèbres Hoax ou faux messages annonçant par exemple la fermeture immédiate du service de messagerie MSN.59 Les enjeux liés à ce type de pratiques ne sont pas immédiats et dépendent surtout de l'information que l'on cherche à faire passer.

Le piratage informatique présente des coûts pour les entreprises, les banques et des risques de pertes d'identité. Cependant, le risque d'une interruption d'Internet pourrait être particulièrement grave. En effet, certaines attaques contre le service DNS, appelées DOS ou Denial of Service comme celle du 6 février 2007 sur les serveurs racines. Plus grave encore est la réussite d'un pirate (ou d'un groupe) ayant réussi à désorganiser la distribution de carburant en Argentine en s'introduisant dans les systèmes et en modifiant les bases de données. Une réunion de crise a dû se tenir pour pallier aux problèmes et reprendre les distributions. Ici, les enjeux deviennent très graves car cela touche des infrastructures clés des Etats. Cependant, ce problème n'est pas nouveau et les intrusions réalisées dans les systèmes de la NASA ou du Département de la Justice par des hackers motivés ont permis de mieux prendre en compte ce genre de problème.

Enfin, la pédophile a trouvé en Internet un moyen privilégié d'expansion. Le réseau Bouclier, association de lutte contre la pédophilie en France aurait recensé plus de 200 000 sites pédophiles sur Internet. Ainsi, la pédophilie et ses conséquences deviennent un enjeu de premier plan sur Internet.

La liste et la rapide description non exhaustive de ces phénomènes liés à la cybercriminalité a permis de montrer en quoi les individus, constitués en groupes ou en « réseau » peuvent avoir une influence sur Internet et engendrer des enjeux très importants sur Internet. On va maintenant s'intéresser au phénomène du terrorisme uniquement en ce qu'il est lié à Internet.

C- Terrorisme

59 A ce propos, en cas de doute, consultez HoaxBuster.com.

Cette relativement courte partie aura pour objectif de montrer la liaison entre Internet et les phénomènes terroristes. Si cette liaison relève de l'intuition, nous allons montrer qu'elle peut s'articuler autour des deux tendances principales.

La première tendance que l'on peut observer est que jusqu'à il y a peu de temps, le terrorisme considérait Internet comme un support de leurs activités et de l'organisation. En effet, un certain nombre d'auteurs ont montré que plusieurs des responsables d'Al-Qaïda maitrisaient parfaitement les technologies de communication liées à Internet. L'excellent article de J. FOREST60 à propos du terrorisme montre que les démocraties, en raison, notamment des libertés individuelles et de la capacité des individus à accéder et à interagir sur Internet, ont un désavantage stratégique dans ce qu'il appelle un champ de bataille des communications. Plus important et inquiétant, il étudie un site de propagande et de recrutement et plus précisément, le concours de réalisation du site Internet du mouvement. Le gagnant du concours remporterait la bénédiction de Dieu et la possibilité de lancer trois rockets contre une base américaine. Par ailleurs, une autre étude a recensé un certain nombre de documents sur Internet montrant une préoccupation de plus en plus importante des terroristes à viser des atouts économiques américains ou occidentaux comme des pipelines. Pire encore, ces documents donnaient des indications d'une remarquable précision à propos des opérations de destructions envisagées, éléments visiblement recensés à partir d'Internet. Une organisation à but non lucratif, basée à Washington et qui traque les terroristes internationaux a découvert un document de 10 pages donc long et bien détaillé, avec des liens vers des sites procurant des cartes et des informations à propos de ce pipeline. L'auteur ajoute que les islamistes extrémistes sont partout sur Internet et ont su complètement s'intégrer et se dissimuler au sein du réseau.

Par ailleurs, une interview réalisée a apporté à ce mémoire des informations à propos d'une opération contre un site Web, opération montée par une agence gouvernementale. Cette opération a pu surveiller le site Web en question mais le point important est que l'information quand à la localisation et l'existence de tels sites ne venaient pas forcément d'Internet. Et si, après des opérations longues, ils ont pu accéder au site et à la personne qui l'hébergeait et le gérait, on peut en tirer des conclusions relativement alarmantes. Tout d'abord, les informaticiens n'appartenaient pas à l'agence en question et donc, cela relativise la capacité de ces agences de renseignement à utiliser Internet pour lutter contre le terrorisme. La longueur des opérations techniques et le besoin de recourir à des tactiques

60 James J.F. Forest, The Democratic Disadvantage in the Strategic communication Battlespace, Democraty and Security, N°1, Jan.-Jun., 2006.

non pas basées sur Internet mais sur l'influence humaine pour obtenir des informations montrent bien les problèmes que pose Internet aux services de renseignement dans la lutte contre le terrorisme. Enfin, il est tout à fait nécessaire pour obtenir des informations fiables de savoir préalablement ce que l'on cherche et où on le cherche.

Pour finir cette partie, il faut savoir que le 12 Mars 2007, des terroristes reconnus comme proche de Ben Laden, ont essayé de pirater un centre de stockage de données et d'hébergement parmi les plus importants d'Europe. Ce centre héberge notamment des informations concernant de très importantes institutions. TeleHouse Center (nom du data center - centre de stockage de données) a été attaqué pour perturber le fonctionnement de la bourse d'après les enquêteurs. Les atteintes auraient pu perturber de façon importante les banques et les institutions financières de la City (comme la Bourse). Ces informations proviennent de la veille stratégique. Cette attaque amorce peut-être un changement de stratégie des terroristes qui paraissaient auparavant ne pas avoir tenté ce genre d'opération selon Mr BREHAM et les informations recueillies. Cependant, il semble peut probable qu'ils n'y aient jamais pensé.

Ainsi se finit cette troisième partie sur les enjeux politiques et en Relations Internationales que l'on peut trouver sur Internet où à son propos. Nous allons donc maintenant nous intéresser à une troisième partie nécessaire pour relativiser la méthode et donner un certain recul aux propos tenus ici et dans la première partie.

Troisième Partie : Vision critique méthodique et quelques éléments d'évolutions
envisageables

Toute étude, toute recherche en science sociale se base sur une méthode et sur un cadre d'analyse. La méthode, les outils méthodologiques de recherche utilisés tout autant que le cadre d'analyse présentent des défauts, des biais. Ces biais sont de plusieurs natures : principalement, ils seront méthodologiques ou bien normatifs. Méthodologiques lorsqu'on s'intéressera aux outils de recherche et à leur utilisation, normatifs lorsqu'on s'intéressera aux partis-pris du chercheur dans le cadre logique de son analyse ou dans les développements. Cela constituera le premier sujet de cette partie.

La seconde doit permettre de relativiser et de donner une ampleur plus importante aux sujets traités dans ce mémoire. Ce sera aussi le moment de donner un écho plus philosophique, réflexif notamment en tenant compte des différentes croyances et des différentes tendances des personnes interrogées ou des auteurs des textes appartenant à la bibliographie.

I- Des outils de recherche biaisés par nature et utilisation

De façon logique, ce développement sera divisé en deux. La première partie sera consacrée aux biais normatifs qui ont pu être développés par l'auteur de ce mémoire au cours de la recherche et dans ces développements. La seconde partie reviendra sur la capacité des outils méthodologiques utilisés à approcher la vérité et les biais méthodologiques qu'ils peuvent induire par nature et par utilisation.

A- Biais Normatifs

On s'intéressera d'abord aux biais normatifs analytiques avant de s'intéresser aux biais normatifs relevant plus du parti-pris ou de l'opinion.

Par biais analytiques, on se réfèrera aux limites du cadre d'analyse et du cadre logique utilisés et aux limites dans l'utilisation de ces cadres de travail.

Le cadre d'analyse choisi était donc une analyse stratégique. Le but était d'étudier et d'essayer de mettre à jour les différentes « stratégies » que l'on pouvait observer de la part des différents acteurs du système. Cependant, le but final reste toujours la problématique qui est d'essayer de montrer l'intégration d'Internet à l'intérieur d'un cadre plus général, celui du Système International. Cette volonté de pouvoir constater l'intégration nécessitait deux vérifications : la mise à jour d'acteurs identiques et déjà connus et le développement de dynamiques déjà observées dans le système international.

On peut se poser la question de savoir, et c'est une première limite, si l'analyse stratégique a pu bien établir cette analogie. En effet, si l'analyse stratégique a pour but la reconstruction d'un système, on peut d'abord se demander si le passage de ce système Internet ainsi construit au Système International, est aussi facile que ce qu'il a été prétendu au début de ce mémoire. En effet, une fois ce système reconstruit, l'étude concernant l'analogie n'a sans doute pas été assez poussée car cela aurait pu nécessiter un second travail de réflexion en tant que tel.

Par ailleurs, une analyse stratégique se base sur un certain nombre d'indicateurs dont la définition n'a pas été assez précisée. Cela se retrouve notamment dans l'exercice de veille stratégique : quels ont été les indicateurs (identiques à ceux utilisés dans l'analyse bibliographique) qui ont présidé aux choix des articles retenus ? Cela n'a pas du tout été réalisé ou alors de façon incomplète dans l'exposé sur l'analyse stratégique et l'importance des relations de pouvoir.

Concernant les partis-pris ou les opinions, il est possible d'en relever un certain nombre, essentiellement dus aux positions de l'auteur sur certains sujets et à sa propre expérience.

On peut d'abord noter une certaine indulgence à l'égard de certains acteurs. Les hackers, les membres d'Internet « underground » ont toujours inspirés une certaine crainte révérencielle et une certaine envie de pouvoir réaliser ce qui est souvent désigné, sans doute à tort, par « leurs exploits ». Par ailleurs, l'utilisation des moyens mis à disposition par Internet pour obtenir de la musique à peu de coûts ou bien des oeuvres cinématographiques ont un effet néfaste sur le normal détachement qu'aurait dû éprouver l'auteur. De manière générale, on peut noter un préjugé favorable envers Internet, préjugé assez généralisable malgré la

connaissance certaine des dérives très dangereuses que peut apporter Internet (terrorisme, cybercriminalité à grande échelle, soutien de la grande criminalité...).

Dans un autre registre, on peut noter un certain agacement de l'auteur à la vue des menées orchestrées par les états pour essayer de rattraper un retard dans la prise en compte de leurs desideratas. En effet, la conception d'Internet défendue par l'auteur reste très largement celle des débuts. Si l'auteur reste persuadé de la nécessaire évolution de l'ICANN, ne serait-ce que parce que la résistance aux pressions de toutes parts ne sera possible que pour un temps, il n'est pas du tout certain que la gestion par les états lui conserve les caractéristiques qui en font un objet si précieux. Cependant, l'auteur néglige aussi très certainement le problème déjà traité de cette balkanisation d'Internet tout en restant sceptique devant une gestion exclusivement privée ou « commerciale » de la ressource. Enfin, l'excellent contact avec le personnel de l'ICANN n'a sans doute pas aidé à garantir l'objectivité des analyses liées à cette institution.

Ces quelques éléments développés, nous allons maintenant essayer de réaliser une analyse critique des outils méthodologique de recherche.

B- Biais Méthodologiques

Trois outils ont été principalement utilisés : l'analyse bibliographique, l'entretien semidirectif et la veille stratégique. Chacun de ces outils sera critiqué, à la fois en tant qu'outil mais aussi et surtout dans leurs utilisations.

Le premier outil qui sera observé est celui de l'entretien semi-directif. Le principal problème de l'entretien provient de l'incapacité à contrôler complètement les différentes relations qui existent et se nouent au cours de l'entretien. Les biais qui peuvent se créer ainsi offrent prise à des distorsions dans l'analyse et ne facilitent pas le détachement. Malgré la grande qualité d'information que peut apporter l'entretien, il n'est pas facile de garder un caractère détaché. Par exemple, l'entretien réalisé avec la représentant de l'ICANN, Mme INNE, s'est très bien passé, à la fois, personnellement et en raison de la qualité d'information et du fait qu'il m'a permis d'avoir un autre entretien non prévu. Ce premier entretien très bien réussi m'a gêné lors de la rencontre avec Mr POUZIN dont les opinions critiques vis à vis l'ICANN contredisaient en partie les miennes et le sentiment de l'entretien réalisé avec Mme INNE. Pour autant, cette rencontre fut au moins aussi fructueuse et tout autant réussie à mon

sens. Dans un autre registre, la grille d'entretien qui a été utilisée, pour autant qu'elle témoigne de l'organisation logique du mémoire, n'a pas été du tout facile à suivre lors de ces entretiens. Sa construction sans doute trop idéale et trop intellectuelle n'a pas facilité l'entretien bien que ceux-ci aient été dans l'ensemble une réelle mine d'information. Par ailleurs, le nombre d'entretiens est insuffisant et il aurait été nécessaire de rencontrer au moins un représentant de chaque acteur envisagé. Cependant, l'obtention d'entretiens avec ce type de personne à responsabilités est difficile et le temps de réalisation, court.

L'analyse bibliographique, quant à elle, n'a pas posé de réels problèmes. Les réputations des périodiques choisis témoignent en général de leur sérieux. Cependant, reste le problème de la vérification des sources, pas toujours évident et la persistance d'un certain nombre d'erreurs trouvées dans certains articles. Cependant, ces erreurs qualifiées ainsi par l'auteur le sont notamment d'après d'autres sources de même niveau ou de réponses apportées au cours de l'entretien peut-être avec un certain parti-pris. Par ailleurs, le corpus de texte a pu être assez réduit en raison de la méconnaissance de l'auteur à propos du champ des périodiques spécialisés, il s'est donc référé à ceux disponibles à la bibliothèque universitaire. Il est à noter cependant, l'aide très importante apportée par Internet dans la recherche et l'acquisition des articles de ces périodiques. La dernière critique que l'on peut émettre concerne la qualité des analyses que l'on peut remettre en cause. En effet, le manque d'expérience et de connaissances de l'auteur a sans doute conduit à de mauvaises conclusions ou estimations des données ou des propos recueillis à certains endroits.

Concernant la veille stratégique, les critiques sont facilement identifiables. Premièrement, le nombre de sites choisis est réduit et malgré leurs remarquables contenus, certaines choses ont certainement été oubliées. Par ailleurs, le temps réduit d'observation (2 mois), s'il a pu permettre l'observation de phénomènes isolés ne peut réellement suffire à émettre des conclusions plus générales.

Avec cela se terminent les critiques que l'on peut adresser d'un point de vue méthodologique aux travaux précédents. La partie suivante aura un caractère plus libre, notamment en mettant en valeur les différents courants de pensée, ce qui permet de relativiser les affirmations et les résultats de la seconde partie. On comprendra ainsi mieux la position de certa ins acteurs.

II- Que faut-il attendre des évolutions d'Internet ?

61 Anarchiste américain

Cette partie, plus libre sera notamment constituée des divers éléments recueillis au cours des entretiens ou bien des tendances diverses auxquelles appartiennent les différents théoriciens et chercheurs qui ont écrit sur Internet et les différents acteurs.

La première tendance à laquelle on s'intéressera relève de l'antiaméricanisme. Cette tendance relayée par une partie des médias en France et à l'étranger a sans doute cristallisé une partie de l'opinion et permis aux états de se positionner dans une logique d'opposition relativement stérile. En effet, si l'intention des Etats-Unis a pu être de donner une indépendance totale à l'ICANN, il n'en est désormais plus rien. Cependant, il faut bien voir que les modèles actuels de gestion, de gouvernance paraissent complètement inadéquats face à une ressource telle que celle-ci. Au cours de l'entretien, Mme INNE a pu ainsi admettre que malgré leurs revendications fortes, les gouvernements n'avaient pas de proposition viable ou de plan de transition. La position de Mr POUZIN paraît à cet égard beaucoup plus intéressante car malgré ses critiques sur le gouvernement américain et sur l'ICANN, ses revendications linguistiques ont la qualité technique suffisante pour être écoutées et de plus, cet enjeu, très politique n'est pas celui, inabordable en tant que tel d'une gouvernance globale. A cet égard, le peu d'articles que j'ai trouvé à propos d'Internet dans les périodiques français de Relations Internationales et les possibles fautes ou à tout le moins, le manque de précision qui y a été décelé montrent bien l'incapacité latente à maîtriser totalement le sujet.

Mr BREHAM a pu faire établir une liaison entre certains « espaces » d'Internet et les zones d'autonomie temporaire décrites par Hakimbey61. L'émergence de telles zones de liberté où la notion d'Etat devient quelque peu floue, lointaine et éloignée permet sans doute de comprendre la remise en question de nos sociétés que l'on peut y trouver. Cette allusion engendre plusieurs remarques, la première est que cela peut constituer une explication aux phénomènes de répression que l'on peut observer dans les pays à régime autoritaire. La seconde se retrouve dans la référence relativement persistante qu'a pu faire Mr POUZIN à l'Etat. En effet, sa proposition par exemple de considérer le routage et le service DNS en fonction d'une répartition territoriale par états est sans doute intéressante mais elle remet

« dans le jeu » l'Etat alors qu'il est aujourd'hui relativement absent même si les problématiques actuelles et les enjeux y font clairement référence.

Au final, on peut établir trois tendances de pensées et de positionnement face à Internet. Ces trois « modes » de pensées sont le fruit d'un travail de réflexion beaucoup plus transversal des éléments que j'ai pu réunir et ne constituent pas une analyse en tant que tell e.

Le premier mode de pensée est celui qui a présidé à la création d'Internet. Il s'agit d'une conception universitaire de la ressource et c'est notamment celle de la plupart des ingénieurs et universitaires qui ont participé au projet. C'est aussi celle qui a conduit J. POSTEL à écrire certaines des conditions des RFC, notamment sur la non-appartenance et le caractère de ressource commune d'Internet. C'est encore cette vision qui lui a dicté sa gestion particulière des CCTLD en son temps. Des auteurs comme Laurence LESSIG développent bien cette vision et insistent bien sur cette notion de bien commun appartenant à tous. Dans cette vision, l'ICANN, bien que lié au gouvernement ne doit pas être considéré comme la « bête noire » de la démocratie à propos d'Internet. C'est donc une vision très idéaliste d'Internet et les conséquences paraissent cependant incertaines quant à la suite à donner. Une chose reste certaine : la volonté sans faille qu'Internet garde ce potentiel de liberté et de créativité qu'il a. On peut peut-être y voir aussi la volonté d'un certain statu-quo.

Le second mode de pensée est plus « économique ». Ses premières conséquences se sont produites lors du contrat signé par Network Solutions à propos de la gestion du .com. Il existe, comme le montre LESSIG, une certaine tendance aux Etats-Unis à vouloir faire gérer le plus possible toutes les ressources « délicates » par le secteur privé. Hérité entre autres, sans doute, de la peur d'un certain absolutisme et d'une présence trop importante de l'Etat, cette vision prône que le meilleur avenir pour Internet se trouve dans une gestion plus importante de la ressource par le secteur privé. Evidemment, les profits que l'on peut envisager d'une gestion d'Internet par ce biais sont énormes et l'on comprend mieux ainsi les objectifs de cette vision. Par ailleurs, il n'est pas certain que cela n'entraîne pas une réduction du potentiel d'Internet, notamment si des personnes morales privées ayant plus d'intérêt dans un système sans Internet (les majors de la musique, du DVD...) participent à la gestion de la ressource.

Le dernier mode de pensée est celui que l'on pourrait nommer « public » ou encore « étatique ». Si on peut le considérer comme le « paradigme » montant, les conséquences qui en sont issues sont encore assez rares. Les questions de souveraineté, de sécurité, de

dépendance ont une telle importance pour les états que leurs protestations et revendications de plus en plus importantes à participer à la gestion d'Internet ne peuvent continuer longtemps sans avoir des conséquences. En effet, il ne faut pas oublier les dernières innovations de la Chine en matière d'Internet, les SMSI et la volonté de l'ONU de se saisir du problème et la volonté partagée par tous les états de se voir confier la gestion et le contrôle d'Internet, que ce soit personnellement ou bien alors au sein d'une structure qu'ils contrôlent parfaitement en tant qu'Etats. Si l'ONU reste une organisation où les Etats ont le pouvoir, leur présence à l'ICANN ne leur apporte pas de pouvoir de décision. Cependant, il est évidemment certain que la gestion par l'ONU d'Internet ne saurait garantir une meilleure sécurité sur Internet tout en garantissant le maintien du potentiel d'Internet. Au final, cette vision, à priori une des plus raisonnables, pourrait cependant apporter la fin d'Internet tel qu'il existe aujourd'hui.

Conclusion

Après une critique difficile mais que l'auteur a essayé de rendre la plus objective, nous allons pouvoir conclure.

La conclusion a pour but premier de revenir sur les hypothèses et la problématique de départ. Aussi, c'est ce que nous allons faire. Le but de départ était de réaliser une analyse stratégique à propos d'Internet et de ses enjeux. La question que l'on peut se poser est si cet objectif a été atteint. De même, une réponse à la problématique a-t-elle été trouvée ? Les hypothèses ont-elles été validées ?

Concernant l'analyse stratégique, le travail effectué a permis l'appréhension réelle d'un Système Internet. En effet, les différents acteurs ont été étudiés dans la seconde partie, de même que les relations de pouvoir ont été explicitées au travers de plusieurs exemples. Ainsi, on peut réellement affirmer que la partie analyse stratégique a été correctement faite. La lecture de ce mémoire prouve bien l'existence d'un système Internet avec ses spécificités, ses acteurs, ses relations et ses évolutions sur un mode bien particulier.

A propos de la problématique et des hypothèses, il faut consacrer un rapide exposé à cette question. La problématique posait une première question, qui conduisait à la première hypothèse de l'existence d'un système bien particulier, original qui aurait obligé les acteurs à se mobiliser et à créer les diverses compétences pour faire exister les opportunités. L'existence de ce système est avérée, non seulement grâce aux preuves qui ont conduit à l'écriture du paragraphe précédent mais aussi grâce aux démonstrations qui ont eu lieu dans la première partie et qui ont bien montré l'existence d'un tel système. La mobilisation des acteurs a été prouvée par la seconde partie.

La seconde présomption de la problématique concernait les acteurs et les dynamiques. S'appuyant une fois encore sur les deux parties, on peut affirmer que la plupart des acteurs habituellement présents dans le Système International ont été abordés et traités démontrant ainsi leur existence dans le Système Internet. Cependant, la différence est nette en ce qui concerne l'ONU ou les organisations internationales dont l'influence ici n'a pas du tout le poids même symbolique qu'il peut avoir dans les affaires de la politique

internationale. Cependant, cela évolue très vite et étant donné l'incapacité des SMSI à faire changer l'état actuel, cela pourrait être amené à évoluer. Par ailleurs, l'individu acquiert ici une importance qu'il n'a jamais eue dans les relations internationales auparavant. Souvent décrit au travers de sa fonction ou bien de son style, d'éléments assez peu en rapport avec sa capacité d'action, l'individu sur Internet peut avoir une force déstabilisante bien plus importante et décisive parfois. Concernant les ONG et autres associations internationales, les résultats restent mitigés avec la présence très grande de la société civile au SMSI, constituée souvent en association comme a pu le faire Mr POUZIN. Cependant, l'acteur a dû évoluer pour avoir une réelle présence dans le Système Internet. Concernant tous les autres acteurs, la preuve paraît avoir été faite de leur présence et de leur influence en tant que tel.

Concernant les dynamiques, le travail paraît avoir mis à jour des problématiques ayant trait à la Sécurité, à la Souveraineté et à la Culture pour les états, à l'enrichissement et l'accès à une ressource dans les meilleures conditions qui puissent exister pour les entreprises. Il faut noter aussi l'existence de problématiques de développement partagé, des problématiques souvent associées aux ONG. Aussi, la mise en exergue de toutes ces dynamiques paraît valider l'hypothèse de l'équivalence des dynamiques. Ayant validé à la fois les acteurs avec des nuances mais aussi les dynamiques, on peut donc affirmer que la seconde hypothèse est partiellement validée.

Avec la validation même partielle de cette hypothèse, on peut affirmer donc avoir répondu à la problématique. Internet peut donc être considéré comme une dimension nouvelle du Système International. Cependant, cet objet ne doit pas être réduit à cela en ce qu'il bouleverse la donne internationale en faisant interagir des acteurs habituellement absents ou moins présents. Si l'aspect original d'Internet prend peut-être le pas sur l'aspect équivalent, on peut néanmoins affirmer que si pour le moment, Internet est et reste une nouvelle dimension du Système International (et doit être considéré comme telle), on peut envisager des bouleversements de ce Système ou bien des bouleversements d'Internet afin de rétablir un certain équilibre. En bref, soit le Système s'adapte, soit Internet s'adapte.

La fin de la troisième partie a permis de mettre à jour diverses conceptions du système, trois conceptions différentes que l'on pourrait nommer Idéaliste, Commercial et Etatique. Il serait intéressant de porter un intérêt plus grand à certaines de ces conceptions car il ne faut pas douter qu'Internet de demain sera issu des conflits et des affrontements de ces visions.

Par ailleurs, l'étude des différents modèles de gouvernance et de l'essoufflement des modèles traditionnels constituerait une approche de théorie politique particulièrement intéressante, ces théories pouvant être aussi étudiées d'un point de vue stratégique ou de

théorie des jeux. De même, il serait à la fois opportun, pertinent et stratégique de réaliser une étude à propos de l'approche d'Internet par les terroristes notamment en raison de leurs dernières actions à Londres.62

Enfin, l'étude d'Internet dans les relations internationales dans une optique de Théorie des Jeux, issue des travaux de Norbert Elias ou J. NASH serait susceptible de donner des résultats très intéressants et pertinents afin d'évaluer les évolutions et les méthodes employées pour obtenir ces évolutions, notamment dans une perspective de Relations Internationales.

FIN

62 Voir la seconde partie, le développement à propos du terrorisme.

Bibliographie

Ouvrage :

Dufour, A., & Ghernaouti-Hélie, S. (2006). Internet : Que sais-je ?

Godeluck, S. (2002). La Géopolitique d'Internet : La découverte

Guisnel, J. (2005).Guerres dans le Cyberespace - Services secrets et Internet : La Découverte

Manuel :

Blanchet A., (2000). Les techniques d'enquête en sciences sociales - Interviewer : Ed. DUNOD. P. 81-126.

Beaud, S. & Weber, F. (2003). Guide de l'enquête de Terrain : Ed. La découverte.

BACH ELET, R., Cours de Sociologie des organisations : L'analyse stratégique des projets - Cour dispensés à L'Ecole Centrale de Lille.

CROZIER, M., & PAVE, F. (1994) Analyse Stratégique - Colloque de Cerisy : Ed. Du Seuil, p. 133-153.

LACOSTE, J.M., (2006), Cybercriminalité Internationale, Cours dispensés dans le cadre du Diplôme Universitaire de Droit Pénal International et Analyse des Conflits - Université Toulouse 1.

Périodique :

Dossier : Géopolitique de l'Internet, Politique Etrangère, 2006,3.

Dossier : La communication, enjeu stratégique, La Revue Internationale et Stratégique, 56, Hiver 2004-2005.

SWETT, C. (1998), L 'Internet : Evolution stratégique, Revue Stratégique, N°69.

FALQUE PIERROTIN, I., Internet et le droit à la Sécurité, Cahiers de la Sécurité Intérieure, N°34.

GRAMOVSKY, SMITH & RIGHT, Nouvelles technologies, Nouveaux Délits, Cahiers de la Sécurité Intérieure, N°34.

BOISSEAU, G., Tiers de Confiance ou de Défiance - La sécurité collective face à la cryptographie asymétrique, Cahiers de la Sécurité Intérieure, N°34.

Phil Williams, Timothy S., & Dunlevy C., Intelligence Analysis for Internet Security, Contemporary Security Policy, 23:2, 1 -38.

Faisal O. Al-Rfouh, Mass Communication and National Security, Democracy and Security, 1:1, 41 - 62.

James J.F. Forest, The Democratic Disadvantage in the Strategic communication Battlespace, Democraty and Security, N°1, Jan.-Jun., 2006.

DEBAT, A., La Planète Renseignement, Politique Internationale, N°102, Hiver 2003-2004. GAUDEUL, A. & JULIEN, B., Revue Economique, 2001

Nazli Choucri, International Political Science Review / Revue intern ationale de science politique, Vol. 21, No. 3, CyberPolitics in International Relations. CyberPolitique et relations internationales. (Jul., 2000), pp. 243-263.

Christian Brodhag, International Political Science Review / Revue internationale de science politique, Vol. 21, No. 3, CyberPolitics in International Relations. CyberPolitique et relations internationales. (Jul., 2000),pp. 311-327.

Max Kaase, International Political Science Review / Revue internationale de science politique, Vol. 21, No. 3, CyberPolitics in International Relations. CyberPolitique et relations internationales. (Jul., 2000), pp. 265-282.

David Lewis Feldman, International Political Science Review / Revue internationale de science politique, Vol. 21, No. 1., (Jan., 2000), pp. 23-42.

SHAPIRO, A., The Internet, Foreign Policy, N°115, 1999.

LITAN, R., The Internet Economy, Foreign Policy, N° 123, 2000. KALATHIL, S., China's Dot-Communism, Foreign Policy, Jan.-Feb. 2001 KALATHIL, S., Dot Com for Dictators, Foreign Policy, Mar.-April 2003. KEARNEY, A. T., Measuring Globalization, Foreign Policy, N° 134, 2003. DREZNER, D. W., Sovereignty for Sale, Foreign Policy, Sep.-Oct., 2001. LESSIG, L., The Internet Under Siege, Foreign Policy, Nov.-Dec. 2001.

KRASNER, S. D., Sovereignty, Foreign Policy, Jan.-Feb. 2001.

HACHIGIAN, N., China's Cyber Strategy, Foreign Affairs, Mar.-April. 2001.

HAMMOND, A. L., Digitally Empowered Development, Foreign Affairs, Mar.-April 2001. BLEHA, T., Down to the Wire, Foreign Affairs, May-June 2005.

BAIRD Z., Governing Internet, Foreign Affairs, Nov.-Dec. 2002.

CUKIER, K.N., Who will control the Internet?, Foreign Affairs, Nov.- Dec. 2005. CUKIER, K.N., No joke, Foreign Affairs, December 2005.

KEOHANE, R., & NYE, J., Power and Interdependence in the Information Age, Foreign Affairs, V. 77, 5.

KOLH MAN N, E.F., The real Online Terrorist Threat, Foreign Affairs, Sept.-Oct. 2005. BARSHEFSKY, C., Trade Policy for a Networked World, Foreign Affairs, Mar.-Apr. 2001. BLEHA, T., & WEISER, P. J., Which broadband Nation?, Foreign Affairs, Sept.- Oct. 2005.

LASSERRE, F., Les Hommes qui voulaient être Roi - Principautés et Nations sur Internet,

Analyses et Perspectives, N°1, 2000.

Presse :

RAMONET, I. Menaces sur l'information, Le Monde Diplomatique, Janvier 2007. KLINNENBERG, E. Médias en Amérique, Le Monde Diplomatique, Janvier 2007.

Site Internet :

www.isoc.fr : Chapitre français du site de l'Internet Society, organisme à but non lucratif représentant les internautes de la planète.

www.homo-numericus.net/breve843.html : Dernier sommet de l'Internet Governance Forum. www.journaldunet.com/0611/061103-icann.shtml : même sujet

www.hcci.gouv.fr/lecture/note/nl150.html : notes de lecture sur « la géopolitique d'Internet », ouvrage cité dans la précédente bibliographie

www.homo-numericus.net : même sujet

www.enssib.fr : notes de lecture sur « Guerres dans le cyberespace », ouvrage cité dans la bibliographie.

http://fr.wikipedia.org/wiki/Accueil : Encyclopédie libre en ligne Wikipédia.

http://www.nicolas-guillard.com/cybergeography-fr/atlas/cables.html : Atlas concernant les télécommunications.

Sites utilisés pour la veille stratégique :

http://news.google.fr/?ned=fr&topic=t : Site de Google News, partie « Science-Tech ». http://www.pcinpact.com/

http://www.generation-nt.com/

http://www.zdnet.fr/actualites/

http://www.zataz.com/

http://strategique.free.fr/

ANNEXES


Annexe 1
Organisation hiérarchique et liste des noms de domaines

63

63 Image extraite de : Dufour, A., & Ghernaouti-Hélie, S. (2006). Internet : Que sais-je ?

Annexe 2
Grille d'entretien utilisée

Mémoire : Analyse stratégique d'Internet

(Qui, Quoi, Où, Quant, Comment, Combien)

Présentation :

- Qualité de l'Interviewé

- Travail

- Domaine

- Expériences

Analyse des Dynamiques et des tendances : Cadre professionnel :

- Que se passe-t-il dans son domaine qui se passe sur Internet et dans le

monde et qui atteint le coeur de son travail, sa raison d'être ? (tri)

- En quoi votre travail est-il lié à Internet ? En quoi utilise-t-il Internet ? En quoi

Internet a-t-il modifié votre travail ? La façon de faire votre travail ?

- Pourquoi ? Causes ?

- Comment ? Modalités ?

- Conséquences ?

Perceptions personnelles :

- Que se passe-il sur Internet en général ?

- Pourquoi ?

- Comment ?

- Conséquences ?

Analyse des acteurs et de leurs activités : Cadre professionnel :

- Qui sont les parties prenantes aux évènements décrits avant ?

- Activités sur Internet et dans le monde ?

- Modalités de leurs actions sur Internet et dans le monde ?

- Responsabilités

- Prérogatives

- Revendications

Perceptions person nelles :

- Qui sont les parties prenantes aux dynamiques décrits avant ?

- Activités sur Internet et dans le monde ?

- Modalités de leurs actions sur Internet et dans le monde ?

- Responsabilités

Prédictions et Prescriptions : question libre, éléments de connaissance à gagner qui auraient été oubliés dans les questions précédentes :

- Que pensez-vous de l'avenir d'Internet ?

- Quelles sont les formes de régulation ou de gouvernance qui vous paraissent le plus adaptée ?

- Quel est le débat ou le problème sur Internet le plus important du moment pour vous ?

Annexe 3

Accès Internet dans le Monde

64

64 Image extraite de : Nazli Choucri, International Political Science Review / Revue intern ationale de science politique, Vol. 21, No. 3, CyberPolitics in International Relations. CyberPolitique et relations internationales. (Jul., 2000), pp. 243-263.

Annexe 4

65 Ibid.

Vision stylisée de la Fracture Numérique

65

Annexe 5

Répartition des infrastructures de télécommunication

66

66 Câbles sous-marins d'Alcatel seulement. Publiée sur le site : http://www.nicolasguillard.com/cybergeography-fr/atlas/cables.html .

67

67 Ibid. Réalisée par le cabinet TeleGeography.Ink.

Annexe 6

Répartition de la langue maternelle des Internautes sur le réseau

68

68 Dossier : La communication, enjeu stratégique, La Revue Internationale et Stratégique, 56, Hiver 2004-2005.






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Nous voulons explorer la bonté contrée énorme où tout se tait"   Appolinaire