WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Le management stratégique de l'innovation: passage de l'analogique au numérique chez Canal Kin Télévision

( Télécharger le fichier original )
par Thierry LEBIKA
Université de Kinshasa - Licence 2005
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

I.3.1. Différence entre signal analogique et numérique((*)47)

Les signaux analogiques évoluent de manière analogique au phénomène, comme le phénomène étudié lui-même. Le déplacement de l'aiguille ou du tracé, l'intensité d'éclairement de l'ampoule électrique est une représentation de la réalité du phénomène étudié. Le signal analogique est continu et variable. Il peut être détecté enregistré et reproduit de manière diverse, sous tracé sur un papier, déplacement d'aiguille sur un cadran intensité du courant électrique. L'enregistrement peut être accessible directement à nos sens, ligne sur un papier, image photographique développé ou inaccessible sous média technique, enregistrement magnétique ou enregistrement sur un disque de musique.

Les organes sensoriels sont durables uniquement à des phénomènes physiques analogiques, dans les limites physiologiques, sont entre 20 et 20000Hz), lumière (0,4 à 0,8mm), image supérieure à 0,1 micromètres, etc. On peut parler du signal sans pour autant faire allusion au bruit qui n'est pas seulement écouté comme on le pensait généralement.

Il peut aussi être la neige d'un écran de télévision lorsqu'il ne détecte aucun signal, ce type de manifestation existe aussi en même temps que le signal et s'y ajoute.

Le bruit vient détériorer le signal émis en le transforme en un autre signal mais cette reproduction est imparfaite.

Les interférences et manifestations propres des sons nouveaux sont appelés bruit, autrement appelés parasites, l'effort à faire est celui de faire la différence entre le signal et le bruit.

Pour éviter ce bruit ou parasite qui est omniprésent par exemple avec le téléphone qui transmet les sons seulement entre 100hz et 200hz. Ce son est moins bon que celui d'une radio FM qui transmet de 30hz à 12000hz et encore moins que le disque compact numérique qui sur une bonne chaîne HIFI passe de 20hz à 20000hz et même pour l'image qui offre une infinité de lignes de variations de signal, verticales, obliques, horizontales, plus difficiles à analyser, il faut décomposer l'image(aussi le son) signal, balayé en ligne parallèle horizontales, chacune permet de reconnaître des variations continues, analogiques comparables à celles du signal linéaire. Pour bien faire cet exercice, il faut explorer toutes les orientations différentes de l'image, une infinité de ligne afin de la rendre numérique en codifiant toutes ces variations par la transcription en binaire qui permet à ce que tout nombre en base 10 puisse être transcrit en base 2( numérisation binaire. La suite des nombres s'écrit : 01 10 100 101 110 111 1000 en base 2 pour 012345678 en base 10.

La conversion d'un signal numérique en analogique est effectuée par un convertisseur qui est un circuit électronique capable de transformer une valeur numérique codée en une tension. Dans le cas d'un signal temporel, comme un son.

A l'opposé, un signal numérique est un signal issu d'une numérisation, modification pour correspondre à un nombre, une information telle qu'une lettre, un nombre ou toute autre donnée.

Ainsi, un ensemble de 8 bits (octets) permet de compter de 0 à 255(28), ce système d'octet peut servir à retranscrire un autre code, 256 caractères par 256 valeurs différentes d'octets. A est ainsi lié à l'octet 97 et A à l'octet 65. Ce code permet aussi de représenter un chiffre par un code, 1 est l'octet 49 2 par 50..

Toute numérisation d'image fait appel à des langages spécialisés de traitement de données informatiques.

Pour parler de numérique, il faut au départ la présence d'un signal analogique qui sera ensuite traité en trois phases :

a) Echantillonnage

Où une référence de temps est choisie par exemple 10 fois chaque seconde. Evidemment la fréquence de l'échantillonnage dépend de cercle du signal. Si les temps d'échantillonnage sont trop éloignés par rapport à des phénomènes trop fréquents, un phénomène bref ne pourra être détecté en règle, la fréquence d'échantillonnage doit être double au moins de la fréquence la plus élevée que l'on numérise (théorème de Shannon).

L'échantillonnage du son du disque compact est 41000 pour une fréquence source maximale de 20.000hz.

b) Quantification

Pour chaque temps d'échantillonnage, une mesure de l'amplitude instantanée est faite, ce nombre est un nombre entier, c'est-à-dire qu'il arrondit les valeurs. Toutes valeurs telle que 128 en arrondie à 1 ou à 2 soit une erreur d'approximation de près de 100%, l'erreur d'approximation est moindre par une valeur comme 128,56 arrondi à 128 ou 129(moins de 1 pour cent. Cette quantification gagne donc à être faite sur une échelle étendue (100,1000, 10000 niveaux au plutôt 27, 210, 214)

c) Codage binaire

Les nombres fournis par la quantification sont transmis en nombres binaires, bits et octets ou moins de deux octets ou plus, ces mots sont facilement stockés ou transmis ou traités.

Cette phase de transformation d'une valeur analogique en numérique est réalisée par un convertisseur analogique numérique = can 4 15.5.4. l'inverse écran d'ordinateur ou la photo d'écran qui est une image analogique.

Pour résumer, l'obtention d'une image numérique passe par des étapes définies, l'échantillonnage qui part de découpe de l'image en surfaces carrées élémentaires d'une matrice carrée ou rectangulaire, chacun des carrées éléments, d'image appelée Pixel (Picture cell) et repéré par ses coordonnées x et y, la quantification où les lignes sont étudiées les unes après les autres et sur chacune, la valeur de chaque pixel est mesurée, parfois ce pixel a une structure hétérogène, la valeur retenu est alors une moyenne des détails seront donc perdus. Et finalement intervient le codage selon des règles définissant à la fois la typographie et la valeur de chaque pixel.

Bien que numérisées, les images ne sont pas directement utilisables, il faut les comprimer (ensemble avec les sons) c'est-à-dire les miniaturiser avant toute émission. C'est ce qu'on appelle la compression des données.

I.3.2. La compression des fichiers((*)48)

L'image bien plus que le son, consomme une quantité impressionnante d'octets quand elle est numérisée.

Pour s'en rendre compte, il faut penser à ce nouveau jayon utiliser aujourd'hui, la quantité méga pixel pour les appareils photo numérique, cela signifie que chaque image comporte environ un million de pixel, chaque pixel nécessitent trois octets pour les composantes RVB (rouge, vert et bleu)

Sans compression, cela représenterait un plus de 3 Mo pour une seule photographie. L'équivalent d'une pixel de trente six poses occuperait ainsi 100Mo.

Ainsi il faut la comprimer. Les chercheurs ont imaginé de nombreuses méthodes compression que l'on classe en deux catégories. Celles qui se contentes de comprimer les données sans les altérées, est celle qui le compact en le modifiant. Les premières permettent de reconstituer en bit près le fichier dans l'état où ils étaient avant la compression. On distingue les techniques de la compression le domaine de la photo et celle de la vidéo

I.3.2.1 LA COMPRESSION POUR LA PHOTO

a. JPEG (joint picture expert group)

il par de l'idée selon la quelle une photo contient des informations redondante. C'est-à-dire qui se répète en terme d'espace. Le standard JPEG fait parti de la compression sans perte d'information, en anglais loss less. Il est conçu pour les images fixe plutôt que la vidéo. Malheureusement le procédé est long et complexe. Il part de la traduction de l'image RVB ( rouge vert bleu) dans une norme propre à la photo qui défini par la luminosité de chaque pixel ainsi que deux composantes associées à la couleur

Au total, pour avoir une image comprimée par le standard JPEG quatre méthodes de compression ont été employées, résultats, une photographie de 20 Mo peut être réduite à 1Mo. Elle peut à présent tenir sur une disquette tout en conservant un assez bon niveau de qualité.

a.1. La compression fractale

Développé par la société Iteroted systems, elle repose sur la constatation que toute image avec un degré d'approximation plus au moins grand peut être représentée par des portions d'une même que l'on modifie (déplacement, rotation, changement de taille...) l'algorithme consiste donc à découper une image en secteurs et à identifier ceux partir desquels on va pouvoir produire les autres. Les fichiers sont alors comparés par ces blocs de référence et par les fonctions mathématiques servant à reculer le reste. La technique, présente à la compression, st en revanche rapide à la compression. Elle permet aussi quand on agrandi une image, d'éviter tout effet de mosaïque (pixellisation) puisque l'agrandissement ne revient pas à afficher chaque pixel en plus grand, mais à recaler l'image mathématiquement

a2 La compression par ondelettes

Elle est aujourd'hui inclus dans la norme JPEG 2000.

Sa qualité visuelle égale, il offre un taux de compression moyen de 40 : 1 contre 20 : 1 jour les deux autres méthodes citées haut.

Elle consiste à diminuer les dimensions de l'image par un processus en cascade ( l'original produit quatre images de taille réduite, l'une étant une véritable image en réduction, les trois autres apportent des informations permettant de reconstituer l'image à pleine définition. Le processus est alors appliqué à nouveau sur l'image de taille réduite et on le répète plusieurs fois. La compression proprement dite consiste à ignorer les informations les moins significatives.

En dehors de ces 3 techniques citées ci haut, il y a aussi la compression avec perte d'information, ici, l'image reconstruite après décompression bien qu'elle reste proche de l'image originale, n'est plus identique. Ce sont des méthodes de compressions dites irréversibles.

Il existe un écart entre la copie et l'original, on revoit avec les imprimantes et autres photocopieuses.

On parle des VLC, variable long ta ccoling, qui part de ce constat qu'une compression osteux avec perte d'information n'est pas facilement perceptible par l'oeil humain.

Ainsi, la variable lengta coding (VLC) part du fait que certaine combinaison de pixels (point lumineux affiché par l'ordinateur) sont plus fréquentes que d'autres pour aboutir à l'étude de leur fréquence d'apparition dans une image pour finalement attribuer à chaque combinaison un code dont la longueur (nombre de bits) est d'autant plus faible que la combinaison apparaît soucieuse dans l'image.

On peut aussi parler de DRCP (Différentiel pulse code modulation) la compression est un ici un intra image perte de donnée simplement en utilisant la redondance spatiale.

Pour ce qui est de la vidéo, la compression est dite temporelle car exploitant les ressemblances existantes entre une image et les précédentes.

I.3.2.2 COMPRESSION POUR LA VIDEO

La compression est intrant image. Une image JPEG est compressée sans perte de donnée tout simplement en utilisant la redondance spatiale des pixels. La compression est donc temporelle car exploitante les ressemblance existante entre une image et les précédentes.

a. le standard MJPEG ( motion joint picture expert group)

il est associé aux cartes d'acquisition , il comprimé le signal pendant l'acquisition grâce à un codec matériel. Ce dernier une puce ultra puissante qui convertie en MJPEG chacune de 25 images du signal vidéo. Le standard MJPEG a comme faiblesse la dégradation de certaines images lorsque les facteurs de compression devient plus importante. Pour ce la il ne pas utilisé par toute la communauté vidéo

b. Le standard MPEG (motion picture expert group)

c'est une compression qui repose sur deux procédés complémentaires intra et inter image. Ce standard a été utilisé pour la premier fois avec le CD vidéo par le groupe PHILLIPS sans grand succès. On parlait alors de MPEG 1 qui venu avec un grand renfort devenir un standard mondialement reconnu en raison du qualité qu'il procure et de son ouverture vert la télévision haute définition.

Bien que permettant atteindre une bonne qualité d'image, le MPEG ne pas utilisable dans une chaîne de production vidéo professionnelle (le cinéma).

C le Fire wire et la compression digital vidéo

Para feu en français, il est un dispositif informatique qui part d'une carte vidéo à inséré dans l'ordinateur vers un enregistreur externe pour enregistrer un signal vidéo compressé. La compression DV par contre est un standard permettant d'obtenir une excellente qualité d'images en première génération, pour un usage grand public. Il y a deux types de transferts de donnée avec le fire wire : asynchrone qui le transport traditionnel ou les requêtes systèmes sont envoyés à une adresse spécifique et un accusé de réception et reçu. Le fire wire offre un types des transferts des données tels que la vidéo numérique pour un taux prédéterminé. Ceci est important le données multimédia dont les informations doit arriver à temps à tout prix éliminant de ce fait tout supplémentaire de buffers souvent coûteux((*)49).

Pour plus d'information voir en annexe les caractéristique technique de support numérique.

I.3.2.3. Quelques domaines d'applications de la numérisation

La compression a permis d'imaginer de nombreuses applications qui n'auraient pas été possibles faute de moyens de stockage d'une capacité suffisante pour éviter l'encombrement et un prix élevé du service.

Grâce à la compression, on est aujourd'hui capable d'atteindre les débits nécessaires pour transmettre les images ou la vidéo et parler aujourd'hui des avancées de la télécopie, de la diffusion d'images sur Internet de la photo numérique, de la vidéo numérique, du DVD et finalement de les fameuse TNT, Télévision Numérique Terrestre lancée depuis 2000 aux Etats et arrivée en France en 2005 mais e forte progression avec l'entrée des chaînes publiques.

En Suisse par exemple, c'est depuis juinn2004 que le public a la possibilité de recevoir, la télévision analogique et numérique sur un raccordement à long bande : triple play, TV Internet et Téléphone.

1. La Télécopie

Elle repose sur un mode de compression sans perte devenu un standard nommé CCITTgroup3, Ce dernier est adopté aux images ne représentant que des zones blanches ou noires. Ce mode de compression n'est autre que le procédé de hyppnon, utilisé après étude statistique sur le contenu des télécopies pour définir la table de codage.

2. La diffusion d'image sur Internet((*)50)

Pour arriver à diffuser une image sur Internet, le tout part évidemment de la numérisation comme tous les autres emplois et utilisation vues ci-dessus.

Pour un signal bidimensionnel (son et image), l'échantillonnage consiste à considérer l'image comme une mosaïque de surface élémentaire (carré ou rectangulaires) : les pixels référés par résumé. Htm.03 février 06.

Par leurs coordonnées, x, y l'image est balayée ligne par ligne à chaque surface une mesure ou effectué et convertie en une valeur numérique entière, toujours selon une règle de codage qui utilise un nombre fini de niveau généralement équidistant (mais pas toujours.

Nous n'insistons pas beaucoup sur ce processus cas nous l'avons déjà expliqué même pour ces images sur Internet la numérisation repose sur deux applications : l'échantillonnage et la quantification.

Là où les choses différent, c'est notamment au niveau des outils de numérisation et de la restitution des images qui se fait sur un moniteur d'ordinateur plutôt que du papier ou autre écran ou projecteur.

* (47) www.med.univ.reunes1.fr/cerf/idicert /BASES/BA/001 cu-rb-37. html-126 ko 2-02-2006.

* (48) http://stim-imagerie.tripod.com/compression images.htm, 02 février 2003

* (49) FOUCHE. J.C, la vidéo numérique comment ça marche, paris, dicsite-sifap, 2000. p.173

* (50) Jean Claude LETOUZE, www.inp.fr/acces/biogeo/univete/resume.ht,. 03 fevrier 2006

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Là où il n'y a pas d'espoir, nous devons l'inventer"   Albert Camus