Le Multimc3a9diaf
Le Multimc3a9diaf
Le Multimc3a9diaf
FONDEMENTS DE
MULTIMEDIA
[Tronc commun en Licence Appliquée en TI ]
Introduction au MULTIMEDIA
Durée : 15 semaines
Objectif :
Moyens pédagogiques :
M.HADHRI 2
Département Technologies de l’Informatique Introduction au Multimédia
1. DEFINITIONS ..................................................................................... 8
2. LES TYPES DE MEDIA......................................................................... 9
2.1. Définition Média ................................................................................................................ 9
2.2. Types de données ............................................................................................................ 9
2.2.1. Les données de type texte .................................................................................... 10
2.2.2. Les données de type graphique .......................................................................... 10
2.3. Médias discrets................................................................................................................ 10
2.4. Médias continus .............................................................................................................. 11
2.4.1. Caractéristiques des médias continus ............................................................... 11
3. DOMAINES D’APPLICATIONS MULTIMEDIA ................................... 11
3.1. application grand public ............................................................................................. 11
3.2. applications professionnelles ...................................................................................... 12
4. LA NORME MPC ............................................................................. 12
4.1. MPC 1: ................................................................................................................................ 13
4.2. MPC 2 ................................................................................................................................. 13
4.3. MPC 3 ................................................................................................................................. 13
4.4. MPC 4 ................................................................................................................................. 14
5. COMPOSANTES DE BASE : ............................................................. 14
5.1. périphériques d’entrée.................................................................................................. 14
5.1.1. périphériques d’entrée spécifiques au son ...................................................... 15
5.1.2. périphériques d’entrée spécifiques à l’image ................................................. 15
5.1.3. périphériques d’entrée spécifiques à la vidéo .............................................. 16
5.2. Périphériques de stockage .......................................................................................... 17
5.2.1. Les disques magnétiques....................................................................................... 17
5.2.2. Les disques optiques non réinscriptibles ........................................................... 17
5.2.3. Les disquettes magnéto-optiques ....................................................................... 17
5.2.4. Le vidéodisque : ....................................................................................................... 18
5.2.5. Le CD Audio : ............................................................................................................. 18
5.2.6. Le CD ROM : ............................................................................................................... 19
5.2.7. Le MiniDisc.................................................................................................................. 20
5.2.8. Le DVD ......................................................................................................................... 21
5.2.9. Les HD DVD ................................................................................................................. 22
5.2.10. Le disque Blu-Ray ................................................................................................. 22
5.2.11. Les cartes mémoire : .......................................................................................... 23
5.3. Les périphériques de sortie .......................................................................................... 24
5.3.1. l’écran ......................................................................................................................... 24
1. GENERALITES .................................................................................. 76
1.1. La vidéo analogique...................................................................................................... 76
1.2. La vidéo numérique ....................................................................................................... 78
2. LA COMPRESSION VIDEO .............................................................. 78
2.1. Les signaux vidéo à composantes ............................................................................ 80
2.1.1. Le standard S-Video ................................................................................................ 80
2.1.2. Le standard YUV ....................................................................................................... 81
2.1.3. Le codage YIQ .......................................................................................................... 81
2.1.4. Le M-JPEG ................................................................................................................... 81
2.1.5. Le MPEG ...................................................................................................................... 82
3. LES FORMATS VIDEO ...................................................................... 85
3.1. .AVI (Vidéo For Windows) ............................................................................................. 85
3.2. .MPEG .MPG (Moving Picture Expert Group)........................................................... 85
3.3. .MOV .QT (QuickTime Movie) ...................................................................................... 86
3.4. .RA (Real Audio) .............................................................................................................. 86
3.5. VDO (VDO Live) ............................................................................................................... 86
3.6. VIV (Video Active).......................................................................................................... 86
3.7. Tableau des principaux formats vidéo ..................................................................... 87
4. QUELQUES SUPPORTS DE LA VIDEO .............................................. 87
4.1. Le DVD ................................................................................................................................ 87
4.2. Les SVCD (Super Vidéo CD) et VCD (Vidéo CD).................................................... 88
Le multimédia
Enoncé de l’objectif général :
Ce cours vise à :
Le multimédia
Le multimédia est apparu vers la fin des années 1980, avec les
vidéodisques analogiques pour stocker des images, vidéo et son.
La première réalisation numérique est faite avec Hypercard de
Macintosh d’Apple.
Il faudra attendre la fin des années 1990 avec l'arrivée de méthodes de
compression de son et de vidéo, ainsi qu'une certaine montée en puissance
des ordinateurs personnels, pour atteindre simultanément des qualités
semblables aux différents autres médias réunis.
Aujourd'hui on utilise le mot multimédia pour désigner toute application
utilisant ou servant à travailler sur au moins un média spécifique.
1. DEFINITIONS
Quelques définitions permettent de cerner le terme « multimédia» dans les
textes réglementaires, on trouve par exemple :
– un décret relatif au dépôt légal qui désigne par document multimédia, «
tout document qui regroupe deux ou plusieurs supports soit associe, sur un
même support, deux ou plusieurs documents soumis à l’obligation de dépôt» ;
– un arrêté pris par la commission de la terminologie des télécommunications,
où multimédia s’emploie comme adjectif et vise tout ce qui « associe
plusieurs modes de représentation des informations tels que texte, son,
image»
Dans les dictionnaires et encyclopédies, on trouve encore des définitions
telles que
– extrait du dictionnaire du multimédia édité par l’AFNOR : « technique de
communication associant sur un seul support des données audiovisuelles et
informatiques permettant une utilisation interactive tout en visant les métiers
eux-mêmes développés pour la création et la diffusion des produits
multimédias».
réalité virtuelle
Enseignement assisté par ordinateur (EAO) : enseignement à
distance, didacticiel ;
auto apprentissage
Animation : dessin animé, image de synthèse ;
4. LA NORME MPC
Développée en 1991 par Microsoft, en collaboration avec un groupe
d'éditeurs appelé Multimedia PC Marketing Council. Cette norme définit des
spécifications matérielles et logicielles qui ont été volontairement nivelées par
le bas. Dans sa première version, cette norme était vraiment très limitée et
pratiquement inutilisable pour le multimédia, mais elle a connu plusieurs
évolutions, liée à l'évolution des PC.
4.1. MPC 1:
• PC à base de 386 SX à 16 MHz
• 2 Mo de mémoire, disque dur de 30 Mo
• lecteur 3"5 1.44 Ko, clavier 101 touches, souris 2 boutons
• carte vidéo VGA 640x480 256 couleurs ou 800x600 16 couleurs
• carte de sons 8 bits à 11/22 KHz
• port série 9 ou 25 broches (9600 Bauds)
• port parallèle 25 broches bidirectionnel
• port joystick, port MIDI (In, Out, Through)
• lecteur CD-ROM 150 Ko/s (simple vitesse) compatible ISO 9660
• logiciel système compatible "Microsoft Windows Multimedia
Extension"
4.2. MPC 2
Dès 1993, la norme MPC2 a été créée pour améliorer cette première
version insuffisante :
• PC à base de 486 SX à 25 MHz
• 4 Mo de mémoire, disque dur de 160 Mo
• lecteur 3"5 1.44 Ko, clavier 101 touches, souris 2 boutons
• carte vidéo VGA 640x480 256 couleurs ou 800x600 16 couleurs
• carte de sons 16 bits à 44 kHz
• port série 9 ou 25 broches (9600 Bauds)
• port parallèle 25 broches bidirectionnel
• port joystick, port MIDI
• lecteur CD-ROM 300 Ko/s (double vitesse) compatible ISO 9660 et
XA
• logiciel système compatible "Microsoft Windows MultiMedia
Extension"
4.3. MPC 3
Née en 1995 et demande
4.4. MPC 4
La norme MPC 4 est contemporaine et exige :
• Un ordinateur puissant
• Sauvegarde de dizaines de GO de données
• Présence de lecteurs CD ROM ou de DVD
• Manipulation des images, son et vidéo
• Communiquer de diffuser d’importants volumes de données
5. COMPOSANTES DE BASE :
L’ordinateur est un équipement indispensable pour la manipulation des
données multimédia, il sert pour acquérir de l’information,la traiter, la stocker
et de la divulguer.
En plus de l’unité centrale, il existe des périphériques pour gérer
Le microphone
Convertit les vibrations sonores en signaux analogiques en vue
d’enregistrement
Figure 2 : Microphone
Figure 3 : Le Scanner
Les photos stockées dans les cartes mémoire peuvent être exploitées de différentes
façons :
La carte peut rester dans votre appareil photo et les photos sont transférées
vers l'ordinateur via un cordon.
La carte peut s'insérer directement dans votre imprimante photo sans passer
par votre PC.
La carte peut s'insérer dans un lecteur, boîtier externe, branché sur votre
ordinateur, qui permet d'accélérer le transfert des données.
La carte peut s'insérer dans une disquette adaptatrice que vous glissez ensuite
dans votre ordinateur.
la caméra numérique
5.1.3. périphériques d’entrée spécifiques à la vidéo
carte d’acquisition vidéo
Convertit les signaux vidéo analogiques en données numériques :
l’acquisition vidéo nécessite le décodage de la couleur puis la
conversion des signaux de luminance en signal numérique.
la Webcam
Caméra de qualité généralement assez faible, elle est
directement liée à l’ordinateur par un port USB ou FIREWIRE, elle est
Figure 5 : Webcam
5.2.4. Le vidéodisque :
5.2.5. Le CD Audio :
Lors de pressage usine des données, le laser creuse des minuscules trous
(microcuvettes) sur un disque en rotation. Les microcuvettes constituent une
piste unique en spirale
Figure 7 : CD Audio
5.2.6. Le CD ROM :
Figure 8 : CD ROM
5.2.7. Le MiniDisc
Lancé par Sony en 1992
Amélioration du CD audio :
Permet l’enregistrement par l’utilisateur
Diminution de la taille du disque
Incompatibilité avec le CD audio :
Dimension : 6,4 cm
74 minutes de son numérique
Vitesse de 1,4 m/s
Algorithme de compression ATRAC
5.2.8. Le DVD
Le DVD-ROM (Digital Versatile Disc - Read Only Memory) est en fait un CD-
ROM dont la capacité est bien plus grande Capacité (de 4,7 Go à 17 Go)
Ceci est dû au fait que les alvéoles du DVD sont beaucoup plus petites (0,4µ
avec un espacement de 0.74µ contre 1.6µ et 1.83µ pour le CD-ROM).
Figure 10 : DVD
Les DVD existent en version "double couche", ces disques sont constitués
d'une couche transparente à base d'or et d'une couche réflexive à base
d'argent. Leur intérêt est que la capacité de ces DVD est bien supérieure à
celle des DVD simple couche.
Pour lire ces données, le laser du lecteur de DVD possède deux intensités :
* lorsque l'intensité est faible, le rayon se réfléchit sur la surface en or, c'est à
dire sur la première couche et ne la traverse pas.
Chaque lumiphore est ainsi un point lumineux que l'on appelle pixel. Il s'agit
du plus petit point pouvant être affiché par l'écran.
Le mélange des trois couleurs de base (rouge, vert, bleu) permet de
reconstituer toutes les couleurs visibles.
Figure 13 : écran LD
L’écran a PLASMA
Un écran à plasma est un écran plat dont la lumière est créée par du phosphore
excité par une décharge de plasma entre deux plaques de verre.
Les écrans Plasma fonctionnent à peu près de la même manière que les lumières
néon ou fluorescentes - ils utilisent l’électricité pour illuminer un gaz.
Caractéristiques du moniteur
L’image
Ce cours vise à :
Présenter les
caractéristiques de
reconnaître les - Tableau et Formative
l’image (couleur,
différents types résolution, taille…) support de
d’image, Différentier Image cours
vectorielle et
matricielle
Les modes
colorimétriques
L’image
L’image est une perception visuelle d’un objet donné par une surface
réfléchissante de lumière et de couleurs.
Grâce à la cornée (l'enveloppe translucide de l'œil) et de l'iris (qui en se
fermant permet de doser la quantité de lumière), une image se forme sur la
rétine. Celle-ci est composée de petits bâtonnets et des cônes .
Les bâtonnets permettent de percevoir la luminosité et le mouvement,
tandis que les cônes permettent de différencier les couleurs. Il existe en réalité
trois sortes de cônes : Une sorte pour le Rouge, Une sorte pour le Vert et Une
sorte pour le Bleu .
La couleur est provoquée par la lumière que captent nos yeux, mais elle naît -
et ne naît que- dans notre cerveau : La couleur est une perception du
cerveau.
1. NOTION DE COULEUR :
La couleur de la lumière est caractérisée par sa longueur d'onde. On
caractérise généralement la longueur d'onde d'un phénomène oscillatoire
par la relation: λ=(1/C*T).
avec: λ: longueur d'onde, C:désigne la célérité de l'onde ,T :désigne la
période de l'onde (en secondes).
L'œil humain est capable de voir des lumières dont la longueur d'onde est
comprise entre 400 et 700 nanomètres. En dessous de 400 nm se trouvent des
rayonnements tels que les ultraviolets, au-dessus de 700 on trouve les rayons
infrarouges .
2. NOTIONS IMPORTANTES.
2.1. Taille d'une image
La taille d'une image est définie par le nombre de pixels qui la composent
verticalement et horizontalement. Ex: une image de 550x300 pixels (un pixel
est le plus petit élément qui compose une image)
C'est une manière absolue de chiffrer la taille de l'image. A ne pas confondre
avec la place qu'occupe l'image sur l'écran! La place que prend l'image sur
l'écran dépend de la résolution du moniteur
ex: une image de 750x550 affichée à 100% occupera une bonne partie de
l'écran si la résolution du moniteur est de 800x600; elle occupe une place
beaucoup plus petite pour un affichage de 1024x768; elle n'apparaît pas
dans sa totalité pour un affichage de 640x480.
On utilise l'unité "ppp" = "pixel par pouce" Ou en anglais "dpi" = "dots per
inch"
A savoir qu'un pouce est à peu près égal à 2,5 cm.
Cette notion est utile lorsqu'on passe d'un support physique à un support
numérique (ex: une image scannée), ou inversement (quand on scanne une
image)
- Si on veut scanner une image de 1 pouce sur 1 pouce (soit 2,5 cm sur 2,5
cm): si on scanne avec une résolution de 150 ppp, on obtient une image de
150x150; avec une résolution de 300 ppp, l'image sera de 300x300.
- On a une image de 300x300 que l'on veut imprimer. Si lors de l'impression on
a une résolution de 300 ppp, l'image obtenue sur papier sera de 1 pouce sur
1 pouce; une résolution de 150 ppp donnera une image de 2 pouces sur 2
pouces.
Exercice 1:
On a une image de 10 cm sur 5 cm que l'on scanne avec une
résolution de 300 dpi. Quelle sera alors la taille de l'image?
Réponse 1: 1200x600
Exercice 2:
On a une image de 600x600 que l'on veut imprimer. On veut que
l'image imprimée soit de 10 cm sur 10 cm. Comment doit-on choisir la
résolution lors de l'impression?
Réponse 2: 150 ppp
.
Figure 16 : Synthèse soustractive
5. DESCRIPTION D’IMAGE
Deux principes sont applicables pour décrire une image :
1) le premier considère l'image comme un rectangle constitué de points
élémentaires de couleur uniforme, les pixels. Décrire l'image revient alors à
préciser la couleur de chaque point. Le fichier graphique sera une liste de
nombres binaires, correspondants à ces couleurs, précédée par un en-tête
(header) décrivant la méthode utilisée. On peut en effet imaginer plusieurs
façons de décompter les points. Ce principe est celui des images dites
numériques ou bitmap
Un dessin bitmap est tracé en "escalier" donc le Zoom délicat voire même
impossible, composé d’une seule couche visible et la modification très
délicate
POUR : CONTRE :
autorise la qualité Les fichiers sont encombrants.
photographique. Leur agrandissement provoque un effet de
mosaïque (les pixels agrandis deviennent des carrés
visibles).
La création d'une image "à la souris" est difficile.
Usage conseillé d'un périphérique de numérisation :
scanner, digitaliseur, appareil photonumérique...
Les retouches sont délicates : effacer un élément
de l'image crée un "trou".
Donc dans une image en format vectoriel, chaque forme est définie
par une équation mathématique.
Les fichiers image en mode point sont faits d'une mosaïque d'éléments
d'image appelés pixels. Chaque pixel contient les informations concernant la
Caractéristiques :
Se caractérise par son aspect "VIRTUEL", l’image est (re)calculée à
chaque affichage. Possibilité de transformer les fichiers en mode
bitmap.
Nécessité d’un PC puissant pour les images complexes.
Pire que pour le Bitmap : presque chaque logiciel propose son format.
Les formules mathématiques utilisées variant considérablement, il est
presque impossible de récupérer et de convertir une image vectorielle
provenant d'un autre programme. Encore plus que les Bitmap, les
formats vectoriels évoluent et il n'est pas toujours facile de lire un fichier
avec une extension théoriquement reconnue...
Ce type de format permet d'éditer les différents objets d'une image
indépendamment : les images peuvent être modifiées sans perte de
résolution et la taille des fichiers est relativement petite.
Ces équations mathématiques font en sorte qu'une illustration
vectorielle peut être redimensionnée sans pour autant subir une
altération. Donc contrairement aux images bitmap, il n'y a pas d'effet
de pixellisation lors de l'agrandissement d'un dessin vectoriel, qui peut
être affiché ou imprimé à n'importe qu'elle résolution.
Une illustration vectorielle n'est pas tributaire de la résolution du
périphérique de sortie. Seuls les dégradés de couleurs et les couleurs
contenus dans l'illustration peuvent être sensibles à la résolution du
périphérique.
POUR : CONTRE :
Les fichiers sont petits. Inutilisables pour des images
Les images sont redimensionnables sans perte complexes, des
de qualité, les courbes sont lissées quelque soit photographies.
l'échelle d'affichage. Non reconnues par les
Les retouches sont aisées puisque les différents navigateurs Internet et par
éléments de l'image sont indépendants. certains logiciels multimédia.
6. FORMAT D'IMAGES
Un format d'image comprend en général un en-tête qui contient des
données sur l'image (taille de l'image en pixels par exemple) suivie des
données de l'image. La structuration des données est différente pour chaque
format d'image.
Tout d'abord, l'image qui doit être compressée est divisée en matrices de 8
pixels sur 8 soit de 64 pixels chacune, qui sont traitées individuellement.
Ensuite, tous les octets signifiant la luminance sont conservés tandis que seul 1
octet pour la différence de rouge et 1 octet pour la différence de bleu sont
conservés par sous-matrice de 4 * 4 pixels. A ce stade-ci de la compression, la
Enfin, le JPEG utilise les méthodes de Huffman et du RLE pour coder les octets
résultant de l'opération de compression destructrice.
Transparence
Ce format ne supporte pas la transparence. La raison en est que pour qu'une
transparence existe, il faut "indiquer" dans le fichier que les pixels de telle ou
telle couleur ne seront pas affichés à l'écran lors de la lecture des données de
l'image. Le problème est que lorsque la compression s'effectue avec perte, à
la décompression un pixel peut très bien ne pas avoir la même couleur, ce
qui signifie que l'effet de la transparence pourrait changer après
compression, chose qui n'est pas acceptable.
Entrelaçage
Ce format supporte l'entrelaçage. La visualisation de l'image s'effectue
d'abord à très faible qualité (faible encombrement) puis la qualité augmente
au fur et à mesure des passages jusqu'à atteindre la qualité finale de l'image.
Animation
Ce format ne supporte pas les animations.
Usages
Représentation de prédilection: les images "naturelles" avec des grands
dégradés de couleurs (transition douce de couleurs).
Internet
La norme JPEG 2000 définit le codage des images numériques et est destinée
à supplanter la norme JPEG. L'extension des images au format JPEG 2000 est
.jp2.
L'originalité du JPEG 2000 est qu'il permet de compresser les images avec ou
sans perte(s) d'informations. La norme ne décrit cependant que la méthode
de décompression qui doit être utilisée pour les images de ce format.
Compression
que les pixels de l'image sont très différents les uns des autres, un phénomène
rare dans une image. Ensuite vient l'étape de quantification où se produit la
destruction des fréquences les plus hautes sont éliminées en fonction d'un
taux de compression donné. Néanmoins, si la compression est non
destructrice, l'étape de quantification n'est pas effectuée.
Le JPEG 2000 est la meilleure méthode de compression des images qui existe
à ce jour. Pour un même taux de compression, la quantité d'information
pertinente préservée est supérieure à celle permise avec le JPEG. Elle permet
également d'appliquer des taux de compression différents sur une même
image. Certaines parties de l'image peuvent ainsi être plus ou moins
compressées en fonction de leur niveau de détail respectif. Cependant, un
inconvénient majeur du JPEG 2000 est l'apparition de zones floues sur l'image
compressée à un taux trop élevé.
Le PNG est un format d'images numériques libre de droits, normalisé par l'ISO,
qui utilise la compression sans perte. L'extension des images PNG est .png.
Pour une qualité d'image semblable, les images PNG ont une taille beaucoup
plus petite comparée à celle des images au format GIF. Mais, dès que le
codage des images PNG s'effectue sur plus de 8 bits, ce format est supplanté
par le JPEG et le JPEG 2000. Néanmoins, les images PNG peuvent être
codées jusqu'à 48 bits ce qui rend leur palette très riche en nuances.
Compression
La compression est sans perte et réputée pour son efficacité...
Transparence
La transparence est supportée avec la possibilité d'utiliser des masques (fusion
de 2 images)
Entrelaçage
L'affichage interlacé est possible.
Animation
Le format PNG ne supporte pas les animations. Il existe cependant son
équivalent qui supporte les animations: le format MNG. Sa définition étant très
récente, son principal inconvénient est d'être inconnu de la plupart des
logiciels...
Usages
Tous usages et internet.
Compression
L'algorithme de compression permet une compression sans perte mais dont
l'efficacité dépend de plusieurs facteurs:
- de l' existence de zones "homogènes". Une image avec des zones très
homogènes permettra une compression importante alors qu'une image avec
des zones hétérogènes permettra une compression beaucoup moins
importante.
- de l'orientation de l'image:
Exemple de la même image dont l'orientation varie:
Ceci est simplement dû au fait que la lecture des données de l'image se fait
en commençant par le pixel en haut et à gauche et se fait en ligne.
Pour l'image de gauche, la couleur des pixels de la première ligne est
homogène (donc facile à compresser) , alors que pour celle de droite, la
couleur des pixels de la première ligne varie grandement (plus difficile à
compresser).
Transparence
La transparence est possible.
Entrelaçage
L'entrelaçage fait que les images ont en général un poids en octets plus
important que celles dont les données ne sont pas entrelacées (différence
qui peut parfois s'avérer relativement importante).
Animation
Les animations sont supportées par ce format (attention à l'entrelaçage).
Usages
Format d'images typiquement à utiliser pour les logos, ou tout ce qui contient
peu de nuances de couleurs et avec des transition de couleurs brusques.
Internet
Entrelaçage
Ce format ne supporte pas l'entrelaçage.
Animation
Ce format ne supporte pas les animations.
Usage
Tous usages (sauf internet).
Format non utilisé sur internet car trop volumineux.
7. COMPRESSION DE DONNEES
La compression consiste à réduire la taille physique de blocs d'informations. Un
compresseur utilise un algorithme qui sert à optimiser les données en utilisant des
considérations propres au type de données à compresser; un décompresseur est
donc nécessaire pour reconstruire les données originelles grâce à l'algorithme
inverse de celui utilisé pour la compression.
La méthode de compression dépend intrinsèquement du type de données à
compresser : on ne compressera pas de la même façon une image qu'un
fichier audio...
7.1. Caractérisation de la compression
La compression peut se définir par le quotient de compression, c'est-à-dire le
quotient du nombre de bits dans l'image compressée par le nombre de bits
dans l'image originale.
Le taux de compression, souvent utilisé, est l'inverse du quotient de
compression, il est habituellement exprimé en pourcentage.
Principe de fonctionnement :
Le principe général est très simple à comprendre : l’idée est que toute image
est un ensemble fini de transformations géométriques (rotations, translations,
agrandissements, réductions) appliquées aux sous-ensembles de motifs
identiques et de tailles variables qui la composent. La compression fractale
consiste donc à remplacer l’image toute entière par une série de formules
mathématiques qui permettent de la recomposer dans son entièreté. Le
succès de l’opération de compression est par conséquent proportionnel à
Avantages :
Désavantages :
Le codage de Huffman
Principe de fonctionnement :
former les noeuds du graphe jusqu'à ce qu'il n'y ait plus qu'un seul noeud,
soit la racine. Les noeuds sont ainsi formés par la somme de chaque
fréquence d'apparition de ses deux feuilles ou de ses deux noeuds-
descendants directs. Puis, les branches de l'arbre - c'est à dire les liens qui
unissent les noeuds - se voient attribuer soit le chiffre 1, soit le chiffre 0 selon
ce principe : le lien qui unit le noeud signifiant la fréquence la plus élevée
avec son noeud-ascendant se voit attribuer le chiffre 1, les autres le chiffre
0. En fin de compte, les octets compressés sont par codés par les chiffres
attribués aux liens, qui sont alignés en remontant depuis le noeud-racine
jusqu'aux feuilles terminales.
Illustration :
Par exemple, le mot "JULONOVO" compte 1 fois les lettres "J, U, L, N, V" et 3
fois la lettre "O". Les lettres sont donc codées comme suit : J : 000 ; U : 001 ;
L : 010 ; N : 011 ; V : 10 ; O : 11. Le caractère "O" qui apparaît le plus
souvent reçoit un code plus court que les autres.
Principe de fonctionnement :
Par exemple, dans une image codée sur 1 bit, les pixels de l'image
peuvent prendre 2 valeurs soit le noir (codée par 1) soit le blanc (codé par
0). Si x = 5, la séquence de pixels "00000111100110011000011111111"
devient, une fois compressée, "5041#20#10#20#104081".
Ce sont Abraham Lempel et Jakob Ziv qui ont inventé, en 1977, le premier
algorithme de compression de cette famille sous le nom de Lempel-Ziv-77
ou LZ77. LZ77 connut rapidement une nouvelle version : le LZ78. Dans les
années 80, Terry Welch modifia les LZ* pour créer le Lempel-Ziv-Welch ou
LZW.
Le Son
Fonctionnement de la
carte son
énoncer le - Tableau et Formative
échantillonnage
traitement numérisé support de
du son cours
Le Son
Le son est une onde produite par la vibration mécanique d'un support
fluide ou solide et propagée grâce à l'élasticité du milieu environnant sous
forme d'ondes longitudinales.
Un son est la sensation provoquée sur nos oreilles par de l'air en
déplacement, c'est-à-dire des vibrations d'air. Pour que l'air vibre il faut que
quelque chose l'agite, c'est le rôle joué par la source sonore.
1. PROPAGATION DU SON
Dans un milieu compressible, le plus souvent dans l'air, le son se
propage sous forme d'une variation de pression crée par la source sonore.
Notons que seule la compression se déplace et non les molécules d'air,
Les ondes sonores se déplacent à environ 344 mètres par seconde dans de
l'air à 20 °C.
Le son ne se propage pas dans le vide, car il n'y a pas de matière pour
supporter les ondes produites, le son se propageant grâce aux déplacements
des molécules d'air. C'est une onde dite longitudinale, car les points matériels
se déplacent dans le même sens que le déplacement de l'onde
2. CARACTERISTIQUES DU SON
Un son est caractérisé essentiellement par trois paramètres : la hauteur, le
timbre et le volume.
2.1. Hauteur
La hauteur est le paramètre qui permet de différencier un son aigu d'un son
grave. La caractéristique d'un son aigu est qu'il fera vibrer l'air plus souvent
qu'un son grave. On dit qu'un son aigu a une fréquence élevée alors qu'un
son grave a une fréquence basse.
La fréquence d'un son s'exprime en hertz, c'est-à-dire le nombre de vibrations
par seconde. Un son qui vibre à une fréquence de 1000 vibrations seconde à
une fréquence de 1000 Hz.
2.2. Timbre
Le timbre est le paramètre qui permet de différencier un son d'un autre son.
Un piano a un timbre différent de celui d'un violon, peu importe la fréquence.
Ceci nous permet d'introduire la notion d'onde. L'onde est en quelque sorte la
représentation graphique des mouvements que fait notre tympan lorsqu'il est
actionné par des vibrations d'air. La hauteur d'un son a une influence directe
sur la forme de son onde.
2.3. Volume
Le volume est la force avec laquelle l'air frappe le tympan. Sur une forme
d'onde, il se traduit par une amplitude plus grande :
2.4. Espace-temps
Comme tous les phénomènes perçus, le temps joue un rôle fondamental
pour l'acoustique Il existe même des relations très étroites entre l'espace et le
temps, vu que le son est une onde qui se propage dans l'espace au cours du
temps.
On distingue trois grandes classes de signaux acoustiques :
périodiques, dont la forme se répète à l'identique dans le temps ;
aléatoires, qui n'ont pas de caractéristiques périodiques.
impulsionnels : qui ne se répètent pas dans le temps et ont une forme
déterminée.
3.2. Quantification :
Numériser un signal analogique (par exemple audio) implique qu'on doit le
coder à l'aide d'un nombre fini de symboles; c'est l'opération de
quantification.
Le nombre fini de symboles implique une quantité de valeurs possibles du
signal limitée.
Quantifier un signal revient à approximer sa valeur instantanée par la valeur
discrète la plus proche. On commet donc une erreur.
Plus le nombre de valeurs numériques possibles est élevé, plus la valeur
discrète sera proche de la valeur instantanée; le signal quantifié sera donc
plus fidèle à l'original.
Par exemple, un signal codé sur 8 bits peut prendre 256 valeurs différentes, sur
16 bits, on passe à 65536 valeurs possibles et sur 24 bits, 16777216 valeurs. On
utilise généralement un nombre de pas de quantification étant une
puissance de deux, ce qui permet de le coder facilement en binaire.
Rapport signal-sur-bruit de quantification
Lorsque l'on effectue une approximation du signal original, on commet
forcément une erreur relativement à la représentation originale du signal.
Cette erreur est appelée erreur de quantification.
A cette erreur de quantification est associée, lors de l'écoute, une
perturbation, que l'on appelle bruit de quantification.
L'effet du bruit de quantification relativement au signal original constitue ce
que l'on nomme le rapport signal-sur-bruit de quantification.
Formule de Shannon pour le calcul de rapport signal-sur-bruit:
Avec :
D : débit en bps
W : bande passante
S : signal
B : bruit
Exemple :
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
4. LA LECTURE EN CONTINU
La lecture en continu (en anglais : streaming), aussi appelée diffusion de flux
continu, désigne un principe utilisé principalement pour l'envoi de contenu en
léger différé. Très utilisée sur Internet, elle permet la lecture d'un flux audio ou
vidéo (cas de la vidéo à la demande) au fur et à mesure qu'il est diffusé. Elle
s'oppose ainsi à la diffusion par téléchargement de fichiers qui nécessite de
récupérer l'ensemble des données d'un extrait vidéo avant de pouvoir
l'écouter ou le regarder. Néanmoins la lecture en continu est, du point de vue
théorique, un téléchargement, mais le stockage est provisoire et n'apparaît
pas directement sous forme de fichier sur le disque dur du destinataire. Les
données sont téléchargées en continu dans la mémoire vive (RAM), sont
analysées à la volée par l'ordinateur et rapidement transférées dans un
lecteur multimédia (pour affichage) puis remplacées par de nouvelles
données.
5. LA CARTE DE SONS
Une carte de son est une carte d'extension d'ordinateur qui traite les
signaux audio qui sortent de l'ordinateur pour les envoyer vers les haut-
parleurs. Mais elle peut également servir à interpréter les signaux audio qui
entrent dans l'ordinateur (micro, entrée ligne, etc.). Dans ce cas, elle
transforme un signal analogique en signal numérique.
Aujourd'hui, une carte son standard possède une sortie stéréo au format mini
jack, une entrée ligne stéréo ainsi qu'une prise micro. Ce type de carte sera
suffisant pour une utilisation bureautique, ou bien encore surfer sur Internet et
écouter un peu de musique occasionnellement.
D'autres cartes offrent le double stéréo. Sous Windows, cela n'a que peu
d'intérêt, on pourra simplement brancher deux paires d'enceintes.
Par contre, dans les jeux vidéo ou même dans les DVD Vidéo, chaque voix
pourra être gérée indépendamment si le logiciel le permet.
avez de voix, plus les effets sonores seront impressionnants, parce que
reproduit avec plus de détails.
Contre Volumineux,
Contre limité à 2 Go
Non comprimé,
Fichiers son de haute qualité
Pour
Devenu le premier format d’échange multiplateformes.
Jusqu'à 44,1 kHz en 16 bits.
zones dans la bande passante dont les fréquences sont inaudibles par l’oreille
humaine.
6.9. Quicktime
Destiné à l’origine à l’environnement Macintosh.
Il est aujourd’hui disponible sur PC et peut être utilisé pour réaliser du
streaming.
Le suffixe des fichiers créés est .MOV ou .QT
Les données MIDI ne sont pas des données audio, mais des instructions de
déclenchement et de déroulement de sons générés par un synthétiseur.
L'avantage de cette technique tient dans la taille des données à transmettre
qui sont bien plus légères que de l'audio numérisé, mais le résultat écouté par
l'utilisateur dépend fortement de la qualité des sons implémentés sur sa carte
audio.
7. CINEMA MAISON
Le Cinéma maison (en anglais Home cinema ou Home theater) est une mini-
salle de cinéma qui s'installe chez soi, réalisée en général avec le meilleurs
solutions de confort, d'acoustique et de restitution du son Hifi et d'image
vidéo grand format. Le cinéma maison est adapté au visionnage d'émissions
télévisées et de films (sur DVD notamment ou plus récemment support Haute
définition), à l'écoute de musique, ou encore à la pratique du jeu vidéo.
Le terme est parfois utilisé pour décrire un ensemble comprenant un simple
téléviseur associé à un système acoustique à quatre enceintes ou plus et à un
lecteur de dvd. Les détaillants de produits Hi-fi nomment souvent cinéma
maison les ensembles acoustiques seuls.
La réalisation d'un tel lieu fait appel en général aux meilleurs appareils de
Audio HiFi Vidéo
Son
Deux enceintes latérales pour les effets sonore surround (Dolby surround
par exemple)
Deux enceintes arrière pour les effets sonore surround
Un Caisson de basse pour appuyer les enceintes dans les sons graves et
infra
Source Image
Diffusion d'image
8. LE SON MULTICANAL
Le son a bouleversé l'équipement des salles de cinéma. Ces dernières
années, les nombreux cinémas Multiplex ont ainsi permis de faire remonter la
pente à cette industrie.
Il est logique que, les films bénéficiant de bandes son de plus en plus
sophistiquées, les concepteurs cherchent à trouver des moyens de restituer
cette richesse à domicile. Les laboratoires Dolby ont toujours été à la pointe
de ces travaux. On leur doit la plupart des standards du moment. La société
Lucas Film a participé à ce développement en mettant au point le label THX
qui définit une extension du standard Dolby. Afin de s'y retrouver parmi tous
ces labels et formats, voici quelques informations synthétiques
Les anciens formats sont encore proposés sur certains DVD ou sur
les VHS, pour les films n'utilisant pas les encodages multicanaux.
On trouve ainsi les symboles de signal mono ou stéréo.
Dolby ProLogic
Le Dolby Digital
Virtual Speaker est
conçu pour donner la
sensation d'un son
surround enveloppant
avec une simple paire
d'enceintes. Ce
procédé de traitement
numérique du signal
Le THX Ultra est une extension du THX pour garantir une qualité
meilleure: grande puissance sur tous les canaux, niveau de 105dB
sans distorsion... Auparavant conçu pour les studios
d'enregistrement, ce format est disponible aujourd'hui chez
l'amateur passionné.
Le THX Select est une déclinaison plus facile à vivre du THX pour
garantir une bonne qualité tout en utilisant des enceintes plus
petites et plus faciles à placer.
La vidéo
Ce cours vise à :
Définir vidéo
Présenter la vidéo
analogique - Tableau et Formative
Définir PAL/SACAM et support de
distinguer entre la cours
vidéo analogique et la NTSC
vidéo numérique , Présenter la vidéo
numérique
Les signaux vidéo à
composantes
Eliminer la
redondance spatiale
reconnaître les Eliminer la - Tableau et Formative
différents modes de redondance support de
compression temporelle cours
La Vidéo
Une vidéo est une succession d'images à une certaine cadence. L'oeil
humain a comme caractéristique d'être capable de distinguer environ 20
images par seconde. Ainsi, en affichant plus de 20 images par seconde, il est
possible de tromper l'oeil et de lui faire croire à une image animée.
1. GENERALITES
Il existe deux grandes familles de systèmes vidéo : les systèmes vidéo
analogiques et les systèmes vidéo numériques.
NTSC
La norme NTSC (National Television Standards Committee), utilisée aux Etats-
Unis et au Japon, utilise un système de 525 lignes entrelacées à 30 images/sec
(donc à une fréquence de 60Hz).
8% des lignes servent à synchroniser le récepteur. Ainsi, étant donné que le
NTSC affiche un format d'image 4:3, la résolution réellement affichée est de
640x480.
PAL/SECAM
Le format PAL/SECAM (Phase Alternating Line/Séquentiel Couleur avec
Mémoire), utilisé en Europe pour la télévision hertzienne, permet de coder les
vidéos sur 625 lignes (576 seulement sont affichées car 8% des lignes servent à
la synchronisation). à raison de 25 images par seconde à un format 4:3
Or à 25 images par seconde, de nombreuses personnes perçoivent un
battement dans l'image. Ainsi, étant donné qu'il n'était pas possible d'envoyer
plus d'informations en raison de la limitation de bande passante, il a été
décidé d'entrelacer les images, c'est-à-dire d'envoyer en premier lieu les
lignes paires, puis les lignes impaires.
2. LA COMPRESSION VIDEO
Le principe fondamental de la compression vidéo est de réduire autant que
possible les redondances d'informations dans les données
Dans une séquence vidéo, il existe deux sortes de redondances :
La redondance spatiale
Réside dans chaque image prise indépendamment des autres. On
peut diminuer cette redondance en codant chaque image séparément en
JPEG. Cette approche est parfois la seule utilisée lorsqu'on a besoin de
pouvoir accéder de façon aléatoire (c'est-à-dire non séquentielle) à chaque
image individuellement, comme par exemple lors d'un montage vidéo. On
parle alors de MJPEG (Motion JPEG).
La redondance temporelle
Si deux images qui se suivent dans une séquence vidéo sont quasiment
identiques : c'est la redondance temporelle. Le but est alors de ne stocker
que ce qui est modifié lors du passage d'une image à une autre. Les images
ainsi compressées sont de deux types :
les images I (images Intracodées) sont des images complètes
codées en JPEG, on les appelle aussi images-clés.
Les images P (images Prédictives) ne contiennent que les pixels
modifiés par rapport à l'image précédente
2.1.5. Le MPEG
Dans la plupart des séquences vidéos, la majorité des scènes sont fixes
ou bien changent très peu, c'est ce qui s'appelle la redondance temporelle.
il suffit donc de ne décrire que le changement d'une image à l'autre. C'est là
la différence majeure entre le MPEG (Moving Pictures Experts Group) et le M-
JPEG. Cependant cette méthode aura beaucoup moins d'impact sur une
scène d'action.
peuvent être référencés soit par une image qui précède, soit par
une image qui suit, explique le gain considérable d'espace lors
de l'opération de compression.
Bibliographie
Concepts multimédia
http://tecfa.unige.ch/tecfa/teaching/staf13/fiches-mm/modelecouleurs.htm
http://www.loria.fr/~ssidhom/ue503-L3-
http://fr.wikipedia.org/wiki/son
http://www.e-supnet.com/Avoscours/Conseils/ReconaitreFormatFichier.html
http://perso.univ-lr.fr/pcourtel/espadon/site_web/Ch1/page1.htm
http://www.bretagne-traiteur.com/pdf/2007-04-20Intro.pdf
http://www.perso.orange.fr/mondouis/v_ou_b.htm
http://www.commentcamarche.com/format/analog.php3
http://www.commentcamarche.com/video/video.php3
http://urfist.enc.sorbonne.fr/anciensite/image_numerique/format.htm
http://www.cours-photophiles.com/index.php/le-traitement-
dimage/imagerie-numerique-.html
http://www.researchgate.net/profile/Christian_Roux2/publication/228551524_
Technologies_du_Multimdia/links/548db2170cf214269f24348e.pdf
http://a.l.a.i.n.over-blog.com/pages/Presentation_du_graveur_de_CDROM-
1609242.html
http://www.vulgarisation-informatique.com/moniteur.php
http://multimedia.ulb.ac.be/i135g1/CompressionNumerique/AvecPertes.htm
http://www.techno-science.net/? >http://www.popai.fr/popai-digital-glossaire.htm
http://www.carrecouleur.fr/fr/ecran.php
http://deschamp.free.fr/exinria/CMTI/glossaire.html