Traitement et lments du codage vido Jenny Benois Pineau Universit Bordeaux 1 C3 - PowerPoint PPT Presentation

1 / 35
About This Presentation
Title:

Traitement et lments du codage vido Jenny Benois Pineau Universit Bordeaux 1 C3

Description:

supposons que l'alphabet est fini et contient K symboles alors ... Si u,v sont suppos es ind pendantes, alors une seule quation pour deux inconnues ... – PowerPoint PPT presentation

Number of Views:57
Avg rating:3.0/5.0
Slides: 36
Provided by: jennybeno
Category:

less

Transcript and Presenter's Notes

Title: Traitement et lments du codage vido Jenny Benois Pineau Universit Bordeaux 1 C3


1
Traitement et éléments du codage vidéoJenny
Benois -PineauUniversité Bordeaux -1C3
2
3. Notions de la théorie de linformation
  • Le signal vidéo numérique représente des énormes
    volumes dinformation
  • TV numérique ordinaire (4/3) 576x720 CCIR601
    422, 252 ips
  • composante de luminance Y, Fe 13,5 MHz
  • composantes de chrom Cr, Cb Fe 6.675 MHz
  • profondeur 8bits par pixel/composante
  • volume d information 216Mbit/s
  • TV numérique HD (aspect 16/9 (4/3)2)
  • 50 ips, HDP 1250x1920
  • volume d information 2,304 Gbit/sec
  • WEB TV, TV ANYTIME ????
  • Pour économiser les ressources de stockage et
    réduire la bande passante requise lors de la
    transmission on cherche à comprimer le signal
    vidéo.

3
Quantité dinformation
Soit S une source d informations et xi
(symboles dun alphabet) les valeurs possibles de
l information. On peut le modéliser par une
variable aléatoire X dont les réalisations sont
xi avec une loi de probabilité
Lentropie de la variable aléatoire
Quantité dinformation associée au symbole xi
Ainsi lentropie représente linformation
propre moyenne associé à un processus (source).
4
Propriétés de lEntropie
Propriétés alors
supposons que
lalphabet est fini et contient
K symboles alors Légalité étant obtenue si la
variable aléatoire X est équiprobable
5
Propriétés de lEntropie
Distribution équiprobable
Dénotons . Le produit
est maximal si Ce qui correspond au cas de la
distribution équiprobable. Donc
.
6
Taux de compression
  • Opération de numérisation et de compression du
    signal est aussi appelé  codage de source .
  • Le codage des signaux multimédia nécessite de
    connaître les limites atteignables des taux de
    compression.
  • taux de compression
  • Limites atteignables
  • Le théorème de codage de la source établit quil
    existe un débit binaire (quantité dinformation)
    vers laquelle on peut tendre sans pouvoir
    comprimer la source davantage. Dans le cas dun
    codage sans perte cette limite est donnée par
    lentropie de la source.

7
Codage Entropique
Codage de la source Source X prends ses valeurs
dans le dictionnaire C. On appelle codage de la
source X une application de C dans lensemble des
suites finies de lalphabet 0,1. Le code Le
mot de code La longueur moyenne Théorème
Pour toute source discrète sans mémoire, il
existe un code instantané représentant exactement
la source et uniquement décodable vérifiant Où
H(X) est lentropie de la source et est la
longueur moyenne du code, exprimés en bit par
symbole.
8
4. Compression sans pertes de linformation
vidéo-image
Codage entropique (statistique) Source S discrete
d informations est caractérisée par son entropie
H - Codage de Shannon-Fano - Codage de Huffman -
Codage arithmétique Codage par comptage
(RLC) Applications (1)Pratiquement jamais
directement sur le signal vidéo/image numérique
car une forte variabilité (2)Dans les standards
de codage avec la compression vidéo il est
appliqué aux informations avec une corrélation
importante
9
Codage Entropique de Shannon-Fano (I)
  • Pour tous les symboles de message développer une
    liste correspondante des probabilité
    expérimentales (occurrences)
  • 2) Trier la liste dans lordre décroissant des
    probabilités expérimentales (occurrences)
  • Exemple
  • Message ABEABABABCDCDBAEAAAEAAAABAACACDBDEEDCCDE
  • Liste triée
  • Symbole A B C D E
  • Occurrence 15 7 6 6
    5

10
Codage Entropique de Shannon-Fano (II)
3) Diviser la liste en deux parties, le total des
compteurs deoccurrence de la motié supérieure
devant être aussi proche que possible du total de
al moitié inférieure 4) Affecter le chiffre
binaire 0 à la moitié supérieure de la liste, et
le chiffre 1 à la moitié inférieure de la
liste Symbole Occurrence Somme Code A 15 0 B
7 22 0 ------------------------------------
------------------------- C 6 1 D 6 1 E
5 17 1
11
Codage Entropique de Shannon-Fano (III)
5) Appliquer de façon récursive les étapes 3 et 4
à chacune des deux moitiés, jusquà ce que chaque
symbole soit devenu une feuille Symbole Occurrence
Somme Code A 15 00 -------------------------
------------------------------- II B 7
22 01 -------------------------------------------
-------------- I C 6 10 ---------------------
-----------------------------------
III D 6 110 ---------------------------------
----------------------- IV E 5 17 111
12
Codage Entropique de Shannon-Fano (IV)
Représentation sous forme darbre binaire
13
Codage Entropique de Huffmann (I)
  • 1952. Algorithme optimal pour construire un code
    entropique. On peut montrer quil nexiste pas
    dautre code uniquement décodablede longueur
    moyenne inférieure pour une source discrète sans
    mémoire.
  • Principe construire progressivement larbre
    binaire en partant des feuilles de larbre
    précédent.
  • Initialisation de larbre
  • - Tous les symboles sont les nuds feuilles
  • Chaque noeud a comme poids la probabilité de
    symbole ( occurrence).
  • Liste des nuds libres contient tous les nuds

14
Codage Entropique de Huffmann(II)
  • Construction de larbre
  • Sélectionner les deux symboles noeuds les moins
    probables.
  • Créer le père de ces deux nuds.
  • Poids(père) Poids(FilsGauche)Poids(FilsDroit)
  • Ajouter le nuds-père dans la liste des nuds
    libres et supprimer les nuds fils de la Liste.
  • Étiquetage. Un des fils reçoit 0, lautre 1
  • Si card(Liste)1 alors arrêt. Le seul noeud
    devient la racine

15
Codage Entropique de Huffmann(III)
0
1
Exemple 1)15 7 6 6 5
A B C D E 2) 15 7 6 6 5 A
B C D E
11
0
1
0
1
11
13
16
Codage Entropique de Huffmann(III)
15 7 6 6 5 A
B C D E 0 100 101 110 111

17
Codage Entropique de Huffmann
Comparaison avec le codage de Shannon-Fano
Nécessite la transmission de la table des codes
18
Codage par plages (RLC)
Principe (1)Comptage du nombre
dapparitions consécutives dun mot de message à
coder. (2)Codage à longueur fixe de la valeur
des mots et de nombre dapparitions (3)
Variante introduction de bit-flag
 codé-non-codé . Exemple Message 1 1 1 1
7 7 7 7 7 255 7 1 8 8 8 Code 1 4 1 1 5 7 0 3
255 7 1 1 3 8 Débit initial 15 8 120
bits Débit final 1 3 8 1 3 81 3
38 1 3 8 64 bits Adapté aux images sans
bruit ou les valeurs quantifiées grossièrement.
19
5. Estimation et compensation du mouvement
  • Pourquoi
  • - interpolation de la vidéo basée mouvement
  • - analyse et segmentation
  • -codage hybride utilisation de la redondance
    temporelle

20
Projection du mouvement rigide 3D dans le
plan-image
Hypothèse le mouvement observée dans le plan
image via changements de luminance correspond à
la projection idéale du mouvement 3D des objets
de la scène
21
Mouvement réel/mouvement apparent
a)Insuffisance du gradient spatial MR - oui MA -
non
b)Changements dillumination extérieure MR -
non MA - oui
22
Hypothèse d invariance de luminance
I(x,y,t) - fonction d intensité lumineuse
en l absence de bruit I(x, y, t) I(xdx,
ydy, t?t) d(dx, dy)T, la projection du
déplacement réel 3D dans le plan image.
Le champs vectoriel D(x,y) (dx, dy)T est
appelé le champs dense de déplacement
23
Flot optique
Vecteur de vitesse au point (x,y) correspond au
dt près au vecteur de déplacement
Le champ vectoriel W(x,y) est appelé le flot
optique ou encore champs de vitesse
Par l hypothèse d invariance de luminance
OFE/EQMA
Problème d estimation du FO est mal posé
24
Estimation du mouvement(4)
Sous forme vectorielle
Comme
alors
u v
ECMA
Décomposons ,
est parallèle au gradient local
est orthogonale
Estimation du mouvement est un problème mal posé.
Uniquement le flot optique normal est
observable
25
Estimation du mouvement(5)
Une autre vue
  • Si u,v sont supposées indépendantes, alors une
    seule équation pour deux inconnues
  • problème dunicité de la solution problème
    douverture
  • Problème du bruit dacquisition
  • Problème doccultation

26
Estimation du mouvement(4)
(1)Illustration du  problème douverture 
flot optique normal
flot optique réel
(3) Illustration du  problème doccultation 
Zone découverte pas de correspondance des
pixels avec limage précédente
27
Estimation du mouvement
-Méthodes basées sur l EQMA (différentielles) -Mé
thodes basée sur la minimisation directe de la
DFD ou d une mesure basée DFD - Méthode
directes/méthodes paramétriques
DFD(x, y, d) I(x, y, t) - I(xdx, ydy,
t?t) On cherche dd(?ß) (ß modèle du mouvement
2D, ? ses paramètres) tel que DFD(x, y, d) soit
minimum.
28
Estimation du mouvement dans les algorithmes
normalisés(I)
Approche mise en correspondance (basée
bloc) Critères à optimiser MAD
avec
MSE
I(t-dt)
I(t)
Bloc B
Fenêtre F
29
Estimation par bloc
Objectif obtenir le champ de déplacement éparse
Le FO est supposé constant à lintérieur dun bloc
Le critère à minimiser
ou
It
It-dt
30
Méthode de recherche exhaustive
Estimation  au pixel près 
It-dt
It
Linconvénient majeur coût opératoire
diverses opimisations
31
Méthodes de recherche accélérée
  • Estimation  au pixel près 
  • Recherche à 3 pas,
  • Recherche logarithmique,
  • Recherche à 4 pas
  • . méthodes sous-optimales

Linconvénient majeur le risque datteindre le
minimum local de la fonctionnelle de lénergie.
32
Recherche à trois pas (Koga81)
Principe laffinage du pas de recherche
  • Pas4. Evaluer MAD aux pixels  0  et  1 
  • Si min(MAD) MAD(0) alors bloc stationnaire
  • Sinon
  • 2. PasPas/2. Evaluer MAD aux pixels  2 
  • 3. PasPas/2. Evaluer MAD aux pixels  3 

Fenêtre de recherche 7 pels
33
Recherche à trois pas (Koga81)
  • Modifications
  • comparaison de min(MAD) avec un seuil T
  • Si min(MAD)ltT alors arrêt
  • Sinon recherche autour de la position courante
    avec le pas/2 (recherche  logarithmique ).

Le vecteur de déplacement optimal
34
Estimation du mouvement dans les algorithmes
normalisés(II)
Méthode d estimation recherche
exhaustive Précision d estimation -  au
pixel près  -  au demi-pixel près 
Estimation au pixel près
Estimation au demi pixel près
35
Approches multi-résolution-multi-échelle
1)Construction des pyramides Gaussiennes pour
2) Estimation des paramètres de mouvement
commençant par le niveau le plus élevé
3) Propagation
r -le facteur de sous-échantillonnage
Write a Comment
User Comments (0)
About PowerShow.com