Title: LIMITES FUNDAMENTALES DE LA
1LIMITES FUNDAMENTALES DE LA INFORMACION Y LA
COMUNICACION CODIGOS TURBO
Dr. Edwin Marengo Ph.D. in Electrical
Engineering Fernando Merchan
Junio, 2003
2Publicado el ano siguiente como the mathematical
theory of communication conjuntamente con Weiver,
por la universidad de illinois se popularizo.
Uno de los trabajos mas trascendentales,
influyentes del siglo 20 fue este trabajo del
doctor shannon de los laboratorios de la bell.
Reconocido unanimemente como la carta magna (El
manifiesto) de toda la era de la informacion en
la que vivimos.
TeorÃa de la información
A mathematical theory of communication, Bell
System Technical Journal, 1948.
La Carta Magna de la era de la información.
3Teoremas de Shannon
- Teorema de codificación sin ruido
- (noiseless coding theorem)
- Indica cuánto se puede comprimir un mensaje, o
cuán - redundante es la data.
- Teorema de codificación de canal con ruido
- (noisy channel coding theorem)
- Indica a qué rata (bits por uso del canal) puede
- transmitirse con error arbitrariamente bajo,
- o cuánta redundancia mÃnima hay que añadir
- a fin de transmitir con error arbitrariamente
bajo.
4El Sistema de Comunicación
Decision maker
Canal de comunicación o almacenamiento
Fuente
Mensaje (señal) transmitida
Mensaje decodificado (estación de recepción)
Mensaje alterado por ruido del canal
5El Sistema de Comunicación
Mensaje original
Codificador de fuente
Fuente
Mensaje comprimido
Codificador de canal
Decodificador de canal
Canal
Mensaje redundante para el canal
Decodificador de fuente
Usuario receptor
Mensaje original
6El Sistema de Comunicación
Mensaje con redundancia adicional para corrección
de errores en el canal (redundancia depende de
la estadÃstica del canal)
10101010 11010010 10110001 10111001 01001011 10101
011 01101011
11001100 10110101 10111011 10101011 10010101 01000
110
11011 01100 10101 00110
Al canal
Mensaje comprimido (elimina redundancia en la
fuente)
Pérdidas, flips,etc.
Mensaje de la fuente
Codificación en un paso o en dos
Depende de la estadÃstica de la fuente.
7El Sistema de Comunicación
10101010 11010010 10110001 10111001 01001011 10101
011 01101011
Lado de la transmisión...
11001100 10110101 10111011 10101011 10010101 01000
110
11011 01100 10101 00110
Al canal
Pérdidas, flips,etc.
10101010 11010010 10110001 10111001 01001011 10101
011 01101011
Mensaje digital
11001100 10111101 10111011 11101011 11010101 01000
110
Mapeo inverso
11011 01100 10101 00110
Mensaje análogo
Del canal
Lado de la recepción...
Mensaje reconstruÃdo
Codificación de fuente con o sin pérdida
8La Fuente
Vamos a tratar la salida de la fuente como una
variable aleatoria X cuyos posibles valores son
x?S (Salfabeto de sÃmbolos), con probabilidades
P(Xx)p(x).
1
0
1
0
Mensajes secuencias de 0s y 1s
Fuente (binaria)
. . .
Salida de la fuente a cada instante X
S0,1 espacio de posibles sÃmbolos (alfabeto)
Caso especial
0
1
P(X0)p(0)p P(X1)p(1)1-p(0)1-p
9Secuencias Producidas por la Fuente
Secuencia de n bits XX1 X2 Xn
e.g., x101010
Realización particular
x?S x?Sn
S
S
S
0
0
0
?
?
?
Sn
. . .
1
1
1
e.g., S200,01,10,11 Sntodas las secuencias
de n bits
Número Sn de elementos en Sn 2n en el caso de
S binario.
10Secuencias Producidas por la Fuente
1
0
1
0
Fuente (binaria)
. . .
P(X0)p(0)p P(X1)p(1)1-p(0)1-p
Weak law of large numbers (WLLN)
Para secuencias largas (n grande) Número de
0s en la secuencia ? np Número de 1s en la
secuencia ? n(1-p) Proporción de 0s en la
secuencia ? p en probabilidad cuando
n?? (Probabilidad ? 1)
Es más, cada una de tales secuencias es
equiprobable.
11Secuencias Producidas por la Fuente
Secuencias probabilÃsticamente tÃpicas (N(0)?np)
10011011010101101011011011110000101011000101011011
0
Las secuencias que ocurren son tÃpicas (con gran
probabilidad).
Secuencias atÃpicas
11111111111111111111111111111111111111111111111111
1
Cuántas secuencias tÃpicas hay?
( )
n
Sntypical n!/(np)!(n-np)! ?
2nH(p)
n??
np
H(p) entropÃa de la fuente -p log p (1-p)
log (1-p) - E log P(X). (caso
general)
12Secuencias Producidas por la Fuente
Large n
Sn
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
P(tÃpica)?1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Sntypical
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Sntypical?2nH(p)
Sn2n
Nota Probabilidad de cada secuencia que ocurre
es igual, P(Xx?Sntypical)?2-nH(p)
Espacio de todas las secuencias
13Codificación de Fuente
Secuencias largas... secuencias tÃpicas
Fuente
11010101001101010001101010110...
Sn
.
Sntypical
14Codificación de Fuente
Fuente
110...
Canal sin pérdida e.g., almacenamiento.
110...
- Almacenar cada bit de salida de la fuente.
- Ineficiente.
15Codificación de Fuente
- Dejar que la fuente produzca secuencias largas
Fuente
11010101001101010001101010110...
Probablemente tÃpica
- Identificar qué secuencia tÃpica se produjo
Número Sntypical de tales secuencias ? 2nH(p)
- Asignar una secuencia binaria única a cada
secuencia - tÃpica, i.e., necesitamos ?nH(p)? dÃgitos.
Almacenamiento
n bits
?nH(p)? bits
Codifica- dor
Fuente
Transmisión
Compresión H(p)?logS Para S2, H(p)?1
16Codificación de Fuente
- Dejar que la fuente produzca secuencias largas
Fuente
11010101001101010001101010110...
Probablemente tÃpica
Libro de todas las 2n secuencias (raw data)
17Codificación de Fuente
- Dejar que la fuente produzca secuencias largas
Fuente
11010101001101010001101010110...
Probablemente tÃpica
Secuencias tÃpicas
18Codificación de Fuente
Libro de secuencias tÃpicas
Libro de código (codebook)
Secuencia original
Palabra código (codeword)
11010101001101010001101010110...
111111111111
L n bits
nH(p)? L ? nH(p)1
Length per symbol L/n 1
H(p)? Length per symbol L/n lt H(p)1/n
19EntropÃa
H(X) Medida de incertidumbre de X
X
?
más incertidumbre más información
20EntropÃa
H(X) Reducción en incertidumbre de X después de
revelar X
Información extraÃda
X
a
b
c
d
21Información Mutua
Muestras (samples) de la misma variable aleatoria
X (salida de la fuente).
Y
(otra variable)
X
?
22Información Mutua
Muestras (samples) de la misma variable aleatoria
X (salida de la fuente).
Y
(otra variable)
X
?
X
Y
Transmisor
Receptor
ruido
Cuánta información sobre X está contenida en Y?
Información mutua I(XY) de X, Y
23Información Mutua
H(XY) -Ep(x,y) log p(XY) -?x,y p(x,y) log
p(xy)
Información ganada sobre X por conocimiento de Y
es I(XY) H(X) H(XY)
Información mutua
I(XY)
H(XY)
H(YX)
H(X)
H(Y)
24El Canal Matemático
Sin memoria
Salida del codificador de fuente
Canal
W
Xn
Yn
W
Decodifica- dor
Codificador (de canal)
p(yx)
Mensaje
Estimado del mensaje
Secuencia de sÃmbolos de canal, e.g., S0, 1
25El Canal Matemático
Sin memoria
Salida del codificador de fuente
Canal
W
Xn
Yn
W
Decodifica- dor
Codificador (de canal)
p(yx)
Mensaje
Estimado del mensaje
Secuencia de sÃmbolos de canal, e.g., S0, 1
Posibles Y
1-f-q
0
0
Canal binario con borrado (Binary erasure
channel)
q
S0,1 conjunto de valores de X
f
e
f
Probabilidades condicionales fP(Y1X0) qP(Ye
X0)
q
1
1
1-f-q
Diagrama de transiciones
26El Código de Canal
Sin memoria
Salida del codificador de fuente
p(x)
Canal
W
Xn
Yn
W
Decodifica- dor
Codificador (de canal)
p(yx)
Mensaje
Estimado del mensaje
Secuencia de sÃmbolos de canal, e.g., S0,
1 Medida de probabilidad p(x)
CODIGO
a
a
110010
110000
b
b
c
c
27El Código de Canal
Sin memoria
Salida del codificador de fuente
p(x)
Canal
W
Xn
Yn
W
Decodifica- dor
Codificador (de canal)
p(yx)
Mensaje
Estimado del mensaje
Secuencia de sÃmbolos de canal, e.g., S0,
1 Medida de probabilidad p(x)
CODIGO
a
a
110010
110000
b
b
M señales (equiprobables)
n
c
c
Rata del código R log M / n
(bits/usos)
bits de información
usos del canal
28Definición Capacidad Informática
Información mutua
C max p(x) I(XY)
Sobre las distribuciones a la entrada
29Teorema de Codificación de Canal
- Teorema directo Si RltC, entonces ? código
(M,n), M2nR, - con máxima probabilidad de error Pe(n)?0.
- Teorema inverso Para cualquier código (2nR,n)
con - Pe(n)?0, entonces R?C.
C
Importancia Realizabilidad.
R
Importancia LÃmite máximo (upper bound) de la
rata R para transmisión sin error.
Rata R máxima de transmisión C
30Teorema de Codificación de Canal
Nota Transmisiones individuales pueden tener
error.
Canal
0
1
Transición 0?1
Y
X
31Teorema de Codificación de Canal
Clave Usar bloques largos.
Canal
1100101110101101
Palabra código
Y
X
32Teorema de Codificación de Canal
Canal
?
?
?
?
?
?
110010111010101
110010111010101
Xn
Yn
(espacio)
33Teorema de Codificación de Canal
Canal
?
?
?
?
?
?
110010111010101
110010110010001
Xn
Yn
Secuencias modificadas, i.e., errores
34Teorema de Codificación de Canal
M sÃmbolos de fuente
1
2
Canal
3
?
?
?
?
?
?
110010111010101
110010110010001
M
Xn
Yn
Codificación
35Teorema de Codificación de Canal
M sÃmbolos de fuente
1
1
2
2
Canal
3
3
?
?
?
?
?
?
110010111010101
110010110010001
M
M
Xn
Yn
Rata R log M / n
Codificación
Decodificación
36Teorema de Codificación de Canal
M secuencias
2n
SÃmbolo
Xn
Yn
37Teorema de Codificación de Canal
Concepto Tipicalidad
SÃmbolo
Xn
Yn
38Teorema de Codificación de Canal
Concepto Tipicalidad
2nH(YX)
SÃmbolo
Secuencias tÃpicas de salida 2nH(Y)
Xn
Yn
2nH(YX)
39Teorema de Codificación de Canal
Concepto Tipicalidad
Xn
Yn
Queremos evitar overlap Para tener Pe?0
Número M de señales discernibles 2nH(Y) /
2nH(YX)
Rate R log M / n H(Y)-H(YX) I(XY)
mutual info.
Max. R max. I(XY)
40Conclusión
Realización
Compresión de Data
LÃmites
(Rate distortion theory)
TEORIA DE LA INFORMACION
41Conclusión
Comunicaciones, Codificación de
Canal, Codificación Combi- nada
Realización
LÃmites
(Differential Entropy, Channel Coding)
TEORIA DE LA INFORMACION
Realización reciente (Turbo codes)
e.g., Canal Gausiano aditivo