Professional Documents
Culture Documents
Master de cryptographie
Universit Rennes 1
Master Crypto (2008-2009)
5 et 8 janvier 2009
1 / 21
Introduction (1)
Wikipdia
La thorie de l'information se proccupe des systmes d'information, des
systmes de communication et de leur ecacit.
Ce domaine trouve son origine scientique avec Claude Shannon qui en est
le pre fondateur en 1948.
Parmi les branches importantes, on peut citer :
le codage de l'information,
la mesure quantitative de redondance d'un texte,
la compression de donnes,
la correction d'erreurs,
la cryptographie.
Principes de base
L'information diminue l'incertitude
Moins un vnement est probable, plus il contient de l'information
Master Crypto (2008-2009)
5 et 8 janvier 2009
2 / 21
Intoduction (2)
Modles
Source/canal discret ou continu avec ou sans mmoire
Canal bruit ou non bruit
5 et 8 janvier 2009
3 / 21
5 et 8 janvier 2009
4 / 21
Codage2
a1 0
a2 10
a3 110
a4 111
5 et 8 janvier 2009
5 / 21
5 et 8 janvier 2009
6 / 21
Pourquoi un logarithme ?
On veut une fonction qui soit
Dcroissante (plus la probabilit qu'un vnement se produise est
forte, moins on en tire d'information)
Additive (La quantit d'information apporte par 2 informations
indpendantes est gale la somme des quantits d'information)
Le log est naturel utiliser
5 et 8 janvier 2009
7 / 21
H (A) =
a A
p(a)I (a) =
aA
Thorme
Soit A un alphabet de cardinal n et p une loi de probabilit sur A. Alors
H (A) log2 n avec galit si et seulement si p est la loi uniforme.
Master Crypto (2008-2009)
5 et 8 janvier 2009
8 / 21
Codes
Notations
Soit un alphabet ni. On note l'ensemble des mots nis sur dont le
mot vide en gnral not .
La concatenation de 2 mots u et v est note uv .
La taille d'un mot u , note |u | est le nombre de lettres de u .
Dnitions
Un code C sur un alphabet est un sous ensemble de .
Un code C est dit dchirage unique ssi pour tous mots de C
u1 , , un et v1 , , vm ,
u1 un = v1 vm n = m et i , ui
= vi
Un code est dit prxe si aucun mot du code n'est le prxe (dbut)
d'un autre.
Un code est dit longueur xe si tous ses mots ont mme longueur
Master Crypto (2008-2009)
5 et 8 janvier 2009
9 / 21
Codages (binaires)
Dnition
Un codage d'un source discrte est une application injective qui associe
chaque squence nie de lettres de la source une squence binaire nie, i.e.
une application de A dans {0, 1} si A est l'alphabet de la source.
Un cas particulier important
On associe chaque lettre de A un mot de {0, 1} (c : A {0, 1} ).
le codage d'un mot u1 un de A est donne par c (u1 ) c (un ).
5 et 8 janvier 2009
10 / 21
Ecacit du codage
Dnition
Sot m le nombre moyen de symboles binaires utiliss par lettre de la source
m=
a A
p(a)|c (a)|.
5 et 8 janvier 2009
11 / 21
log2 n m 1 + log2 n
E
H (A) log2 n E
H ( A)
m
5 et 8 janvier 2009
12 / 21
Exemple
A = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9} avec la loi uniforme.
On code cette source avec un code de longueur 4
E
H (A)
4
log2 10
0.83
4
5 et 8 janvier 2009
13 / 21
Proposition
Soit A une source de cardinal n. Soit Al la source de l -uplets de lettres de
A. Il existe un code de longueur xe ml pour Al tel que
log2 n
ml
l
<
+ log2 n.
H (A) quand l
L'ecacit de ce code vaut alors Hm(Al ) et converge vers log
2n
l
devient grand
Finalement, cela prouve que, pour une source munie d'une loi de probabilit
uniforme, l'ecacit du codage peut tre arbitrairement proche de 1.
5 et 8 janvier 2009
14 / 21
Thorme
Pour toute source discrte sans mmoire, il existe un codage (injectif)
permettant de coder la source et dont l'ecacit est arbitrairement proche
de 1.
Remarques
L'ide de la preuve est de coder les l -uplets avec des codes de
longueur variable.
La preuve est eective.
Reste coder le canal (prsence de bruit).
5 et 8 janvier 2009
15 / 21
Codage de canal
On considre un canal discret sans mmoire
Entre : alphabet ni A = {a1 , , an }
Sortie : alphabet ni B = {b1 , , bm }
Un tel canal est dcrit par la donne des probabilits conditionnelle p (ai |bj ),
i.e. la probabilit que la lettre mise soit ai sachant qu'on a recu bj .
Exemple : canal binaire symtrique
A = B = {0, 1}. On note p la probabilit pour qu'un bit soit chang.
5 et 8 janvier 2009
16 / 21
a A ,b B
5 et 8 janvier 2009
17 / 21
Information mutuelle
Dnition
L'information mutuelle de a et b vaut
I (a ; b )
= log2
p (a , b )
p(a)p(b)
p(a|b)
p(a)
5 et 8 janvier 2009
18 / 21
5 et 8 janvier 2009
19 / 21
1 111, 0 000
Rendement
1
3
R=
log2 M
5 et 8 janvier 2009
20 / 21
Thorme
Soit C la capacit du canal de transmission et soient 2 rels > 0 et
c < C . Il existe un code de rendement suprieur c tel que la probabilit
d'erreur en sortie soit infrieure .
Rciproquement, pour tout code de rendement R > C , il existe une
constante KR ,C telle que la probabilit d'erreur en sortie soit suprieure
KR ,C .
5 et 8 janvier 2009
21 / 21