Professional Documents
Culture Documents
EXERCICES
EXERCICE 1
Pour une certaine région, les prévisions d'un météorologiste M se distribuent suivant les
fréquences relatives données par le tableau :
1. Un étudiant astucieux montre que M se trompe une fois sur quatre et qu'il peut faire mieux
en ne prévoyant que des jours sans pluie. Vérifier cette assertion. Il postule donc pour le poste
de M. Le directeur de M refuse l'offre de l'étudiant. Commenter cette décision à l'aide d'un
raisonnement faisant intervenir des notions de théorie de l'information.
2. L'étudiant revient quelque temps plus tard en garantissant les résultats suivants :
Les colonnes correspondent au temps effectif et les lignes aux prévisions de l'étudiant.
3. Le directeur souhaite stocker dans ses archives le temps T (pluie ou absence de pluie) et les
prévisions de M. Quelle est la taille minimale du fichier qu'il doit prévoir (en nombre de bits
par réalisation de T ou de M)?
2 _________________________________________________ exercices du chapitre II
Si on suppose que prévision et temps effectif pour un jour donné sont indépendants du passé,
quel résultat obtient-on par codage de Huffman des couples (T ,M )?
EXERCICE 2
2. Comparer la longueur moyenne des mots code n à l'entropie H(X) de la source (on se
contentera d'exprimer n et H(X) sous la forme d'une somme finie de termes). Que constate-t-
on? En quoi ce résultat est-il remarquable? Comment expliquer ce résultat remarquable?
EXERCICE 3
On considère une source binaire sans mémoire U de loi de probabilité: P{U = 0} = 0,9 et
P{U = 1} = 0,1. Les zéros étant beaucoup plus fréquents que les uns, on se propose de coder
les séquences issues de la source en tenant compte du nombre de zéros entre deux uns
consécutifs. L'opération consiste en deux étapes :
- Première étape
On compte le nombre de zéros entre deux uns consécutifs. On obtient ainsi un entier que l'on
appelle entier intermédiaire.
- Deuxième étape
On code l'entier intermédiaire en un mot binaire constitué de quatre éléments binaires si
l'entier est inférieur ou égal à 7 et on choisit un mot de un élément binaire si l'entier est 8. Si
l'entier intermédiaire dépasse 8, on codera les suites de 8 zéros consécutifs par un bit
correspondant à l'entier intermédiaire autant de fois que nécessaire. On obtient ainsi la table
de correspondance entre les séquences source et les entiers intermédiaires :
exercices du chapitre II___________________________________________________3
1 0 0 1 0 0 0 0 0 0 0 0 0 0 1 1 0 0 0 0 1
0 2 8 2 0 4
4. On considère une séquence de bits source de longueur n avec n très grand. En appliquant la
loi faible des grands nombres, exprimer le rapport du nombre de bits utilisés pour coder cette
séquence au nombre de bits source (n) en fonction de n1 et n2 . Calculer numériquement la
valeur de ce rapport. Comparer avec la limite en dessous de laquelle il n'est pas possible de
descendre.
EXERCICE 4
P{X = i} = pq
∗
∀i ∈ IN p + q = 1. Calculer l'espérance mathématique de X et son
i−1
2. Soit une source discrète sans mémoire (Xn )n ≥0 telle que chaque Xn suit la loi énoncée au 1.
On considère une suite binaire (Uj ) , construite à partir des Xn , qui émet successivement
j ≥0
2.1 On admettra que (Uj ) est une chaîne de Markov homogène d'ordre 1. Calculer
j ≥0
son entropie.
2.3 Montrer que la suite U j ' définie par U j ' = Uj + U j −1 modulo 2 est sans mémoire.
p0
q0 0 1 q1
p1
Calculer l'entropie de cette source binaire. (on pourra introduire deux sources Xi et Xi ' de
lois géométriques de paramètres p0 et p1 et la source Yi = (Xi , X i' )).
EXERCICE 5
On considère la source binaire Vj définie par la question 3 de l'exercice précédent (on prend
q0 = 0,9 et q1 = 0,6 ).
0
0 1
0 1 0 1
Calculer le nombre moyen d'éléments binaires utilisés pour coder un bit source.
EXERCICE 6
On considère une source ternaire sans mémoire délivrant les symboles A, B, C avec les
probabilités correspondantes 0.2, 0.3, 0.5. Cette source émet des séquences de longueur 1000.
EXERCICE 7
Soit U une source discrète sans mémoire de valeurs possibles {a1 ,a2 ,...,ai ,...} vérifiant:
∀ k > j ≥ 1 P{ak }≤ P{a j } avec P{am} = P{U = am }.
On se propose de coder les différentes valeurs de U de la façon suivante:
i −1
à la valeur ai est associé le nombre Qi défini par Qi = ∑ P {ak } ∀ k > 1 et Q1 = 0 .
k =1
6 _________________________________________________ exercices du chapitre II
Le mot code binaire ci correspondant à la valeur ai est obtenu en prenant la partie "décimale"
1
de l'écriture de Qi dans le système binaire (ainsi Qi = → 100... ,
2
1 5
Qi = → 0100...,Qi = → 10100... ) que l'on tronque sur un nombre de bits égal au
4 8
plus petit entier supérieur ou égal à la self-information de l'événement {U = ai } exprimée en
(
Shannons on note ce nombre i(ai ) . )
1. Le code C ainsi réalisé vérifie-t-il la condition du préfixe (inégalité de Kraft)?
2. On désigne par n la longueur moyenne des mots code. Montrer que n vérifie la double
inégalité: H (U ) ≤ n < H(U ) + 1 (avec H (U) = entropie de U ).
Application
3. Coder par le procédé décrit précédemment les huit valeurs d'une source discrète sans
1 1 1 1 1 1 1 1
mémoire U de probabilités respectives , , , , , , , .
4 4 8 8 16 16 16 16
EXERCICE 8
1. Montrer que l'entropie maximale d'une source discrète à m valeurs distinctes est log2 m
Shannons.
2. Soit Xn une chaîne de Markov à deux états {0,1} dont le graphe est le suivant:
1-p
0 1
1-q
q
exercices du chapitre II___________________________________________________7
1-p
0 1
3.1 Déterminer, par un simple calcul de dérivée, la valeur de p pour laquelle l'entropie
de Yn est maximale. Quelle est la valeur numérique de cette entropie?
3.4 L'étude des suites récurrentes montre que l'expression de Nk est de la forme:
Nk = α (λ 1 ) + β (λ 2 ) . Calculer λ 1 et λ 2 (le calcul de α et β n'est pas demandé, ces
k k