Codage Source
Les 3 Types de Codes à Connaître
Code à longueur fixe: - Tous les mots ont la même longueur - Facile mais pas optimal
Code à longueur variable: - Plus fréquent → mot plus court - Ex: Code de Huffman
Code préfixe: - Aucun mot n'est le début d'un autre - Garantit le décodage unique
Formules Essentielles
Méthode de Huffman en 4 Étapes
Préparation: - Lister les symboles et leurs probabilités - Ordonner par probabilités décroissantes
Construction de l'arbre: a. Prendre les 2 plus petites probabilités b. Les additionner → nouveau nœud c. Répéter jusqu'à prob = 1
Attribution des bits: - Gauche = 0 - Droite = 1
Lecture des codes: - Suivre le chemin de la racine à chaque feuille - Noter les 0 et 1 rencontrés
Exemple Simple Résolu
Symboles | A | B | C | D
Prob | 0.4 | 0.3 | 0.2 | 0.1
Construction de l'arbre:
1.0 / \ 0.7 0.3(B) / \ 0.4 0.3 (A) / \ 0.2 0.1 (C) (D)
Codes résultants: - A = 0 - B = 11 - C = 100 - D = 101
Longueur moyenne: n = 1×0.4 + 2×0.3 + 3×0.2 + 3×0.1 = 1.9 bits
Vérifications à Faire
Pour tout code: - Somme des probabilités = 1 - Vérifier l'inégalité de Kraft - n(C) ≥ H(X)
Pour Huffman: - Arbre binaire complet - Probabilités bien additionnées - Plus petite prob → mot le plus long
Procédure d'Examen
Si on demande un code: a. Vérifier si longueur fixe possible b. Si non, faire Huffman c. Vérifier l'inégalité de Kraft
Si on demande compression: a. Calculer H(X) b. Comparer avec log2(N) c. Calculer la redondance
Si on demande efficacité: a. Calculer n(C) b. Comparer avec H(X) c. Plus proche = plus efficace
Tips et Pièges
Pièges courants: - Oublier de vérifier la somme des probabilités - Se tromper dans l'ordre des probabilités - Mal additionner dans l'arbre
Astuces: - Toujours dessiner l'arbre proprement - Noter les probabilités à chaque nœud - Vérifier que chaque symbole a un code unique