Contribution à l'étude et au développement d'algorithmes de traitement du signal en compression de données et d'images
Institution:
NiceDisciplines:
Directors:
Abstract EN:
Pas de résumé disponible.
Abstract FR:
Cette thèse a pour but d'une part la compression de données sans perte d'information, et d'autre part la compression d'images fixes. La compression de données est basée sur une modélisation markovienne adaptative d'ordre variable réalisée par l'algorithme du contexte qui approxime la complexité stochastique de la source en utilisant le principe de la longueur de description minimale (LDM). Le codage est obtenu par un codage arithmétique multi-niveaux. Nous nous attachons dans un premier temps, à minimiser l'occupation mémoire en appliquant le principe de la LDM au développement du modèle. Nous montrons dans un deuxième temps que l'application différentielle de la LDM pour le choix des nœuds de codage permet d'optimiser la gestion du modèle en arbre. Nous montrons enfin que l'algorithme ainsi modifié permet d'atteindre les taux de compression les plus élevés à l'heure actuelle et ce pour un ensemble de sources multimédia et une complexité moyenne. Nous avons adopté pour la compression des images fixes une décomposition en sous-bandes par les filtres de Johnston. Dans le cadre d'un codage à faible complexité des signaux de sous-bande par quantification et DPCM, nous introduisons un algorithme d'allocation des ressources de codage à facteur psychovisuel. Nous proposons ensuite, un codage par quantification vectorielle prédictive. Nous réduisons alors la taille mémoire requise pour le stockage du répertoire par l'utilisation d'un répertoire linéaire que nous rendons en partie adaptatif. Enfin, nous montrons que le codage entropique par l'algorithme du contexte des signaux codés permet une diminution moyenne du débit de l'ordre de 30% sans perte de qualité. Appliqué directement aux signaux de sous-bandes, nous obtenons des images de qualité exceptionnelle pour des débits compris entre 1 et 1. 5 bits/pixel