Echantillonnage et identification paramétriques adaptatifs pour des signaux bidimensionnels à échantillons manquants
Institution:
Paris 11Disciplines:
Directors:
Abstract EN:
This thesis, we treat the modelisation and identification problem of the two-dimensional non-uniformly, sampled signals called (SENU-2D), with a hidden sampling methods. We aim to find some real-time processing methods. It concerns the restoration of the missing samples on the one hand, and the non-uniformly sampling on the other hand, with the intention of minimizing the data volume (compression). We assume the classical 2D data scanning mode (Raster Scan), which, several types of causality result from (QP, NSHP, SC and NC are the most classical). We suggest the parametric modelisation AR-2D to represent the SENU-2D. To identify the model, we put forward some extensions, to the SENU-2D case, of LMS and RLS like algorithms. When choosing the causality type and the optimization criterion, one must take into account: a) the missing samples problematics, b) the nature of the 2D signals, c) the scanning mode of the signal. So, we propose to use three types of quadratic criterion of the prediction error defined: 1) locally, 2) over growing Window, 3) over a predefined dimensions moving window. By combining a causality type with a criterion, a new algorithm can be obtained. In the prediction region, the missing samples are replaced by their predicted values. Regarding the RLS like extenion, a quadratic criterion of the prediction error over a growing window is used, and we recommend to use a criterion defined over a moving window, defined over one line, in the direction of data scanning. The obtained algorithms are tested and their results are compared and commented. Also, we suggest some application of these methods to image. The first one is the restoring of images with missing samples. It is showed that up to 90% of randomly missing samples schemes, the reconstructed image is easily recognizable. The second application is the non-uniform sampling (lossely compression). We show that these methods provide a better reconstruction quality, compared to the JPEG, upto 84% of volume gain. The third application concerns the quantization together with the non uniform transmission. The result is that there is no need to transmit the whole quanitized signal, and in addition to that, some extra dBs of quality are obtained (24. 7 % of volume gain and 3. 7 dB of quality). The last application is the introduction of some of these methods in a lossless compression system already existing (FELICS and JPEG-LS). The results of this application is that the their efficiency is enhanced.
Abstract FR:
Dans cette thèse, nous posons le problème de la modélisation et de l'identification des signaux bidimensionnels à échantillonnage non uniforme (SENU-2D), avec une période cachée. Notre objectif est un traitement en temps réel. Il s'agit de la restitution des échantillons manquants d'une part, et de l'échantillonnage non uniforme d'autre part dans le but de minimisation de volume de données (compression). Nous supposons le mode classique de balayage pour l'acquisition de données, duquel résultent plusieurs types de causalités (QP, NSHP, SC, et NC sont les plus classiques). Nous proposons la modélisation paramétrique AR-2D pour la représentation des SENU-2. Pour l'identification du modèle, nous proposons l'utilisation des extensions au cas des SENU-2D des algorithmes du type LMS et MCR. Lors de choix de causalité et de critère à minimiser pour les extensions du type LMS, il faut prendre en compte a) le problème des échantillons manquants, b) la nature des signaux 2D, c) le mode d'acquisition du signal. Nous proposons donc, l'utilisation de 3 types de critères quadratique de : 1) l'erreur de prédiction locale, 2) l'erreur sur une fenêtre croissante, 3) l'erreur sur une fenêtre glissante. En combinant une causalité avec un critère nous obtenons un nouvel algorithme. Dans la zone de régression, les échantillons manquants sont remplacés par leur valeur prédite. Quant à l'extension du type MCR, un critère quadratique de l'erreur sur une fenêtre croissante est utilisé, et nous recommandons l'utilisation d'une fenêtre glissante sur une seule ligne. Les algorithmes obtenus sont testés et leurs résultats sont comparés et commentés. Nous proposons quelques applications des méthodes obtenues aux images. La première est la reconstruction des images à échantillons manquants, où il y est montré que jusqu'au taux de perte aléatoire de 90%, l'image reconstruite est parfaitement reconnaissable. La deuxième application est l'échantillonnage non uniforme (compression avec perte), où la qualité de reconstruction est supérieure à la norme JPEG jusqu'au gain de 84%. La troisième application concerne la quantification et la transmission non uniforme conjointement. Le résultat de cette application est qu'au lieu d'envoyer le signal quantifie entièrement en assumant le niveau d'erreur de quantification, on peut envoyer moins d'échantillons de ce signal quantifié et on obtient moins de l'erreur de quantification du départ. Un gain jusqu'à 24. 7% de volume de données et jusqu'à 3. 7 [dB] de qualité. La dernière application est introduction de ces méthodes dans un système de compression sans perte déjà existant (FELICS et JPEGLS). Le résultat de cette application est que le rendement de ces compresseurs a été amélioré.