ONDELETTES

Carte mentale

Élargissez votre recherche dans Universalis

4. Une application spectaculaire : la compression de données

La compression de données est l'un des défis majeurs lancés aux mathématiciens d'aujourd'hui. Le développement de ce que l'on qualifie parfois de « société de l'information » rend nécessaires le stockage et la transmission ultrarapide de quantités gigantesques d'informations de toutes sortes. Le défi est tout d'abord technologique, dans la mesure où il s'agit de stocker un maximum de données dans un volume aussi réduit que possible, ou encore de transmettre un maximum de données de façon aussi économique que possible. Mais le problème se pose aussi en amont, au niveau des mathématiques. En effet, si les mathématiques permettent de réduire la quantité de nombres nécessaires pour coder de telles informations, cela se traduit presque automatiquement par une augmentation des performances tant au niveau du stockage qu'au niveau de la transmission. Encore faut-il pour cela que cette réduction puisse être faite rapidement, afin de ne pas pénaliser l'ensemble du processus de transmission.

La technologie numérique actuelle est fondée sur ce que l'on appelle « théorie de l'échantillonnage ». Cette théorie nous enseigne tout d'abord qu'il est impossible de reproduire sans distorsion un signal continu à partir d'un nombre fini d'échantillons. Plus précisément, le taux auquel l'on échantillonne le signal (autrement dit le nombre de valeurs par seconde) limite la bande passante, c'est-à-dire le domaine des fréquences qui sont transmises sans distorsion. La téléphonie actuelle est fondée sur ce principe : elle fournit une bande passante limitée à 4 kHz environ, très en deçà des limites perceptibles par notre oreille. Pour améliorer ces performances, on peut certes améliorer la bande passante. Une autre solution, qui est plutôt complémentaire, consiste à représenter différemment l'information avant de la transmettre.

Si nous poursuivons avec l'exemple d'un signal sonore, on s'aperçoit assez facilement que des valeurs consécutives de ce signal sont généralement très corrélées : il est souvent possible, à partir d'un certain nombre de ces valeurs, d'en prédire d'autres, et ce avec une précision acceptable. Cela démontre que l'information contenue dans les valeurs est redondante et n'est pas totalement nécessaire pour caractériser le signal. Pour améliorer la qualité du signal, il importe donc de se débarrasser de cette redondance. Cela peut être fait par des méthodes appropriées, dont le prototype est connu sous le nom de méthode de Karhunen-Loève. Le principe essentiel de cette méthode est d'analyser les corrélations présentes dans le signal pour en déduire une autre représentation, dans laquelle tous les coefficients sont décorrélés. Le corollaire est qu'une certaine quantité de ces coefficients décorrélés seront nuls ou très petits, et peuvent donc être « oubliés ». En négligeant ces coefficients, on procède de facto à une compression de données, dans la mesure où l'on représente la même quantité d'informations en utilisant moins de nombres. Et au prix où sont les nombres...

Cependant, les méthodes utilisant les décompositions de Karhunen-Loève souffrent de multiples désavantages. Le principal d'entre eux est qu'elles sont en général très difficiles à mettre en œuvre efficacement, car elles sont peu compatibles avec des algorithmes rapides. C'est pour cela que l'on s'oriente plutôt vers des méthodes plus simples, en espérant qu'elles permettent d'approcher les performances des méthodes optimales, voire de les surpasser dans certains cas spécifiques. C'est là qu'intervient l'efficacité de la transformation en ondelettes mentionnée plus haut. En effet, bon nombre de signaux que l'on rencontre couramment sont efficacement représentés par des ondelettes. C'est en particulier le cas des images, et il est facile d'en comprendre la raison essentielle, qui tient à la nature même des images. La majeure partie des informations auxquelles nous sommes sensibles se trouve dans ce que l'on appelle les « contours de l'image » : par exemple les bords des objets, des visages, etc., qui sont représentés. Les contours sont des régions où l'intensité de l'image varie brutalement, et les coefficients d'ondelettes correspondants sont significatifs, y compris aux petites échelles. Or une image contient en général relativement peu de contours et est régulière (lentement variable), sauf au voisinage des contours. Par conséquent, beaucoup de coefficients d'ondelettes sont faibles (surtout aux petites échelles), et peuvent être négligés sans que cela entraîne de distorsion visible sur l'image.

La compression des images est un thème de recherches très actives à l'heure actuelle, car il va bientôt s'agir de définir ce qui sera la méthode de codage des images dans les médias et multimédias des années à venir. Les méthodes fondées sur les décompositions en ondelettes font partie des méthodes les plus performantes actuellement utilisées, et seront peut-être le standard de demain. D'ores et déjà, la compression par ondelettes a été adoptée par le F.B.I. pour le stockage des empreintes digitales des citoyens américains.

1  2  3  4  5
pour nos abonnés,
l’article se compose de 9 pages

Écrit par :

Classification

Autres références

«  ONDELETTES  » est également traité dans :

MEYER YVES (1939- )

  • Écrit par 
  • Stéphane JAFFARD
  •  • 1 232 mots
  •  • 1 média

Dans le chapitre « La théorie des ondelettes »  : […] En 1984, il se lance dans une nouvelle aventure : celle des ondelettes. Cette théorie est basée sur l’intuition d'un ingénieur, Jean Morlet, qui travaillait en détection pétrolière et étudiait les signaux obtenus par réflexion sismique : une vibration émise en surface est réfléchie par les différentes couches du sous-sol, puis on cherche à reconstituer la nature du sous-sol à partir du signal reç […] Lire la suite

Voir aussi

Pour citer l’article

Alexandre GROSSMANN, Bruno TORRESANI, « ONDELETTES », Encyclopædia Universalis [en ligne], consulté le 01 décembre 2021. URL : https://www.universalis.fr/encyclopedie/ondelettes/