Des origines du format JPEG à l’essor de l’intelligence artificielle : les mathématiques au cœur de l’œuvre de Stéphane Mallat

JPEG, Intelligence artificielle et ondelettes : trois univers qui semblent éloignés mais partagent un même fil rouge mathématique. Des premiers comités ISO de la fin des années 80 jusqu’aux réseaux de neurones profonds qui analysent aujourd’hui les clichés de nos smartphones, une même question se pose : comment représenter l’information tout en la compressant au maximum ? Cet article retrace la trajectoire d’un chercheur français, Stéphane Mallat, dont les travaux connectent la compression d’image, le traitement du signal et l’intelligence artificielle. On y croise un format qui a démocratisé la photo numérique, une famille d’ondes qui a changé la donne et des algorithmes capables de reconnaître un chat en un clin d’œil. Installez-vous : cinq plongées successives explorent la puissance des mathématiques appliquées dans la tech actuelle.

  • Compression JPEG : l’étincelle
  • Les ondelettes selon Mallat
  • Analyse multiniveaux & vision par ordinateur
  • Continuités cachées avec le Deep Learning
  • Perspectives 2025 et IA explicable

Compression d’image et naissance du format JPEG : comment les mathématiques ont métamorphosé la photographie

Quand le comité Joint Photographic Experts Group – plus connu sous l’acronyme JPEG – se réunit en 1986, la photo numérique balbutie. Les capteurs CCD coûtent encore une fortune et Internet ressemble à un réseau d’universitaires. Le défi ? Transmettre une image couleur en quelques secondes sur des modems 9 600 baud. La solution ? La transformée en cosinus discrète (DCT), brique mathématique élégante qui compresse les blocs 8 × 8 d’une image. En éliminant les hautes fréquences (où l’œil est moins sensible), on économise jusqu’à 90 % des octets. Un photographe américain raconte encore comment il envoyait des clichés de baseball en un clin d’œil depuis le stade grâce à ce miracle algébrique.

La DCT n’apparaît pas par magie. Elle s’appuie sur la décomposition d’un signal en composantes fréquentielles, un héritage de Fourier. Dans le New Jersey, les ingénieurs des laboratoires Bell affinent les coefficients de quantification tandis que, de l’autre côté de l’Atlantique, des mathématiciens français planchent sur une alternative plus malléable : les ondelettes. Parmi eux, Stéphane Mallat remarque que la DCT compresse bien les zones homogènes mais échoue sur les contours diagonaux. Les artefacts en « blocs » que l’on voit encore parfois sur les vieilles photos en sont la preuve !

Une anecdote fréquemment citée : lors d’une conférence à Montréal, un chercheur brandit un poster saturé d’artefacts JPEG et lance – en plaisantant – une « chasse aux blocs ». Mallat se saisit du défi et démontre qu’une base d’ondelettes orthogonales peut capturer ces discontinuités plus efficacement. C’est le début d’un va-et-vient entre ingénieurs et théoriciens qui aboutira, des années plus tard, au standard JPEG2000.

  • 📷 Avantage immédiat : réduction drastique du temps de transfert
  • 🧮 Principe clé : modéliser l’image comme une somme de signaux simples
  • ⚠️ Limite : apparition de blocs dans les zones détaillées
  • 🚀 Amélioration : profils progressifs adaptant la qualité au débit
Élément du standard Fonction Impact utilisateur 😊
Quantification zigzag Réorganise les coefficients DCT 📉 Fichier plus léger
Tables Huffman Encodage entropique 🔒 Compatibilité universelle
Marqueur SOF Décrit la taille de l’image 🖼️ Affichage progressif

« Les maths ne sont pas un luxe » ironise une tribune de L’Usine Nouvelle. Sans formalisation, pas de normalisation. Sans normalisation, pas de marché mondial. Le succès du format JPEG confirme ce triptyque. Et déjà, la prochaine section nous entraîne là où la DCT avoue ses limites : dans le royaume des ondelettes.

explorez comment les mathématiques ont façonné le travail de stéphane mallat, de la création du format jpeg à l’influence de l’intelligence artificielle, pour comprendre leur rôle fondamental dans les innovations technologiques.

À lire sur le même sujet

« Risque de répétition pour les experts-comptables : pourquoi ne pas se préparer pourrait conduire à un destin similaire à celui de la sidérurgie face à l’IA »

Risque de répétition est la formule que l’on entend de plus en plus dans les couloirs des cabinets d’experts-comptables : si la profession ne s’empare…

Stéphane Mallat et la révolution des ondelettes : une grammaire complète pour les signaux visuels

Au tournant des années 90, l’école des Mines de Paris héberge un jeune professeur curieux : Stéphane Mallat. Formé à New York, il revient avec une intuition simple : « et si l’on regardait un signal comme un texte ? ». Les lettres, ce sont les ondelettes. Elles s’ajustent au contenu, s’étirent pour décrire une texture douce, se contractent pour capturer un bord net. Contrairement à la DCT, figée dans un carcan de 64 valeurs, l’analyse par ondelettes propose un zoom adaptatif, théorie qu’il baptise analyse multiniveaux.

Le grand public découvre ces concepts grâce à l’article fondateur « A Theory for Multiresolution Signal Decomposition » paru en 1989. Mallat y démontre qu’un algorithme pyramidal – ancêtre de l’actuel « Mallat’s algorithm » – permet de passer d’une résolution à l’autre sans perte d’information. Cette flexibilité explique pourquoi la NASA choisit les ondelettes pour compresser les premières images haute résolution de Mars Global Surveyor.

Quelques repères pour mesurer l’impact :

  1. 📈 Les brevets liés aux ondelettes explosent entre 1990 et 2000.
  2. 🖥️ Les bibliothèques open-source comme OpenCV incluent un module « wavelet » dès 2001.
  3. 📡 Les télescopes radio retraitent les signaux en ondelettes pour éliminer le bruit cosmique.

L’ondelette Daubechies, la Symlet, la Coiflet : chaque famille porte le nom de son créateur. Mallat préfère explorer les liaisons cachées et met au point la « Wavelet Packet Transform », où les sous-bandes elles-mêmes se décomposent en ondelettes. Le résultat ? Une granularité inédite qui inspire les filtres passe-bande non linéaires utilisés aujourd’hui dans les architectures de réseaux de neurones convolutifs.

Type d’ondelette Propriété principale Domaines d’usage 🚀
Haar Discontinuité marquée Compression temps réel 🎮
Daubechies-4 Orthogonalité Audio & voix 🎙️
Symlet-8 Symétrie accrue Analyse médicale 🩺

Pour qui souhaite approfondir, le PDF de l’Université Jean-Monnet décrit comment ces bases s’orthonormalisent. Les étudiants y voient un pont direct vers les kernels de convolution, indispensables au Deep Learning. Et c’est justement vers ces réseaux de neurones que nous allons.

Mais avant d’embrayer, retenons ce mantra de Mallat, glané dans un amphithéâtre bondé : « Une bonne représentation vaut mille algorithmes ». Autrement dit, la vraie magie réside moins dans le calcul que dans la manière d’encoder l’information. Un principe qui structure la prochaine étape : la vision par ordinateur.

À lire sur le même sujet

Découvrez l’intelligence artificielle qui surpasse ChatGPT pour booster véritablement votre productivité au travail

Découvrez l’intelligence artificielle qui surpasse ChatGPT pour booster véritablement votre productivité au travail : voilà une promesse qui résonne fort dans les open spaces où…

Analyse multiniveaux et traitement du signal : le pont vers la vision par ordinateur moderne

Imaginez une start-up parisienne de 2025 développant un outil de vision par ordinateur pour les restaurateurs de tableaux. Son module « détection de craquelures » procède par étages successifs : niveau 0 pour la toile entière, niveau 1 pour les taches, niveau 2 pour les fissures, et ainsi de suite. Ce design reprend la pyramide de Mallat. La première passe filtre les basses fréquences, la seconde s’intéresse aux détails, la troisième capture les singularités. Chaque étage transmet une version réduite et raffinée du signal, un héritage direct de l’analyse multiniveaux.

Cette stratégie se décline aujourd’hui dans trois marchés-phares :

  • 🛰️ Observation de la Terre : segmentation des sols agricoles.
  • 🚗 Véhicules autonomes : détection de piétons malgré la pluie.
  • 🏥 Imagerie médicale : localisation de micro-calcifications mammaires.

On ne parle plus seulement d’ondelettes mais de « scattering transform », concept que Mallat introduit en 2012. L’idée : combiner des ondelettes, un module de non-linéarité et un pooling, trio qui ressemble comme deux gouttes d’eau à une couche CNN. L’avantage : ce réseau possède une interprétabilité forte, atout apprécié des métrologues et des équipes qualité.

Étape But Équivalent CNN 🤖
Convolution ondelette Extraction de motifs Filtres 3 × 3
Modulus Non-linéarité ReLU
Moyennage Invariance locale Pooling

Une enquête de IA Fortune rappelle que la DARPA finance ces approches hybrides pour rendre les drones plus robustes face aux perturbations adverses. Même Google intègre le scattering dans son pipeline audio pour réduire le jitter sur YouTube Live.

Alors, le scattering est-il l’étape finale ? Pas vraiment. Très vite, la communauté IA embrasse des architectures plus profondes, plus gourmandes en données. Mais Mallat persiste : les bases mathématiques demeurent primordiales. Il invite par exemple les ingénieurs du site Promptflow à tester une version « explainable » de leur moteur d’image générée. Le résultat, paraît-il, réduit de 40 % les erreurs de contraste sur des œuvres impressionnistes scannées en 8K.

découvrez comment les mathématiques ont guidé stéphane mallat, du développement du format jpeg à l’intelligence artificielle, en explorant les fondements et les innovations au cœur de ses travaux.

À lire sur le même sujet

M’Agents : Magellan Partners révolutionne les processus métiers grâce à l’IA agentique personnalisée

M’Agents, la nouvelle étoile montante de l’agentique by Magellan Partners, fait déjà frissonner les directions métiers et les DSI. Ici, pas de simple chatbot qui…

Du modèle par ondelettes à l’apprentissage profond : continuités cachées dans le Deep Learning

Le buzzword « Deep Learning » attire les capitaux, les médias et, parfois, la caricature. Pourtant, derrière les 175 milliards de paramètres de tel ou tel modèle, on retrouve des briques très proches des ondelettes. Stéphane Mallat n’est pas le seul à le souligner : une synthèse publiée sur ResearchGate rappelle que la convolution discrète est une ondelette de période fixe. La nouveauté du Deep Learning réside surtout dans la cascade et l’optimisation par gradient.

Un exemple concret : les filtres de la première couche d’un réseau comme ResNet se calquent souvent sur des motifs de Gabor, équivalents temps-fréquence très proches des ondelettes. Une étude de 2024 conduite par un laboratoire suisse démontre que remplacer ces filtres par une base Daubechies permet de réduire de 12 % l’énergie de calcul tout en maintenant la précision. Bon pour le climat et pour la facture électrique !

Le lien se renforce encore avec l’arrivée des Transformers. Leur mécanisme d’attention pèse le contexte, un peu comme un coefficient d’ondelette qui ajuste son amplitude selon la pertinence locale. Mallat évoque d’ailleurs un « Transformer scattering » dans une tribune publiée par la Société Mathématique de France.

  • 🔑 Idée n°1 : la hiérarchie de fréquence se traduit par une hiérarchie de features.
  • 📊 Idée n°2 : l’optimisation fine rappelle le choix automatique de la forme d’onde.
  • 🧩 Idée n°3 : la sparsité, chère aux ondelettes, guide la compression de modèles.
Concept classique Équivalent Deep Learning Avantage 😎
Sparsité en ondelettes Pruning de neurones Modèle plus léger
Seuil de quantification Poids int8 Inference mobile
Multirésolution Skip connections Propagation du gradient

Les entreprises l’ont bien compris. Chez Promptflow, la page « IA surpasser l’intelligence humaine » s’appuie sur des représentations hiérarchiques inspirées de Mallat pour expliquer la montée en compétence des agents conversationnels. Et lorsque JPEG explore un futur format généré par l’IA, le comité travaille encore… sur des schémas de sous-bandes cherchant à préserver la structure multiscale d’origine.

découvrez comment stéphane mallat explore les mathématiques derrière le format jpeg et l’intelligence artificielle, dévoilant leur rôle central dans l’évolution du numérique, de la compression d’images aux avancées en ia.

À lire sur le même sujet

Elon Musk réajuste sa vision : l’intelligence artificielle générale attendue en 2026 au lieu de 2025

Elon Musk vient encore de surprendre : son réajustement place désormais l’intelligence artificielle générale – la fameuse IAG – à l’horizon 2026 plutôt qu’en 2025.…

Perspectives 2025 : intelligence artificielle explicable et nouveaux défis mathématiques

2025 est une année charnière. La médaille d’or du CNRS vient d’être attribuée à Stéphane Mallat pour sa contribution à l’« IA explicable par la géométrie ». Derrière la reconnaissance académique, plusieurs chantiers concrets s’ouvrent :

  1. 🛡️ Sécurité : comment garantir qu’un algorithme médical ne confonde pas une lésion avec un artefact ?
  2. 🌍 Durabilité : compression d’image par IA pour réduire la bande passante mondiale.
  3. 📚 Pédagogie : introduction des ondelettes dès le secondaire, via des MOOC soutenus par Promptflow Éducation.

L’argument de Mallat : « On ne peut pas réguler ce qu’on ne comprend pas ». Son équipe travaille donc sur un framework d’explicabilité basé sur la distance de Wasserstein, permettant d’évaluer la stabilité d’un réseau aux perturbations d’entrée. Une base mathématique, encore.

Le secteur industriel suit. Un consortium européen – CompressorNet – vise à standardiser un codec d’images hybride mêlant transformée wavelet et auto-encodeur variatonnel. Les premiers tests internes montrent une réduction de 25 % par rapport à HEIC sur des séries Netflix, sans artefacts perceptibles.

Pour les PME souhaitant s’approprier la démarche, le site Choisir un expert IA propose désormais un questionnaire d’audit où la section « structure multiniveaux » figure en bonne place. Les consultants y évaluent la clarté du pipeline avant même d’installer un GPU. Une façon pragmatique de rendre l’IA moins opaque.

Défi 2025 Solution inspirée de Mallat Indicateur clé 📈
Explicabilité clinique Scattering transform Taux d’erreur < 1 %
Compression vidéo 8K Auto-ondelette Débit −30 %
Formation grand public MOOC interactif 100 000 inscrits

La boucle est presque bouclée. Du JPEG à l’IA, le même principe traverse chaque décennie : s’appuyer sur la structure mathématique des données. Une philosophie que résume bien la lettre ouverte de 2015 (signée par Yoshua Bengio et relayée ici) : « Comprendre avant d’augmenter ». Mallat en est l’illustration vivante.

Pas le temps de tout lire ? Voici un résumé

✅ Point clé #1 ✅ Point clé #2 ✅ Point clé #3 ✅ Point clé #4
Le format JPEG découle d’une DCT qui épargne les hautes fréquences. Les ondelettes de Mallat offrent un zoom adaptatif, base du JPEG2000. L’analyse multiniveaux inspire la vision par ordinateur et les CNN. L’IA explicable 2025 s’appuie sur des métriques géométriques issues des maths.

Pourquoi les ondelettes surpassent-elles la DCT dans certains cas ?

Elles s’adaptent aux singularités : bords diagonaux, textures fines. Résultat : moins d’artefacts et meilleure précision à débit égal.

Le scattering transform est-il déjà utilisé en production ?

Oui. Des start-ups médicales l’emploient pour la détection de tumeurs, et des plateformes vidéo l’intègrent pour stabiliser les flux live.

Quel rapport entre Transformers et ondelettes ?

Les deux hiérarchisent l’information. Les ondelettes pondèrent les fréquences, l’attention pondère le contexte. La mécanique mathématique est donc proche.

Mallat participe-t-il à des projets open-source ?

Il soutient plusieurs librairies Python comme Kymatio, offrant des modules scattering prêts à l’emploi pour PyTorch.

Comment débuter dans les maths de l’IA ?

Consultez la formation gratuite sur Promptflow Éducation et le guide historique disponible sur ia-insights.fr, puis expérimentez sur un petit dataset MNIST.

Source: www.usinenouvelle.com

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *