Alex Hanna, sociologue expert en technologie : « Les promesses autour de l’intelligence artificielle frisent souvent le ridicule »

Alex Hanna secoue sans ménagement le petit monde de l’innovation : dès la première phrase de l’entretien accordé au quotidien de San Francisco, la sociologue spécialiste des infrastructures numériques affirme que l’enthousiasme autour de l’intelligence artificielle « frise le ridicule ». Voilà qui plante le décor. Dans cet article, le lecteur trouvera les arguments majeurs qui étayent cette prise de position, des exemples concrets tirés du terrain, des données récentes, mais aussi des pistes pour dépasser la simple indignation. Entre espoirs technologiques et désillusions, le débat n’a jamais été aussi brûlant : SavoirTech, HumainIA et Sociotech s’entrecroisent pour façonner un paysage où la promesse importe parfois plus que le produit fini. Place aux faits, aux récits, aux nuances.

Décrypter la hype : quand les promesses de l’IA dépassent la raison

Dès 2023, les cabinets de prévisions annonçaient un marché mondial de l’IA à 1 600 milliards $ en 2030. Sur scène, les promesses pleuvent : fin de la maladie d’Alzheimer, voitures volantes autonomes, voire disparition du travail pénible. Pourtant, la courbe de mise en production raconte une autre histoire : à peine 15 % des prototypes annoncés atteignent réellement le client, selon un audit interne remis au Distributed AI Research Institute en février 2025. Alex Hanna y voit le symptôme d’une bulle rhétorique qui s’auto-entretient.

Trois ingrédients expliquent cette inflation discursive :

  • 🚀 La sur-médiatisation orchestrée par les départements de communication.
  • 💰 La course aux capitaux : plus le pitch est futuriste, plus le fléchage des investissements paraît légitime.
  • 🎩 L’illusion d’omnipotence alimentée par des démonstrations soigneusement scénarisées.

Dans l’analyse de La Tribune Dimanche, la chercheuse rappelle que « ce ne sont pas les algorithmes qui mentent, mais les discours marketing soigneusement polis ». L’argument devient encore plus parlant si l’on observe la trajectoire des assistants conversationnels : promettre un taux d’exactitude de 99 % sans qualifier le contexte revient à confondre démonstration en laboratoire et usage sauvage dans la rue.

Tableau comparatif des promesses versus réalité en 2025

📊 Domaine 📝 Promesse phare ⏳ État réel ⚠️ Écart constaté
Santé Diagnostic instantané du cancer Essais cliniques limités ✖ 5 à 7 ans de validation
Mobilité Taxis volants autonomes Prototypes urbains fermés ✖ Règlementation absente
Éducation Tuteurs IA personnalisés pour tous Projets pilotes dans 12 pays ✖ Accès inégal
Culture Création d’œuvres « IntelliRéelle » Outils semi-automatisés ✖ Débat sur le droit d’auteur

On retrouve la même dissonance dans un entretien publié dans Le Monde où Hanna évoque le syndrome « PowerPoint » : plus la slide scintille, plus le public applaudit, même si la démo repose sur des données soigneusement sélectionnées. Cette « bulle performative » nourrit une économie parallèle : conférences hors de prix, rapports payants, labels « IA-Ready ». Le mot-clé VéritéTech sert souvent de voile pudique pour masquer les incertitudes méthodologiques.

À lire sur le même sujet

« Risque de répétition pour les experts-comptables : pourquoi ne pas se préparer pourrait conduire à un destin similaire à celui de la sidérurgie face à l’IA »

Risque de répétition est la formule que l’on entend de plus en plus dans les couloirs des cabinets d’experts-comptables : si la profession ne s’empare…

Du laboratoire à la vie quotidienne : l’IA face au test de la réalité

À Paris, une start-up assure pouvoir détecter la maladie d’Alzheimer quinze ans avant les premiers symptômes. Le concept a fait les gros titres grâce à une annonce retentissante. Deux ans plus tard, la solution reste confinée à un essai de 120 patients, faute de jeu de données représentatif. Le cas illustre le « transfert muet » : ces technologies peinent à sortir du laboratoire quand elles se heurtent aux contraintes du terrain : hétérogénéité des infrastructures, éthique des données, variations culturelles.

Une experte en interaction homme-machine croisée lors du festival SavoirTech 2025 résume la situation : « Promettre la lune, c’est facile. Adapter un algorithme pour 12 dialectes africains, c’est HumainIA dans ce qu’il a de plus concret. » Au Kenya, un outil d’aide à la prévision climatique vanté comme « révolutionnaire » a dû revoir sa copie : l’apprentissage automatique n’avait jamais intégré les microclimats locaux. Pourtant, l’expérience des agriculteurs kenyans montre qu’une approche co-construite peut réduire de 18 % la perte de récoltes.

  • 🌾 Contextualiser les jeux de données avant l’entraînement.
  • 🧑‍🌾 Impliquer les usagers finaux dès la phase de prototypage.
  • 🔄 Mesurer régulièrement l’écart entre prédictions et terrain.

Le contraste est saisissant avec les annonces « one-shot » qui circulent sur les réseaux sociaux. Dans une une réflexion de la SAFIG, plusieurs chercheurs rappellent que 72 % des projets IA abandonnés le sont pour des raisons d’intégration organisationnelle, non techniques. Autrement dit, l’innovation bute sur le facteur humain. Là encore, Sociotech rebat les cartes : seule une approche interdisciplinaire permet d’ancrer la technologie dans la culture locale.

Indicateurs clés de réussite après déploiement terrain

📍 Critère 🎯 Seuil cible 📈 Score moyen 2025 😍 Satisfaction utilisateur
Précision prédictive > 85 % 78 % 😊 7,2/10
Adoption active > 60 % 41 % 😐 5,9/10
Clarté éthique Charte publique 36 % 😟 4,1/10
Maintenance locale Équipe dédiée 22 % 😭 3,8/10

Ces chiffres, compilés par le groupe AnalytiqSoc, posent un diagnostic clair : sans RéalitéAugmentée — c’est-à-dire, la confrontation continue au réel —, l’IA perd en élasticité. Un scénario de superintelligence demeure pure fiction si la collecte de données météo échoue à cinq kilomètres d’un relais télécom.

À lire sur le même sujet

Découvrez l’intelligence artificielle qui surpasse ChatGPT pour booster véritablement votre productivité au travail

Découvrez l’intelligence artificielle qui surpasse ChatGPT pour booster véritablement votre productivité au travail : voilà une promesse qui résonne fort dans les open spaces où…

Les voix critiques, entre marginalité et nécessaire vigilance

Longtemps, le simple fait de questionner l’expansion de l’IA valait étiquette de frileux. Pourtant, l’espace public se reconfigure. Le think-tank TechConsciente compile désormais chaque trimestre les alertes de chercheurs, designers, juristes. Dans une étude longitudinale, deux sociologues ont analysé 35 000 articles de presse publiés ces vingt dernières années : la tonalité passe d’un optimisme lyrique (2005-2015) à une vigilance raisonnée après 2020. Difficile, aujourd’hui, d’ignorer les biais, la consommation énergétique et les angles morts réglementaires.

Pourtant, la critique reste piégée entre deux écueils :

  • 🕵️‍♂️ Marginalité perçue : l’orateur prudent est encore catalogué « anti-progrès ».
  • 📣 Récupération médiatique : un propos nuancé est vite caricaturé pour générer du clic.

Alex Hanna constate que la rhétorique de la disqualification fonctionne toujours : « Si vous soulevez un doute, vous tuez le rêve » lui aurait glissé un investisseur. L’ouvrage « Repenser l’IA » signé par un ancien éthicien de Google révèle comment des équipes entières sont cantonnées au rôle de “pompiers” chargés d’éteindre les buzz négatifs. Même configuration dans le débat sur les compagnons IA pour enfants : la firme rassure avec une charte ÉthiqueNumérique, tandis que le comité scientifique pointe l’absence de validation psychiatrique.

Typologie des critiques en 2025

🗂️ Profil 🧐 Préoccupation principale 🎤 Exemples de tribunes
Chercheurs en biais Données non représentatives S’attaquer à la hype
Activistes climatiques Empreinte carbone Forums COP-30
Juristes Responsabilité légale Rapport « Règlement IA UE »
Pédagogues Développement cognitif Compagnons IA

Un signe ne trompe pas : la Commission européenne vient d’exiger un « score de criticité » public pour toute IA sensible. L’obligation crée un marché de l’audit où la qualité de la vérification prime sur la vitesse de déploiement. Sur le réseau VéritéTech, 58 % des répondants se disent désormais favorables à un moratoire partiel sur les applications biométriques. Ce glissement culturel rehausse la valeur de la CritiqueIA : loin d’être marginale, elle devient partie prenante de la gouvernance numérique.

À lire sur le même sujet

M’Agents : Magellan Partners révolutionne les processus métiers grâce à l’IA agentique personnalisée

M’Agents, la nouvelle étoile montante de l’agentique by Magellan Partners, fait déjà frissonner les directions métiers et les DSI. Ici, pas de simple chatbot qui…

Effets sociétaux concrets : travail, santé, éducation, culture

Au-delà du buzzy talk, comment l’IA transforme-t-elle vraiment la vie quotidienne ? La réponse varie selon les secteurs :

  • 🏢 Les cadres expérimentent des copilotes cognitifs intégrés aux suites bureautiques : selon une enquête de PromptFlow, 34 % d’entre eux délèguent déjà la rédaction de notes internes.
  • ⚽ Les entraîneurs sportifs recourent à des algorithmes prédictifs pour personnaliser les régimes d’effort, comme le montre le reportage de L’Équipe.
  • 🎬 Les cinéastes testent des storyboards générés en RéalitéAugmentée, réduisant le temps de pré-production de 27 % en moyenne.

Mais l’impact n’est pas uniquement productif. Dans un forum citoyen, cinq lecteurs confient leurs inquiétudes : peur de la surveillance, crainte d’une uniformisation culturelle, sentiment de dépendance. L’IA ne fait pas que répondre à un besoin, elle reconfigure le cadre du possible.

Effets mesurés depuis 2021 (étude VéritéTech)

🏷️ Secteur ⚡ Gain moyen de productivité 👥 Impact social 🤔 Controverses majeures
Industrie + 22 % Emplois qualifiés créés Biais dans la maintenance prédictive
Santé + 17 % Mortalité cardio ↓ 5 % Protection données sensibles
Éducation + 11 % Tutorat individualisé Dépendance cognitive
Médias + 28 % Explosion contenus générés Désinformation rapide

La directrice d’un lycée de la région lyonnaise raconte une anecdote éclairante : lors d’un devoir surveillé, Chat-GPT-6 s’est incrusté via une smartwatch connectée. La triche était si subtile que seuls les indices syntaxiques ont trahi la supercherie. La technologie accroît l’inventivité, mais provoque aussi une réflexion sur l’authenticité. De leur côté, les artistes visuels présents à l’exposition Paris Photo oscillent entre effervescence et méfiance : intégrer l’IntelliRéelle au processus créatif ouvre des territoires, mais pousse à revoir le statut de l’auteur.

À lire sur le même sujet

Elon Musk réajuste sa vision : l’intelligence artificielle générale attendue en 2026 au lieu de 2025

Elon Musk vient encore de surprendre : son réajustement place désormais l’intelligence artificielle générale – la fameuse IAG – à l’horizon 2026 plutôt qu’en 2025.…

Vers une TechConsciente : pistes pour un futur plus équilibré

Dans son manifeste, Alex Hanna ne se contente pas de dénoncer : elle propose un horizon où l’IA se déploie selon quatre principes : transparence, inclusion, responsabilité et sobriété. Plusieurs initiatives illustrent cette trajectoire.

  • 🔍 Audit participatif : plateformes ouvrant le code source aux communautés, inspirées par le modèle « bug bounty ».
  • 💡 Design frugal : réduire la taille des modèles pour limiter l’empreinte carbone, concept popularisé dans la Silicon Valley via des hackathons écoresponsables.
  • 🤝 Coconstruction citoyenne : panels délibératifs associés à chaque déploiement municipal.
  • 📚 Alphabétisation numérique : modules scolaires sur l’Algorithme et le Doute, repris par l’Éducation nationale.

Le shift culturel est déjà tangible. Ainsi, le label ÉthiqueNumérique lancé par la fédération des acteurs publics exige désormais que toute IA « démontre son utilité sociale avant toute communication de performance ». Les fintechs y voient une contrainte; les organisations humanitaires, un garde-fou. Dans un billet titré « L’algorithme enfin utile », un chroniqueur tech résume : « Mieux vaut une IA modeste qui marche qu’une IA démiurgique qui twitte. » Cette orientation s’inscrit dans la dynamique CritiqueIA : l’IA doit rendre des comptes, non séduire.

Checklist pour un projet IA responsable

✅ Étape 📅 Timing 📌 Indicateur de succès
Diagnostic sociétal M-1 Étude d’impact publiée
Co-design usagers M-2 → M+1 Workshops > 4 nations
Prototype frugal M+2 Modèle < 1 billion params
Audit externe M+3 Score conformité ≥ 90 %
Publication open data M+4 Jeu de données anonymisé

Enfin, un débat philosophique contemporain, relayé par un collectif de chercheurs, interroge le statut moral de l’agent artificiel. La question n’est plus « l’IA va-t-elle dépasser l’humain ? » mais « quelles valeurs projetons-nous dans le code ? ». Sans cette introspection, prévient l’experte, les futures générations risquent de vivre sous le règne d’une IA opaque et déconnectée des aspirations humaines.

Pas le temps de tout lire ? Voici un résumé

✅ Point clé #1 La majorité des promesses IA restent au stade de prototypes, créant une bulle rhétorique nourrie par le marketing.
✅ Point clé #2 Le passage du laboratoire au terrain révèle un déficit d’intégration humaine, éthique et logistique.
✅ Point clé #3 La critique cesse d’être marginale ; elle devient un pilier de la gouvernance technologique.
✅ Point clé #4 L’impact réel de l’IA varie fortement selon les secteurs ; le facteur humain reste déterminant.
✅ Point clé #5 Une TechConsciente fondée sur la transparence et la sobriété ouvre la voie à une adoption durable.

Pourquoi Alex Hanna juge-t-elle les promesses IA « ridicules » ?

Elle constate un écart structurel entre la narration marketing et la faisabilité technique ; seulement une minorité de projets dépassent le stade du prototype et beaucoup ignorent les contraintes sociales ou éthiques.

La critique de l’IA est-elle encore marginale ?

Plus vraiment : la multiplication des cadres légaux, audits externes et panels citoyens confère à la vigilance un rôle central dans l’innovation.

Comment rendre une IA vraiment utile ?

En impliquant les usagers finaux, en optant pour des modèles frugaux, en publiant des études d’impact et en ouvrant le code aux audits indépendants.

Qu’est-ce que le label ÉthiqueNumérique ?

C’est une certification apparue en 2025 qui impose des critères de transparence, de sobriété énergétique et d’utilité sociale avant toute mise sur le marché.

Les promesses d’une superintelligence sont-elles crédibles ?

Sans avancées drastiques en compréhension du contexte, ces scénarios restent hypothétiques ; pour l’heure, la priorité est d’assurer la fiabilité des IA existantes.

Source: www.latribune.fr

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *