UN SUJET · DES FAITS · DES IDÉES · LE DÉBAT · UN ÉDITO
23 MARS 2026
L'IA : LE MEILLEUR ET LE PIRE, COMME TOUTES LES GRANDES INNOVATIONS
GIGO OU WIGO : L’IA, MIROIR DE NOS INTENTIONSFLIP : Pour ma part je trouve que l’IA c’est comme l’être humain. Ça va du sublime à l’abject. Tout un monde….
GIGO OU WIGO : L’IA, MIROIR DE NOS INTENTIONS
FLIP : Pour ma part je trouve que l’IA c’est comme l’être humain. Ça va du sublime à l’abject. Tout un monde. Vraiment…
FLAP : Pour moi, l’IA c’est GIGO. Garbage in, Garbage out…
FLIP : Non pour moi c’est WIGO – Wisdom In, Greatness Out.
FLOP : C’est bien d’ailleurs là tout le problème
Cette conversation entre FLIP, FLAP et FLOP illustre le débat sur l’intelligence artificielle. Elle n’est ni bonne ni mauvaise en soi, juste un révélateur, un amplificateur, un miroir tendu à l’humanité. Comme l’être humain, elle peut produire le pire comme le meilleur. Tout dépend de l’intention qui préside à son usage. Et ça c’est une responsabilité humaine.
En janvier 2025, AlphaFold 3 prédit la structure de plus de 200 millions de protéines humaines en quelques heures — un travail qui aurait pris des décennies à des milliers de chercheurs. Le même mois, des deepfakes ultra-réalistes d’un candidat à des élections régionales circulent sur TikTok, vus par des millions de personnes avant d’être détectés. Même technologie. Deux usages. Deux mondes.
Ce double visage n’est pas une anomalie de l’IA. C’est la marque de toutes les grandes innovations de l’histoire. Gutenberg invente l’imprimerie : la Bible se diffuse, mais aussi les pamphlets qui allument les guerres de religion. Edison électrifie le monde : les hôpitaux s’éclairent, mais aussi les chaises électriques. Internet relie l’humanité : l’encyclopédie mondiale est gratuite, mais Cambridge Analytica manipule les élections. L’outil est toujours neutre. L’intention ne l’est jamais.
L’IA n’est pas différente — sauf sur un point : elle va plus vite que toutes les innovations qui l’ont précédée. ChatGPT a atteint 100 millions d’utilisateurs en deux mois, là où Internet avait mis sept ans. Le marché mondial de l’IA valait 244 milliards de dollars en 2025. Il dépassera 500 milliards en 2028. Cette accélération change la donne : l’humanité a toujours eu du temps pour s’adapter. Cette fois, le temps se comprime.
Cette page WOW! raconte d’abord les faits — ce que l’IA est et ce qu’elle fait déjà. Elle mesure ensuite le pire : ce que la technologie permet de détruire. Puis le meilleur : ce qu’elle permet de construire. Enfin, elle tente de répondre à la vraie question : où tout cela nous mène-t-il ? La réponse est profondément humaine.
FLIP : Pour ma part je trouve que l’IA c’est comme l’être humain. Ça va du sublime à l’abject. Tout un monde. Vraiment…
FLAP : Pour moi, l’IA c’est GIGO. Garbage in, Garbage out…
FLIP : Non pour moi c’est WIGO – Wisdom In, Greatness Out.
FLOP : C’est bien d’ailleurs là tout le problème
Cette conversation entre FLIP, FLAP et FLOP illustre le débat sur l’intelligence artificielle. Elle n’est ni bonne ni mauvaise en soi, juste un révélateur, un amplificateur, un miroir tendu à l’humanité. Comme l’être humain, elle peut produire le pire comme le meilleur. Tout dépend de l’intention qui préside à son usage. Et ça c’est une responsabilité humaine.
En janvier 2025, AlphaFold 3 prédit la structure de plus de 200 millions de protéines humaines en quelques heures — un travail qui aurait pris des décennies à des milliers de chercheurs. Le même mois, des deepfakes ultra-réalistes d’un candidat à des élections régionales circulent sur TikTok, vus par des millions de personnes avant d’être détectés. Même technologie. Deux usages. Deux mondes.
Ce double visage n’est pas une anomalie de l’IA. C’est la marque de toutes les grandes innovations de l’histoire. Gutenberg invente l’imprimerie : la Bible se diffuse, mais aussi les pamphlets qui allument les guerres de religion. Edison électrifie le monde : les hôpitaux s’éclairent, mais aussi les chaises électriques. Internet relie l’humanité : l’encyclopédie mondiale est gratuite, mais Cambridge Analytica manipule les élections. L’outil est toujours neutre. L’intention ne l’est jamais.
L’IA n’est pas différente — sauf sur un point : elle va plus vite que toutes les innovations qui l’ont précédée. ChatGPT a atteint 100 millions d’utilisateurs en deux mois, là où Internet avait mis sept ans. Le marché mondial de l’IA valait 244 milliards de dollars en 2025. Il dépassera 500 milliards en 2028. Cette accélération change la donne : l’humanité a toujours eu du temps pour s’adapter. Cette fois, le temps se comprime.
Cette page WOW! raconte d’abord les faits — ce que l’IA est et ce qu’elle fait déjà. Elle mesure ensuite le pire : ce que la technologie permet de détruire. Puis le meilleur : ce qu’elle permet de construire. Enfin, elle tente de répondre à la vraie question : où tout cela nous mène-t-il ? La réponse est profondément humaine.
LA TECHNOLOGIE S’ÉMANCIPEL’intelligence artificielle n’est pas née en 2022 avec ChatGPT. Les premiers réseaux de neurones artificiels remontent aux années 1950, avec les travaux de Walter Pitts et Warren McCulloch au MIT. Le terme « intelligence artificielle » est imaginé en 1956 par John McCarthy lors de la conférence de Dartmouth….
LA TECHNOLOGIE S’ÉMANCIPE
L’intelligence artificielle n’est pas née en 2022 avec ChatGPT. Les premiers réseaux de neurones artificiels remontent aux années 1950, avec les travaux de Walter Pitts et Warren McCulloch au MIT. Le terme « intelligence artificielle » est imaginé en 1956 par John McCarthy lors de la conférence de Dartmouth. Pendant soixante ans, le domaine alterne entre enthousiasme et désillusion — les fameux « hivers de l’IA », périodes de financement hasardeux et de promesses non tenues.
Le tournant débute en 2012, avec AlexNet : un réseau de neurones profond qui écrase tous ses concurrents dans la reconnaissance d’images. La puissance de calcul explose. Les données s’accumulent. Les algorithmes s’améliorent. En 2016, AlphaGo bat le champion du monde de go, jeu réputé inatteignable par la machine — le nombre de configurations possibles dépasse celui des atomes dans l’Univers observable. En 2020, AlphaFold résout en quelques heures un problème de biologie moléculaire vieux de cinquante ans : la prédiction de la structure tridimensionnelle des protéines. La revue Science le classe « percée de l’année ». En novembre 2022, ChatGPT franchit 100 millions d’utilisateurs en deux mois.
En 2025, les chiffres donnent le vertige. Le marché mondial de l’IA est évalué à 244 milliards de dollars, en croissance de 32 % par rapport à l’année précédente. L’IA générative seule devrait dépasser 100 milliards de dollars en 2028, contre huit milliards en 2023. En France, 88 % des grandes organisations utilisent l’IA dans au moins une fonction métier en 2025, contre 78 % en 2024. Paris est devenu le premier hub européen de l’IA générative, avec 1 000 start-ups spécialisées et 109 milliards d’euros d’investissements annoncés lors du Sommet de l’IA de 2025.
Les performances progressent à un rythme jamais vu. Selon l’AI Index 2025 de Stanford, les scores des systèmes d’IA sur les benchmarks de référence ont bondi de 18,8 à 67,3 points en un an sur certains tests. Dans certains domaines — programmation, diagnostic médical, détection de protéines — les IA surpassent déjà les humains. Une seule requête à ChatGPT consomme dix fois plus d’électricité qu’une recherche Google. L’entraînement de GPT-4 aurait nécessité quarante fois plus d’énergie que GPT-3. La technologie accélère. Ses coûts aussi.
L’intelligence artificielle n’est pas née en 2022 avec ChatGPT. Les premiers réseaux de neurones artificiels remontent aux années 1950, avec les travaux de Walter Pitts et Warren McCulloch au MIT. Le terme « intelligence artificielle » est imaginé en 1956 par John McCarthy lors de la conférence de Dartmouth. Pendant soixante ans, le domaine alterne entre enthousiasme et désillusion — les fameux « hivers de l’IA », périodes de financement hasardeux et de promesses non tenues.
Le tournant débute en 2012, avec AlexNet : un réseau de neurones profond qui écrase tous ses concurrents dans la reconnaissance d’images. La puissance de calcul explose. Les données s’accumulent. Les algorithmes s’améliorent. En 2016, AlphaGo bat le champion du monde de go, jeu réputé inatteignable par la machine — le nombre de configurations possibles dépasse celui des atomes dans l’Univers observable. En 2020, AlphaFold résout en quelques heures un problème de biologie moléculaire vieux de cinquante ans : la prédiction de la structure tridimensionnelle des protéines. La revue Science le classe « percée de l’année ». En novembre 2022, ChatGPT franchit 100 millions d’utilisateurs en deux mois.
En 2025, les chiffres donnent le vertige. Le marché mondial de l’IA est évalué à 244 milliards de dollars, en croissance de 32 % par rapport à l’année précédente. L’IA générative seule devrait dépasser 100 milliards de dollars en 2028, contre huit milliards en 2023. En France, 88 % des grandes organisations utilisent l’IA dans au moins une fonction métier en 2025, contre 78 % en 2024. Paris est devenu le premier hub européen de l’IA générative, avec 1 000 start-ups spécialisées et 109 milliards d’euros d’investissements annoncés lors du Sommet de l’IA de 2025.
Les performances progressent à un rythme jamais vu. Selon l’AI Index 2025 de Stanford, les scores des systèmes d’IA sur les benchmarks de référence ont bondi de 18,8 à 67,3 points en un an sur certains tests. Dans certains domaines — programmation, diagnostic médical, détection de protéines — les IA surpassent déjà les humains. Une seule requête à ChatGPT consomme dix fois plus d’électricité qu’une recherche Google. L’entraînement de GPT-4 aurait nécessité quarante fois plus d’énergie que GPT-3. La technologie accélère. Ses coûts aussi.
LE PIRE AVEC L’IA : DÉTRUIREEn janvier 2024, une entreprise hongkongaise perd 25 millions de dollars. Un employé a participé à une conférence vidéo avec ce qu’il croyait être son directeur financier et plusieurs collègues. Tous étaient des deepfakes….
LE PIRE AVEC L’IA : DÉTRUIRE
En janvier 2024, une entreprise hongkongaise perd 25 millions de dollars. Un employé a participé à une conférence vidéo avec ce qu’il croyait être son directeur financier et plusieurs collègues. Tous étaient des deepfakes. La transaction est validée. L’argent est viré. Selon Deloitte, l’IA générative pourrait faire grimper les pertes liées à la fraude aux États-Unis de 12,3 milliards de dollars en 2023 à 40 milliards en 2027.
Les deepfakes ne sont pas une nuisance marginale. Le Forum économique mondial classe la désinformation amplifiée par l’IA parmi les premiers risques mondiaux. En Europe, leur nombre a été multiplié par huit dans la fraude à l’identité entre 2022 et 2023. Des vidéos deepfakes de médecins circulent sur TikTok pour promouvoir des escroqueries sanitaires. Des voix clonées imitent des proches pour extorquer de l’argent. L’UNESCO pointe ce qu’elle appelle une « crise épistémologique » : nous approchons d’un seuil au-delà duquel les humains ne pourront plus distinguer le réel du synthétique sans assistance technologique.
L’emploi est une autre ligne de fracture. Le FMI estime que 40 % des emplois mondiaux sont exposés à l’IA. Les classes moyennes — traduction, droit, comptabilité, journalisme, programmation — sont en première ligne. Une étude de Roland Berger évalue à 430 000 le nombre de postes de fonctionnaires français dont les tâches sont automatisables. Le risque n’est pas nécessairement le chômage massif — chaque vague technologique a finalement créé plus d’emplois qu’elle n’en a détruits — mais la vitesse de la transition qui comprime le temps d’adaptation. Ce sera brutal.
L’empreinte environnementale est encore largement sous-évaluée. Le numérique représente déjà 4,4 % des émissions carbone françaises. L’entraînement de Llama 3.1 de Meta aurait généré près de 9 000 tonnes de CO₂ — dix-huit fois plus que GPT-3. Les émissions de Google ont augmenté de 48 % en quelques années, celles de Microsoft de 30 %. Et les armes : la Russie, la Chine, les États-Unis et Israël déploient des systèmes d’armes létales autonomes capables de choisir et d’engager des cibles sans intervention humaine. Une erreur d’identification algorithmique dans un conflit à haute intensité pourrait avoir des conséquences que personne ne maîtrise.
En janvier 2024, une entreprise hongkongaise perd 25 millions de dollars. Un employé a participé à une conférence vidéo avec ce qu’il croyait être son directeur financier et plusieurs collègues. Tous étaient des deepfakes. La transaction est validée. L’argent est viré. Selon Deloitte, l’IA générative pourrait faire grimper les pertes liées à la fraude aux États-Unis de 12,3 milliards de dollars en 2023 à 40 milliards en 2027.
Les deepfakes ne sont pas une nuisance marginale. Le Forum économique mondial classe la désinformation amplifiée par l’IA parmi les premiers risques mondiaux. En Europe, leur nombre a été multiplié par huit dans la fraude à l’identité entre 2022 et 2023. Des vidéos deepfakes de médecins circulent sur TikTok pour promouvoir des escroqueries sanitaires. Des voix clonées imitent des proches pour extorquer de l’argent. L’UNESCO pointe ce qu’elle appelle une « crise épistémologique » : nous approchons d’un seuil au-delà duquel les humains ne pourront plus distinguer le réel du synthétique sans assistance technologique.
L’emploi est une autre ligne de fracture. Le FMI estime que 40 % des emplois mondiaux sont exposés à l’IA. Les classes moyennes — traduction, droit, comptabilité, journalisme, programmation — sont en première ligne. Une étude de Roland Berger évalue à 430 000 le nombre de postes de fonctionnaires français dont les tâches sont automatisables. Le risque n’est pas nécessairement le chômage massif — chaque vague technologique a finalement créé plus d’emplois qu’elle n’en a détruits — mais la vitesse de la transition qui comprime le temps d’adaptation. Ce sera brutal.
L’empreinte environnementale est encore largement sous-évaluée. Le numérique représente déjà 4,4 % des émissions carbone françaises. L’entraînement de Llama 3.1 de Meta aurait généré près de 9 000 tonnes de CO₂ — dix-huit fois plus que GPT-3. Les émissions de Google ont augmenté de 48 % en quelques années, celles de Microsoft de 30 %. Et les armes : la Russie, la Chine, les États-Unis et Israël déploient des systèmes d’armes létales autonomes capables de choisir et d’engager des cibles sans intervention humaine. Une erreur d’identification algorithmique dans un conflit à haute intensité pourrait avoir des conséquences que personne ne maîtrise.
LE MEILLEUR AVEC L’IA : CONSTRUIREAlphaFold 2 a prédit la structure de plus de 200 millions de protéines avec un taux de succès de 92 %. Ce que cela représente concrètement : un travail qui se mesurait en semaines peut désormais être multiplié par plusieurs milliers. La revue Nature a répertorié des recherches citant AlphaFold dans la découverte de médicaments, la biosynthèse enzymatique, et l’oncologie de précision….
LE MEILLEUR AVEC L’IA : CONSTRUIRE
AlphaFold 2 a prédit la structure de plus de 200 millions de protéines avec un taux de succès de 92 %. Ce que cela représente concrètement : un travail qui se mesurait en semaines peut désormais être multiplié par plusieurs milliers. La revue Nature a répertorié des recherches citant AlphaFold dans la découverte de médicaments, la biosynthèse enzymatique, et l’oncologie de précision. Un système dérivé, AlphaImmuno, prétend avoir identifié des « interrupteurs moléculaires » permettant au système immunitaire de détecter des tumeurs « froides » jusque-là invisibles — ouvrant potentiellement l’immunothérapie à 70 % des patients atteints de cancers résistants.
Les gains de productivité ne sont pas une promesse. McKinsey (2024) mesure une augmentation de 30 % de la vitesse d’exécution dans les entreprises adoptant l’IA. Des études microéconomiques montrent que les gains touchent d’abord les travailleurs les moins productifs, qui rattrapent les plus performants. L’IA pourrait générer entre 250 et 420 milliards d’euros de PIB supplémentaire en France sur dix ans. Ce sont des ordres de grandeur, pas des certitudes — mais les paramètres sur lesquels ils reposent sont réels.
La démocratisation du savoir est peut-être le bénéfice le plus profond, et le moins quantifiable. Un élève dans une école mal dotée peut, pour la première fois, accéder à un tuteur disponible 24 heures sur 24, capable de s’adapter à son niveau et à son rythme. Un artisan peut automatiser sa comptabilité. Un médecin de campagne peut confronter un cas rare aux meilleures littératures mondiales en quelques secondes. L’IA, dans ce registre, réduit les écarts plutôt qu’elle ne les creuse.
La lutte contre le changement climatique constitue un troisième front. Les réseaux électriques optimisés par IA réduisent les pertes. Les modèles de prévision météorologique atteignent des précisions inégalées. La recherche en matériaux pour les batteries, les panneaux solaires ou le stockage de l’énergie accélère. Paradoxe à noter : la technologie qui aggrave l’empreinte énergétique du numérique est aussi celle qui pourrait permettre à l’humanité de décarboner son économie plus vite que prévu.
AlphaFold 2 a prédit la structure de plus de 200 millions de protéines avec un taux de succès de 92 %. Ce que cela représente concrètement : un travail qui se mesurait en semaines peut désormais être multiplié par plusieurs milliers. La revue Nature a répertorié des recherches citant AlphaFold dans la découverte de médicaments, la biosynthèse enzymatique, et l’oncologie de précision. Un système dérivé, AlphaImmuno, prétend avoir identifié des « interrupteurs moléculaires » permettant au système immunitaire de détecter des tumeurs « froides » jusque-là invisibles — ouvrant potentiellement l’immunothérapie à 70 % des patients atteints de cancers résistants.
Les gains de productivité ne sont pas une promesse. McKinsey (2024) mesure une augmentation de 30 % de la vitesse d’exécution dans les entreprises adoptant l’IA. Des études microéconomiques montrent que les gains touchent d’abord les travailleurs les moins productifs, qui rattrapent les plus performants. L’IA pourrait générer entre 250 et 420 milliards d’euros de PIB supplémentaire en France sur dix ans. Ce sont des ordres de grandeur, pas des certitudes — mais les paramètres sur lesquels ils reposent sont réels.
La démocratisation du savoir est peut-être le bénéfice le plus profond, et le moins quantifiable. Un élève dans une école mal dotée peut, pour la première fois, accéder à un tuteur disponible 24 heures sur 24, capable de s’adapter à son niveau et à son rythme. Un artisan peut automatiser sa comptabilité. Un médecin de campagne peut confronter un cas rare aux meilleures littératures mondiales en quelques secondes. L’IA, dans ce registre, réduit les écarts plutôt qu’elle ne les creuse.
La lutte contre le changement climatique constitue un troisième front. Les réseaux électriques optimisés par IA réduisent les pertes. Les modèles de prévision météorologique atteignent des précisions inégalées. La recherche en matériaux pour les batteries, les panneaux solaires ou le stockage de l’énergie accélère. Paradoxe à noter : la technologie qui aggrave l’empreinte énergétique du numérique est aussi celle qui pourrait permettre à l’humanité de décarboner son économie plus vite que prévu.
OÙ TOUT CELA NOUS MÈNE ?Trois scénarios se dessinent, chacun plausible selon nos choix collectifs. Aucun n’est inéluctable. Tous ont un prix….
OÙ TOUT CELA NOUS MÈNE ?
Trois scénarios se dessinent, chacun plausible selon nos choix collectifs. Aucun n’est inéluctable. Tous ont un prix. Premier scénario : l’accélération non maîtrisée. Les IA s’améliorent plus vite que les institutions ne légifèrent. Ce n’est pas une hypothèse : c’est déjà le cas. L’AI Act européen a été signé en 2024. Les systèmes qu’il visait à réguler étaient déjà obsolètes à sa publication. Dans ce scénario, les élections de 2027 et 2028 — France, Allemagne, États-Unis — se jouent dans un environnement où aucun électeur ne peut distinguer un discours authentique d’un discours généré. Les 30 % de cadres moyens exposés à l’automatisation n’ont pas de filet de reconversion. Les systèmes d’armes autonomes déployés en zones de conflit commettent des « erreurs d’identification » que personne ne revendique. Ce scénario n’est pas catastrophiste : il est la simple extrapolation des tendances actuelles, sans correctif.
Deuxième scénario : la régulation qui étouffe — ou plutôt, qui étouffe les mauvaises personnes. L’Union européenne régule. Les États-Unis sous Trump déréglementent. La Chine investit massivement sans contraintes éthiques. Ainsi, l’Europe pourrait devenir le musée mondial de l’« IA éthique », c’est-à-dire d’une IA que personne d’autre ne construit. Ses règles s’appliquent à ses entreprises, pas aux systèmes américains ou chinois que ses citoyens utilisent massivement. Pire : trois entreprises américaines — Google, Microsoft, Amazon — captent déjà 80 % de l’augmentation des dépenses françaises en infrastructure IA. La « souveraineté numérique » reste une ambition de discours officiel pendant que les données des entreprises et administrations européennes voyagent vers des serveurs qu’elles ne contrôlent pas. Ce scénario n’est pas meilleur que le premier : il combine le désavantage compétitif et les risques systémiques.
Troisième scénario : la transition utile. Elle est la plus exigeante qui suppose quatre conditions simultanées qu’aucune démocratie n’a encore réunies sur aucun sujet comparable. Premièrement, une redistribution effective des gains de productivité générés par l’IA — pas par des déclarations d’intention, mais par des mécanismes concrets : taxation des rentes algorithmiques, financement de la reconversion, partage du temps de travail. Deuxièmement, une gouvernance réelle des données d’entraînement — ce que les modèles apprennent définit ce qu’ils reproduisent ; laisser cinq entreprises privées décider seules de l’alimentation de ces systèmes revient à déléguer la rédaction des manuels scolaires à des intérêts commerciaux non élus. Troisièmement, une coordination internationale qui a jusqu’ici échoué sur le climat, le nucléaire, la fiscalité numérique : pourquoi réussir sur l’IA ? Parce que les conséquences d’un échec seront plus rapides et moins réversibles. Quatrièmement, un investissement massif dans la littératie numérique — non pas apprendre à utiliser des outils, mais comprendre ce qu’ils font, pourquoi ils se trompent et comment les contredire. Ce scénario existe. Mais c’est pas gagné.
Trois scénarios se dessinent, chacun plausible selon nos choix collectifs. Aucun n’est inéluctable. Tous ont un prix. Premier scénario : l’accélération non maîtrisée. Les IA s’améliorent plus vite que les institutions ne légifèrent. Ce n’est pas une hypothèse : c’est déjà le cas. L’AI Act européen a été signé en 2024. Les systèmes qu’il visait à réguler étaient déjà obsolètes à sa publication. Dans ce scénario, les élections de 2027 et 2028 — France, Allemagne, États-Unis — se jouent dans un environnement où aucun électeur ne peut distinguer un discours authentique d’un discours généré. Les 30 % de cadres moyens exposés à l’automatisation n’ont pas de filet de reconversion. Les systèmes d’armes autonomes déployés en zones de conflit commettent des « erreurs d’identification » que personne ne revendique. Ce scénario n’est pas catastrophiste : il est la simple extrapolation des tendances actuelles, sans correctif.
Deuxième scénario : la régulation qui étouffe — ou plutôt, qui étouffe les mauvaises personnes. L’Union européenne régule. Les États-Unis sous Trump déréglementent. La Chine investit massivement sans contraintes éthiques. Ainsi, l’Europe pourrait devenir le musée mondial de l’« IA éthique », c’est-à-dire d’une IA que personne d’autre ne construit. Ses règles s’appliquent à ses entreprises, pas aux systèmes américains ou chinois que ses citoyens utilisent massivement. Pire : trois entreprises américaines — Google, Microsoft, Amazon — captent déjà 80 % de l’augmentation des dépenses françaises en infrastructure IA. La « souveraineté numérique » reste une ambition de discours officiel pendant que les données des entreprises et administrations européennes voyagent vers des serveurs qu’elles ne contrôlent pas. Ce scénario n’est pas meilleur que le premier : il combine le désavantage compétitif et les risques systémiques.
Troisième scénario : la transition utile. Elle est la plus exigeante qui suppose quatre conditions simultanées qu’aucune démocratie n’a encore réunies sur aucun sujet comparable. Premièrement, une redistribution effective des gains de productivité générés par l’IA — pas par des déclarations d’intention, mais par des mécanismes concrets : taxation des rentes algorithmiques, financement de la reconversion, partage du temps de travail. Deuxièmement, une gouvernance réelle des données d’entraînement — ce que les modèles apprennent définit ce qu’ils reproduisent ; laisser cinq entreprises privées décider seules de l’alimentation de ces systèmes revient à déléguer la rédaction des manuels scolaires à des intérêts commerciaux non élus. Troisièmement, une coordination internationale qui a jusqu’ici échoué sur le climat, le nucléaire, la fiscalité numérique : pourquoi réussir sur l’IA ? Parce que les conséquences d’un échec seront plus rapides et moins réversibles. Quatrièmement, un investissement massif dans la littératie numérique — non pas apprendre à utiliser des outils, mais comprendre ce qu’ils font, pourquoi ils se trompent et comment les contredire. Ce scénario existe. Mais c’est pas gagné.
« Feed it trash, get trash. Feed it thought, get thunder »... « Feed it trash, get trash. Feed it thought, get thunder »
« Feed it trash, get trash. Feed it thought, get thunder »...
« Feed it trash, get trash. Feed it thought, get thunder »
POUR ALLER PLUS LOIN… Il y a une question que le débat public sur l’IA évite soigneusement : qui décide ? Pas qui régule — qui construit, qui paramètre, qui définit les objectifs des systèmes qui vont structurer l’information, les marchés du travail et les décisions médicales de trois milliards de personnes. La réponse actuelle est claire et rarement formulée franchement : une poignée d’ingénieurs de trente-cinq ans, employés par cinq entreprises basées dans un rayon de cinquante kilomètres autour de San Francisco….
POUR ALLER PLUS LOIN… Il y a une question que le débat public sur l’IA évite soigneusement : qui décide ? Pas qui régule — qui construit, qui paramètre, qui définit les objectifs des systèmes qui vont structurer l’information, les marchés du travail et les décisions médicales de trois milliards de personnes. La réponse actuelle est claire et rarement formulée franchement : une poignée d’ingénieurs de trente-cinq ans, employés par cinq entreprises basées dans un rayon de cinquante kilomètres autour de San Francisco. Ce n’est pas un procès : ce sont des faits. Et cette concentration de pouvoir sur l’infrastructure cognitive mondiale n’a pas d’équivalent dans l’histoire.
L’imprimerie est l’analogie la plus citée. Elle est aussi la plus trompeuse si l’on s’arrête à la surface. Gutenberg a démocratisé la production de texte. Mais chaque imprimeur était local, identifiable, contrôlable — par l’Église, par le prince, par la guilde. La censure était brutale, mais elle était possible. Les grands modèles de langage actuels sont entraînés sur l’ensemble de la production écrite de l’humanité, dans des datacenters dont les gouvernements ne connaissent pas les paramètres d’entraînement. Aucun État n’a été consulté sur ce que ces systèmes apprennent à considérer comme vrai, normal, désirable.
Il y a une différence plus profonde encore avec toutes les innovations précédentes : pour la première fois, la technologie n’est pas un outil passif. Elle apprend. Dans certaines configurations, elle améliore ses propres paramètres. Ce n’est pas de la science-fiction : c’est ce qu’on appelle le renforcement par rétroaction. Cela ne signifie pas que les IA ont des intentions. L’anthropomorphisme est le premier piège. Mais cela signifie que le rapport humain-outil se complexifie d’une manière que les catégories politiques classiques ne capturent pas. Les élus régulent des comportements. Comment réguler un système dont les comportements émergent de milliards d’interactions non prévues par ses créateurs ?
La vraie question du GIGO n’est pas individuelle — elle est systémique. Si les systèmes d’IA sont entraînés sur un écosystème informationnel déjà saturé de polarisation, de désinformation et de contenus optimisés pour l’engagement émotionnel plutôt que pour la vérité, alors le problème n’est pas l’utilisateur qui pose une mauvaise question : c’est la base d’entraînement elle-même qui est contaminée. Garbage In, Garbage Out à l’échelle planétaire. Wisdom In, Greatness Out suppose que la « wisdom » soit disponible à grande échelle — ce qui est précisément ce que les algorithmes de plateformes ont systématiquement sous-valorisé depuis vingt ans au profit du sensationnel.
L’histoire des grandes innovations suggère que le meilleur finit par l’emporter sur le pire. Mais « finir par » masque des décennies de coûts réels. L’imprimerie a produit les guerres de religion avant les Lumières. L’électricité a alimenté les chaînes d’assemblage avant le confort domestique. Internet a produit la surveillance de masse avant la médecine personnalisée. Pendant ces périodes de transition, des millions de personnes ont payé le coût de l’adaptation sans en percevoir les bénéfices. La question morale n’est pas : « est-ce que ça finira bien ? » Elle est : « qui paie le prix de la transition, et a-t-on le droit de le leur imposer sans leur consentement ? »
Ce que la transition utile requiert va au-delà de la régulation technique. Elle exige une refondation partielle de la démocratie représentative — des institutions capables de prendre des décisions sur des systèmes que leurs membres ne comprennent pas, à une vitesse que leurs procédures ne permettent pas, sur des sujets où le lobbying des entreprises concernées dépasse de loin leur expertise interne. Cela ne s’improvise pas. Cela suppose d’investir dans des capacités étatiques que vingt ans d’externalisation ont érodées. Et cela suppose une culture politique du risque technologique que ni la France ni ses voisins n’ont encore développée.
La différence entre l’IA et toutes les innovations qui l’ont précédée : la vitesse de diffusion laisse moins de temps pour corriger les erreurs. ChatGPT a atteint 100 millions d’utilisateurs en deux mois. La chaise électrique a mis vingt ans à provoquer les premières régulations étatiques. Si le rythme d’adoption de l’IA est vingt fois plus rapide que celui de l’électricité, le temps d’adaptation des institutions devrait l’être aussi. Il ne l’est pas. C’est bien le problème central.
L’imprimerie est l’analogie la plus citée. Elle est aussi la plus trompeuse si l’on s’arrête à la surface. Gutenberg a démocratisé la production de texte. Mais chaque imprimeur était local, identifiable, contrôlable — par l’Église, par le prince, par la guilde. La censure était brutale, mais elle était possible. Les grands modèles de langage actuels sont entraînés sur l’ensemble de la production écrite de l’humanité, dans des datacenters dont les gouvernements ne connaissent pas les paramètres d’entraînement. Aucun État n’a été consulté sur ce que ces systèmes apprennent à considérer comme vrai, normal, désirable.
Il y a une différence plus profonde encore avec toutes les innovations précédentes : pour la première fois, la technologie n’est pas un outil passif. Elle apprend. Dans certaines configurations, elle améliore ses propres paramètres. Ce n’est pas de la science-fiction : c’est ce qu’on appelle le renforcement par rétroaction. Cela ne signifie pas que les IA ont des intentions. L’anthropomorphisme est le premier piège. Mais cela signifie que le rapport humain-outil se complexifie d’une manière que les catégories politiques classiques ne capturent pas. Les élus régulent des comportements. Comment réguler un système dont les comportements émergent de milliards d’interactions non prévues par ses créateurs ?
La vraie question du GIGO n’est pas individuelle — elle est systémique. Si les systèmes d’IA sont entraînés sur un écosystème informationnel déjà saturé de polarisation, de désinformation et de contenus optimisés pour l’engagement émotionnel plutôt que pour la vérité, alors le problème n’est pas l’utilisateur qui pose une mauvaise question : c’est la base d’entraînement elle-même qui est contaminée. Garbage In, Garbage Out à l’échelle planétaire. Wisdom In, Greatness Out suppose que la « wisdom » soit disponible à grande échelle — ce qui est précisément ce que les algorithmes de plateformes ont systématiquement sous-valorisé depuis vingt ans au profit du sensationnel.
L’histoire des grandes innovations suggère que le meilleur finit par l’emporter sur le pire. Mais « finir par » masque des décennies de coûts réels. L’imprimerie a produit les guerres de religion avant les Lumières. L’électricité a alimenté les chaînes d’assemblage avant le confort domestique. Internet a produit la surveillance de masse avant la médecine personnalisée. Pendant ces périodes de transition, des millions de personnes ont payé le coût de l’adaptation sans en percevoir les bénéfices. La question morale n’est pas : « est-ce que ça finira bien ? » Elle est : « qui paie le prix de la transition, et a-t-on le droit de le leur imposer sans leur consentement ? »
Ce que la transition utile requiert va au-delà de la régulation technique. Elle exige une refondation partielle de la démocratie représentative — des institutions capables de prendre des décisions sur des systèmes que leurs membres ne comprennent pas, à une vitesse que leurs procédures ne permettent pas, sur des sujets où le lobbying des entreprises concernées dépasse de loin leur expertise interne. Cela ne s’improvise pas. Cela suppose d’investir dans des capacités étatiques que vingt ans d’externalisation ont érodées. Et cela suppose une culture politique du risque technologique que ni la France ni ses voisins n’ont encore développée.
La différence entre l’IA et toutes les innovations qui l’ont précédée : la vitesse de diffusion laisse moins de temps pour corriger les erreurs. ChatGPT a atteint 100 millions d’utilisateurs en deux mois. La chaise électrique a mis vingt ans à provoquer les premières régulations étatiques. Si le rythme d’adoption de l’IA est vingt fois plus rapide que celui de l’électricité, le temps d’adaptation des institutions devrait l’être aussi. Il ne l’est pas. C’est bien le problème central.
WOW ! est un projet de recherche indépendant, privé, libre, sur les médias et sur l’ IA en tant que moyen d’information, d’écriture, de débat et de réflexion. Tous les textes sont hybrides (humain et IA).
Aucun ne représente les opinions de WOW!
Pour toute question : contact@wow-media.fr