UN SUJET · DES FAITS · DES IDÉES · LE DÉBAT · UN ÉDITO
24 FÉVRIER 2026
LA FABULEUSE HISTOIRE DU SABLE (LE SILICIUM)
Le paradoxe tient en quelques mots : toute notre civilisation numérique repose sur du sable. Le silicium — deuxième élément le plus abondant de la croûte terrestre après l’oxygène — est partout sous nos pieds et nulle part dans nos usines. Transformer ce matériau banal en puce capable d’exécuter des milliards d’opérations par seconde est l’une des plus grandes transmutations industrielles de l’histoire humaine….
Le paradoxe tient en quelques mots : toute notre civilisation numérique repose sur du sable. Le silicium — deuxième élément le plus abondant de la croûte terrestre après l’oxygène — est partout sous nos pieds et nulle part dans nos usines. Transformer ce matériau banal en puce capable d’exécuter des milliards d’opérations par seconde est l’une des plus grandes transmutations industrielles de l’histoire humaine.
En moins d’un siècle, le silicium est passé de curiosité scientifique à matière la plus stratégique de la planète. Les technologies les plus décisives de notre époque — intelligence artificielle, supercalculateurs, smartphones, satellites, voitures autonomes — reposent toutes sur quelques grammes de ce cristal. Des entreprises inexistantes il y a trente ans surpassent aujourd’hui des nations entières en capitalisation boursière.
La bataille pour contrôler cette production s’est resserrée autour de quelques îlots industriels. Près de 70 % des puces les plus avancées du monde sortent des usines d’une seule entreprise taïwanaise. Les machines qui permettent de les fabriquer ne sont produites que par un seul fabricant néerlandais. Cette concentration extrême équivaut à confier l’alimentation mondiale à deux ou trois fermes.
Cette page WOW ! retrace l’aventure technique et industrielle qui a fait du silicium ce qu’il est : de la découverte du transistor aux processeurs qui alimentent l’intelligence artificielle, des premiers laboratoires américains aux dépendances géopolitiques d’aujourd’hui.
De Faraday à NVIDIA, l’histoire n’est pas finie.
En moins d’un siècle, le silicium est passé de curiosité scientifique à matière la plus stratégique de la planète. Les technologies les plus décisives de notre époque — intelligence artificielle, supercalculateurs, smartphones, satellites, voitures autonomes — reposent toutes sur quelques grammes de ce cristal. Des entreprises inexistantes il y a trente ans surpassent aujourd’hui des nations entières en capitalisation boursière.
La bataille pour contrôler cette production s’est resserrée autour de quelques îlots industriels. Près de 70 % des puces les plus avancées du monde sortent des usines d’une seule entreprise taïwanaise. Les machines qui permettent de les fabriquer ne sont produites que par un seul fabricant néerlandais. Cette concentration extrême équivaut à confier l’alimentation mondiale à deux ou trois fermes.
Cette page WOW ! retrace l’aventure technique et industrielle qui a fait du silicium ce qu’il est : de la découverte du transistor aux processeurs qui alimentent l’intelligence artificielle, des premiers laboratoires américains aux dépendances géopolitiques d’aujourd’hui.
De Faraday à NVIDIA, l’histoire n’est pas finie.
LES FAITS.
En 1833, Michael Faraday observe un phénomène étrange : certains matériaux voient leur conductivité augmenter avec la température, contrairement aux métaux. Cette curiosité scientifique dormira dans les carnets de laboratoire pendant un siècle, sans application pratique….
En 1833, Michael Faraday observe un phénomène étrange : certains matériaux voient leur conductivité augmenter avec la température, contrairement aux métaux. Cette curiosité scientifique dormira dans les carnets de laboratoire pendant un siècle, sans application pratique….
LES FAITS.
En 1833, Michael Faraday observe un phénomène étrange : certains matériaux voient leur conductivité augmenter avec la température, contrairement aux métaux. Cette curiosité scientifique dormira dans les carnets de laboratoire pendant un siècle, sans application pratique.
En 1947, dans les sous-sols des Bell Laboratories du New Jersey, trois physiciens — John Bardeen, Walter Brattain et William Shockley — réalisent une expérience décisive : ils appliquent deux contacts en or sur un cristal de germanium et obtiennent un signal amplifié. Le transistor vient de naître, révolutionnant une électronique jusqu’alors dominée par les encombrants tubes à vide. Shockley, Bardeen et Brattain recevront le prix Nobel de physique en 1956.
Pourquoi le germanium cède-t-il ensuite la place au silicium ? Le germanium domine d’abord : plus facile à purifier, plus rapide en hautes fréquences. Mais il se dégrade au-delà de 70°C. Le silicium, lui, résiste jusqu’à 125°C et possède une propriété chimique providentielle : chauffé, il forme du dioxyde de silicium, une couche d’oxyde extrêmement stable qui protège sa surface et permet d’y intégrer des composants avec une précision inégalée.
Le basculement définitif survient en mai 1954, lors d’une conférence de l’Institute of Radio Engineers à Dayton, Ohio. Gordon Teal, ingénieur de Texas Instruments, annonce calmement depuis la tribune : « Nous avons des transistors en silicium. Ils sont en production. » Pour prouver la supériorité thermique, Teal plonge des transistors au silicium dans de l’huile bouillante à 100°C — ils continuent de fonctionner. Opération répétée avec du germanium : le signal meurt instantanément. Ce jour-là, l’industrie comprend qu’elle tient son matériau.
En 1958, Jack Kilby, chez Texas Instruments, invente le circuit intégré en assemblant plusieurs composants sur une seule puce. La course à la miniaturisation peut commencer. Gordon Moore, cofondateur d’Intel, formule en 1965 une observation empirique qui devient prophétie auto-réalisatrice : le nombre de transistors sur une puce double tous les deux ans. Les premiers microprocesseurs des années 1970 comptaient quelques milliers de transistors. Aujourd’hui, les puces les plus avancées en intègrent cent milliards. La puissance a été multipliée non pas par dix ni par mille, mais par plusieurs millions.
Fondée en 1968 dans la Silicon Valley par Robert Noyce et Gordon Moore, Intel inaugure l’ère moderne avec le microprocesseur 4004 en 1971 : pour la première fois, toute l’intelligence d’un circuit tient sur un seul fragment de silicium. L’architecture x86 devient la grammaire universelle des ordinateurs, les processeurs Pentium équipent des centaines de millions de machines, et les usines Intel comptent parmi les lieux les plus sophistiqués de la planète.
En 1833, Michael Faraday observe un phénomène étrange : certains matériaux voient leur conductivité augmenter avec la température, contrairement aux métaux. Cette curiosité scientifique dormira dans les carnets de laboratoire pendant un siècle, sans application pratique.
En 1947, dans les sous-sols des Bell Laboratories du New Jersey, trois physiciens — John Bardeen, Walter Brattain et William Shockley — réalisent une expérience décisive : ils appliquent deux contacts en or sur un cristal de germanium et obtiennent un signal amplifié. Le transistor vient de naître, révolutionnant une électronique jusqu’alors dominée par les encombrants tubes à vide. Shockley, Bardeen et Brattain recevront le prix Nobel de physique en 1956.
Pourquoi le germanium cède-t-il ensuite la place au silicium ? Le germanium domine d’abord : plus facile à purifier, plus rapide en hautes fréquences. Mais il se dégrade au-delà de 70°C. Le silicium, lui, résiste jusqu’à 125°C et possède une propriété chimique providentielle : chauffé, il forme du dioxyde de silicium, une couche d’oxyde extrêmement stable qui protège sa surface et permet d’y intégrer des composants avec une précision inégalée.
Le basculement définitif survient en mai 1954, lors d’une conférence de l’Institute of Radio Engineers à Dayton, Ohio. Gordon Teal, ingénieur de Texas Instruments, annonce calmement depuis la tribune : « Nous avons des transistors en silicium. Ils sont en production. » Pour prouver la supériorité thermique, Teal plonge des transistors au silicium dans de l’huile bouillante à 100°C — ils continuent de fonctionner. Opération répétée avec du germanium : le signal meurt instantanément. Ce jour-là, l’industrie comprend qu’elle tient son matériau.
En 1958, Jack Kilby, chez Texas Instruments, invente le circuit intégré en assemblant plusieurs composants sur une seule puce. La course à la miniaturisation peut commencer. Gordon Moore, cofondateur d’Intel, formule en 1965 une observation empirique qui devient prophétie auto-réalisatrice : le nombre de transistors sur une puce double tous les deux ans. Les premiers microprocesseurs des années 1970 comptaient quelques milliers de transistors. Aujourd’hui, les puces les plus avancées en intègrent cent milliards. La puissance a été multipliée non pas par dix ni par mille, mais par plusieurs millions.
Fondée en 1968 dans la Silicon Valley par Robert Noyce et Gordon Moore, Intel inaugure l’ère moderne avec le microprocesseur 4004 en 1971 : pour la première fois, toute l’intelligence d’un circuit tient sur un seul fragment de silicium. L’architecture x86 devient la grammaire universelle des ordinateurs, les processeurs Pentium équipent des centaines de millions de machines, et les usines Intel comptent parmi les lieux les plus sophistiqués de la planète.
LA LECTURE MAINSTREAM LIT LA FABULEUSE HISTOIRE DU SILICIUM COMME UNE SUCCESS STORY US, une démonstration de la puissance d’innovation du secteur privé. Intel, NVIDIA, Apple : des startups de garage devenues les entreprises les plus valorisées de l’histoire….
LA LECTURE MAINSTREAM LIT LA FABULEUSE HISTOIRE DU SILICIUM COMME UNE SUCCESS STORY US, une démonstration de la puissance d’innovation du secteur privé. Intel, NVIDIA, Apple : des startups de garage devenues les entreprises les plus valorisées de l’histoire. Pour les médias économiques traditionnels, la loi de Moore symbolise le progrès ininterrompu, la technologie comme moteur naturel de la prospérité. Le narratif dominant est celui de la compétition saine et de l’innovation vertueuse.
Une lecture plus critique pointe la concentration extrême du pouvoir. TSMC produit 70 % des puces avancées mondiales. ASML est le seul fabricant de machines de lithographie EUV. NVIDIA contrôle l’écosystème logiciel CUDA, verrou invisible qui enchaîne les chercheurs à son architecture. Ce n’est pas un marché — c’est une succession de monopoles enchaînés. L’Europe et les États-Unis ont externalisé leur souveraineté numérique sans le décider vraiment, par accumulation de décisions économiques rationnelles à court terme.
Enfin, le recul philosophique invite à voir dans l’histoire du silicium une parabole plus ancienne : toutes les civilisations ont développé des dépendances à des ressources stratégiques — le sel, le charbon, le pétrole. Chaque fois, la concentration géographique de cette ressource a engendré des rapports de force géopolitiques déstabilisants. Le silicium n’est pas exceptionnel : il est simplement le dernier chapitre d’une très vieille histoire.
Une lecture plus critique pointe la concentration extrême du pouvoir. TSMC produit 70 % des puces avancées mondiales. ASML est le seul fabricant de machines de lithographie EUV. NVIDIA contrôle l’écosystème logiciel CUDA, verrou invisible qui enchaîne les chercheurs à son architecture. Ce n’est pas un marché — c’est une succession de monopoles enchaînés. L’Europe et les États-Unis ont externalisé leur souveraineté numérique sans le décider vraiment, par accumulation de décisions économiques rationnelles à court terme.
Enfin, le recul philosophique invite à voir dans l’histoire du silicium une parabole plus ancienne : toutes les civilisations ont développé des dépendances à des ressources stratégiques — le sel, le charbon, le pétrole. Chaque fois, la concentration géographique de cette ressource a engendré des rapports de force géopolitiques déstabilisants. Le silicium n’est pas exceptionnel : il est simplement le dernier chapitre d’une très vieille histoire.
LA CHUTE D’INTEL ET LA MONTÉE DE NVIDIA. Pendant quatre décennies, Intel incarne la marche inexorable du progrès. Sa maîtrise industrielle est telle que la loi de Moore cesse d’être une prédiction pour devenir le calendrier interne de l’entreprise….
LA CHUTE D’INTEL ET LA MONTÉE DE NVIDIA. Pendant quatre décennies, Intel incarne la marche inexorable du progrès. Sa maîtrise industrielle est telle que la loi de Moore cesse d’être une prédiction pour devenir le calendrier interne de l’entreprise. Les ingénieurs d’Intel ne cherchent pas à suivre la courbe : ils sont la courbe. Au début des années 2000, Intel est l’un des symboles de la puissance américaine, fleuron du Nasdaq.
Vers le milieu des années 2010, quelque chose se grippe. Les retards s’accumulent dans les nouveaux procédés de gravure. La transition vers le 10 nanomètres, puis le 7 nanomètres, traîne. AMD profite de ces hésitations avec ses architectures chiplet plus modulaires. Intel reste un colosse, mais un colosse contesté, qui perd pied sur le terrain même qu’il avait créé.
Ce n’est pas un rival traditionnel qui va le détrôner. C’est un outsider venu du jeu vidéo. NVIDIA naît en 1993 pour résoudre un problème très précis : accélérer l’affichage 3D des jeux. Pendant quinze ans, l’entreprise prospère dans sa niche. Puis, vers 2010, plusieurs chercheurs font une découverte : un GPU n’est pas seulement une machine à dessiner des pixels. C’est une machine à multiplier des matrices — exactement ce qu’exigent les réseaux de neurones artificiels.
NVIDIA comprend immédiatement l’enjeu. L’entreprise développe CUDA, un écosystème logiciel propriétaire qui devient le standard de facto de l’IA mondiale. Chaque chercheur, chaque startup, chaque laboratoire apprend à programmer sur CUDA. Un verrouillage silencieux s’opère : vouloir se passer de NVIDIA, c’est devoir réécrire tout son code. L’entreprise bâtit des puces de plus en plus spécialisées pour le calcul scientifique, multipliant leur puissance par mille en quinze ans.
Cette montée en puissance se traduit en Bourse de façon vertigineuse. En quelques années, NVIDIA passe d’une entreprise de niche à la première capitalisation boursière du monde, dépassant Apple, Microsoft et Saudi Aramco. Chaque modèle d’OpenAI, chaque service de Google, chaque plateforme d’Amazon repose sur des GPU NVIDIA. L’entreprise ne vend plus des composants : elle vend l’infrastructure critique du futur.
Vers le milieu des années 2010, quelque chose se grippe. Les retards s’accumulent dans les nouveaux procédés de gravure. La transition vers le 10 nanomètres, puis le 7 nanomètres, traîne. AMD profite de ces hésitations avec ses architectures chiplet plus modulaires. Intel reste un colosse, mais un colosse contesté, qui perd pied sur le terrain même qu’il avait créé.
Ce n’est pas un rival traditionnel qui va le détrôner. C’est un outsider venu du jeu vidéo. NVIDIA naît en 1993 pour résoudre un problème très précis : accélérer l’affichage 3D des jeux. Pendant quinze ans, l’entreprise prospère dans sa niche. Puis, vers 2010, plusieurs chercheurs font une découverte : un GPU n’est pas seulement une machine à dessiner des pixels. C’est une machine à multiplier des matrices — exactement ce qu’exigent les réseaux de neurones artificiels.
NVIDIA comprend immédiatement l’enjeu. L’entreprise développe CUDA, un écosystème logiciel propriétaire qui devient le standard de facto de l’IA mondiale. Chaque chercheur, chaque startup, chaque laboratoire apprend à programmer sur CUDA. Un verrouillage silencieux s’opère : vouloir se passer de NVIDIA, c’est devoir réécrire tout son code. L’entreprise bâtit des puces de plus en plus spécialisées pour le calcul scientifique, multipliant leur puissance par mille en quinze ans.
Cette montée en puissance se traduit en Bourse de façon vertigineuse. En quelques années, NVIDIA passe d’une entreprise de niche à la première capitalisation boursière du monde, dépassant Apple, Microsoft et Saudi Aramco. Chaque modèle d’OpenAI, chaque service de Google, chaque plateforme d’Amazon repose sur des GPU NVIDIA. L’entreprise ne vend plus des composants : elle vend l’infrastructure critique du futur.
LA GÉOPOLITIQUE DU SILICIUM. Ni Intel ni NVIDIA ne peuvent exister sans un troisième titan, longtemps resté dans l’ombre : TSMC (Taiwan Semiconductor Manufacturing Company). Fondée en 1987, cette entreprise taïwanaise a inventé le modèle « foundry » — fabriquer des puces pour le compte d’autres entreprises….
LA GÉOPOLITIQUE DU SILICIUM. Ni Intel ni NVIDIA ne peuvent exister sans un troisième titan, longtemps resté dans l’ombre : TSMC (Taiwan Semiconductor Manufacturing Company). Fondée en 1987, cette entreprise taïwanaise a inventé le modèle « foundry » — fabriquer des puces pour le compte d’autres entreprises. Aujourd’hui, près de 70 % des puces les plus avancées du monde sortent de ses usines. L’Asie dans son ensemble concentre plus de 85 % de la production mondiale.
Cette concentration transforme la fabrication de puces en enjeu géopolitique majeur. La moindre tension autour de Taïwan peut provoquer des ondes de choc dans toute l’économie mondiale. Les États-Unis ont compris qu’ils ont externalisé leur souveraineté numérique. Le CHIPS Act de 2022 engage 52 milliards de dollars pour relancer la production américaine. L’Union européenne a adopté son propre European Chips Act, visant 20 % de la production mondiale d’ici 2030 — objectif largement jugé inatteignable.
Le vrai pouvoir n’est plus seulement dans la conception des puces. Il est dans la capacité à les produire — et dans les machines qui permettent cette production. Les machines de lithographie EUV, fabriquées uniquement par le néerlandais ASML et vendues entre 150 et 350 millions d’euros l’unité, sont devenues des armes stratégiques. L’accès à ces machines est contrôlé, négocié, rationné. Washington a interdit à ASML de livrer ses machines à la Chine.
La Chine investit massivement pour combler son retard. SMIC, le principal fondeur chinois, est sur liste noire américaine depuis 2020, privé d’accès aux technologies avancées. Pékin consacre des centaines de milliards de yuans à l’autonomie technologique. Le résultat : la Chine peut aujourd’hui produire des puces à 7 nanomètres — deux générations de retard sur TSMC — mais ne peut pas accéder aux techniques de pointe tant qu’elle reste privée des machines ASML.
Cette guerre technologique repose l’une des questions fondamentales de la mondialisation : peut-on continuer à fonctionner selon une logique d’interdépendance économique quand la conférence des intérêts stratégiques est trop grande ? Les chaînes d’approvisionnement du silicium étaient dessinées pour l’efficacité économique. On découvre qu’elles étaient aussi des vulnérabilités stratégiques.
Le silicium, matériau le plus banal de la Terre, est devenu « l’or gris » : plus stratégique que le pétrole, plus disputé que l’uranium. Et contrairement au pétrole, il n’existe pas d’alternative à court terme.
Cette concentration transforme la fabrication de puces en enjeu géopolitique majeur. La moindre tension autour de Taïwan peut provoquer des ondes de choc dans toute l’économie mondiale. Les États-Unis ont compris qu’ils ont externalisé leur souveraineté numérique. Le CHIPS Act de 2022 engage 52 milliards de dollars pour relancer la production américaine. L’Union européenne a adopté son propre European Chips Act, visant 20 % de la production mondiale d’ici 2030 — objectif largement jugé inatteignable.
Le vrai pouvoir n’est plus seulement dans la conception des puces. Il est dans la capacité à les produire — et dans les machines qui permettent cette production. Les machines de lithographie EUV, fabriquées uniquement par le néerlandais ASML et vendues entre 150 et 350 millions d’euros l’unité, sont devenues des armes stratégiques. L’accès à ces machines est contrôlé, négocié, rationné. Washington a interdit à ASML de livrer ses machines à la Chine.
La Chine investit massivement pour combler son retard. SMIC, le principal fondeur chinois, est sur liste noire américaine depuis 2020, privé d’accès aux technologies avancées. Pékin consacre des centaines de milliards de yuans à l’autonomie technologique. Le résultat : la Chine peut aujourd’hui produire des puces à 7 nanomètres — deux générations de retard sur TSMC — mais ne peut pas accéder aux techniques de pointe tant qu’elle reste privée des machines ASML.
Cette guerre technologique repose l’une des questions fondamentales de la mondialisation : peut-on continuer à fonctionner selon une logique d’interdépendance économique quand la conférence des intérêts stratégiques est trop grande ? Les chaînes d’approvisionnement du silicium étaient dessinées pour l’efficacité économique. On découvre qu’elles étaient aussi des vulnérabilités stratégiques.
Le silicium, matériau le plus banal de la Terre, est devenu « l’or gris » : plus stratégique que le pétrole, plus disputé que l’uranium. Et contrairement au pétrole, il n’existe pas d’alternative à court terme.
« Quiconque contrôle les semi-conducteurs contrôle l'avenir. Quiconque intègre des semi-conducteurs perd le contrôle»... « Quiconque contrôle les semi-conducteurs contrôle l'avenir. Quiconque intègre des semi-conducteurs perd le contrôle»
« Quiconque contrôle les semi-conducteurs contrôle l'avenir. Quiconque intègre des semi-conducteurs perd le contrôle»...
« Quiconque contrôle les semi-conducteurs contrôle l'avenir. Quiconque intègre des semi-conducteurs perd le contrôle»
POUR ALLER PLUS LOIN… L’histoire du silicium est celle d’une transmutation alchimique : un matériau d’une abondance triviale est devenu la ressource la plus stratégique de la planète. Cette transformation ne résulte pas d’un plan : elle est le produit accumulé de milliers de décisions techniques, économiques et industrielles, dont aucune n’était destinée à redéfinir les rapports de force mondiaux….
POUR ALLER PLUS LOIN… L’histoire du silicium est celle d’une transmutation alchimique : un matériau d’une abondance triviale est devenu la ressource la plus stratégique de la planète. Cette transformation ne résulte pas d’un plan : elle est le produit accumulé de milliers de décisions techniques, économiques et industrielles, dont aucune n’était destinée à redéfinir les rapports de force mondiaux.
La loi de Moore est peut-être l’exemple le plus frappant d’une prophétie auto-réalisatrice dans l’histoire industrielle. Gordon Moore ne décrit pas un phénomène naturel en 1965 : il dessine une feuille de route. Les entreprises du secteur l’adoptent comme calendrier. Les investisseurs l’utilisent comme référence. Les académiques la modélisent. Et pendant cinquante ans, l’industrie se conforme à sa propre prédiction. Ce n’est pas de la physique — c’est de la coordination collective.
Le cas NVIDIA illustre comment une entreprise peut changer de nature sans changer de nom. Fondée pour accélérer les jeux vidéo, elle est aujourd’hui l’infrastructure invisible de l’intelligence artificielle mondiale. Ceux qui ont anticipé ce changement — les chercheurs qui ont découvert l’usage des GPU pour l’IA, la direction de NVIDIA qui a décidé d’investir dans CUDA — n’avaient pas de certitudes. Ils avaient une intuition et la capacité de l’exécuter. La fortune aidant, ils ont créé un monopole de facto sans qu’aucun régulateur ne le détectant vraiment.
TSMC soulève une question plus profonde. L’entreprise taïwanaise est souvent présentée comme un bouclier : sa valeur stratégique pour l’économie mondiale dissuaderait toute attaque militaire contre Taïwan. C’est le « paradoxe du silicium » : une entreprise peut être si critique pour l’économie mondiale qu’elle devient une assurance-vie géopolitique. Mais ce même raisonnement implique que les grandes puissances exercent une pression croissante sur Taïwan pour obtenir des implantations industrielles sur leur propre sol — ce que TSMC fait déjà, avec des usines en Arizona et en Allemagne, sous la pression combinée de Washington et Bruxelles.
À force de réduire les transistors à quelques nanomètres, l’industrie s’approche des limites de la physique. À ces échelles infimes, les électrons commencent à se comporter comme des fantômes quantiques, traversant des barrières censées les arrêter. Les ingénieurs doivent ruser : transistors tridimensionnels, architectures chiplet, photonique intégrée, nouveaux matériaux comme le nitrure de gallium. La fin de la miniaturisation classique approche — mais la demande de puissance de calcul, elle, ne ralentit pas.
GPT-4 a nécessité l’équivalent énergétique d’une petite ville pour son entraînement. Les modèles suivants exigeront davantage encore. La course entre la demande de calcul et la capacité physique à y répondre est la contrainte fondamentale des prochaines décennies. On parle de puces 3D, de calcul neuromorphique, d’ordinateurs quantiques — mais aucune de ces alternatives n’est prête à l’échelle industrielle.
L’Europe observe cette course avec un mélange d’inquiétude et d’impuissance. Elle possède des acteurs de premier rang — ASML est une entreprise néerlandaise, STMicroelectronics est franco-italienne, Infineon est allemande — mais elle n’a pas de champion global dans la conception ou la fabrication des puces les plus avancées. Le European Chips Act ambitionne 20 % de la production mondiale en 2030. En 2024, l’Europe en détient environ 8 % — un chiffre qui ne progressera pas sans des investissements massifs et une cohérence industrielle que l’Union européenne peine historiquement à dégager.
L’histoire du silicium nous enseigne aussi quelque chose sur la nature du progrès technologique. Il ne suit pas une ligne droite. Il procède par ruptures, par accidents heureux, par rencontres improbables — Faraday qui observe une anomalie, Teal qui sort des transistors de sa poche, des chercheurs qui découvrent par hasard que les GPU sont des machines à IA. Chaque avancement décisif a été précédé d’une longue période d’incubation invisible, puis d’un basculement soudain dont personne n’avait mesuré l’amplitude.
Du sable aux supercalculateurs, de la curiosité de Faraday aux data centers du Nevada qui consomment autant d’électricité que des pays entiers : l’odyssée du silicium n’est pas terminée. Elle entre simplement dans son chapitre le plus incertain — celui où les limites physiques rencontrent des ambitions illimitées, et où les rapports de force géopolitiques redéfinissent les règles d’un jeu que l’on croyait purement économique.
La loi de Moore est peut-être l’exemple le plus frappant d’une prophétie auto-réalisatrice dans l’histoire industrielle. Gordon Moore ne décrit pas un phénomène naturel en 1965 : il dessine une feuille de route. Les entreprises du secteur l’adoptent comme calendrier. Les investisseurs l’utilisent comme référence. Les académiques la modélisent. Et pendant cinquante ans, l’industrie se conforme à sa propre prédiction. Ce n’est pas de la physique — c’est de la coordination collective.
Le cas NVIDIA illustre comment une entreprise peut changer de nature sans changer de nom. Fondée pour accélérer les jeux vidéo, elle est aujourd’hui l’infrastructure invisible de l’intelligence artificielle mondiale. Ceux qui ont anticipé ce changement — les chercheurs qui ont découvert l’usage des GPU pour l’IA, la direction de NVIDIA qui a décidé d’investir dans CUDA — n’avaient pas de certitudes. Ils avaient une intuition et la capacité de l’exécuter. La fortune aidant, ils ont créé un monopole de facto sans qu’aucun régulateur ne le détectant vraiment.
TSMC soulève une question plus profonde. L’entreprise taïwanaise est souvent présentée comme un bouclier : sa valeur stratégique pour l’économie mondiale dissuaderait toute attaque militaire contre Taïwan. C’est le « paradoxe du silicium » : une entreprise peut être si critique pour l’économie mondiale qu’elle devient une assurance-vie géopolitique. Mais ce même raisonnement implique que les grandes puissances exercent une pression croissante sur Taïwan pour obtenir des implantations industrielles sur leur propre sol — ce que TSMC fait déjà, avec des usines en Arizona et en Allemagne, sous la pression combinée de Washington et Bruxelles.
À force de réduire les transistors à quelques nanomètres, l’industrie s’approche des limites de la physique. À ces échelles infimes, les électrons commencent à se comporter comme des fantômes quantiques, traversant des barrières censées les arrêter. Les ingénieurs doivent ruser : transistors tridimensionnels, architectures chiplet, photonique intégrée, nouveaux matériaux comme le nitrure de gallium. La fin de la miniaturisation classique approche — mais la demande de puissance de calcul, elle, ne ralentit pas.
GPT-4 a nécessité l’équivalent énergétique d’une petite ville pour son entraînement. Les modèles suivants exigeront davantage encore. La course entre la demande de calcul et la capacité physique à y répondre est la contrainte fondamentale des prochaines décennies. On parle de puces 3D, de calcul neuromorphique, d’ordinateurs quantiques — mais aucune de ces alternatives n’est prête à l’échelle industrielle.
L’Europe observe cette course avec un mélange d’inquiétude et d’impuissance. Elle possède des acteurs de premier rang — ASML est une entreprise néerlandaise, STMicroelectronics est franco-italienne, Infineon est allemande — mais elle n’a pas de champion global dans la conception ou la fabrication des puces les plus avancées. Le European Chips Act ambitionne 20 % de la production mondiale en 2030. En 2024, l’Europe en détient environ 8 % — un chiffre qui ne progressera pas sans des investissements massifs et une cohérence industrielle que l’Union européenne peine historiquement à dégager.
L’histoire du silicium nous enseigne aussi quelque chose sur la nature du progrès technologique. Il ne suit pas une ligne droite. Il procède par ruptures, par accidents heureux, par rencontres improbables — Faraday qui observe une anomalie, Teal qui sort des transistors de sa poche, des chercheurs qui découvrent par hasard que les GPU sont des machines à IA. Chaque avancement décisif a été précédé d’une longue période d’incubation invisible, puis d’un basculement soudain dont personne n’avait mesuré l’amplitude.
Du sable aux supercalculateurs, de la curiosité de Faraday aux data centers du Nevada qui consomment autant d’électricité que des pays entiers : l’odyssée du silicium n’est pas terminée. Elle entre simplement dans son chapitre le plus incertain — celui où les limites physiques rencontrent des ambitions illimitées, et où les rapports de force géopolitiques redéfinissent les règles d’un jeu que l’on croyait purement économique.
WOW ! est un projet de recherche indépendant, privé, libre, sur les médias et sur l’ IA en tant que moyen d’information, d’écriture, de débat et de réflexion. Tous les textes sont hybrides (humain et IA).
Aucun ne représente les opinions de WOW!
Pour toute question : contact@wow-media.fr