Il y avait à Rome, au Ier siècle de notre ère, un homme que personne ne voyait jamais mais que l’Empereur craignait plus que tout général ou sénateur. On l’appelait le curator aquarum — le gardien des eaux. Rome a survécu à des crises politiques, des invasions, des famines. Mais couper l’eau, et l’empire s’effondrait en douze heures. La leçon est simple et brutale : la culture est un luxe, l’infrastructure est une survie. La vraie puissance de Rome ne résidait pas dans la beauté de ses temples, mais dans la pression de ses tuyaux.
- L’IA n’est pas immatérielle, c’est une industrie lourde
- Le mur physique que personne n’avait vu venir 🔥
- L’avènement des agents, ou le coup de grâce énergétique
- Le rationnement cognitif, une réalité géopolitique 🌍
- Votre stratégie de survie concrète
- La conclusion que Rome nous avait déjà enseignée
- FAQ — L’IA et la consommation énergétique
Deux mille ans plus tard, rien n’a changé. Nous avons remplacé l’eau par les électrons, les aqueducs par la fibre optique — mais la loi reste identique. Et une guerre silencieuse, physique, brutale vient de commencer. Une guerre pour le contrôle des nouveaux aqueducs de l’intelligence artificielle.
L’IA n’est pas immatérielle, c’est une industrie lourde
Depuis trois ans, nous avons les yeux rivés sur le ciel. Nous scrutons les derniers modèles de langage, nous débattons de l’alignement, nous comparons les benchmarks. Pendant ce temps, nous ratons l’essentiel : l’IA n’est pas une technologie immatérielle qui flotte dans un nuage magique. Il n’y a pas de nuage. Il y a des usines. Des usines de béton, de cuivre, de transformateurs haute tension et d’électrons.
La fin du coût marginal zéro
Pendant vingt ans, la Silicon Valley nous a enseigné une seule loi économique : le coût marginal zéro. Développer un logiciel coûte des millions, mais le distribuer ne coûte presque rien. Google, Facebook, Spotify ont bâti leurs empires sur cette mécanique. Servir un utilisateur ou un milliard générait des frais si dérisoires qu’ils en devenaient invisibles.
L’IA brise cette règle fondamentale. Quand vous tapez une requête dans Google, les serveurs récupèrent une information déjà indexée — c’est léger, rapide, quasi gratuit. C’est aller chercher un livre à la bibliothèque. Mais quand vous demandez à Claude d’inventer une stratégie marketing sur mesure, il ne récupère rien. Il active des milliards de paramètres, fait chauffer des milliers de GPU, génère chaque mot par un calcul probabiliste intense. C’est demander à un écrivain d’écrire le livre devant vous, en temps réel. La différence d’énergie ? Un facteur 10 à 30 pour la même interaction.
L’économie de la forge remplace l’économie du stockage
Imaginez un jeu vidéo où chaque personnage n’est plus un script répétant trois phrases en boucle, mais une intelligence autonome qui improvise des dialogues par inférence. Où la carte n’est pas chargée depuis un disque dur, mais rêvée en temps réel, pixel par pixel, pour chaque joueur individuellement. Ce n’est plus du logiciel copier-coller — c’est un haut fourneau numérique.
La même logique s’applique aux médias, au marketing, à la finance. L’ère de la campagne générique est morte. Demain, pour chaque prospect, l’IA lira son rapport annuel, analysera sa stratégie concurrentielle et génèrera une proposition commerciale vidéo unique, construite rien que pour lui. On passe d’une économie de la diffusion de masse à une économie de la forge individuelle. Et chaque désir utilisateur devient un effort industriel.
Le mur physique que personne n’avait vu venir 🔥
Des centres de données qui consomment comme des villes
Jusqu’à l’année dernière, un grand centre de données consommait 20 à 30 MW — l’équivalent d’un gros centre commercial. Gérable. Mais les modèles d’IA planifiés pour 2027-2028 exigent des campus d’1 GW, voire 5 GW pour des projets comme Stargate d’OpenAI et Microsoft. Pour donner un repère concret : 1 gigawatt, c’est la consommation d’une ville comme Marseille. La puissance de sortie d’un réacteur nucléaire entier — pour un seul bâtiment, une seule entreprise.
En Virginie du Nord, carrefour mondial d’Internet où transite 70 % du trafic global, le réseau a littéralement craqué. En 2022, Dominion Energy a réuni les géants du numérique dans une salle et leur a dit : “C’est fini, le tuyau est plein.” Les délais de raccordement sont passés de quelques mois à 4, 5, parfois 7 ans.
La loi de Moore ne s’applique pas aux câbles
Les puces doublent de puissance tous les 18 mois. Mais construire une ligne haute tension de 400 000 V — avec les permis, les expropriations, les études d’impact et les travaux — prend 10 ans. Voilà le mur : une demande technologique qui croît de manière exponentielle, et une infrastructure électrique qui évolue à 2 % par an. Quand une courbe exponentielle rencontre une ligne plate, ça ne finit jamais bien.
Ajoutez à cela le scandale des transformateurs. Ces monstres de 200 tonnes, indispensables pour passer de la très haute tension du réseau à celle utilisable par les serveurs, ne sont fabriqués que par trois ou quatre entreprises au monde (Hitachi, ABB, General Electric). Leur carnet de commandes est plein jusqu’en 2029. Vous pouvez lever 100 millions d’euros, acheter les GPU Nvidia, louer le terrain — mais vous ne pourrez pas allumer la lumière avant quatre ans.
L’avènement des agents, ou le coup de grâce énergétique
Du chatbot à l’employé permanent
Aujourd’hui, l’IA fonctionne en mode transactionnel : je pose une question, l’IA répond, puis elle s’éteint. C’est comme allumer la lumière d’une pièce, prendre un livre, et éteindre. La consommation est ponctuelle.
Mais le chat n’est que la démo. L’objectif final de Google, OpenAI et Microsoft, ce sont les agents. Un agent ne s’éteint pas. Il surveille votre boîte mail toutes les secondes, lit l’historique client, cherche des informations sur le web, rédige des brouillons, analyse les réponses, négocie des remboursements — en boucle, 24h/24, 7j/7. Des utilisateurs brûlent déjà plus de 100 dollars par jour en laissant tourner un modèle avancé sur des tâches banales.
Multipliez ce facteur par des millions d’entreprises, des milliards de workflows automatisés, des chaînes logistiques entières où les agents se délèguent des tâches sans aucun humain dans la boucle. On ne parle plus d’une hausse de charge — on parle d’une économie mondiale qui bascule en génération cognitive continue.
Le rationnement cognitif, une réalité géopolitique 🌍
Trois classes dans l’accès à l’intelligence
Face à cette contrainte physique irréductible, si la ressource est limitée et la demande infinie, l’accès doit être rationné. Deux classes distinctes émergent, définies non par la richesse financière mais par ce qu’on peut appeler leur souveraineté de calcul :
- Tier 1 — l’intelligence souveraine : l’armée (le Pentagone a déjà signé des contrats de capacité dédiée), les grandes banques, les multinationales du Fortune 500. Ils réservent des GPU sanctuarisés à l’année pour des centaines de millions de dollars. Leurs agents pensent plus vite et réagissent avant que votre écran s’actualise.
- Tier 2 — l’intelligence garantie : les grandes entreprises qui signent des accords de niveau de service premium. Pas de file d’attente, latence maîtrisée, disponibilité contractuelle.
- Tier 3 — l’intelligence intermittente : les PME, les startups, les freelances. Accès au marché spot, au reste. Fonctionnement en heures creuses, versions allégées aux heures de pointe, agents mis en pause le lundi matin à 9h quand le Tier 1 absorbe toute la puissance disponible.
Le risque géopolitique sous-estimé
Les infrastructures sont américaines, les puces sont américaines, les modèles sont américains. Quand la capacité sera rationnée, les clients américains passeront naturellement en premier. Les tarifs cloud en Europe sont déjà 20 à 30 % supérieurs à ceux pratiqués aux États-Unis pour des services équivalents.
Mais le vrai danger, c’est ce qu’on peut appeler le coupe-circuit. Quand la Russie a envahi l’Ukraine, les services cloud américains ont été coupés en 48 heures. Chaque entreprise russe dépendant d’Amazon Web Services s’est réveillée avec le cerveau éteint. Une simple escalade commerciale Washington-Bruxelles — sur les tarifs douaniers ou la régulation des données — et votre entreprise européenne qui dépend du calcul américain pour ses agents critiques n’existe plus tant que Washington n’en décide autrement.
Votre stratégie de survie concrète
Les quatre règles pour ne pas finir dans le fossé du Tier 3
Face à ce tableau, il ne s’agit pas de paniquer mais d’agir avec méthode. Voici les leviers concrets à activer dès maintenant :
- Arrêtez de louer votre intelligence au jour le jour. La flexibilité à l’usage est séduisante, mais en période de pénurie, c’est de la vulnérabilité. Cherchez des contrats de capacité garantie, ou commencez à internaliser pour vos workflows critiques.
- Adoptez une architecture hybride. Les gros modèles cloud excellent en créativité, mais pour les tâches répétitives (tri de mails, analyse standard), utilisez des petits modèles locaux — un Llama ou Mistral qui tourne sur votre propre serveur ou un Mac M4. C’est votre groupe électrogène cognitif de secours.
- Faites de votre SLA votre argument commercial. Demain, ne vendez pas à vos clients “on utilise la meilleure IA”. Vendez-leur “on a sécurisé notre approvisionnement”. L’avantage concurrentiel ne sera plus la beauté de l’interface, ce sera la certitude d’être allumé.
- Diversifiez géographiquement vos fournisseurs. Des acteurs comme Mistral construisent des modèles performants hébergés sur sol européen, sous juridiction européenne. Ce n’est pas du patriotisme — c’est de la gestion de risque pragmatique.
La France, un acteur inattendu mais stratégique ⚡
La France sort une carte que ses voisins n’ont pas : un mix électrique très largement nucléaire, stable et relativement bon marché à long terme. Des acteurs comme Fluid Stack signent des mémorandums avec l’État pour construire jusqu’à 1 GW de puissance de calcul dédiée à l’IA sur sol français. Oubliez les paillettes de la Start-up Nation — il s’agit ici d’une stratégie de béton armé et d’uranium, héritée de De Gaulle. En devenant le réacteur de l’IA européenne, la France ne joue plus le glamour : elle joue l’infrastructure critique.
La conclusion que Rome nous avait déjà enseignée
Nous sortons de l’adolescence de l’IA — l’époque où c’était magique, gratuit, léger. C’est fini. L’IA est devenue de la mécanique industrielle lourde. Et dans ce monde-là, le gagnant n’est pas celui qui a la meilleure idée, c’est celui qui maîtrise son coût de production.
Les nouveaux curatores aquarum ont un nom : Google, Microsoft, Amazon, Nvidia. Ils ne portent pas de toge, mais ils font exactement la même chose — ils décident qui boit et qui a soif. Rome n’est pas tombée le jour où ses philosophes se sont trompés. Rome est tombée le jour où elle a perdu le contrôle de ses aqueducs.
La seule question qui compte maintenant : dans le monde qui vient, serez-vous le gardien de vos propres tuyaux ?
FAQ — L’IA et la consommation énergétique
Pourquoi l’IA consomme-t-elle autant d’énergie par rapport à une recherche Google ?
Une recherche Google récupère une information déjà indexée — c’est de la restitution passive. Une requête à un modèle comme Claude génère chaque mot par calcul probabiliste intensif, activant des milliards de paramètres. La différence d’énergie est d’un facteur 10 à 30 pour une même interaction.
Qu’est-ce que le “rationnement cognitif” et pourquoi va-t-il s’accélérer ?
Quand la ressource (capacité de calcul) est physiquement limitée et que la demande est quasi infinie (agents autonomes permanents), l’accès doit être priorisé. Les grands acteurs verrouillent déjà la capacité via des contrats long terme, laissant les PME sur un marché spot de plus en plus contraint.
Comment une PME peut-elle se protéger concrètement dès aujourd’hui ?
En combinant trois leviers : chercher des contrats de capacité garantie pour les workflows critiques, déployer des modèles locaux légers pour les tâches répétitives, et diversifier les fournisseurs avec des alternatives à hébergement européen comme Mistral pour réduire la dépendance à une infrastructure soumise au droit américain.
La France a-t-elle vraiment un avantage dans cette course à l’infrastructure IA ?
Oui, et c’est sous-estimé. Son parc nucléaire lui confère une électricité stable et compétitive sur le long terme — exactement ce que recherchent désespérément les hyperscaleurs pour leurs projets d’1 GW et plus. Des projets concrets sont déjà signés sur sol français, positionnant le pays comme infrastructure critique de l’IA européenne.