Une soif énergétique sans précédent dans l’histoire du numérique
Parlons de faits. Pas d’hypothèses, pas de projections alarmistes — de faits documentés. La formation d’un seul grand modèle de langage comme GPT-4 consomme des quantités d’énergie électrique équivalentes à ce que des centaines de foyers américains utilisent en une année. L’Agence internationale de l’énergie a indiqué que la consommation électrique des centres de données dans le monde pourrait doubler d’ici 2026, portée en grande partie par la croissance explosive de l’intelligence artificielle générative. Microsoft, partenaire stratégique d’OpenAI, a vu sa consommation d’eau exploser dans certaines régions pour refroidir ses serveurs. Google a admis que ses objectifs climatiques sont compromis par la croissance de ses services d’IA. Ces chiffres ne sont pas des inventions de militants écologistes. Ce sont des données officielles, publiées par les entreprises elles-mêmes, parfois en tout petit, en bas de page, dans les rapports annuels.
Ce que défend Altman, c’est donc ceci : cette consommation est légitime parce que les bénéfices de l’IA la justifient. L’argument n’est pas sans fondement. L’IA accélère la recherche médicale, optimise les systèmes énergétiques, aide à concevoir des batteries plus efficaces, contribue à modéliser le changement climatique. Il y a une ironie dans le fait que la technologie qui consomme le plus pourrait aussi être celle qui nous aide à consommer moins. Mais cette ironie ne suffit pas à clore le débat. Elle l’ouvre, au contraire.
L’eau, les terres rares, et les territoires sacrifiés
L’énergie électrique n’est que la partie visible de l’iceberg. Les centres de données consomment aussi des millions de litres d’eau pour leur refroidissement. Dans des régions déjà soumises au stress hydrique, l’implantation de datacenters géants soulève des questions d’équité profonde. Pendant que des agriculteurs se battent pour obtenir des droits sur l’eau, des serveurs qui font tourner des chatbots en boivent des millions de litres par mois. Il faut aussi parler des terres rares nécessaires à la fabrication des puces, des GPU et des infrastructures matérielles qui supportent l’IA — des matériaux extraits dans des conditions souvent désastreuses, dans des pays du Sud global, avec un coût humain et environnemental que personne dans la Silicon Valley ne regarde en face. Sam Altman défend la consommation de ressources de son industrie. Très bien. Mais défend-il aussi les conditions dans lesquelles ces ressources sont obtenues ? La question mérite une réponse claire.
Il y a quelque chose de viscéralement troublant dans l’idée que des hommes qui se présentent comme les sauveurs de l’humanité construisent leur empire sur des matières extraites au prix du sang, dans des mines congolaises ou boliviennes, par des travailleurs qui ne verront jamais un ChatGPT de leur vie. L’IA du futur repose sur les épaules du présent. Et ces épaules-là, elles saignent.
Altman plaide coupable — mais trouve ça normal
Une défense assumée, presque philosophique
Ce qui rend la position d’Altman intéressante — et dérangeante — c’est qu’il ne nie rien. Il ne minimise pas la consommation de son industrie. Il ne prommet pas des compensations carbone qui ne changeront rien. Il dit, en substance : oui, c’est beaucoup, et c’est nécessaire. C’est une posture de franchise rare dans un secteur habitué aux annonces ronflantes sur la durabilité. Et cette franchise mérite qu’on l’écoute avant de la condamner. L’argument central d’Altman est que l’intelligence artificielle générale — la véritable AGI, l’IA capable de raisonner comme un humain — représentera une rupture si fondamentale dans l’histoire de l’espèce que le coût de sa construction, aussi élevé soit-il, sera largement surpassé par les bénéfices qu’elle apportera. C’est un pari sur l’avenir. Un pari énorme, peut-être irresponsable, mais un pari que des millions de personnes font avec lui chaque jour en utilisant ses outils.
Où Altman perd de sa crédibilité, c’est lorsqu’il refuse d’articuler clairement les mécanismes de redevabilité. Si les ressources consommées aujourd’hui sont un investissement dans demain, qui paie la facture si demain ne vient pas ? Qui répond des émissions de carbone accumulées si l’AGI reste un horizon perpétuellement repoussé ? Qui assume les coûts de la consommation d’eau si les promesses de l’IA ne se réalisent pas selon les délais annoncés ? Ces questions restent sans réponse. Et c’est précisément ce silence qui rend la défense d’Altman insuffisante, même quand elle n’est pas entièrement fausse.
Le privilège de celui qui ne subit pas les conséquences
Sam Altman vit dans un monde où les conséquences de la consommation de ressources de son industrie ne l’atteignent pas directement. Il ne vit pas près d’un datacenter qui pompe l’eau de sa nappe phréatique. Il ne travaille pas dans une mine de lithium au Chili. Il ne subit pas les pannes d’électricité dans des régions où les réseaux électriques sont fragilisés par la demande croissante des serveurs IA. Ce n’est pas une attaque ad hominem — c’est une observation sur la structure du pouvoir dans l’industrie technologique. Ceux qui prennent les décisions sur la consommation des ressources sont rarement ceux qui en subissent les effets. Et cette asymétrie fondamentale devrait être au cœur de tout débat sur la durabilité de l’IA.
Je ne demande pas à Altman d’arrêter de construire l’IA. Je lui demande d’arrêter de se présenter comme le seul adulte dans la pièce quand il refuse d’être redevable envers ceux qui paient le prix réel de sa vision. La grandeur d’une ambition ne l’exempte pas de responsabilité.
Musk et les datacenters dans l'espace : folie ou génie incompris
L’idée qui a fait rire — mais qui mérite peut-être mieux
Et puis il y a Elon Musk. Et son idée de placer des centres de données dans l’espace. Quand Sam Altman en a ri, le rire était compréhensible. L’image est saisissante : des serveurs en orbite, alimentés par l’énergie solaire illimitée de l’espace, refroidis par le vide sidéral, libérés des contraintes terrestres. Ça ressemble à de la science-fiction. Ça ressemble à la promesse d’un homme qui a l’habitude de promettre l’impossible et d’en réaliser la moitié. Mais avant de rire trop fort, il faut examiner l’idée sérieusement. Parce que certains des problèmes les plus réels de l’industrie des datacenters — la chaleur, la consommation d’eau, la disponibilité foncière, la proximité des réseaux électriques — n’existent tout simplement pas dans l’espace.
L’énergie solaire en orbite est effectivement illimitée et disponible en permanence, sans les intermittences qui compliquent son utilisation terrestre. Le froid de l’espace est un refroidisseur naturel parfait. Et SpaceX, l’entreprise de Musk, a démontré qu’elle peut lancer des objets en orbite à des coûts décroissants. Le projet n’est pas aussi absurde qu’il y paraît en surface. Il est prématuré, certainement. Il est coûteux, absolument. Il soulève des questions de latence, de maintenance et de sécurité auxquelles personne n’a encore de réponse solide. Mais le rejeter d’un rire, c’est peut-être passer à côté d’une direction que l’industrie pourrait sérieusement explorer dans les prochaines décennies.
La vraie raison pour laquelle Altman rit
Soyons lucides sur une chose : si Sam Altman rit de l’idée de Musk, ce n’est pas uniquement parce qu’elle est techniquement prématurée. C’est aussi parce que Musk est désormais son concurrent. Depuis que Musk a fondé xAI et lancé Grok, les deux hommes s’affrontent directement sur le marché de l’intelligence artificielle générative. Ce qui ressemble à un désaccord philosophique a aussi une dimension stratégique très concrète. Altman n’a aucun intérêt à valider une direction que Musk pourrait explorer. Et Musk, de son côté, n’a aucun intérêt à valider le modèle de consommation massive de ressources terrestres qu’OpenAI incarne. Leurs positions publiques sont teintées par leur compétition privée. Il serait naïf de l’ignorer.
Les deux hommes ont raison sur certains points et tort sur d’autres. Mais ce qui me frappe, c’est qu’aucun des deux ne parle vraiment au nom de ceux qui n’ont pas de voix dans ce débat. Les communautés qui vivront à côté des datacenters. Les travailleurs qui extrairont les minerais. Les pays qui supporteront les externalités de leur vision. Ces gens-là n’ont personne pour rire à leur place.
Le conflit Altman-Musk et ses racines profondes
Deux philosophies de l’avenir technologique
L’affrontement entre Sam Altman et Elon Musk n’est pas nouveau. Il remonte aux origines mêmes d’OpenAI, que les deux hommes ont cofondée ensemble avant que Musk ne quitte le conseil d’administration en 2018, invoquant des conflits d’intérêts. Depuis, leurs trajectoires ont divergé de manière spectaculaire. Altman a transformé OpenAI en une entreprise commerciale adossée à Microsoft, avec des valorisations qui dépassent aujourd’hui les 300 milliards de dollars. Musk a lancé xAI, financé par ses propres ressources et par des investisseurs, avec l’ambition déclarée de créer une IA maximalement curieuse et moins alignée sur des garde-fous qu’il juge trop restrictifs. Ces deux trajectoires incarnent deux philosophies. L’une dit : l’IA doit être développée prudemment, avec des barrières, au service d’une mission humaniste. L’autre dit : l’IA doit être libérée, accélérée, poussée à ses limites sans que des considérations éthiques préconçues ne brident son potentiel.
Ces philosophies ne sont pas abstraites. Elles ont des conséquences réelles sur la façon dont les systèmes sont entraînés, sur les données qui sont utilisées, sur les biais qui sont — ou ne sont pas — corrigés. Elles déterminent qui décide de ce que l’IA peut ou ne peut pas faire. Et dans un monde où ces systèmes influencent de plus en plus les décisions économiques, médicales, judiciaires et politiques, ces choix philosophiques ont un impact sur chacun d’entre nous.
Une rupture personnelle aux conséquences industrielles
La brouille entre Altman et Musk a aussi une dimension personnelle que les deux hommes ont du mal à cacher. Musk a poursuivi OpenAI en justice, accusant l’entreprise d’avoir trahi sa mission originelle à but non lucratif. Altman a répondu avec une froideur calculée, refusant généralement de s’engager sur le terrain de l’émotion. Mais lorsque Altman rit de l’idée des datacenters spatiaux, il franchit une ligne. Il n’est plus dans la neutralité polie. Il choisit la moquerie. Et la moquerie publique entre rivaux de cette envergure n’est jamais anodine. Elle est une déclaration de mépris. Et le mépris, en affaires comme en politique, finit toujours par coûter à celui qui l’exprime.
Il y a quelque chose de profondément humain — et donc de profondément révélateur — dans le fait que deux des hommes les plus puissants du monde technologique se comportent parfois comme deux adolescents qui se disputent la meilleure idée en cours de récréation. L’enjeu est la direction de l’humanité. La forme, parfois, est celle d’un twitter storm. Le contraste me sidère chaque fois.
La question de l'énergie au cœur de toutes les batailles
Nucléaire, renouvelables, et la course aux mégawatts
Pour comprendre pourquoi la défense d’Altman mérite une attention sérieuse, il faut comprendre l’ampleur du défi énergétique auquel fait face l’industrie de l’IA. Les projections les plus conservatrices estiment que la demande électrique des centres de données mondiaux pourrait atteindre 1 000 térawattheures par an d’ici la fin de la décennie — soit environ 4 % de la consommation électrique mondiale totale. Ce chiffre est en constante révision à la hausse. Pour répondre à cette demande, les grandes entreprises technologiques se tournent vers toutes les sources disponibles. Microsoft a signé un accord pour rouvrir la centrale nucléaire de Three Mile Island en Pennsylvanie. Google investit dans le nucléaire de fusion et les petits réacteurs modulaires. Amazon achète des parcs éoliens et solaires à une vitesse sans précédent. L’industrie de l’IA est en train de remodeler le secteur énergétique mondial. Et cette transformation n’est pas sans risque.
La ruée vers l’énergie crée une concurrence nouvelle entre les besoins industriels et les besoins résidentiels. Dans certaines régions des États-Unis, les opérateurs de réseau avertissent que la demande des datacenters menace la fiabilité du réseau pour les consommateurs ordinaires. En Irlande, les centres de données consomment désormais une part si importante de l’électricité nationale que les régulateurs ont commencé à imposer des moratoires sur les nouvelles constructions. Ce que défend Altman lorsqu’il justifie la consommation de son industrie, c’est donc aussi une certaine vision de la hiérarchie des besoins : l’IA avant. Les autres après. Cette hiérarchie mérite d’être questionnée democratically.
Qui paie la facture que les géants de l’IA ne paient pas
Il y a une réalité économique qu’on évoque rarement dans les débats sur la durabilité de l’IA : les externalités non comptabilisées. Les entreprises qui construisent des datacenters paient l’électricité qu’elles consomment. Mais elles ne paient pas toujours le coût de renforcement des réseaux que leur demande rend nécessaire — ces coûts sont souvent répartis sur l’ensemble des consommateurs sous forme de hausses tarifaires. Elles ne paient pas le coût de la dépréciation des ressources en eau dans les régions qu’elles sèchent. Elles ne paient pas le coût sanitaire des travailleurs qui extraient les matériaux nécessaires à leurs infrastructures. Et elles ne paient certainement pas le coût climatique de leurs émissions de gaz à effet de serre, si ce n’est à travers des mécanismes volontaires et souvent peu transparents. Altman défend la consommation de son industrie. Mais il défend en réalité un modèle où une partie des coûts réels est socialisée pendant que les profits sont privatisés. C’est un arrangement très confortable pour ceux qui se trouvent du bon côté.
Chaque fois que je lis qu’une grande entreprise technologique s’est engagée à être « neutre en carbone » d’ici telle date, je ressens un mélange d’espoir et de méfiance. L’espoir que c’est vrai. La méfiance que c’est du marketing soigneusement emballé. L’histoire récente me donne plus de raisons pour la méfiance que pour l’espoir.
L'IA et la démocratie de l'énergie : qui décide
Des décisions qui concernent tout le monde, prises par très peu de gens
Le débat entre Altman et Musk sur la consommation de ressources de l’IA est fascinant pour ce qu’il révèle sur la gouvernance de cette industrie. Ces décisions colossales — combien d’énergie consommer, où implanter les datacenters, quelles sources d’alimentation privilégier — sont prises par un très petit nombre de personnes. Pas par des parlements, pas par des agences de régulation démocratiquement élues, pas par les communautés affectées. Par des PDG, des conseils d’administration, des fonds d’investissement. C’est une forme de pouvoir extraordinaire exercé dans une opacité relative. Et dans une démocratie, cela devrait soulever des questions urgentes sur la légitimité de ces décisions.
Quand Sam Altman défend la consommation de ressources de l’intelligence artificielle, il parle au nom d’une vision privée du bien commun. Sa conviction que l’IA bénéficiera à l’humanité est sincère — je n’en doute pas un instant. Mais la sincérité d’une conviction ne lui confère pas une légitimité démocratique. Les Européens, les Américains, les habitants des pays du Sud global qui subissent les externalités de cette industrie ont-ils leur mot à dire dans cette vision ? Pour l’instant, la réponse est non. Et c’est le problème structurel le plus grave que pose cet échange entre deux milliardaires qui débattent de l’avenir de l’énergie mondiale comme si c’était leur affaire personnelle.
La régulation, grand absent du débat
Remarquablement, dans les discussions publiques entre figures de l’industrie de l’IA sur la consommation de ressources, le mot régulation apparaît rarement. On parle de solutions technologiques, d’efficacité énergétique améliorée, de nouvelles sources d’alimentation. On ne parle pas de cadres contraignants qui obligeraient les entreprises à rendre compte de leur consommation, à la limiter, à compenser effectivement leurs émissions. L’Union européenne, avec son AI Act, a fait un premier pas vers la gouvernance de l’intelligence artificielle en termes de droits et de sécurité. Mais sur la question environnementale spécifique, les outils réglementaires restent largement insuffisants. Et pendant que les législateurs se débattent avec des concepts complexes, les datacenters continuent de pousser, comme des champignons après la pluie.
On nous demande de faire confiance à l’industrie de l’IA pour s’autoréguler sur l’environnement. C’est la même industrie qui nous a dit que les réseaux sociaux seraient bons pour la démocratie. Que les algorithmes seraient neutres. Que la surveillance numérique protégerait notre vie privée. Je me demande combien de fois nous devrons être déçus avant d’exiger des règles claires.
Les positions de pouvoir et leurs angles morts
Quand la certitude remplace la prudence
Sam Altman est un homme qui parle avec une certitude impressionnante. Il est convaincu que l’AGI arrive. Il est convaincu qu’elle transformera positivement l’humanité. Il est convaincu que les ressources consommées pour la construire sont un investissement justifié. Cette certitude est une force pour lever des fonds, rallier des talents, convaincre des partenaires. Elle est aussi une faiblesse intellectuelle potentiellement grave. L’histoire des grands paris technologiques est pavée de certitudes qui se sont révélées erronées. Les promoteurs de l’énergie nucléaire civile dans les années 1950 étaient certains que l’électricité deviendrait « trop bon marché pour être mesurée ». Les architectes de la révolution des réseaux sociaux étaient certains que la connectivité mondiale renforcerait la démocratie. La certitude n’est pas une garantie. C’est parfois un écran derrière lequel les angles morts prospèrent.
L’angle mort d’Altman pourrait être de supposer que les bénéfices de l’IA seront distribués assez équitablement pour justifier la concentration des coûts sur les plus vulnérables. L’angle mort de Musk pourrait être de supposer que sa vision de l’IA maximalement libre servira l’humanité mieux qu’une IA soigneusement contrainte. Aucun des deux ne semble vouloir sérieusement envisager que sa certitude pourrait être erronée. Et c’est précisément là que réside le danger.
Le problème du récit unique
Ce qui me frappe dans cet échange public entre Altman et Musk, c’est l’absence de voix alternatives dans le débat sur l’avenir de l’IA et de ses ressources. Il y a des chercheurs, des militants, des économistes, des spécialistes de l’environnement qui soulèvent des questions différentes et plus complexes. Mais le débat public est dominé par les quelques hommes qui ont le plus d’argent dans le jeu. Leur capacité à capter l’attention médiatique, à apparaître dans les grandes conférences, à être cités en premier dans les articles comme celui-ci — c’est aussi une forme de pouvoir. Un pouvoir qui façonne le récit. Et un récit dominant finit toujours par influencer les politiques. C’est pourquoi il est crucial de ne pas laisser ce débat aux seuls protagonistes qui en bénéficient le plus directement.
Je pense à tous ces experts du Sud global, ces chercheuses en environnement, ces activistes communautaires dont personne ne publie les analyses sur les risques de l’IA pour leurs régions. Ils existent. Ils parlent. Mais leurs voix sont inaudibles dans le bruit médiatique généré par les échanges entre milliardaires californiens. Ce déséquilibre est lui-même un problème de gouvernance.
Ce que cet échange révèle sur l'ère de l'IA
L’arrogance comme posture par défaut
Il y a une posture qui caractérise une grande partie des figures de proue de l’industrie de l’intelligence artificielle : l’arrogance tranquille. Pas l’arrogance bruyante et provocatrice d’un Musk sur les réseaux sociaux. L’arrogance calme, bien habillée, conférencière, de quelqu’un qui est convaincu de connaître la réponse et de n’avoir pas vraiment besoin d’écouter les questions. Altman en est une incarnation particulièrement sophistiquée. Quand il défend la consommation de ressources de son industrie, il ne fait pas que défendre une position économique. Il signale une hiérarchie : notre vision est plus importante que vos inquiétudes. Notre trajectoire est plus nécessaire que votre confort. Notre certitude sur l’avenir mérite plus de confiance que votre scepticisme sur le présent. C’est une posture qui peut mener à des chefs-d’œuvre technologiques. Et à des catastrophes environnementales. Souvent les deux en même temps.
La santé d’un débat démocratique sur l’IA exige que cette posture soit constamment challengée. Non pas pour paralyser l’innovation — l’IA a des potentiels réels et immenses. Mais pour s’assurer que l’innovation ne se fait pas au détriment de ceux qui n’ont pas eu leur mot à dire dans les choix qui les affectent. C’est le rôle de la presse, des chercheurs, des régulateurs, et aussi des chroniqueurs comme moi : dire clairement que la défense d’Altman est insuffisante, même si elle n’est pas entièrement fausse. Dire que le rire de Musk est révélateur, même si son idée n’est pas entièrement absurde. Dire que ce débat mérite plus que deux milliardaires qui se moquent l’un de l’autre.
Le moment charnière que personne ne veut nommer
Nous sommes à un moment charnière. L’intelligence artificielle est en train de s’installer comme infrastructure fondamentale de nos sociétés, au même titre que l’électricité ou internet. Et comme chaque grande infrastructure, elle va structurer des rapports de pouvoir, créer des dépendances, générer des gagnants et des perdants. Les décisions qui sont prises maintenant — sur l’énergie, sur la gouvernance, sur la distribution des bénéfices et des coûts — auront des effets qui se mesureront en décennies. Il n’est pas trop tôt pour s’inquiéter. Il n’est pas prématuré d’exiger des comptes. Et il n’est pas naïf de penser que nous méritons mieux que de regarder deux géants se disputer la direction de notre avenir commun.
Je ne suis pas contre l’IA. Je suis pour une IA qui réponde à quelqu’un d’autre qu’à ses créateurs. Pour une IA dont les coûts sont partagés aussi équitablement que ses bénéfices promis. Pour un débat sur son avenir qui inclut des voix autres que celles de ceux qui en profitent le plus. C’est peut-être une position naïve. Mais c’est la seule que je puisse défendre honnêtement.
Les alternatives qui existent mais qu'on ne discute pas
Efficacité, sobriété, redistribution : les chemins non pris
Le débat tel que Altman et Musk le cadrent est un faux choix. D’un côté, la consommation massive de ressources terrestres. De l’autre, des serveurs dans l’espace. Mais il existe des alternatives que ni l’un ni l’autre ne mentionnent assez sérieusement. L’efficacité énergétique des modèles d’IA a fait des progrès remarquables ces dernières années. Les modèles plus petits, plus ciblés, consomment une fraction de l’énergie des grands modèles généralistes pour des tâches spécifiques. La recherche sur les architectures alternatives — les neuromorphic chips, les puces photoniques, les approches d’IA symbolique hybride — pourrait réduire considérablement la consommation si elle recevait des investissements comparables à ceux accordés aux grands modèles de langage. L’IA frugale est un domaine de recherche réel, avec des résultats prometteurs. Mais elle ne fait pas les manchettes. Parce qu’elle ne génère pas les mêmes valorisations boursières. Et dans un secteur piloté par des fonds d’investissement, les valorisations boursières sont souvent plus persuasives que les impératifs environnementaux.
Il y a aussi la question de la redistribution géographique. Les datacenters pourraient être implantés dans des régions qui ont accès à des énergies renouvelables abondantes et bon marché, où le stress hydrique est minimal, où le tissu économique local bénéficierait d’emplois qualifiés. La Scandinavie, avec son hydroélectricité et ses températures naturellement froides, est déjà une destination prisée. Mais d’autres régions — au Canada, en Afrique du Nord, dans certaines parties de l’Amérique latine — pourraient accueillir des infrastructures d’IA dans des conditions plus durables. Cette conversation est possible. Elle n’est simplement pas prioritaire pour ceux qui préfèrent construire là où les réseaux électriques sont déjà en place et où les permis s’obtiennent plus facilement.
La sobriété numérique comme option réelle
Et puis il y a un concept que l’industrie redoute presque autant que la régulation : la sobriété numérique. L’idée que certaines applications de l’IA ne valent peut-être pas ce qu’elles coûtent en ressources. Que générer une image artistique avec DALL-E ou Midjourney a un coût environnemental qui mérite d’être explicitement indiqué à l’utilisateur, comme les calories sur une étiquette alimentaire. Que toutes les utilisations de l’IA ne sont pas également légitimes face à leur empreinte environnementale. Cette conversation est difficile à avoir dans un secteur qui a fait de la croissance illimitée sa religion. Mais elle est nécessaire. Et elle sera inévitable, à mesure que les impacts environnementaux de l’IA deviendront impossible à ignorer pour le grand public.
Un jour viendra — peut-être plus tôt qu’on ne le pense — où les gens demanderont sur leur facture d’électricité quelle part va aux datacenters d’IA qui leur ont vendu un abonnement. Ce jour-là, la défense d’Altman sera jugée à l’aune de ce qu’elle a coûté à chaque foyer. Et je parie qu’elle semblera moins convaincante.
L'avenir de ce débat et ce qu'il nous dit sur nous
Une querelle qui révèle nos propres contradictions
Il serait commode de conclure que tout ceci est le problème de milliardaires lointains, déconnectés de la réalité ordinaire. Mais nous sommes tous impliqués. Chaque fois que nous utilisons ChatGPT pour rédiger un email, Grok pour analyser un fil d’actualité, Gemini pour générer une présentation, nous alimentons la demande qui justifie la consommation qu’Altman défend. Nous sommes les consommateurs qui donnent à ces entreprises la légitimité commerciale de construire toujours plus grand. Notre comportement numérique est une forme de vote. Et jusqu’ici, nous votons massivement pour plus d’IA, plus vite, sans trop nous poser de questions sur ce que ça coûte à la planète.
Cette complicité n’est pas une raison de culpabiliser excessivement — nous ne disposons pas d’informations claires sur les coûts environnementaux de nos usages numériques, en grande partie parce que l’industrie ne les communique pas de manière lisible. Mais c’est une raison d’être plus exigeants. D’exiger la transparence sur la consommation réelle. D’exiger des régulateurs qu’ils agissent. D’exiger des candidats politiques des positions claires sur la gouvernance de l’IA et de ses ressources. Ce débat n’appartient pas à Altman et Musk. Il nous appartient à tous.
Ce que les prochaines années vont clarifier
Dans les prochaines années, plusieurs questions trouveront des réponses qui rendront ce débat encore plus crucial. La promesse de l’AGI se concrétisera — ou ne se concrétisera pas. Les objectifs climatiques des grandes entreprises technologiques seront évalués à l’aune de leurs résultats réels — pas de leurs engagements. Les régulateurs, en Europe, aux États-Unis et ailleurs, réussiront ou échoueront à mettre en place des cadres contraignants sur la durabilité de l’IA. Et les consommateurs — c’est-à-dire nous — décideront si nous voulons continuer à utiliser des services dont les coûts environnementaux sont invisibilisés, ou si nous exigeons plus de transparence. Ces questions n’ont pas encore de réponse. Mais la façon dont Altman et Musk se positionnent aujourd’hui donne des indices précieux sur ce à quoi nous pouvons nous attendre.
Je couvre ce secteur depuis assez longtemps pour savoir que les entreprises changent rarement de comportement sous la seule pression des arguments. Elles changent quand les règles changent. Quand les coûts qu’elles externalisent leur sont refacturés. Quand les consommateurs leur retirent leur confiance. Nous sommes encore loin de ce point de bascule. Mais je crois qu’il viendra. Et j’espère que nous n’attendrons pas une catastrophe pour l’atteindre.
Ce que nous méritons comme société face à l'IA
Exiger un débat à la hauteur des enjeux
Ce dont nous avons besoin, ce n’est pas d’un arbitre entre Altman et Musk. Ce dont nous avons besoin, c’est d’élever le niveau du débat. De le sortir des mains des seuls acteurs commerciaux pour l’ouvrir à une délibération véritablement démocratique. Cela signifie des auditions parlementaires sérieuses, avec des experts indépendants — pas seulement des lobbyistes de l’industrie. Cela signifie des médias qui couvrent la consommation de ressources de l’IA avec la même intensité qu’ils couvrent ses capacités époustouflantes. Cela signifie des universités qui forment des spécialistes capables de rendre compte des impacts environnementaux de l’IA en termes accessibles au grand public. Et cela signifie, peut-être surtout, des citoyens informés qui comprennent que la question n’est pas « êtes-vous pour ou contre l’IA« , mais « quelles conditions posez-vous à son développement ».
L’IA va continuer à se développer. Sa consommation de ressources va continuer à croître, du moins à court terme. Mais le rythme, les conditions, les mécanismes de redevabilité — tout cela est encore à définir. Et ces définitions nous appartiennent collectivement. Ce n’est pas une utopie que de le penser. C’est simplement la définition de la démocratie appliquée à l’un des défis les plus complexes de notre époque.
Une conclusion qui reste ouverte parce que le débat ne fait que commencer
L’échange entre Sam Altman et Elon Musk sur les ressources de l’IA et les datacenters spatiaux ne sera pas le dernier du genre. Il sera suivi de bien d’autres, à mesure que les enjeux s’intensifient et que les choix se font plus pressants. Ce qui compte, c’est que nous — citoyens, lecteurs, utilisateurs — soyons présents dans ce débat. Que nous ne le laissions pas se dérouler sans nous. Que nous posions nos propres questions, que nous formulions nos propres exigences, que nous votions en connaissance de cause pour des représentants qui prendront des décisions sensées sur la gouvernance de cette technologie. L’avenir de l’intelligence artificielle ne sera pas façonné uniquement par Altman, par Musk, ou par les quelques centaines de personnes qui dirigent les grandes entreprises du secteur. Il sera façonné aussi par ce que nous, collectivement, accepterons ou refuserons. Et cette responsabilité, aussi inconfortable soit-elle, est la nôtre.
Je vous laisse avec cette pensée : dans trente ans, nos enfants regarderont en arrière vers cette période où l’IA a pris son essor. Ils regarderont les choix qui ont été faits sur l’énergie, les ressources, la gouvernance. Et ils nous jugeront non pas sur nos intentions — tout le monde avait de bonnes intentions — mais sur notre courage à exiger des comptes. Soyons courageux.
Conclusion : ni Altman ni Musk ne parle en notre nom — et c'est le vrai problème
La leçon de cet échange au-delà du spectacle
Au fond, ce que révèle l’échange entre Sam Altman et Elon Musk sur la consommation de ressources de l’IA, c’est une vérité inconfortable : les décisions les plus importantes concernant l’avenir technologique de notre espèce sont prises par un nombre extraordinairement petit de personnes, qui ne rendent compte à personne d’autre qu’à leurs actionnaires. Altman a raison sur certains points — l’IA a des bénéfices réels et son développement nécessite des ressources significatives. Musk pose de vraies questions sur les limites des solutions terrestres — même si ses réponses peuvent sembler prématurées. Mais ni l’un ni l’autre ne parle au nom des millions de personnes qui vivront avec les conséquences de leurs choix.
Ce vide de représentation est le problème fondamental. Et le rire d’Altman face à l’idée de Musk, aussi savoureux soit-il médiatiquement, ne devrait pas nous faire oublier que ce qui se joue dans ces échanges est notre avenir commun. Traité, malheureusement, comme une affaire privée.
Ce que nous devons exiger maintenant
Si ce texte vous a convaincu d’une seule chose, que ce soit celle-ci : exigez la transparence. Exigez que les entreprises d’IA publient des données claires et vérifiables sur leur consommation d’énergie, d’eau et de matériaux. Exigez que vos représentants élus posent ces questions dans les commissions parlementaires. Exigez que les médias que vous consultez couvrent ce sujet avec la profondeur qu’il mérite. L’intelligence artificielle sera l’une des technologies les plus transformatrices de ce siècle. Elle mérite un débat à la hauteur de son importance. Un débat qui dépasse les joutes entre milliardaires pour atteindre chacun d’entre nous, là où nous vivons, là où nous respirons, là où nous payons nos factures d’électricité.
La question n’est pas de savoir si l’IA va changer le monde. Elle le change déjà. La question est de savoir qui décide de quelle façon. Pour l’instant, la réponse est : pas vous. Pas moi. Mais ça, ça peut changer. Si on le décide.
Signé Jacques Pj Provost
Encadré de transparence du chroniqueur
Positionnement éditorial
Je ne suis pas journaliste, mais chroniqueur et analyste. Mon expertise réside dans l’observation et l’analyse des dynamiques technologiques, économiques et stratégiques qui façonnent notre monde. Mon travail consiste à décortiquer les stratégies des acteurs de l’industrie numérique, à comprendre les implications des choix technologiques globaux, à contextualiser les décisions des grands acteurs du secteur et à proposer des perspectives analytiques sur les transformations qui redéfinissent nos sociétés.
Je ne prétends pas à l’objectivité froide du journalisme traditionnel, qui se limite au rapport factuel. Je prétends à la lucidité analytique, à l’interprétation rigoureuse, à la compréhension approfondie des enjeux complexes qui nous concernent tous. Mon rôle est de donner du sens aux faits, de les situer dans leur contexte technologique, économique et politique, et d’offrir une lecture critique des événements.
Méthodologie et sources
Ce texte respecte la distinction fondamentale entre faits vérifiés et analyses interprétatives. Les informations factuelles présentées proviennent exclusivement de sources primaires et secondaires vérifiables. Les analyses, interprétations et perspectives constituent une synthèse critique basée sur les informations disponibles, les tendances observées et les données publiées par les institutions officielles et les médias spécialisés.
Sources primaires : déclarations publiques de Sam Altman et d’Elon Musk, rapports officiels d’organismes comme l’Agence internationale de l’énergie, données publiées par les entreprises dans leurs rapports de durabilité.
Sources secondaires : publications spécialisées dans le secteur technologique, médias d’information reconnus internationalement, analyses d’institutions de recherche établies sur l’impact environnemental du numérique et de l’intelligence artificielle.
Nature de l’analyse
Les analyses présentées dans cet article constituent une synthèse critique et contextuelle basée sur les informations disponibles au moment de la rédaction. Toute évolution ultérieure de la situation pourrait naturellement modifier les perspectives présentées. Cet article pourra être mis à jour si de nouvelles informations officielles majeures sont publiées.
Sources
Sources primaires
Agence internationale de l’énergie — Electricity 2024 : Analysis and Forecast to 2026 — 2024
OpenAI — Partenariat stratégique avec Microsoft — Documentation officielle
Sources secondaires
The Washington Post — Microsoft to power AI with Three Mile Island nuclear plant — 18 septembre 2024
Financial Times — AI’s water use becomes growing concern amid data centre boom — 2024
Euractiv — Ireland extends data centre moratorium as electricity demand rises — 2024
Nature Climate Change — The carbon footprint of machine learning — 2022
Reuters — OpenAI and xAI rivalry deepens as Altman and Musk clash over AI direction — 2025
Ce contenu a été créé avec l'aide de l'IA.