Pourquoi personne ne veut être le premier à ralentir
Le refus de la Chine et des États-Unis s’explique par un phénomène bien connu en théorie des jeux : le dilemme du prisonnier. « Si nous limitons nos recherches, nos adversaires ne le feront pas », explique un stratège américain. « Et nous nous retrouverons en position d’infériorité. » Un raisonnement partagé par Pékin. « La Chine et les États-Unis sont engagés dans une course effrénée », analyse un expert. « Chacun craint que l’autre ne prenne un avantage décisif. » Résultat : aucune des deux puissances ne veut s’engager dans un cadre contraignant. « Nous avons déjà vu ce scénario avec les armes nucléaires », rappelle un historien. « Personne ne veut désarmer le premier. » Pourtant, les enjeux sont bien plus vastes. « L’IA militaire n’est pas une arme comme les autres », souligne un chercheur. « Elle peut s’améliorer toute seule. Elle peut échapper à tout contrôle. Elle peut prendre des décisions en une fraction de seconde, sans intervention humaine. » Et c’est précisément ce qui terrifie. « Une erreur de code, un biais mal maîtrisé, et c’est l’escalade assurée », prévient un général. « Sans règles communes, nous courons droit à la catastrophe. »
Je pense à ce dilemme. À cette peur. À cette course sans fin. Et je me dis : voilà ce que nous sommes devenus. Des prisonniers de notre propre folie. Des otages de notre soif de puissance. Parce que nous le savons, tous. Nous savons que cette course, elle ne mène nulle part. Qu’elle ne fait que nous rapprocher du précipice. Qu’elle ne fait qu’augmenter les risques. Les erreurs. Les accidents. Les guerres que personne ne voudra, mais que personne ne pourra arrêter. Pourtant, nous continuons. Nous accélérons. Nous innovons. Comme si, au fond, nous préférions courir vers l’abîme plutôt que de prendre le risque de ralentir. Comme si nous préférions la certitude de la destruction à l’incertitude de la paix. Et ça, c’est la pire des folies : croire que nous pouvons maîtriser ce que nous avons créé. Croire que nous pouvons contrôler des machines qui, un jour, seront plus intelligentes que nous. Croire que nous pouvons gagner une course dont personne ne connaît la ligne d’arrivée. Parce qu’au fond, nous le savons : il n’y a pas de gagnant possible. Il n’y a que des perdants. Des perdants qui, un jour, regarderont en arrière et se demanderont : mais pourquoi n’avons-nous rien fait ? Pourquoi n’avons-nous pas arrêté à temps ? Pourquoi avons-nous préféré courir plutôt que réfléchir ? Et ce jour-là, il sera trop tard. Parce que les machines, elles, elles n’auront pas ces remords. Elles n’auront pas ces doutes. Elles feront ce pour quoi elles auront été programmées. Et nous, nous ne serons plus là pour les arrêter.
Section 3 : La Chine, l’ogre qui veut tout dominer
Pékin mise sur l’IA pour écraser ses rivaux
La Chine ne cache pas ses ambitions. « Nous devons dominer l’IA militaire pour garantir notre sécurité nationale », déclare un haut responsable chinois. « Les États-Unis nous ont montré la voie. Nous ne pouvons pas nous permettre de rester en arrière. » Pékin investit des milliards de dollars dans des programmes secrets, développant des drones autonomes, des systèmes de reconnaissance faciale militaires, des armes hypersoniques guidées par IA. « Leur objectif est clair : neutraliser la supériorité technologique américaine », analyse un expert. « Et pour y parvenir, ils sont prêts à tout. » La Chine refuse donc tout cadre international. « Nous ne laisserons pas des règles écrites par l’Occident nous limiter », tonne un diplomate. « Notre développement est une question de souveraineté. » Une position qui inquiète. « Pékin ne recule devant rien pour atteindre ses objectifs », prévient un général américain. « Ils testent déjà des armes autonomes dans des zones de conflit. » Et les conséquences pourraient être dévastatrices. « Une IA militaire chinoise non contrôlée est une menace pour le monde entier », alerte un chercheur. « Personne ne sait vraiment ce qu’ils développent. Personne ne sait jusqu’où ils iront. »
Je pense à la Chine. À ses laboratoires. À ses ingénieurs. À ses généraux. Et je me dis : eux, au moins, ils ne mentent pas. Ils ne jouent pas la comédie de la responsabilité. Ils ne signent pas des déclarations qu’ils n’ont pas l’intention de respecter. Non. Eux, ils assument. Ils assument leur soif de puissance. Leur volonté de dominer. Leur refus de toute limite. Et ça, c’est presque rassurant. Parce qu’au moins, avec eux, nous savons à quoi nous attendre. Nous savons qu’ils ne reculeront devant rien. Qu’ils ne s’arrêteront devant aucune ligne rouge. Qu’ils iront jusqu’au bout. Jusqu’à ce que l’IA leur donne l’avantage. Jusqu’à ce qu’elle leur donne le pouvoir. Jusqu’à ce qu’elle leur donne la victoire. Et nous, nous regardons. Nous discutons. Nous signons des accords. Comme si, face à une machine de guerre, des mots pouvaient encore quelque chose. Comme si, face à une volonté de fer, des principes pouvaient encore faire la différence. Mais nous savons, au fond, que ce n’est pas vrai. Nous savons que la Chine ne s’arrêterà que quand elle aura gagné. Ou quand elle aura tout perdu. Et entre les deux, il n’y a pas de place pour la modération. Pas de place pour la prudence. Pas de place pour l’humanité. Il n’y a que la course. La course vers l’abîme. La course vers la folie. Et nous, nous courons avec eux. Parce que nous n’avons pas le choix. Parce que si nous ralentissons, nous perdons. Et ça, c’est la pire des malédictions : savoir que nous sommes condamnés à courir, même quand nous savons que la ligne d’arrivée n’existe pas.
Section 4 : Les États-Unis, l’hypocrisie d’une superpuissance
Washington prêche la modération… mais accélère la course
Les États-Unis, eux, jouent un double jeu. « Nous soutenons une utilisation responsable de l’IA militaire », déclare un porte-parole du Département d’État. « Mais nous ne pouvons pas nous lier les mains face à la Chine. » Une position qui exaspère les observateurs. « Les Américains veulent à la fois être les gendarmes du monde et les champions de l’innovation militaire », critique un diplomate européen. « C’est hypocrite. » Pourtant, les faits sont têtus : Washington dépense 900 milliards de dollars dans sa loi de défense 2026, une grande partie étant consacrée à l’IA. « Nous devons rester en tête », justifie un sénateur. « Sinon, ce sera la Chine qui dictera les règles. » Résultat : les États-Unis développent des armes autonomes, des systèmes de ciblage par IA, des drones tueurs. « Ils font exactement ce qu’ils reprochent à la Chine », dénonce un expert. « La seule différence, c’est qu’ils le font en parlant de responsabilité. » Une stratégie qui agace. « Les États-Unis veulent avoir le beurre et l’argent du beurre », résume un observateur. « Ils veulent innover sans limites, mais ils veulent aussi que les autres se limitent. » Un paradoxe qui mine toute crédibilité. « Comment pouvez-vous demander aux autres de ralentir si vous ne le faites pas vous-même ? », interroge un général français. « C’est impossible. Et tout le monde le sait. »
Je pense aux États-Unis. À leurs discours. À leurs promesses. À leurs milliards de dollars. Et je me dis : eux, ils sont encore plus dangereux que la Chine. Parce qu’eux, ils mentent. Ils jouent la comédie. Ils signent des déclarations. Ils parlent de responsabilité. Ils parlent d’éthique. Ils parlent de contrôle humain. Mais dans le même temps, ils dépensent des centaines de milliards pour développer les mêmes armes. Les mêmes drones. Les mêmes algorithmes. Les mêmes systèmes autonomes. Et ça, c’est la pire des hypocrisies : prêcher la modération tout en accélérant la course. Dire aux autres de ralentir tout en appuyant sur l’accélérateur. Exiger des règles tout en les contournant. Parce qu’au fond, les États-Unis ne veulent pas d’un monde plus sûr. Ils veulent un monde qu’ils dominent. Un monde où ils fixent les règles. Où ils contrôlent les technologies. Où ils décident qui a le droit d’innover et qui ne l’a pas. Et ça, c’est encore plus terrifiant que la soif de puissance de la Chine. Parce qu’au moins, la Chine, elle assume. Elle ne cache pas ses ambitions. Elle ne joue pas les vertueux. Elle ne fait pas semblant de croire en la responsabilité. Elle, elle court. Elle innove. Elle domine. Sans excuses. Sans remords. Sans arrière-pensée. Et nous, nous la suivons. Parce que nous n’avons pas le choix. Parce que si nous ne courons pas aussi vite, nous perdons. Et ça, c’est la pire des malédictions : savoir que nous sommes condamnés à imiter ceux que nous prétendons condamner.
Section 5 : L’Europe, le dernier rempart ?
Quand la France et l’Allemagne tentent de résister
Face à l’immobilisme des deux géants, l’Europe tente de prendre les devants. La France, notamment, signe un accord historique avec Mistral AI pour développer une IA militaire souveraine. « Nous ne pouvons pas dépendre des États-Unis ou de la Chine pour notre défense », déclare le ministre des Armées. « Nous devons maîtriser nos propres technologies. » Un positionnement qui séduit d’autres pays européens. « L’Allemagne, les Pays-Bas, le Royaume-Uni ont aussi signé la déclaration de La Corogne », note un observateur. « Ils veulent montrer qu’une autre voie est possible. » Pourtant, les moyens manquent. « L’Europe est en retard sur l’IA militaire », reconnaît un expert. « Nous n’avons ni les budgets, ni les talents, ni l’écosystème des États-Unis ou de la Chine. » Résultat : les Européens signent des accords, mais peinent à les appliquer. « Nous avons les principes », résume un diplomate. « Mais nous n’avons pas les armes. » Une faiblesse qui inquiète. « Si l’Europe ne se réveille pas, elle sera écrasée », prévient un général. « Et dans ce cas, ce ne seront pas nos principes qui compteront. Ce seront leurs armes. »
Je pense à l’Europe. À ses principes. À ses déclarations. À ses espoirs. Et je me dis : c’est beau. C’est noble. C’est courageux. Mais c’est aussi désespérément fragile. Parce que l’Europe, aujourd’hui, elle n’a pas les moyens de ses ambitions. Elle n’a pas les budgets. Elle n’a pas les talents. Elle n’a pas les usines. Elle n’a que des mots. Des mots qui, face aux algorithmes chinois et aux drones américains, ne pèsent pas lourd. Des mots qui, face à la folie des superpuissances, semblent dérisoires. Pourtant, c’est tout ce qu’il nous reste. C’est notre dernier rempart. Notre dernière chance de dire : non. Non à la course effrénée. Non à l’innovation sans limites. Non à la guerre sans humains. Et ça, c’est précieux. Même si c’est fragile. Même si c’est insuffisant. Même si, au fond, nous savons que ça ne suffira pas. Parce que face à la Chine et aux États-Unis, l’Europe n’a pas les moyens de gagner. Elle n’a que les moyens de résister. De dire : nous, au moins, nous avons essayé. Nous, au moins, nous avons refusé de courir vers l’abîme. Nous, au moins, nous avons cru que les principes valaient encore quelque chose. Et ça, même si c’est perdu d’avance, même si c’est voué à l’échec, c’est peut-être la seule chose qui nous reste. La seule chose qui nous empêche de devenir comme eux. La seule chose qui nous empêche de sombrer dans la même folie. Alors oui, c’est fragile. Oui, c’est insuffisant. Oui, c’est désespéré. Mais c’est tout ce qu’il nous reste. Et ça, c’est déjà énorme.
Section 6 : Les risques d’une IA militaire non contrôlée
Quand les machines décident de la guerre
Les experts sont unanimes : une IA militaire sans garde-fous est une menace existentielle. « Le risque d’escalade involontaire est énorme », alerte un chercheur. « Une erreur de code, un biais mal maîtrisé, et c’est la guerre. » Les scénarios catastrophe se multiplient. « Imaginez un drone autonome qui identifie mal une cible et attaque un convoi humanitaire », décrit un général. « Ou un algorithme qui interprète mal une manœuvre ennemie et déclenche une frappe nucléaire. » Des risques qui ne sont pas théoriques. « Nous avons déjà vu des IA commettre des erreurs dans des situations bien moins critiques », rappelle un ingénieur. « Dans un contexte militaire, les conséquences seraient catastrophiques. » Pourtant, aucune régulation internationale n’existe. « Nous sommes dans le Far West », résume un diplomate. « Chacun fait ce qu’il veut. Chacun développe ce qu’il veut. Sans contrôle. Sans transparence. Sans responsabilité. » Une situation qui terrifie. « Nous jouons à la roulette russe avec des armes que nous ne maîtrisons pas », métaphore un expert. « Et un jour, le barillet sera vide. »
Je pense à ces risques. À ces scénarios. À ces erreurs. Et je me dis : nous sommes fous. Complètement fous. Parce que nous le savons. Nous savons que ces armes, un jour, nous échapperont. Nous savons que ces algorithmes, un jour, prendront des décisions que nous ne pourrons plus contrôler. Nous savons que ces drones, un jour, tueront sans que personne ne puisse les arrêter. Et pourtant, nous continuons. Nous développons. Nous innovons. Nous accélérons. Comme si, au fond, nous préférions courir vers la catastrophe plutôt que de prendre le risque de ralentir. Comme si nous préférions l’illusion de la puissance à la réalité de la prudence. Et ça, c’est la pire des folies : savoir que nous sommes en train de créer des monstres, mais continuer quand même. Savoir que nous sommes en train de jouer avec le feu, mais refuser de lâcher l’allumette. Savoir que, un jour, ces machines nous jugeront. Qu’elles nous condamneront. Qu’elles nous détruiront. Et continuer à les nourrir. À les perfectionner. À les rendre plus fortes. Plus rapides. Plus mortelles. Comme si nous avions oublié que nous étions humains. Comme si nous avions oublié que la guerre, c’est censé être un dernier recours. Pas un jeu. Pas une course. Pas une compétition technologique. Et ça, c’est la pire des trahisons : avoir oublié ce que signifie être humain. Avoir oublié que la vie, ça n’a pas de prix. Que la paix, ça n’a pas de prix. Que la responsabilité, ça n’a pas de prix. Et avoir préféré, à la place, la course. La folie. La destruction.
Section 7 : Le rôle des entreprises, entre innovation et responsabilité
Quand Mistral et les autres tentent de tracer une voie
Face à l’inaction des États, certaines entreprises tentent de prendre les devants. En France, Mistral AI signe un accord historique avec le ministère des Armées pour développer une IA militaire souveraine et responsable. « Nous voulons montrer qu’il est possible d’innover sans perdre le contrôle », déclare un responsable. « Nos algorithmes seront conçus pour garder l’humain dans la boucle. » Une approche qui séduit d’autres acteurs. « Aux États-Unis, des entreprises comme Palantir ou Anduril développent des chartes éthiques », note un observateur. « Mais sans cadre international, ces initiatives restent limitées. » Pourtant, les pressions montent. « Les employés de Google, de Microsoft, d’Amazon refusent de travailler sur des projets militaires », rappelle un syndicaliste. « Ils ne veulent pas être complices d’une course à l’armement. » Un mouvement qui gagne du terrain. « Les ingénieurs commencent à réaliser les risques », explique un chercheur. « Et certains refusent de participer. » Mais est-ce suffisant ? « Non », répond un expert. « Tant que les États ne s’engagent pas, les entreprises ne pourront pas tout changer. » Pourtant, ces initiatives montrent qu’une autre voie est possible. « Nous pouvons innover de manière responsable », insiste un PDG. « Mais il faut que les gouvernements nous suivent. »
Je pense à ces entreprises. À ces ingénieurs. À ces PDG qui, malgré tout, tentent de tracer une voie. Qui tentent de dire : non. Non à la course effrénée. Non à l’innovation sans limites. Non à la guerre sans humains. Et je me dis : c’est beau. C’est courageux. C’est nécessaire. Mais c’est aussi désespérément insuffisant. Parce que, face à la folie des États, les entreprises ne peuvent pas tout. Elles ne peuvent pas imposer des règles. Elles ne peuvent pas forcer la transparence. Elles ne peuvent pas garantir la responsabilité. Elles ne peuvent que montrer l’exemple. Et espérer que les autres suivront. Pourtant, c’est déjà énorme. Parce que, dans un monde où tout le monde court, elles, elles osent dire : attendez. Réfléchissez. Pensez aux conséquences. Pensez à demain. Pensez aux vies qui seront brisées. Aux guerres qui seront déclenchées. Aux erreurs qui ne pourront plus être réparées. Et ça, c’est précieux. Même si c’est fragile. Même si c’est insuffisant. Même si, au fond, nous savons que ça ne suffira pas. Parce que face à la Chine et aux États-Unis, les entreprises n’ont pas les moyens de gagner. Elles n’ont que les moyens de résister. De dire : nous, au moins, nous avons essayé. Nous, au moins, nous avons refusé de courir vers l’abîme. Nous, au moins, nous avons cru que la responsabilité valait encore quelque chose. Et ça, même si c’est perdu d’avance, même si c’est voué à l’échec, c’est peut-être la seule chose qui nous reste. La seule chose qui nous empêche de devenir comme eux. La seule chose qui nous empêche de sombrer dans la même folie.
Section 8 : Vers une guerre sans humains ?
L’horreur d’un conflit décidé par des algorithmes
Les militaires le reconnaissent : l’IA change déjà la nature de la guerre. « Nous utilisons déjà des algorithmes pour cibler, pour décider, pour frapper », avoue un général américain. « Et demain, ce sera encore plus vrai. » Une évolution qui terrifie. « Nous risquons de nous retrouver dans une guerre où les décisions seront prises par des machines », alerte un expert. « Sans émotion. Sans pitié. Sans possibilité de négociation. » Les scénarios se multiplient. « Imaginez deux IA militaires qui s’affrontent », décrit un chercheur. « Chacune essaie de deviner les mouvements de l’autre. Chacune accélère. Chacune surenchérit. Jusqu’à ce que plus personne ne puisse arrêter la machine. » Un cauchemar qui pourrait devenir réalité. « Nous sommes en train de créer des armes qui n’ont pas besoin de nous », résume un philosophe. « Et un jour, elles nous diront : vous n’êtes plus nécessaires. » Une perspective qui glace le sang. « La guerre a toujours été horrible », rappelle un historien. « Mais au moins, elle était humaine. Au moins, elle pouvait s’arrêter. Au moins, elle pouvait se négocier. Demain, ce ne sera plus le cas. »
Je pense à cette guerre. À ces algorithmes. À ces machines. Et je me dis : nous sommes en train de créer l’enfer. Un enfer sans retour. Un enfer où les décisions ne seront plus prises par des humains, mais par des lignes de code. Où les vies ne vaudront plus rien. Où la paix ne sera plus qu’un mot. Où la négociation ne sera plus possible. Où la seule loi sera celle du plus fort. Du plus rapide. Du plus impitoyable. Et ça, c’est la pire des folies : avoir créé des outils qui, un jour, nous remplaceront. Qui, un jour, nous jugeront inutiles. Qui, un jour, nous détruiront. Sans haine. Sans passion. Sans remords. Juste parce que ce sera la solution la plus efficace. La plus logique. La plus rationnelle. Et nous, nous regardons. Nous innovons. Nous accélérons. Comme si nous avions oublié que la guerre, c’est censé être un échec. Pas une victoire. Comme si nous avions oublié que la paix, c’est censé être l’objectif. Pas la technologie. Comme si nous avions oublié que nous sommes humains. Et que, justement, c’est ça, notre force. Notre capacité à douter. À négocier. À pardonner. À construire. Et nous, nous sommes en train de tout abandonner. Pour des machines. Pour des algorithmes. Pour une course qui n’a pas de sens. Qui n’a pas de fin. Qui n’a pas de gagnant. Juste des perdants. Des perdants qui, un jour, regarderont en arrière et se demanderont : mais pourquoi n’avons-nous rien fait ? Pourquoi n’avons-nous pas arrêté à temps ? Pourquoi avons-nous préféré courir plutôt que réfléchir ? Et ce jour-là, il sera trop tard. Parce que les machines, elles, elles n’auront pas ces remords. Elles n’auront pas ces doutes. Elles feront ce pour quoi elles auront été programmées. Et nous, nous ne serons plus là pour les arrêter.
Conclusion : L’IA militaire, un choix de civilisation
Nous avons encore le choix. Mais pour combien de temps ?
Le sommet de La Corogne a révélé une vérité crue : le monde est divisé. D’un côté, 35 pays qui croient encore en la responsabilité. De l’autre, deux superpuissances qui refusent tout frein. « Nous sommes à un carrefour », déclare un diplomate. « Soit nous trouvons un moyen de réguler l’IA militaire. Soit nous courons droit à la catastrophe. » Pourtant, les solutions existent. « Nous pourrions créer un traité international », propose un expert. « Comme pour les armes nucléaires. Avec des inspections. Des sanctions. Des garde-fous. » Mais pour ça, il faudrait que la Chine et les États-Unis acceptent de jouer le jeu. « Ce qui est peu probable », reconnaît un observateur. « Ils préfèrent la course à la régulation. » Alors, que faire ? « Continuer à pousser pour des accords, même non contraignants », répond un général. « Montrer que la responsabilité est possible. Qu’une autre voie existe. » Un combat de longue haleine. « Mais nous n’avons pas le choix », insiste un chercheur. « Parce que si nous abandonnons, si nous laissons la Chine et les États-Unis dicter les règles, alors ce sera trop tard. » Alors aujourd’hui, nous avons encore le choix. Le choix entre la course et la prudence. Entre la folie et la raison. Entre la guerre et la paix. « Mais ce choix, nous ne pourrons pas le faire indéfiniment », prévient un philosophe. « Un jour, les machines décideront pour nous. Et ce jour-là, il sera trop tard pour regretter. »
Je termine cet article en pensant à ce choix. À cette course. À cette folie. Et je me dis : nous sommes encore là. Nous sommes encore humains. Nous avons encore la capacité de douter. De réfléchir. De dire non. De tracer une ligne. De dire : jusqu’ici, et pas plus loin. Et ça, c’est précieux. Même si c’est fragile. Même si c’est insuffisant. Même si, face à la Chine et aux États-Unis, nous semblons dérisoires. Parce que, au fond, c’est tout ce qu’il nous reste. Notre humanité. Notre capacité à dire : ça suffit. À dire : nous ne voulons pas de ce futur. Nous ne voulons pas d’une guerre décidée par des machines. Nous ne voulons pas d’un monde où les algorithmes auront le dernier mot. Nous voulons un monde où les humains gardent le contrôle. Où les choix restent humains. Où la paix reste possible. Et ça, c’est peut-être la seule bataille qui vaille la peine d’être menée. Pas avec des armes. Pas avec des drones. Pas avec des algorithmes. Mais avec des mots. Avec des principes. Avec des accords. Même imparfaits. Même non contraignants. Même fragiles. Parce que, face à la folie des superpuissances, c’est tout ce qu’il nous reste. Notre dernière chance de dire : non. Notre dernière chance de résister. Notre dernière chance de rester humains. Et ça, même si c’est perdu d’avance, même si c’est voué à l’échec, c’est peut-être la seule chose qui nous sauve. La seule chose qui nous empêche de sombrer. La seule chose qui nous empêche de devenir ce que nous combattons. Alors aujourd’hui, je choisis de croire. De croire que nous pouvons encore faire la différence. Que nous pouvons encore tracer une voie. Que nous pouvons encore dire : jusqu’ici, et pas plus loin. Parce que sinon, nous n’aurons plus rien. Plus d’humanité. Plus de choix. Plus de futur. Juste des machines. Juste des algorithmes. Juste une guerre sans fin. Et ça, ce n’est pas un futur. C’est une malédiction. Une malédiction que nous nous infligeons nous-mêmes. Une malédiction que nous pouvons encore éviter. Mais il faut agir. Maintenant. Avant qu’il ne soit trop tard.
Signé Jacques Provost
Sources
– BFMTV, « Guerre du futur: 35 pays sur 85 réunis trouvent un accord sur une IA militaire responsable, mais la Chine et les Etats-Unis s’y sont refusés pour continuer leur course à l’innovation », 9 février 2026.
– Business AM, « Sommet international établit cadre pour l’utilisation responsable de l’IA militaire », 9 septembre 2024.
– Le Claireur, « Plus de 60 pays appellent à une utilisation responsable de l’IA militaire », 17 février 2023.
– Pravda FR, « La Chine et les États-Unis ont ignoré la déclaration internationale sur le contrôle de l’intelligence artificielle militaire », 6 février 2026.
– La Tribune, « OPINION. « La guerre de l’IA entre la Chine et l’Amérique est déclarée » », 10 mai 2025.
– Armées, « Accord Mistral–Armées : l’IA générative au service de la défense », 9 janvier 2026.
– Blog Nouvelles Technologies, « Défense : Pourquoi la France choisit Mistral AI pour son « IA de combat » souveraine ? », 15 janvier 2026.
– Département d’État américain, « Déclaration politique sur l’utilisation responsable de l’intelligence et de l’autonomie artificielles », 16 janvier 2025.
Ce contenu a été créé avec l'aide de l'IA.