L’intelligence artificielle ne relève plus de la science-fiction militaire. Elle s’installe désormais dans la mécanique concrète des conflits. Son rôle ne consiste pas seulement à piloter un drone ou à trier des images satellites. Elle s’insère plus largement dans la chaîne de décision, depuis la collecte du renseignement jusqu’à la hiérarchisation des cibles, en passant par la planification des opérations. En Ukraine, à Gaza et plus récemment dans la guerre menée contre l’Iran, cette montée en puissance dessine une rupture. La guerre reste physique, humaine et tragique. Mais elle devient aussi computationnelle, c’est-à-dire alimentée par des masses de données et par des outils capables d’en accélérer l’exploitation.
Il faut pourtant écarter une idée trompeuse. L’IA n’est pas une arme au sens classique du terme. Elle ne remplace ni un missile, ni un blindé, ni une chaîne de commandement. En revanche, elle agit comme un multiplicateur d’efficacité. Elle permet d’absorber des volumes d’informations qu’aucun état-major ne pourrait traiter seul dans des délais comparables.
Images de drones, interceptions, données radar, capteurs terrestres, historiques de frappes, mouvements logistiques : tout cela peut être rapproché, trié et interprété beaucoup plus vite. Dans le cas iranien, plusieurs médias américains ont rapporté que l’outil Claude d’Anthropic, intégré dans des environnements utilisés par la défense américaine, avait contribué à analyser des flux massifs de données et à accélérer l’identification de plus de 1.000 cibles au début de la campagne.
Cette accélération change la nature même du tempo militaire.
Jadis, la valeur d’un renseignement dépendait en grande partie de la vitesse de sa circulation entre les capteurs, les analystes et les décideurs. Désormais, l’avantage se mesure aussi dans la capacité à comprimer le temps entre la détection d’un signal faible et l’action. C’est là que l’IA s’impose. Elle réduit les délais, classe les alertes et propose des corrélations. En clair, elle aide à passer plus vite d’un soupçon à une hypothèse, puis d’une hypothèse à une option opérationnelle. Cela ne signifie pas que la machine décide seule. Cela signifie qu’elle réorganise la hiérarchie de l’attention humaine, ce qui est déjà considérable sur un théâtre de guerre.
Le précédent ukrainien l’a montré avant les autres. Depuis le début de l’invasion russe, l’Ukraine sert de laboratoire à ciel ouvert pour les technologies duales, mêlant innovation civile et usage militaire. Les drones y jouent un rôle central, mais l’enjeu dépasse l’aérien. L’expérience ukrainienne a démontré la valeur stratégique de la collecte de données de terrain, du traitement embarqué, de la navigation assistée et des capacités autonomes dans la phase terminale de certaines missions. Un rapport publié par l’Ifri en février 2026 souligne d’ailleurs que cette guerre redéfinit le caractère de la guerre moderne et oblige les armées européennes à repenser à la fois leurs arsenaux, leurs doctrines et leurs capacités industrielles.
À Gaza, un autre enseignement est apparu.
L’IA n’y sert pas seulement à repérer des objets ou des mouvements. Elle entre dans des systèmes de recommandation qui orientent le ciblage et la priorisation des frappes. Plusieurs analyses et enquêtes ont mis en avant l’utilisation croissante d’outils d’aide à la décision dans les opérations israéliennes, avec une promesse affichée d’efficacité et de précision. Mais ce discours technologique rencontre vite une limite : plus une armée automatise le repérage, plus la question de la vérification humaine devient décisive. Car une cible proposée par un système reste une cible qui doit être jugée, contextualisée et, en droit, assumée. L’IA peut donner une impression de rationalité parfaite. Or la guerre demeure un univers d’incertitude, de brouillard informationnel et de conséquences irréversibles.
C’est pourquoi la formule la plus juste consiste sans doute à dire que l’IA est un facilitateur. Elle augmente la capacité de renseignement, de coordination et de projection. Elle fluidifie la planification. Elle peut aussi améliorer l’allocation des moyens, depuis la maintenance prédictive jusqu’au routage logistique.
En revanche, elle ne transforme pas la guerre en équation propre. Le terrain résiste toujours. Les erreurs de données existent. Les biais de modèle également. Une corrélation statistique n’est pas une preuve. Un signal détecté n’est pas une intention établie. Et une recommandation algorithmique n’abolit jamais la responsabilité du chef militaire ou de l’autorité politique qui valide l’action. Anthropic lui-même a rappelé ces dernières semaines qu’il ne voulait pas être impliqué dans des usages liés aux armes totalement autonomes et à la surveillance de masse, tout en reconnaissant que ses modèles sont déjà employés dans des fonctions critiques de renseignement, de simulation et de planification.
Le vrai sujet, au fond, n’est donc pas seulement technologique.
Il est juridique, éthique et politique. Les débats internationaux sur les systèmes d’armes létales autonomes avancent, mais lentement. Les Nations unies poursuivent leurs travaux sur ces technologies émergentes, tandis que le Comité international de la Croix-Rouge appelle à préserver un contrôle humain sur l’usage de la force. Cette exigence n’a rien d’abstrait. Elle répond à une question simple : qui répond d’une erreur quand une chaîne algorithmique a pesé dans la sélection ou l’attaque d’une cible ? Le droit international humanitaire impose déjà des principes clairs, en particulier la distinction, la proportionnalité et les précautions dans l’attaque. Or ces principes supposent des jugements de contexte, et pas seulement des calculs de probabilité.
Il serait toutefois trop simple d’en rester à une opposition entre militaires fascinés par la vitesse et défenseurs du droit attachés à la prudence. Les armées cherchent d’abord un avantage opérationnel. Cela a toujours été le cas. Ce qui change aujourd’hui, c’est l’ampleur de la dépendance aux entreprises technologiques privées. La confrontation ouverte entre le Pentagone et Anthropic en mars 2026 l’illustre parfaitement. D’un côté, la défense américaine veut conserver toute latitude pour des usages qu’elle juge légaux. De l’autre, un acteur privé tente de poser des limites sur certaines finalités, notamment les armes totalement autonomes. Cet épisode dit beaucoup de l’époque : la souveraineté militaire ne dépend plus seulement des arsenaux nationaux, mais aussi de logiciels, de clouds, de modèles de langage et de contrats industriels.
Pour les opinions publiques, cette mutation reste encore floue.
Beaucoup imaginent une guerre automatisée, presque sans soldats. La réalité est différente. L’IA ne remplace pas l’homme, elle modifie son rôle. Le soldat, l’analyste et le commandant deviennent moins des exécutants isolés que les nœuds d’un système d’information dense. Cela peut renforcer la précision. Cela peut aussi créer un risque de confiance excessive dans la machine, surtout lorsque la cadence des opérations pousse à valider rapidement ce qu’un système “recommande”. Le danger n’est pas seulement la bavure technique. Le danger réside aussi dans une forme de déresponsabilisation psychologique, où la décision paraît plus neutre parce qu’elle a été prétraitée par un algorithme.
Dans ce contexte, la promesse d’une guerre plus propre grâce à l’IA mérite d’être examinée avec froideur. Oui, de meilleurs outils peuvent aider à réduire certaines erreurs, à mieux discriminer des objets ou à accélérer l’identification de menaces. Mais plus la guerre devient rapide, plus le risque d’escalade involontaire augmente aussi. Des travaux académiques ont d’ailleurs alerté sur le comportement parfois imprévisible des grands modèles de langage dans des scénarios de décision militaire simulée. En d’autres termes, l’IA peut améliorer l’exécution tactique tout en compliquant la stabilité stratégique si son usage n’est pas strictement borné. La supériorité technique n’a jamais dispensé d’une doctrine claire. Elle la rend au contraire plus urgente.
L’Europe aurait tort de regarder ce mouvement de loin.
L’Ukraine, Gaza et l’Iran montrent déjà le visage d’une guerre où l’avantage compétitif se joue autant dans les données, les capteurs, le calcul et les chaînes logicielles que dans les plateformes lourdes. Les industriels de défense, les États et les régulateurs devront donc avancer de concert. Sans cela, deux écueils menacent. Le premier serait l’impuissance, faute d’investissements et d’appropriation technologique. Le second serait l’emballement, faute de garde-fous et de doctrine. Entre les deux, une ligne de crête se dessine : développer l’IA militaire comme un outil d’appui puissant, mais maintenir une décision humaine explicite, traçable et responsable à chaque étape critique. C’est à cette condition que la technologie restera un instrument de puissance, et non un glissement vers une guerre déléguée aux machines.
