Un général américain avoue utiliser ChatGPT pour… prendre ses décisions militaires !

Depuis son arrivée dans le domaine civil, l’IA ChatGPT est en train de bouleverser le quotidien des salariés. Aux États-Unis, un général américain de premier plan avoue même l’utiliser pour prendre certaines décisions militaires.

ChatGPT en appui d’un général américain

Le 16 octobre 2025, William D. Taylor, général trois étoiles et commandant de l’Eighth Army en Corée du Sud, a surpris la communauté militaire américaine en déclarant publiquement qu’il « était devenu très proche de ChatGPT » et qu’il l’utilisait pour élaborer des modèles d’aide à la décision. Son choix s’inscrit dans une stratégie de modernisation des capacités décisionnelles de l’armée.
Le général Taylor a expliqué, lors d’une conférence organisée par l’Association of the United States Army à Washington, que ChatGPT l’aide à construire des modèles analytiques pour ses décisions quotidiennes. Le gradé ajoute qu’il s’est fixé comme objectif de « prendre les décisions au bon moment pour obtenir l’avantage » et qu’il espère « améliorer son processus de décision grâce à l’intelligence artificielle ».

L’offre de ChatGPT à générer des modèles décisionnels s’intègre parfaitement dans la doctrine militaire américaine connue sous le nom d « OODA Loop » – Observe, Orient, Decide, Act –, un concept développé pendant la guerre de Corée selon lequel les forces qui prennent des décisions plus rapidement que l’ennemi dominent le combat. Pour le général Taylor, ChatGPT n’intervient pas dans les opérations de combat proprement dites, mais il est utilisé pour gérer la logistique, les rapports hebdomadaires, la planification des rotations de personnel et préparer les décisions stratégiques à long terme. Grâce à ces outils d’IA, son objectif est que chaque décision bénéficie d’une vision plus complète et d’un raisonnement plus structuré, tout en préparant mieux ses états-majors à réagir face à des scénarios multiples.

Enjeux stratégiques et risques de sécurité

Une telle innovation ne va pas sans soulever de graves préoccupations. Les critiques mettent en garde contre la possible exposition d’informations sensibles. D’autres experts soulignent également que les sorties de ChatGPT-5 comportent encore des erreurs sérieuses et que le modèle tend à privilégier des réponses engageantes plutôt que précises.

Le Pentagone lui-même a insisté sur le fait que les décisions concernant un futur conflit seront prises « à vitesse machine » et non plus à la vitesse humaine, ajoutant que les systèmes pilotés par l’IA devraient fonctionner dans des environnements informatiques isolés et conformes aux normes de sécurité nationales. Des responsables militaires, comme l’ex-secrétaire de l’Air Force, Frank Kendall, prédisent même que ceux qui ne s’adapteront pas à cette nouvelle donne « ne survivront pas au prochain champ de bataille ».

Par ailleurs, la tendance des grands modèles de langage à « escalader » des scénarios pourrait poser des risques stratégiques. Des études montrent que ces modèles présentent des dynamiques d’escalade et peuvent recommander des stratégies agressives dans des simulations géopolitiques. Dans ce contexte, Taylor a précisé que les décisions réelles restent prises par des humains, les résultats générés par ChatGPT servant uniquement de base de réflexion pour l’analyse.

Vous avez aimé cet article ? Abonnez-vous à notre Newsletter gratuite pour des articles captivants, du contenu exclusif et les dernières actualités.