Les confrontations entre joueurs professionnels et IA dans StarCraft offrent un aperçu saisissant des capacités différentielles entre intelligence humaine et artificielle. Lorsqu'AlphaStar de DeepMind a affronté les meilleurs joueurs mondiaux, une caractéristique a immédiatement frappé les observateurs : l'IA ne jouait pas comme un humain.
Là où un joueur de haut niveau doit choisir son point focal, décider s'il va presser l'adversaire sur sa troisième base ou défendre son expansion naturelle, AlphaStar déployait simultanément des micro-opérations sur quatre, cinq, parfois six théâtres d'opération distincts. Chaque groupe d'unités recevait des ordres optimisés pour sa composition spécifique et sa mission locale. Pendant qu'un escadron de Mutalisks harcelait les récolteurs ennemis au nord, des groupes de Zerglings exécutaient des contre-attaques au sud, tandis que la production de drones et l'expansion territoriale se poursuivaient sans interruption.
Le concept d'effort principal, tel qu'il est enseigné et pratiqué, fusionne deux problèmes distincts qui appellent des solutions différentes :
La part respective de ces deux contraintes varie considérablement selon les contextes. Dans une bataille navale du XVIIIe siècle, la concentration était d'abord matérielle : rassembler physiquement ses vaisseaux. Dans une campagne moderne multi-domaines, la difficulté cognitive de coordonner des frappes aériennes, des mouvements terrestres, des opérations cyber et des actions d'influence devient prépondérante.
Un commandant humain, même brillant, doit simplifier le champ de bataille. Il doit réduire la complexité à quelques décisions critiques, déléguer l'exécution, et accepter que certains secteurs ne recevront qu'une attention résiduelle. Cette compression cognitive nécessaire se traduit doctrinalement par la désignation d'un effort principal : un point focal qui structure toute la planification et l'allocation des ressources.
L'IA ne souffre pas de cette limitation cognitive. Elle ne "se perd" pas dans la multiplicité des fronts. Chaque unité, chaque groupe tactique peut recevoir des ordres adaptatifs en temps réel, optimisés pour sa situation locale sans que cela ne dégrade les performances ailleurs. Il n'y a pas de "budget attentionnel" à répartir, pas de nécessité de simplifier pour rester cohérent.
Attention : cela ne signifie pas que l'IA échappe aux contraintes matérielles. Elle ne peut pas non plus être partout en force si les ressources manquent. Mais elle peut optimiser l'emploi de forces dispersées d'une manière que le commandement humain ne peut égaler.
Dans StarCraft, cette capacité se manifeste par une efficacité opérationnelle stupéfiante. Pendant qu'un joueur humain exécute son "timing attack" principal, mobilisant 80% de son attention sur cette offensive, l'IA peut :
Cette approche génère ce qu'on pourrait appeler une "ubiquité opérationnelle". L'adversaire humain ne peut pas deviner où frappera l'effort principal, car il n'y en a pas. Ou plutôt, il y en a partout simultanément, chacun calibré précisément pour maximiser le rendement de l'investissement en ressources.
Les données des matchs AlphaStar montrent que l'IA maintient une efficacité économique supérieure tout en multipliant les engagements tactiques. Elle n'a pas à choisir entre l'économie et l'action militaire, entre la défense et l'attaque. Elle fait tout, en permanence, avec une cohérence que seule permet l'absence de goulot d'étranglement cognitif.
Ce qui se vérifie dans l'environnement simplifié de StarCraft a des implications profondes pour l'emploi réel de systèmes autonomes dans des contextes stratégiques :
Dans la guerre électronique et cyber, une IA peut orchestrer simultanément des dizaines d'opérations de reconnaissance, d'intrusion, et de manipulation sans que l'une n'affecte la qualité des autres. Elle n'a pas besoin de "concentration des moyens" sur une cible prioritaire.
Dans la coordination de drones, là où un opérateur humain contrôle péniblement 3-4 systèmes, une IA peut gérer des essaims de centaines d'unités, chacune avec une mission adaptée dynamiquement à l'évolution de la situation, sans doctrine préétablie d'effort principal.
Dans l'analyse de renseignement, l'IA peut poursuivre simultanément des milliers de pistes, ajustant la profondeur d'investigation de chacune selon les indices recueillis, sans avoir à prioriser arbitrairement par manque de capacité cognitive.
Face à ces capacités, une tentation émerge dans les organisations militaires et stratégiques : encadrer l'IA dans des doctrines familières, lui imposer de désigner un effort principal, de concentrer ses moyens selon les mêmes logiques que le commandement humain.
Cette approche serait catastrophique. Ce serait comme brider un véhicule moderne pour qu'il ne dépasse pas la vitesse d'un cheval, sous prétexte que nos routes ont été pensées pour des chevaux. Les doctrines d'effort principal et de concentration des efforts fusionnent contraintes matérielles et cognitives. Si les contraintes matérielles demeurent pertinentes (l'IA n'échappe pas à la finitude des ressources), les contraintes cognitives qui structurent ces doctrines ne sont que des compensations pour les faiblesses humaines.
Imposer les limitations cognitives humaines aux IA, c'est :
Plutôt que d'adapter les IA aux doctrines humaines, nous devons développer des cadres stratégiques qui exploitent leurs capacités uniques :
Des doctrines de "présence omnidirectionnelle" où l'absence d'effort principal devient un principe, créant une imprévisibilité maximale et une exploitation opportuniste de toutes les vulnérabilités simultanément.
Des concepts d'allocation dynamique des ressources où chaque unité ou système reçoit exactement ce dont il a besoin, quand il en a besoin, sans référence à une hiérarchie rigide des priorités.
Des approches de "complexité intentionnelle" où la multiplication des axes d'action n'est plus un coût mais un avantage, submergeant la capacité de réponse adverse.
L'expérience de StarCraft est un avertissement. Les IA ne jouent pas selon nos règles cognitives. Elles n'ont pas besoin de simplifier le champ de bataille par la désignation d'un effort principal ou la concentration arbitraire des moyens pour des raisons de commandabilité. Ces principes, aussi vénérables soient-ils dans l'histoire militaire humaine, fusionnent des contraintes matérielles (toujours pertinentes) et des contraintes cognitives (propres à l'architecture mentale humaine).
Continuer à imposer aux IA la dimension cognitive de ces cadres par habitude, par confort institutionnel, ou par manque d'imagination doctrinale, serait plus qu'une erreur : ce serait un handicap auto-infligé. Les limitations cognitives qui ont façonné la pensée stratégique depuis des siècles sont des artefacts de notre biologie. Les systèmes qui ne partagent pas cette biologie ne devraient pas en hériter les contraintes.
L'avenir de la stratégie ne consistera pas à enseigner aux IA comment penser comme des humains, mais à réapprendre nous-mêmes la stratégie à travers le prisme de capacités qui dépassent les nôtres. L'effort principal, tel qu'il structure la pensée humaine, a eu son temps. Il est temps de penser la guerre, et plus largement la stratégie organisationnelle, dans un monde où l'attention n'est plus une ressource rare - même si les ressources matérielles, elles, le restent.