Vers un Rafale 100% autonome ?

Entre le Rafale F5 attendu en 2033 et un chasseur 100 % autonome, trois obstacles majeurs : architecture, certification de l'IA et droit international humanitaire.

Afficher le sommaire Masquer le sommaire

Le Rafale F5, dont la capacité initiale est attendue en 2033 selon la Loi de programmation militaire, embarquera de l’intelligence artificielle, pilotera des drones de combat en essaim et fusionnera des données venues de multiples capteurs en temps réel.
La trajectoire est clairement tracée vers davantage d’autonomie. Pourtant, entre un chasseur « augmenté » par l’IA et un chasseur qui déciderait seul d’ouvrir le feu, il existe une frontière que la France a explicitement refusé de franchir. Comprendre pourquoi suppose d’abord de poser précisément les termes du débat.

A LIRE AUSSI
Comment le Rafale a transformé l’aviation de combat moderne

Autonomie partielle, autonomie tactique, autonomie létale

Le mot « autonomie » recouvre des réalités qui n’ont rien en commun sur le plan technique, doctrinal ou juridique. Le Rafale F5 tel qu’il est conçu aujourd’hui relève du premier niveau : une IA copilote qui filtre l’information, propose des trajectoires, assiste le tir et gère la saturation de capteurs. Le pilote reste le décideur. Un cran au-dessus se trouvent les systèmes à autonomie limitée intégrée — les SALIA dans le vocabulaire réglementaire français —, où la machine peut exécuter certaines actions tactiques dans un cadre prédéfini, sous supervision humaine. Ce niveau est jugé acceptable sous conditions strictes.

Un Rafale 100% autonome appartient à une troisième catégorie entièrement différente : les systèmes d’armes létaux autonomes, ou SALA. Il s’agirait d’un appareil capable de planifier une mission de manière indépendante, de pénétrer un espace aérien contesté, d’identifier et de prioriser des cibles, puis de décider seul d’ouvrir le feu — le tout sans intervention humaine pendant la phase opérationnelle. Cette précision n’est pas sémantique. Elle conditionne l’ensemble de l’analyse qui suit.

IA embarquée sur Rafale

Les briques technologiques progressent à un rythme soutenu. Le démonstrateur nEUROn, premier UCAS furtif européen développé par Dassault Aviation, a cumulé plus de 170 vols d’essais entre son premier vol en décembre 2012 et 2022, validant une autonomie contrôlée pour la navigation, les approches d’attaque et l’intégration dans un environnement connecté. La DGA prépare une nouvelle campagne de vols pour 2026. En parallèle, le ministère des Armées finance depuis plusieurs années des études amont sur le « Man-Machine Teaming », confiées à Dassault Aviation et Thales, pour explorer la coopération entre pilote et IA dans les avions de combat. En janvier 2026, Dassault a franchi une étape supplémentaire en investissant 200 millions d’euros dans la start-up française Harmattan AI — valorisée à 1,4 milliard d’euros —, spécialisée dans la gestion de drones et l’accélération de la boucle décisionnelle pour le Rafale F5 et les futurs UCAS.

Ce qui manque est tout aussi instructif. Trois problèmes restent sans solution industriellement validée. Le premier est la robustesse : une IA de combat doit fonctionner de manière fiable avec des données dégradées — radars brouillés, GPS perturbé, liaisons instables — dans un comportement prédictible. Le deuxième est l’explicabilité : les modèles d’apprentissage profond et d’apprentissage par renforcement sont notoirement opaques, et les autorités militaires comme les organismes de certification exigent de pouvoir comprendre pourquoi un algorithme a pris telle décision dans tel contexte précis. Le troisième est la certification elle-même : démontrer qu’un système apprenante ne sortira pas de son enveloppe de comportement dans des situations extrêmes non anticipées requiert des cadres de validation que les armées occidentales construisent encore. Ces trois contraintes forment ce qu’on peut appeler un triangle infernal, dans lequel progresser sur l’un des trois axes tend à compliquer les deux autres.

Pourquoi retirer le pilote du Rafale coûterait plus cher que de construire un drone

L’argument technique le plus décisif en faveur d’un UCAS dédié plutôt que d’un Rafale « vidé de son pilote » est souvent sous-estimé. Depuis sa conception, le Rafale est un avion pensé autour de l’être humain : ergonomie du cockpit, lois de vol combinant automatismes de stabilité et capacité du pilote à rattraper une situation dégradée, architecture de sécurité qui double systématiquement la machine par le jugement humain. Nombre de situations limites — panne capteur, météo extrême, collision évitée de justesse — reposent précisément sur la capacité du pilote à interpréter un contexte ambigu et à improviser.

Supprimer le pilote ne simplifie pas ce système : cela oblige à recertifier l’intégralité des lois de vol pour un pilotage entièrement numérique, à redistribuer les redondances que géraient le tandem pilote-automatismes vers des couches logicielles multiples et indépendantes, et à repenser l’architecture capteurs pour remplacer l’œil et l’intuition humaine par des algorithmes de perception dédiés. À architectures et coûts comparables, un drone furtif conçu ab initio pour la pénétration profonde — comme les UCAS en préparation dans la lignée du nEUROn — offre davantage de marges opérationnelles qu’une transformation d’une cellule existante conçue pour autre chose. C’est la raison pour laquelle l’industrie française a clairement orienté ses investissements vers des drones de combat dédiés accompagnant le Rafale F5, plutôt que vers sa conversion en appareil inhabité.

La ligne rouge française : une position doctrinale assumée et réaffirmée

Sur le plan doctrinal, la position française est sans ambiguïté. Le Comité d’éthique de la défense, saisi en janvier 2020, a rendu son avis le 29 avril 2021 sur l’intégration de l’autonomie dans les systèmes d’armes létaux. Conclusion : les SALA sont « éthiquement inacceptables » parce qu’ils rompraient la chaîne de commandement et dilueraient la responsabilité de manière irrémédiable. Le gouvernement a traduit cet avis en position officielle — « La France ne développera pas ni n’emploiera de systèmes d’armes létaux pleinement autonomes » — tout en maintenant la recherche sur l’IA de défense pour ne pas se laisser distancer technologiquement. Cette doctrine a été réaffirmée aux Nations Unies en octobre 2024.

Derrière la position éthique se cachent des questions juridiques concrètes auxquelles personne ne sait encore répondre. Un Rafale 100% autonome équipé d’armements air-air et air-sol lourd poserait trois problèmes insolubles au regard du droit international humanitaire : comment garantir la distinction entre combattants et civils dans un environnement urbain complexe ? Comment apprécier la proportionnalité d’une frappe dans une situation imprévue ? Et qui répond d’une bavure — le concepteur de l’algorithme, le chef d’état-major qui a validé le déploiement, le décideur politique ? L’impossibilité de répondre à ces questions n’est pas un détail procédural : c’est le fondement même de ce que les juristes appellent la responsabilité du commandement, pierre angulaire du droit des conflits armés.

Le scénario réaliste : un cockpit qui devient poste de commandement

La trajectoire que dessine l’ensemble de ces contraintes n’est pas celle d’un Rafale sans pilote, mais celle d’un système de combat hybride où la frontière entre habité et inhabité devient progressivement moins visible depuis le sol. Le Rafale F5 — puis son successeur dans le cadre du SCAF ou d’un programme alternatif — reste le centre de la décision et de la responsabilité. Des drones de combat très autonomes, héritiers des technologies nEUROn et des UCAS en préparation, exécutent une part croissante des missions les plus risquées : pénétration en zone fortement défendue, reconnaissance sous haute menace, frappes en premier échelon. Le cockpit, lui, se transforme en poste de commandement aérien avancé, depuis lequel un pilote orchestre plusieurs vecteurs simultanément.

Vu de l’extérieur, ce système pourra parfois donner l’impression d’une autonomie totale — des drones furtifs opérant en éclaireurs-frappeurs, des essaims guidés par l’IA, un chasseur habité en retrait apparent. En arrière-plan, la ligne rouge française maintient son exigence centrale : un humain quelque part dans la boucle de la décision létale. C’est précisément à la conception de cette autonomie — assez puissante pour transformer la manière de faire la guerre aérienne, jamais suffisante pour s’en affranchir complètement — que travaillent aujourd’hui Dassault Aviation, Thales et leurs partenaires industriels. Le défi est autant technologique qu’éthique, et il n’est pas près d’être résolu.



L'Essentiel de l'Éco est un média indépendant. Soutenez-nous en nous ajoutant à vos favoris Google Actualités :

Publiez un commentaire

Publier un commentaire