dimanche 31 mars 2024

Industrie - Accélérer la sortie de l’IA des laboratoires pour l’opérationnaliser au service des forces : l’écosystème cortAIX de Thales (+MAJ)


Avec déjà une centaine de produits en catalogue intégrant de l’intelligence artificielle (IA), Thales compte aujourd’hui accélérer le mouvement et industrialiser l’IA embarquée dans des systèmes critiques de défense. Pour réussir ce défi, et aussi pour faciliter la lisibilité de ressources internes actuellement éclatées, Thales a récemment lancé l’écosystème cortAIx. Il s’agit à la fois d’une organisation informelle permettant un meilleur partage, et, sur certains aspects, aussi une organisation managériale via des entités concentrant les expertises :
  • cortAIx lab : une force de frappe mobilisable de manière transverse sur les sujets certification, qualification, propriété intellectuelle, cybersécurité, et autres, située principalement sur le Plateau de Saclay (donc proche de la partie recherche de la récemment annoncée Agence ministérielle de l'intelligence artificielle de défense (AMIAD) du ministère des Armées) ;
  • cortAIx sensors : pour combiner IA, ingénierie système et sciences des matériaux (sur radars, sonars, radios, optroniques...), et répondre au mieux aux problématiques de frugalité en énergie, d’embarquabilité et d’intégration, dès le développement des produits, de la partie software et hardware au sein des capteurs ;
  • cortAIx factory : une usine technologique (à Paris, Rennes, Singapour et au Canada) pour l’accélération et la qualification des solutions dans les différents cas d’usage d’aide à la décision, que cela soit en planification de missions, pilotage de drones/robots, Command & Control (jusqu’au C6ISTAR…), etc. ;
 
 
Plusieurs partenariats sont envisagés dans ce cadre, voire déjà en cours (avec des start-ups, des centres de recherche, des industriels...), dont notamment une très forte volonté de Naval Group de travailler avec l'écosystème cortAIx, dans le cadre de modalités encore à finaliser. Au final, d’ores et déjà, l’IA quitte bien les laboratoires de recherche pour s’apprêter à connaître une utilisation en conditions opérationnelles dans plusieurs domaines.

L’IA au service des opérateurs radars de la patrouille maritime dès 2025


Dès début 2025, des briques d’IA seront intégrées dans les radars Searchmaster fournis par Thales et installés à bord des appareils de patrouille maritime ATL-2 de la Marine nationale. Un contrat dans le cadre des « Autres opérations d'armement » (AOA), différent de celui de passage au Standard 2 d’une flotte de 18 appareils ATL-2, permet cette mise à jour des radars. Les exigences du client (Direction générale de l’armement / Marine nationale) comprenaient le calibrage automatique et intuitif des radars en fonction des missions (un processus jusque-là fastidieux), la détection plus rapide des cibles d’intérêts dans la masse de données remontées (pour limiter la charge cognitive des opérateurs radars embarqués, grâce à des algorithmes d’optimisation et un apprentissage profond) et le fait que ces radars soient apprenants (en prenant en compte les acceptations ou les refus des opérateurs aux propositions faites, via l’apprentissage par renforcement).

La solution développée permet de proposer, en temps réel, des pistes (air/terre/mer) dont le suivi sera à privilégier, en les pré-classifiant. Une symbologie particulière (couleurs/formes) permet de les pré-filtrer en fonction de leur taille, de la corrélation à certaines listes (de navires suspects/d’intérêts), d’éventuelle infraction liée à l’absence d’auto-déclaration (type AIS, par exemple), etc. En 2023, la DGA, la Marine nationale et Thales ont mené une campagne pour expérimenter un démonstrateur sur de grandes étendues, obtenant des gains significatifs en détection comme en classification.


Ces briques d’IA seront également de série sur les radars à bord des appareils de surveillance maritime Albatros (basés sur des Falcon 2000 de Dassault Aviation, remplaçant les Falcon 50 et Guardian) dont les premières livraisons sont prévues en 2027. Une communalité sera aussi possible sur les versions navales des Hélicoptères Interarmées Léger (HIL) avec les Airmaster, radars d’axe présents dans le nez et sur les flancs de ces hélicoptères.

L’IA au service des équipages Rafale sur le pod de reconnaissance et de ciblage TALIOS dès 2026

En 2026, le pod optronique de reconnaissance et de ciblage TALIOS (Targeting Long-Range Identification Optronic System), équipant l’appareil Rafale, sera lui aussi « AI inside ». Jusqu’à présent, les images recueillies en scannant une zone déterminée via un joystick, de manière fastidieuse, étaient analysées en vol par l’équipage via un retour vidéo, soit au sol une fois les disques durs récupérés après l’atterrissage.

Un « Thales Neuronal Processor » embarqué doit permettre une analyse en temps réel pour la détection d’un type de cible, sans aller en l’état jusqu’à l’identification précise des cibles potentielles détectées : « cela sera « c’est un char », mais nous ne sommes pas à « c’est tel type de char » ». Les gains obtenus sont, selon Thales, d’un facteur 100, entre le scan d’une zone à cibler passant de 15 minutes actuellement à quelques dizaines de secondes demain, après un scannage automatique permettant de balayer la zone donnée tout en maintenant la haute-résolution (quelques dizaines de cm par pixel). Les cibles seront pré-pointées au pilote ou à l’équipage (pilote/co-pilote) qui confirmeront l’identification et décideront par eux-mêmes de la suite. Des images et des données recueillies à la fois lors de vols industriels et de vols de l’armée de l’Air et de l’Espace ont permis d’entrainer les algorithmes. L’autre solution étant l’utilisation de données synthétiques générées par Thales via IA, qui sont combinées à des données d’autres sources, tout en restant sur « du smart data plus que du big data ».
 
 
Selon Thales, l’expertise « capteurs » permet l’intégration d’un processeur d’analyse (un réseau de neurones) frugal en énergie (une ressource particulièrement limitée à bord), relativement léger et compact, juste derrière la partie optronique. Pour cet équipement important dans le cadre des missions menées (car permettant le ciblage), Thales a poussé relativement loin l’aspect souveraineté. La société récupère des sous-systèmes à l’étranger (en particulier aux Etats-Unis) qu’ils déshabillent des couches software, pour ne garder que la partie hardware et y reconstruire dessus leurs propres couches logicielles : « Un choix cher mais nécessaire pour certaines contraintes de souveraineté ».

Cette solution sera intégrée au standard F4-3 du Rafale, et devra être compatible avec les actuelles infrastructures IT prévues dans les escadrons de chasse, notamment pour entraîner les algorithmes au sol sur les données les plus récemment acquises et pour garantir une harmonisation des algorithmes au sein des flottes. Un ensemble d’enjeux complexes à appréhender via des clouds mais qui doivent permettre le chargement au sein des appareils des algorithmes les plus à jour à chaque mission et en fonction de la phase de préparation. Comme c’est le cas déjà aujourd’hui avec un ensemble de configurations de systèmes équipant le Rafale.

L’IA dans vos oreilles sous peu à bord d’avions de reconnaissance ou à la radio

D’autres pistes de développement sont utilisées, notamment avec des algorithmes issus plutôt du civil, comme pour le débruitage des conversations radios, à bord d’appareils de surveillance ou de reconnaissance (type ALSR/VADOR) effectuant de longues missions (de l’ordre de 10 heures) ou pour la gamme de radios CONTACT/SYNAPSE (la version export). Il s’agit de retirer les bruits parasites, permettant des gains de concentration lors de longues séquences entrecoupées de pertes de liaisons ou de liaisons perturbées, d’environnements sonores saturés en explosions, bruits de moteurs, etc.

Les solutions d'IA peuvent tourner sur les serveurs embarqués à bord des appareils (dans le cadre d'une démarche co-développée avec les utilisateurs de l’armée de l’Air et de l’Espace), à court terme, et les processeurs seront capables d’être implémentés directement dans des oreillettes bluetooth de radios, à moyen terme. La vraie plus-value de la solution ne sera pas forcément dans l’algorithme (issu du civil auquel a été ajouté des couches de performances, par exemple, sur la prise en compte des explosions), mais dans son intégration dans un environnement critique. Il faut pour cela des processeurs peu consommateurs en énergie (la vraie limitation sur les postes-radios), légers et robustes.

Il s’agit donc assimiler l’IA à un hardware spécifique, via des plaques spéciales en silicium (de 3 mm par 3 mm) renforcées. Des démonstrateurs de réseau de neurones à très faible consommation ont été développés en s’appuyant sur des puces produites par la société GreenWaves Technologies (dont la DGA et Thales sont actionnaires). Et le tout, en respectant les exigeantes normes MIL et les normes aéronautiques.

De quoi relever les défis qui ne manqueront pas

Les projets ne manquent donc pas pour les quelques 600 experts Thales (à 2/3 en France) sur les questions d'intelligence artificielle (IA). Des ingénieurs et chercheurs, qui incluent (selon la société) ni les annotateurs de données ni les quelques 100 doctorants maison travaillent aussi sur ces sujets. Cette force de frappe est à l’origine du dépôt, en moyenne, de 40 brevets par an en Europe. A comparer avec l’AMIAD qui vise le regroupement de 300 personnes à terme, ou d’autres sociétés européennes pureplayer de l’IA (faisant l’actualité sur le sujet ces dernières semaines) tournant autour de 200 à 300 employés, tous services confondus.
 

Dans la génération suivante des futurs radars de surface longue portée (250/500km) de la famille Ground Master / Control Master, et éventuellement en rétrofit des radars actuellement opérés, des algorithmes avancés d'IA (type Machine Learning) permettront un débruitage des pistes rapportées sur le pupitre des opérateurs.
 
Au-delà de ça, Thales indique chercher à s'appuyer sur le sujet ce qui présenté comme "le carré magique" de la société :
  • Les connaissances-métiers basées sur l’expérience des concepts d’opérations et de l’environnement d’utilisation des produits développés ;
  • Le fait que l’IA est prise comme une technologie "habilitante" qui est appliquée à des produits eux-aussi maitrisés et non pour elle même, et où IA et sciences des matériaux se mixent (permettant, par exemple de maitriser les conséquences de l’utilisation de certaines céramiques dans des sonars sur les données recueillies et traitées ensuite) ;
  • La recherche de la maitrise le plus complète de toute la chaine (cf. cas du pod TALIOS) ;
  • La cybersecurité « by design », en s’appuyant sur les quelques 5.800 experts en cybersécurité au sein du groupe (dont le CESTI - centre d’évaluation de la sécurité des technologies de l’information - de Toulouse), et notamment de capacités de « Friendly Hacking ».
Autant d’atouts pour être un acteur de premier plan en IA de défense embarquée en Europe. Une IA qui pour Thales est hybride (symbolique/générative), sur un cloud de confiance (annoncée comme qualifiable par l’ANSSI en fin d’année), explicable (transparente) et qui s'arrête avant la décision (pour des raisons éthiques). Pour cette ambition, des défis restent à relever notamment dans les cycles de développement des solutions et dans leur maintien au plus haut niveau de l’état de l’art sur tout le cycle de vie. Des changements de méthodes (mais aussi sur un plan plus économique, de business models) ne manqueront pas, pour passer un nouveau cap après celui de la numérisation, et pleinement atteindre celui de l’opérationnalisation de l’IA fiable au service des forces armées
 
MAJ 1 : Sur la famille Ground Master, cela sera notamment le cas pour le suivi des pistes d’intérêts de petite taille, pour les distinguer des faux échos (pour des raisons diverses : météorologiques, physiques…) ou des oiseaux. Des solutions existent déjà et devraient être beaucoup plus avancées sous peu. Une forte utilité est attendue en détection à basse altitude, où les bruits parasites ont tendance à augmenter, et qu’il faudra détecter et suivre des drones aux trajectoires changeantes, à des vitesses très faibles ou alors élevées, des hélicoptères volant bas et utilisant les masques du terrain, des tirs de mobiles avec une faible surface équivalente radar (roquettes, obus de mortiers…), etc.

Les algorithmes développées depuis une douzaine de mois, s’appuyant sur de l’apprentissage profond, imitent la réflexion d’un opérateur, garantissant ainsi son explicabilité. Il s’agira ainsi de simplifier les prises de décision et d’éviter d’avoir à mobiliser d’autres moyens (autres radars, moyens de détection optique, etc.) pour recouper les informations au niveau Control & Command.

La tendance jusque-là était de dé-senbiliser les radars pour ne pas être saturé, mais de telles solutions permettent maintenant de les re-senbiliser sans avoir à traiter par l’opérateur un afflux de données grâce à ces assistants numériques. Le fait que ces radars soient déjà entièrement numériques rend relativement facile de s’appuyer sur l’infrastructure prévu (en énergie, puissance de calcul, place…). Le juste niveau reste encore à trouver quant au niveau de détails souhaités pour les pistes suivies car obtenir certaines précisions (comme la vitesse exacte de certains mobiles) demandent pour le coup des niveaux de calcul aujourd’hui complexes à trouver.

MAJ 2 : D’autres solutions sont en cours de développement pour la coordination de systèmes multi-drones/multi-robots, en flotte hétérogène (ni tous semblables ni opérant dans les mêmes milieux), en grand nombre (jusqu’à 1.000 à terme), et le tout par un nombre réduit d’opérateur (en tendant vers un unique opérateur). Le tout avec une autonomie sous contrôle et sécurisée.

Lors du dernier challenge Cohoma en Mai 2023, 3 opérateurs sous blindage géraient une flotte de 19 robots/drones, avec un important travail de déchargement de la charge cognitive pour ces opérateurs, alors qu’aujourd’hui, la tendance observée est plutôt 1 opérateur pour 1 drone, avec une approche séquencée de gestion des drones.

Les algorithmes de traitement des données recueillies par les capteurs embarquées permettant aujourd’hui des gains pour fusionner les données et obtenir une situation tactique la plus complète possible. Des algorithmes d’aide à la décision optimisent les processus en pré-distribuant les décisions et missions à des systèmes multi-agents : optimisation des déplacements, décision en cas de conflits de trajectoires, etc. Le tout via des « contrats d’autonomie » (explicables et robustes) permettant, malgré d’éventuelles pertes de données (subies ou voulues) que les règles et les cadres définies permettent une continuation de la mission (et non un retour à la maison ou un arrêt sur place, comme c’est souvent le cas jusqu’à aujourd’hui). Soit des premières étapes permettant d’aller jusqu’au combat collaboratif étendu de demain.

1 commentaire:

Anthony Gislain a dit…

Exellent article si ces projets aboutissent tales aura un des meilleurs systèmes IA dans le domaine. Tellement fier et impatient de voir la suite du projet