Défense
L’intelligence artificielle au service de la reconnaissance acoustique
ABONNÉS

Actualité

L’intelligence artificielle au service de la reconnaissance acoustique

Défense

Sous la mer, la détection et la classification des sons est le nerf de la guerre. Malgré les progrès considérables de l’informatique, rien n’a encore réussi à remplacer l’oreille et le cerveau humains. Peut-être que cela sera le cas un jour. En attendant, le développement de l’intelligence artificielle offre déjà de nouvelles perspectives pour envisager une aide à la décision. « La capacité à détecter et classifier toujours plus vite et toujours plus loin, quel que soit le niveau de fatigue et de stress de l’opérateur, est un enjeu majeur », explique Stéphan Meunier, ancien commandant de sous-marin français aujourd’hui responsable du marketing opérationnel de Naval Group.

Le début du film Le Chant du Loup, lorsque le Titane doit extraire des commandos et que le premier-maître Chanteraide pense entendre un sous-marin, illustre parfaitement les conditions dans lesquelles les oreilles d’or doivent parfois travailler. « Ce film est très réaliste, c’est un travail difficile, les oreilles d’or sont confrontées à la pression de la hiérarchie, aux avis contradictoires, il faut classifier un signal en 90 secondes maximum et une décision sans la bonne information peut avoir des conséquences énormes ».  Opérationnellement, Stéphan Meunier voit un vrai intérêt à l’avenir pour des systèmes d’aide ayant recours à l’IA : « Avec les évolutions technologiques dont bénéficient les sous-marins, les signaux sont de plus en plus ténus et les informations parcellaires. Il y a des cas très complexes avec la superposition de phénomènes dans le paysage acoustique, et des situations très tendues où une aide à la décision peut être très intéressante, voire déterminante ».

Naval Group travaille donc actuellement sur l’emploi de l’IA pour concevoir un système facilitant le travail des opérateurs. Le projet est piloté par Fabien Cheilan : « notre objectif est de développer une aide à la décision s’appuyant sur le plus vaste panel de signaux possible. Il s’agit d’analyser les flux d’informations fournis par les senseurs du sous-marin afin d’obtenir une reconnaissance automatique du bruit, les points bruyants permettant de construire l’encodage dont l’IA a besoin ».

 

(© MER ET MARINE - VINCENT GROIZELEAU)

(© MER ET MARINE - VINCENT GROIZELEAU)

 

Pour y parvenir, il est nécessaire de constituer une base de données constituée de signaux renseignés par des experts de la reconnaissance acoustique. Autant d’ « étiquettes » dont les algorithmes de l’intelligence artificielle vont se nourrir et, surtout, sur la base desquels ils vont apprendre. D’abord à différencier des bruits d’origines biologiques ou mécaniques, et dans un second temps être capables d’affiner au maximum la classification automatique des sons : torpille, sous-marin, bâtiment de surface, explosion, émission sonar, biologique… jusqu’à peut-être donner le nom du bâtiment repéré. Pour le moment, les résultats sont présentés sous forme de probabilités les plus élevées. 

 

Fabien Cheilan et Stéphan Meunier (© MER ET MARINE - VINCENT GROIZELEAU)

Fabien Cheilan et Stéphan Meunier (© MER ET MARINE - VINCENT GROIZELEAU)

 

Fabien Cheilan a débuté ses études en compilant une première base de signaux récupérés dans le domaine public. « Maintenant, l’objectif est de disposer d’une base de données opérationnelle et représentative afin d’obtenir un apprentissage profond à partir d’enregistrements recueillis à la mer ». Dans cette perspective, le système va embarquer à partir de 2020 sur des sous-marins français. Il profitera ainsi, en conditions réelles, des données captées par les bâtiments lors de leurs missions. « Il est nécessaire de se rapprocher des signaux opérationnels labellisés par les experts de la reconnaissance acoustique. Le recueil à bord des données avec les détails des oreilles d’or permettra de mettre à jour l’IA et calculer ses performances. Puis nous réitèrerons le processus jusqu’à obtenir les performances les plus élevées et, surtout, la confiance des analystes ». Un travail qui est mené en étroite collaboration avec le Centre d'interprétation et de reconnaissance acoustique (CIRA) de la Marine nationale et les experts de DGA Techniques Navales.

Aujourd’hui, le système s’appuie sur 42 heures d’enregistrements labellisés, soit 30.000 exemples. L’objectif est de passer à 42 jours, soit 3 millions d’exemples, puis à plus de 10 millions.

Si cette étude se révèle concluante, les sous-mariniers pourront disposer d’un nouvel atout dans la guerre acoustique. Mais cela ouvrira aussi le champ à d’autres applications, comme une adaptation sur frégates de lutte ASM et aéronefs de patrouille maritime.

 

Naval Group (ex-DCNS)