Skip to content. | Skip to navigation

Emergences

Lettre d'information n° 37

Image emergences pour impression
Personal tools
You are here: Home 2015 Lettre d'information n° 37 Suivi d'objet 3D pour la robotique aérospatiale
Document Actions

Suivi d'objet 3D pour la robotique aérospatiale

Logiciel conçu pour estimer la position d'un objet par rapport à une caméra, Sinatrack peut permettre aux robots autonomes guidés par la vision d'accomplir des tâches de navigation et de manipulation. Cette technologie intéresse donc tout particulièrement l'aéronautique et l'astronautique où des applications étonnamment variées sont à l'étude.

Logiciel conçu pour estimer la position d'un objet par rapport à une caméra, Sinatrack peut permettre aux robots autonomes guidés par la vision d'accomplir des tâches de navigation et de manipulation. Cette technologie intéresse donc tout particulièrement l'aéronautique et l'astronautique où des applications étonnamment variées sont à l'étude.

Nous travaillons sur ce sujet depuis 2002, indique Eric Marchand, membre de Lagadic, une équipe scientifique spécialisée en vison par ordinateur au centre Inria Rennes - Bretagne Atlantique (1). Déterminer la position d'un objet, c'est quelque chose dont nous avions absolument besoin pour mettre en œuvre nos projets de robotique basée vision.” Fondamentalement, les algorithmes de suivi visuel que nous développons reposent sur une connaissance a priori. “Si l'on connaît le modèle 3D d'un objet observé, on peut projeter ce modèle sur l'image, puis minimiser l'erreur entre la projection du modèle et la position réelle de l'objet. Quand tous deux sont bien recalés, on peut alors en déduire la position exacte de cet objet par rapport à la caméra, ou la position de la caméra par rapport à l'objet.

Une première version du logiciel né de ces travaux a servi dans nombre de projets de R&D. En particulier dans les domaines de la réalité augmentée, la micro et la nano robotique, ainsi que l'astronautique et l'aéronautique. “Dans l'équipe, nous avons par exemple travaillé sur une application où le suivi et l'asservissement visuels serviraient à l'appontage autonome sur un porte-avions. Pour cela, on a besoin de calculer la position de l'avion par rapport à celle du bateau.” En utilisant l'une des caméras embarquées dans l'avion, le logiciel détecte d'abord le navire puis projette un modèle de son pont sur l'image courante. “Quand on a bien recalé, on a la position exacte de la caméra par rapport au porte-avions. En somme, il s'agit toujours de minimiser l'erreur  entre le modèle projeté et l'image observée.” Cette technologie pourrait ouvrir la voie à l'appontage automatique des futurs drones embarqués. La Direction générale de l'armement et Dassault Aviation ont soutenu ces recherches en finançant une thèse de doctorat (2).

Approche innovante pour atterrissage autonome

L'atterrissage automatique basé vision pourrait aussi s'avérer utile pour l'aviation civile dans certaines situations. Les principaux aéroports sont équipés de systèmes d'atterrissage aux instruments (ILS) pour aider les pilotes. Cependant, quand il faut se poser en urgence sur l'aéroport de dégagement le plus proche, ces équipements ne sont pas toujours disponibles. D'où l'intérêt d'embarquer dans l'avion lui-même une solution automatisée de suivi visuel du chemin d'approche et de la piste. Inria et Airbus travaillent ensemble sur ce sujet à travers Visioland (3). Soutenu par l'Agence nationale de la recherche, ce projet scientifique explore les meilleures méthodes pour parvenir à ce guidage visuel qui améliorerait la sécurité encore d'un cran.

Avec le soutien de la fondation EADS (4), les chercheurs se sont aussi penchés sur l'épineux problème de l'enlèvement des débris spatiaux. Entre les vieux étages de fusées et les anciens satellites hors d'usage, quantité de déchets se sont accumulés au fil des ans dans l'orbite de notre planète. Cette pollution accroît le risque de collision avec des satellites en activité. Les agences spatiales comme la Nasa ou l'ESA réfléchissent à la possibilité de lancer des nettoyeurs automatiques. Ces machines captureraient les débris, modifieraient leur orbite et les forceraient à descendre dans l'atmosphère, entraînant ainsi leur autodestruction. Le suivi visuel pourrait grandement faciliter le travail de ces robots de service autonomes. Il permettrait au véhicule d'effectuer son rendez-vous avec le débris visé, puis au bras robotique de saisir cet objet (5). “La première version de notre outil n'était pas apte à la tâche, explique Éric Marchand. En effet, elle utilisait des modèles polyédriques alors que les modèles 3D de ces débris sont bien plus complexes. En conséquence, il nous a fallu repenser notre approche pour pouvoir prendre en compte toute sorte de modèles 3D complexes.” Proposée durant la thèse d'Antoine Petit, cette version améliorée est nettement plus générique et versatile que la précédente. Elle porte le nom de Sinatrack. L'équipe Lagadic l'utilisera pour ses travaux sur REMOVEDEBRIS, un micro-satellite expérimental financé par l'Union européenne.

Dévier les astéroïdes

Dans l'avenir, le logiciel pourrait bien aussi servir au détournement des astéroïdes susceptibles d'entrer en collision avec la Terre. Airbus Space and Defence a acquis une licence de Sinatrack pour utiliser l'outil dans le cadre de NEOShield, un projet financé lui aussi par l'UE et piloté par Astrium. Objectif : étudier les techniques qui seraient les plus efficaces pour dévier ces corps menaçants. Le suivi visuel pourrait constituer l'une des modalités de guidage des futurs ‘impacteurs cinétiques’ qui iront impacter les cailloux spaciaux arrivant vers notre planète. “Dans sa dernière version, notre logiciel peut suivre des objets naturels à condition qu'un modèle 3D soit disponible. En utilisant Sinatrack, Airbus D&S a pu mener des expériences avec le modèle d'Itokawa, un astéroïde qui avait été scanné par la mission japonaise Hayabusa 1.

Le décollage de l'industrie du drone va sans doute accroître considérablement la demande pour des solutions basées sur la vision par ordinateur. Cela dit, le suivi d'objet ne se cantonne pas à la robotique aérienne. “La réalité augmentée est de toute évidence l'autre champ d'application qui pourrait profiter de nos méthodologies, estime Eric Marchand. D'ailleurs nous espérons aussi aboutir prochainement à un transfert de technologies dans ce domaine.

--------
Notes :

(1) Lagadic est une équipe-projet Inria localisée à Rennes et Sophia-Antipolis. La partie rennaise est affiliée à l'Université Rennes  1 et au CNRS. Elle est commune à l'Irisa (UMR6074).
(2) Lire : Appontage automatique d'avions par asservissement visuel, par Laurent Coutard. Lire aussi : Visual detection and 3D model-based tracking for landing on aircraft carrier,  par L. Coutard et F. Chaumette.
(3) Piloté par l'Onera, ce project implique également IRCCyN et Spikenet Technology.
(4) Devenue : Fondation Airbus Group.
(5) Lire : Robust visual detection and tracking of complex objects: applications to space autonomous rendezvous and proximity operations, par Antoine Petit (ancien membre de Lagadic, à ne pas confondre avec le pdg d'Inria).