Skip to content. | Skip to navigation

Emergences

Lettre d'information n° 39

Image emergences pour impression
Personal tools
You are here: Home 2015 Lettre d'information n° 39 Une nuée de drones en vol autonome
Document Actions

Une nuée de drones en vol autonome

Amener des drones à se coordonner pour évoluer en escadrille de façon autonome et sans GPS grâce à la vision robotique et la communication locale, tel est le défi que veut relever le scientifique Paolo Robuffo Giordano au centre Inria Rennes - Bretagne Atlantique.

Amener des drones à se coordonner pour évoluer en escadrille de façon autonome et sans GPS grâce à la vision robotique et la communication locale, tel est le défi que veut relever le scientifique Paolo Robuffo Giordano au centre Inria Rennes - Bretagne Atlantique.

Vrrrrrrr. Chtac ! Plop ! Trois secondes après son décollage, le drone Mikrokopter vient de... percuter un mur. Une hélice en moins, l'engin termine piteusement sa course à l'envers et sur le sol. Attablés au pupitre de contrôle, protégés derrière un filet, chercheurs et ingénieurs laissent échapper une grimace compatissante et un coup d'œil sur la montre. Pour le quadricoptère, retour à la case maintenance. Déjà quelqu'un s'empare de la machine et la remplace par un autre exemplaire. Après quelques minutes pour identifier le problème, les travaux pourront reprendre. Fin de journée ordinaire dans la volière à drones d'Inria.

Spécialisés dans la vision robotique, les membres de l'équipe de recherche Lagadic (1) travaillent ici à la mise au point d'un nouvelle infrastructure d'expérimentation. Equipée de caméras infra-rouges Vicon, cette salle doit permettre ensuite de tester le contrôle collectif et la coordination des drones au sein d'escadrilles. “C'est l'Agence nationale de la recherche et Rennes Métropole qui financent cet investissement,” explique Paolo Robuffo Giordano, le scientifique (2) à l'origine du projet baptisé SenseFly.

Mais au fait pourquoi vouloir travailler sur la coordination de drones en nuées ? “Deux raisons. La première est technologique. En général, un drone ne peut pas embarquer beaucoup d'équipement. Il rencontre des limites de poids, d'autonomie de batterie... Il ne possède pas une grande puissance de calcul. Ses capteurs, eux aussi, ont des limites. Sa caméra, par exemple, ne peut regarder qu'une partie de la scène. En revanche, si l'on parvient à faire voler tout un réseau de capteurs mobiles, si chacun transmet ses données par radio à ses voisins, si l'on distribue le calcul, si chaque drone peut réaliser une petite part du travail, alors on peut envisager d'effectuer des tâches plus lourdes comme de la cartographie, de la reconstruction d'environnement 3D ou du suivi environnemental.”

Les oiseaux n'ont pas de GPS

La deuxième raison est d'ordre scientifique. “Si l'on observe une nuée d'oiseaux, on s'aperçoit que ces animaux peuvent faire ensemble des choses incroyables. Ils parviennent à se coordonner au sein du groupe alors qu'ils n'en ont qu'une vision très partielle. Et tout cela avec un cerveau assez réduit. Même chose d'ailleurs pour les poissons qui se déplacent en bancs. Comment font-ils ? Quelles sont les lois de comportement qui permettent ainsi à de petits agents de se coordonner aussi bien malgré leurs limites en puissance de calcul et en capteurs ? Le scientifique peut vouloir imiter la nature, identifier ces lois et les reproduire. Le drone devient alors un moyen pour vérifier que les choses fonctionnent comme on pense qu'elles le font dans la nature. Et ce, grâce à un agent artificiel, ici un groupe de robots. C'est un processus qu'on appelle la concrétisation.

La plupart des équipes travaillant actuellement sur les drones multiples utilisent des systèmes de capture de mouvement comme les caméras infra-rouges Vicon pour renseigner chaque machine sur sa position. De telles caméras équipent d'ailleurs la volière d'Inria. “Cela simplifie énormément le problème. Mais dans la nature, dans la vraie vie, les machines ne peuvent pas utiliser un tel système.” Et le GPS ? “À ciel ouvert, oui. Mais à l'intérieur de bâtiments, pour aller fouiller après un tremblement de terre, par exemple, cela ne marche pas. Cela ne fonctionne pas non plus sous l'eau pour l'étude des fonds sous-marins. Par ailleurs, les animaux, eux n'ont pas de GPS !” L'objectif du projet SenseFly est donc de “se passer du système Vicon et de faire en sorte que toutes ces lois de commande et de coordination puissent fonctionner uniquement avec les capteurs embarqués sur les drones.

Élément clé du dispositif de détection : la vision robotique. C'est elle qui permettra à chaque drone de localiser son voisin. Mais “utiliser la vision pour faire faire des choses à un robot demeure en réalité très compliqué. Il existe un million de problèmes que l'on n'imagine pas !” Cela dit, “il s'agit du domaine pour lequel l'équipe Lagadic est mondialement reconnue. Nous allons nous appuyer sur son savoir-faire et toutes les lois de commande qui ont déjà été développées dans sa librairie ViSP.

Localisation collaborative

Un des premiers points durs rencontrés concerne la capture de données. Chaque drone doit connaître sa situation par rapport au sol et aux autres appareils en vol. “En pratique, parvenir à faire cela reste très difficile.” À peine ce problème résolu, un autre apparaît : “quand on regarde quelque chose, on le voit d'un certain angle. Même chose pour la caméra du drone. Les mesures que l'on reçoit sont forcément exprimées d'un certain point de vue. Chaque drone a le sien. Il n'existe pas de repère global pour toutes les machines. Alors, comment avoir ce repère commun ? Quand ils échangent des mesures, il faut bien que les appareils se mettent d'accord pour arriver à comprendre où ils se situent les uns par rapport aux autres. Ce problème de la localisation collaborative concerne tous les robots mobiles. C'est une thématique qui préoccupe beaucoup de monde.

Quand toutes ces conditions préalables seront remplies, les chercheurs pourront entrer dans le vif du sujet : expérimenter la coordination en vol. “Nous allons vouloir déplacer le barycentre de notre formation, le barycentre étant la moyenne de toutes les positions.” Question cruciale : “Comment chaque drone peut-il connaître la moyenne des positions s'il ne connaît que la sienne et celles de ses voisins immédiats ?” Complication supplémentaire : les machines qui se trouvent aux antipodes les unes des autres peuvent être à la fois hors du champ de vue et hors de portée pour une communication radio.

Ce n'est donc pas une bonne idée d'opter pour un système centralisé. Nous allons plutôt nous tourner vers les algorithmes d'information distribuée. Ils permettent à un drone de parler avec un autre par l'intermédiaire d'un troisième, d'un quatrième, etc. qui transmettent l'information. On peut ainsi propager l'information pour que tout le monde puisse se mettre d'accord sur le barycentre ou d'autres propriétés ‘globales’ du groupe.” Cette transmission par intermédiaires successifs implique certes une certaine latence. “Mais si l'on accepte un petit délai, on a la garantie d'avoir la même information que si tous les agents étaient connectés les uns aux autres.

 Ces travaux vont durer trois ans au terme desquels les scientifiques développeront une application. “Nous ferons voler une nuée de cinq drones chargés de guider au sol un robot mobile dans une salle encombrée d'obstacles. Il pourrait s'agir de ruines après un tremblement de terre par exemple. Les drones vont aider le robot en lui indiquant où il se trouve, dans quelle direction se déplacer et quel chemin emprunter pour éviter les obstacles qui lui barrent le passage. Ce sera comme si le robot avait un mini-GPS au-dessus de la tête qui sera capable d'adapter sa forme et son déploiement en fonction de la situation au sol et de la progression du robot mobile.

------
Note :

(1) Lagadic est une équipe-projet Inria localisée à Rennes et Sophia-Antipolis. La partie rennaise est affiliée à l'Université Rennes 1, à Insa Rennes et au CNRS. Elle est commune à l'Irisa (UMR6074).

(2) Paolo Robuffo Giordano est un chercheur du CNRS membre de Lagadic.