Contexte / Context

Dans le cadre de l'action nationale d'envergure PAL regroupant plusieurs équipes d'INRIA, les équipes COPRIN et LAGADIC se sont associées pour mettre en oeuvre des solutions efficaces et à bas-coût permettant une meilleure autonomie au quotidien des personnes à mobilité réduite.

L'équipe COPRIN a dans ce but développé dans ses locaux un système complet de transfert reposant sur la technologie des robots à câbles. La plateforme MARIONET-ASSIST facilite les opérations de déplacement et de changement de position (couchée/assise à debout) dans un espace de travail de la taille d'une pièce usuelle, tout en restant discrète, peu intrusive et dont la maintenance ne recquiert pas d'ingénierie excessive.

La journée d'une personne à mobilité réduite reste cependant parsemée de situations à risques, sources de fatigues, de fragilisations supplémentaires, voire génératrices d'accidents. Ramasser un objet tombé à terre par exemple peut être extrêmement difficile et douloureux, quand ce n'est pas tout simplement impossible. Débarasser une table est une tâche répétitive, fatiguante. La question de savoir si l'ajout de modules à la plateforme MARIONET-ASSIST ne pourrait permettre d'apporter un soutien approprié aux utilisateurs dans les situations sus-évoquées se pose dès lors.

Repérer un objet, estimer sa position, en permettre la saisie avec précision et le mouvoir vers une position prédéterminée sont autant d'opérations qui orientent naturellement vers le choix de la Vision comme technologie complémentaire. Le domaine de recherches privilégié de l'équipe LAGADIC étant l'asservissement visuel, le partenariat entre les deux équipes devient évident et donne lieu - avec PAL comme support - à cette thèse qui a pour objet d'étudier les relations et bénéfices réciproques des deux domaines de compétences que sont la robotique à câbles et l'asservissement visuel.

À ce jour, nous avons équipé d'une simple webcam un dérivé du MARIONET-ASSIST dont les trois degrés de liberté translationnels sont pilotés à partir de mesures extraites des images. À partir de combinaisons des seuls moments de premier ordre (aire et centre de gravité), la commande en vitesse pour le robot est estimée, corrigée et actualisée à chaque déplacement, ce qui nous permet de positionner la plateforme avec une précision de l'ordre d'un centimètre par rapport à la position souhaitée pour opérer la saisie.



Within the context of the Large-Scale Initiative Action PAL, associating several INRIA Project-Teams (IPT) and partners, the IPT COPRIN and LAGADIC are working together in order to provide low-cost and efficient solutions to fragile persons in order to increase their daily-life autonomy.

With this goal in mind, the IPT COPRIN has built a whole transfert-system based on the cable-driven parallel robots (CDPR) technology. The MARIONET-ASSIST platform offers assistance for lifting end-users and provides a walking aid, within a large workspace whose size corresponds to an entire room. Such a system remains discret, has a very low intrusivity, and its maintenance doesn't require excessive skills.

However, the day of a person with reduced mobility is filled with potentially risky situations which can be sources of tiredness and spreaded fragilities, or even accidents. For example, picking up an object that felt on the floor can be very difficul and painful, if not impossible. Cleaning a table is a repetitive and tiring task. It became evident to wonder if adding modules to the MARIONET-ASSIST could allow to provide a relevant support to the end-users in the situations previously mentioned.

Detecting an object, estimating its location, providing a precision such as it can be grasped, and moving it to an other location, are tasks that naturally guide toward Vision as a complementary technology. The major research-field of the IPT LAGADIC being vision-based control, a partnership between the two teams is initiated, resulting in this PhD thesis which focuses and the reciprocate relation and benefits of both domains Cable-Driven Robotic and Visual-Servoing.

At this day, we equiped a version of the MARIONET-ASSIST with a single webcam, whose three translational degrees of freedom are controlled by measures of features extracted from the images. Combining 2D-moments of order 0 et 1 (area and gravity-center), the velocity command to send to the robot is estimated, corrected and actualized at each step of the displacement, which allows us to position the plateform with a precision less than 1cm from the desired one in order to operate the grasping task.