Précurseur dans la robotique collaborative,
le japonais Fanuc ne cesse d’innover pour
pousser toujours plus loin les usages des robots
industriels, faciliter leur déploiement ou encore,
accélérer et simplifier leur programmation. Mieux,
les ingénieurs de cette entreprise sont allés jusqu’à
créer des interfaces mécatroniques permettant de
guider les robots à la main…
Les robots industriels sont l’un des meilleurs exemples d’une collaboration étroite réussie entre la mécanique, l’électronique, l’automatisation et le digital. Quelle que soit la catégorie à
laquelle ils appartiennent – Scara, quatre-axes, six-axes, etc. – les
robots de dernière génération intègrent déjà tous les éléments qui
permettent de connaître avec une grande précision, leur état de
fonctionnement en temps réel mais aussi, le niveau de stress subi
au cours des différentes opérations qui leurs sont confiées, voire le
niveau d’usure des composants les plus exposés.
C’est en compagnie de Nicolas Couche, chef de produits robotiques
au sein de Fanuc France que nous découvrons les dernières
technologies mises en avant par ce constructeur japonais.
Précurseur dans la robotique collaborative,
le japonais Fanuc ne cesse d’innover pour
pousser toujours plus loin les usages des robots
industriels, faciliter leur déploiement ou encore,
accélérer et simplifier leur programmation. Mieux,
les ingénieurs de cette entreprise sont allés jusqu’à
créer des interfaces mécatroniques permettant de
guider les robots à la main…
Que peut-on dire des innovations proposées par Fanuc cette
année ?
Les lancements ne manquent pas tant au niveau matériel qu’au niveau
logiciel.
Voyons d’abord, la nouvelle gamme de robots Scara qui commence
par un modèle SR-3iA très compact dont la charge utile est de 3 kg et
qui est destiné aux applications de picking à haute vitesse ou
d’assemblage. Cette gamme est associée à une nouvelle technologie
de contrôleurs de faible encombrement référencé R-30iB Plus
Compact qui fait appel à une nouvelle interface basée sur une
programmation totalement dissociée sur PC ou tablette numérique.
Les ingénieurs de Fanuc ont beaucoup travaillé
sur l’ergonomie de l’interface-opérateur pour
proposer ces robots dans nombre d’industries afin
qu’ils soient pilotés par des intervenants
disposant certes, d’un niveau de formation
minimum mais en facilitant la prise en main par
une interface graphique rendue spécialement
accessible dans le pilotage des applications des
robots Scara.
La robotique collaborative est un des
piliers de l’Industrie du Futur, quelles
nouveautés proposez-vous ?
Fanuc dispose déjà d’une gamme de robots
collaboratifs qui ne compte pas moins de cinq
modèles. Sur les robots de petites dimensions
comme le CR-7iA/L, il est possible aujourd’hui
d’adapter une interface de guidage manuel.
L’intérêt de ce système réside là-encore dans son
ergonomie comme dans sa facilité d’utilisation et
de mise en œuvre. Cet équipement qui reste
amovible, intègre un joystick qui va servir à
enseigner les trajectoires au robot. Il est relié au
contrôleur par une liaison sans fil en technologie
Bluetooth. Par son intermédiaire, un opérateur
peut déplacer le robot dans toutes les directions
à l’intérieur de son espace de travail afin
d’apprendre de nouveaux points, d’enregistrer des
trajectoires ou de modifier celles qui existent déjà
sans en passer par le boîtier de commande
classique. Il y a donc une recherche en termes
d’ergonomie dans le pilotage, la recherche et la
retouche de points sur les trajectoires dans un
environnement où l’on peut interagir directement
avec le robot sans barrières.
Nous apportons ainsi la possibilité de faire entrer
la robotique collaborative dans des industries
diversifiées.
Quelles sont les autres avancées que l’on
va découvrir à très brève échéance ?
Fanuc met aussi en place de nouvelles
technologies qui vont permettre d’utiliser le robot
avec une interface complètement déportée sur
une tablette ou un panneau tactile dès lors que
l’équipement est en mesure de lire des pages
HTML.
On dispose alors d’une interface totalement
tactile et extrêmement aboutie, au plan visuel
pour faciliter la tâche des opérateurs. L’affichage
présente une image en trois dimensions de
l’installation robotique, montrant les repères
fonctionnels dans l’espace. En s’appuyant sur ce
visuel, l’opérateur va être capable de déplacer le
robot à partir de commandes virtualisées
(gauche-droite, avant-arrière, haut-bas) L’opérateur sélectionne un axe de déplacement
(X-Y, Y-Z, X-Z), la vitesse et la direction. Le
modèle 3D représenté sur la tablette indique
immédiatement le mouvement que le robot
exécute dans le même temps.
Plutôt que de concevoir les déplacements sous
la forme de coordonnées que l’opérateur ne
contrôle pas directement, cette interface lui
apporte un repère visuel qu’il maîtrise presque
immédiatement. L’interface permet même de
se déplacer dans l’espace de travail virtuel pour
passer d’une vue aérienne, à une vue de face ou
une vue latérale. Il est même possible de
prendre de l’angle par rapport à l’une de ces
représentations.
De nouveaux usages des robots
industriels sont-ils en passe de se
développer ?
Nous sommes capables d’en faire la
démonstration avec des interfaces de guidage
manuel nées dans le sillage de nos robots
collaboratifs comme le CR-35iA, qui sont
désormais utilisées sur nos robots industriels
classique.
Ce système de guidage que nous appelons
simplement hand guidance a été adapté pour
nos robots industriels délaçant de 20 kg à 700
kg de charge utile. L’opérateur va ainsi être en
mesure d’apporter sa dextérité dans la manutention d’objets en guidant le robot avec
une grande précision selon différents modes
qui auront été programmés.
Pour cela, on équipe le porte-outil du robot
d’un dispositif spécialement adapté qui intègre
un capteur d’efforts, d’un dispositif de sécurité
de type « homme-mort », d’un bouton d’arrêt
d’urgence, d’une gâchette permettant d’ouvrir
le préhenseur et de différents boutons
programmables. Ces derniers permettent par
exemple, de baisser ou d’augmenter la vitesse
du robot, de libérer tous les axes ou de limiter
les déplacements aux seuls repères cartésiens.
On trouve même un mode de programmation
appelé, lead flow teaching qui permet
d’apprendre au robot une trajectoire à la volée
en dynamique afin que l’équipement
reproduise scrupuleusement les déplacements
montrés par l’opérateur. Tout ceci est connecté
sur le système DCS que Fanuc développe
depuis plus de quinze ans pour garantir la
sécurité des intervenants puisqu’il faut rappeler
que l’on parle ici de déplacer sans effort, des
charges allant de 20 kg à 700 kg.
La vision est-elle une forme de sensibilité
qui fait son chemin dans la robotique ?
Fanuc dispose d’un capteur 3D extrêmement
compact qui peut être utilisé dans les
opérations de dévracage qualifiées de
chaotiques.