Intégrées au sein d’architectures globales, les IHM peuvent désormais accéder aux données issues d’un grand nombre d’équipements et d’applications. Cette ouverture a conduit les utilisateurs à attendre davantage des IHM.
L’adoption des nouvelles technologies de l’information et de la communication a considérablement élargi le champ des données industrielles exploitables par les systèmes d’interaction Homme-Machine. Intégrées au sein d’architectures globales, les IHM (Interfaces Homme-Machines) peuvent désormais accéder aux données issues d’un grand nombre d’équipements et d’applications : appareils de mesure, automates programmables, contrôleurs, bases de données, outils d’analyse de performances et de reporting, GMAO, MES, ERP, etc.
Cette ouverture a conduit naturellement les utilisateurs à attendre d’avantage des IHM. Au delà de la simple conduite (marche/arrêt, modification des consignes, etc.), celles-ci participent désormais à la réduction des coûts liés à la maintenance, en fournissant des alarmes (visuelles ou sonores) permettant d’alerter de toute dérive par rapport au fonctionnement normal du process, ou encore en offrant un accès à divers documents (plans à jour, vidéos explicatives « how to », etc.), permettant de réduire les temps d’intervention sur site ainsi que les délais de formation du personnel. De façon plus globale, les industriels attendent désormais des IHM qu’elles fournissent, au bon moment, au bon endroit et à la bonne personne, toute l’information nécessaire pour prendre rapidement les meilleures décisions, faire face aux évènements imprévus avec une meilleure réactivité, et optimiser les performances globales des unités de production.
Image AOP de AAEON-8150.jpg
Voir, entendre, communiquer, partout
Pour atteindre une efficacité optimale, les opérateurs doivent pouvoir disposer à tout moment d’informations fiables et utiles sur l’état de fonctionnement des dispositifs, mais également être capables d’interagir avec les procédés au travers d’interfaces offrant la meilleure ergonomie possible. Derrière le mot ergonomie se cachent des problématiques complexes, relevant de l’étude des conditions psychophysiologiques et socioéconomiques de travail, ainsi que des relations entre l’homme et la machine. Il s’agit d’une fonction éminemment subjective, dont la définition nécessite de faire appel à des ergonomes professionnels, et suppose une implication forte du personnel exploitant. Il ne s’agira donc pas ici de donner la description de ce qu’est ou de ce que n’est pas une bonne ergonomie, mais de passer en revue un certain nombre d’éléments, tant matériels que logiciels, qui contribuent directement ou indirectement à l’amélioration de l’ergonomie des interfaces homme-machine.
Tout d’abord, parce qu’il permet la visualisation, l’écran joue un rôle de première importance. Les écrans cathodiques (CRT) monochromes des années 80 ont aujourd’hui définitivement cédé leur place aux écrans plat LCD au sein des environnements de production, sauf peut-être au niveau des salles de contrôle, où l’encombrement ne constitue pas nécessairement une contrainte incontournable. On distingue essentiellement deux types d’écrans LCD : les écrans à matrice passive (STN pour Super Twisted Nematic) et les écrans à matrices actives (TFT pour Thin Film Transfer). Le principal élément différenciateur de ces deux technologies est que dans le cas des écrans TFT, chaque pixel dispose d’un transistor propre lui permettant d’être commuté individuellement. Les écrans STN sont caractérisés par des vitesses de trames lentes, une palette de couleurs réduite et un angle de visualisation faible, de l’ordre de 15° seulement. Les écrans TFT, au contraire, offrent des vitesses de trames importantes, à même de restituer la continuité de séquences d’images de mouvements, avec une palette de couleurs allant jusqu’à 16.7 millions de couleurs. Ces écrans fournissent par ailleurs des angles de visualisation beaucoup plus importants que les STN, variant entre 30 et 70°. Malgré leur prix, plus élevé que les STN, les écrans TFT constituent aujourd’hui les éléments de choix pour une large gamme d’applications industrielles. Disponibles pour des tailles allant de 4.5 à 22 pouces, ils offrent des performances élevées ainsi qu’une faible consommation d’énergie (environ 8W), et supportent des températures ambiantes élevées, pouvant aller jusqu’à 60°C.
Image ESA-VT525H.jpg
Mais il ne suffit pas de voir, encore faut-il pouvoir interagir avec le système. Avec des tailles d’écrans plus larges et des prix moins élevés qu’il y a quelques années, ce sont incontestablement les dalles tactiles qui tiennent le haut du pavé des systèmes d’interactions. Celles-ci remplacent dans bien des situations les équipements traditionnels à base de clavier/souris, dont la manipulation s’avère moins intuitive et plus propice aux erreurs. Notons toutefois que beaucoup d’opérateurs se sentent parfaitement à l’aise avec un clavier et une souris, et que quoi qu’on en dise, les dalles tactiles ne sauraient constituer la solution idéale pour tous les cas de figure. Dans les usines, les opérateurs portent souvent des gants, ou possèdent de grandes mains, ce qui rend parfois les opérations tactiles assez délicates. C’est pourquoi lors du choix d’un système d’interaction, les utilisateurs doivent prendre en considération un certain nombre de contraintes, liées notamment à la navigation, à la sélection des objets et à la fréquence des actions. Typiquement, une dalle tactile constitue un choix judicieux dès lors que l’interaction ne nécessite pas une navigation continue entre différents niveaux hiérarchiques d’information, et lorsque les tâches ne sont pas trop répétitives et ne risquent pas de fatiguer l’opérateur ou d’endommager rapidement le matériel. Le choix d’un clavier et d’une souris s’avère quant à lui pertinent lorsque la saisie de texte est nécessaire, ou pour la manipulation de petits objets. Signalons également que l’utilisation de lecteurs de codes barre est de plus en plus répandue, notamment dans des applications de manipulation de matériel ou de packaging. On doit s’attendre à ce que ces systèmes soient employés dans un nombre croissant d’applications dans les années à venir.
Des technologies émergentes pas assez sûres
Pour ce qui est des technologies émergentes, la communication sans fil est sans doute celle dont on parle le plus et dont les industriels attendent les plus gros bénéfices. Avec la diminution de la taille des équipements sans-fil portatifs, les opérateurs seront bientôt à même d’emporter avec eux les données IHM, où qu’ils se trouvent dans l’atelier, ce qui s’avèrera particulièrement intéressant dans le cadre d’opérations de maintenance, pour la détection des pannes ou encore pour le partage d’informations en temps réel. Cependant, bien que le sans-fil ait d’ores et déjà démontré de nombreuses qualités en tant que médium de communication (faible coût, fiabilité des transmissions, élimination des risques d’arrachement ou d’écrasement des câbles…), des améliorations doivent encore être apportées avant que ces technologies ne puissent être utilisées dans le cadre d’applications industrielles critiques. De nombreuses questions restent en suspend, notamment concernant les risques d’interférences, les problèmes de couverture réseau, l’alimentation en énergie des équipements sans-fil, etc.
Soulignons également l’importance croissante des enjeux liés à la sécurité. Du fait de l’interconnexion des équipements et de l’intégration des IHM au sein d’architectures globales, le contrôle et la restriction des accès sont devenus des problématiques cruciales, nécessitant la mise en place de systèmes complexes d’identification, de signatures électroniques, de traçabilité, etc. Comme on peut légitimement le penser, les réseaux sans-fil sont particulièrement vulnérables aux intrusions. Des solutions permettant d’assurer la sécurité des réseaux sans-fil existent, certes, mais leur mise en œuvre reste extrêmement contraignante. C’est pourquoi, indéniablement, les problématiques de sécurité continuent aujourd’hui encore de freiner l’adoption des technologies sans-fil dans les milieux industriels.
Il en va de même des technologies de reconnaissance vocale, qui n’ont pas non plus atteint un degré suffisant de maturité pour être mises en œuvre dans des environnements industriels. Dans de nombreux cas il serait encore nécessaire de répéter les commandes plusieurs fois avant que celles-ci ne puissent être prises en compte. Par ailleurs, il pourrait s’avérer extrêmement dangereux que quelqu’un puisse passer une commande vocale sans s’identifier au préalable, or les systèmes de reconnaissance vocales sont pour l’heure incapables de faire la différence entre une voix et une autre.
Toujours plus de convivialité
Que cela soit pour faciliter l’exploitation, le développement ou la maintenance des applications, pour accélérer la formation du personnel, ou encore tout simplement pour rendre les produits plus attrayants, les clients industriels et OEM exigent de disposer d’interfaces toujours plus conviviales. Les fournisseurs de solutions d’IHM l’ont bien compris et proposent désormais des solutions tirant pleinement profit des technologies du web, intégrant également des supports multimédia tels que la vidéo, et offrant des représentations graphiques toujours plus réalistes et esthétiques des installations à surveiller.
L’apport des technologies du web, et en particulier de la navigation html, a fait considérablement progresser les IHM, et ce dans des proportions que l’on ne réalise pas toujours. La navigation html, c’est avant tout la possibilité d’accéder à une documentation complète et à jour, accessible directement et en permanence par l’utilisateur. Mais c’est aussi un moyen on ne peut plus naturel de suivre pas à pas des instructions. Autrement dit, la navigation html a révolutionné totalement la notion même d’interface, ôtant une difficulté conceptuelle que seuls ceux qui se sont battus pendant des années avec la conception d’interfaces « à plat » comprennent immédiatement. Cette révolution de l’interface doit pouvoir être étendue à tout travail ou projet suivant une procédure, c’est-à-dire une succession d’actions élémentaires qui se déroule dans un certain ordre.
Image Sreen5.png : Les solutions d’IHM proposent des représentations graphiques toujours plus réalistes et esthétiques des installations à surveiller.
PC ou embarqué ?
Dans le domaine industriel, on distingue essentiellement deux catégories d’IHM : d’une part les IHM embarquées, et d’autre part les IHM sur base PC. Les solutions d’IHM embarquées constituent un choix logique pour les fabricants de machines ou d’équipements industriels simples, tels que palettiseurs ou machines d’emballage, pilotés par un contrôleur unique et n’ayant pas des besoins très poussés en matière d’IHM. Dans certains systèmes OEM « high-end », plusieurs IHM embarquées peuvent s’avérer nécessaire au bon fonctionnement du système. La mise en œuvre de réseaux multi-maître ou Peer-to-Peer est souvent requise pour ce type de configuration, avec le risque de se retrouver avec un grand nombre d’IHM indépendantes réclamant des informations au même contrôleur, provoquant une baisse des performances du système.
Les lignes de production basées sur des processus hybrides ou continus, que l’on retrouve typiquement dans des secteurs comme l’agroalimentaire, l’industrie pharmaceutique, l’industrie du bois ou encore la chimie fine, peuvent avoir des besoins très poussés en termes d’IHM, pour la visualisation, la notification des erreurs, le pilotage, etc. Les architectures mises en œuvre, souvent très complexes, intègrent un grand nombre de contrôleurs. Les problèmes de surcharge peuvent être évités grâce à la mise en œuvre d’architectures clients/serveurs, supportées naturellement par les systèmes IHM basés sur Windows. Un ou deux nœuds IHM jouent alors le rôle de serveurs de données d’I/O, les autres nœuds jouent le rôle de clients. Ceci permet d’éviter la surcharge des contrôleurs en offrant par la même occasion une voie de communication redondante pour l’acquisition de données en cas de panne de l’un des serveurs.
Un compromis, fréquemment observé pour des systèmes de production de tailles moyennes et grandes, consiste en l’utilisation d’IHM embarquées au niveau du terrain, et d’IHM à base de PC au niveau de la salle de contrôle. Bien que des arguments valables plaident en faveur de ce type d’architecture, notamment pour des raisons de fiabilité du système et d’absence de points de défaillance critiques, une telle approche implique la formation sur deux systèmes différents, à la fois pour le développement et pour l’exploitation des applications, ainsi que la duplication des efforts de configuration et de maintenance. Par ailleurs, ce type d’architecture peut mener à des performances médiocres, étant donné que les contrôleurs peuvent se retrouvés surchargés par les requêtes provenant à la fois des IHM embarquées et des serveurs de données des IHM sur base PC.
Image jauto_img_3.jpg : Le concept ViewAnyWare de Rockwell Automation
Propriétaire ou standard ?
L’une des principales sources de frustration des utilisateurs d’IHM embarquées a pendant longtemps été le problème de la gestion de l’obsolescence. En effet, l’histoire des IHM embarquées est truffée de cas de ruptures au niveau matériel, ayant entraîné des problèmes d’incompatibilité des nouvelles solutions avec les outils de configuration des versions précédentes et
avec les applications utilisateurs existantes. Ce type de produits étant fortement dépendant des circuits intégrés, CPU et middleware (low-level software) qu’ils embarquent, lorsque l’un des fabricants décidait de stopper la production de tel ou tel circuit, certains fournisseurs d’IHM embarquées se retrouvaient contraints de reprendre la conception à la fois matérielle et logicielle de leurs produits.
Ces problèmes tendent aujourd’hui à être résolus par la standardisation « de fait » des éléments matériels et logiciels utilisés. Un grand nombre de fournisseurs de solutions d’IHM embarquées proposent désormais des systèmes à base de composants standard (Intel, AMD, ARM…) et d’OS (Operating System) embarqués tels que Windows CE, Windows XP Embedded ou Linux. Cette standardisation des technologies, y compris des technologies réseau, au travers de l’émergence du standard de communication Ethernet, ont également permis la mise en œuvre d’architectures distribuées, dans lesquelles les IHM peuvent jouer le rôle de clients légers. Dans ce type d’architectures, les IHM ne font que transmettre les actions du claviers et de la souris vers un serveur central sur lequel tourne l’application. L’IHM est alors accessible à plusieurs endroits à partir desquels il est possible de prendre la main, sans pour autant qu’il soit nécessaire de disposer d’une grande puissance au niveau des postes terminaux.
Conclusion
Avec le développement récent de technologies telles que la communication sans fil, la reconnaissance vocale ou encore les technologies 3D, on imagine sans peine à quoi pourrait ressembler l’ergonomie des IHM dans un avenir proche. Cependant, force est de constater qu’aujourd’hui la demande des utilisateurs reste centrée sur des moyens d’interaction traditionnels, à base d’écrans tactiles, d’ensembles clavier/souris, etc. Par ailleurs, si la standardisation a permis la résolution des problèmes d’obsolescence ainsi qu’une plus grande ouverture des IHM, elle a aussi rendu les systèmes plus vulnérables aux virus et autres menaces qui pèsent aujourd’hui sur ces environnements informatiques ouverts. C’est pourquoi certains utilisateurs continuent de préférer l’utilisation de technologies propriétaires, qui présentent l’avantage de fournir une protection naturelle contre ces menaces, au détriment de l’ouverture. On en revient une fois de plus à la problématique de la sécurité, qui devrait devenir la préoccupation numéro un des fournisseurs d’automatismes pour permettre aux industriels de tirer pleinement profit des technologies émergentes.
j43p5255
L’adoption des nouvelles technologies de l’information et de la communication a considérablement élargi le champ des données industrielles exploitables par les systèmes d’interaction Homme-Machine. Intégrées au sein d’architectures globales, les IHM (Interfaces Homme-Machines) peuvent désormais accéder aux données issues d’un grand nombre d’équipements et d’applications : appareils de mesure, automates programmables, contrôleurs, bases de données, outils d’analyse de performances et de reporting, GMAO, MES, ERP, etc.
Cette ouverture a conduit naturellement les utilisateurs à attendre d’avantage des IHM. Au delà de la simple conduite (marche/arrêt, modification des consignes, etc.), celles-ci participent désormais à la réduction des coûts liés à la maintenance, en fournissant des alarmes (visuelles ou sonores) permettant d’alerter de toute dérive par rapport au fonctionnement normal du process, ou encore en offrant un accès à divers documents (plans à jour, vidéos explicatives « how to », etc.), permettant de réduire les temps d’intervention sur site ainsi que les délais de formation du personnel. De façon plus globale, les industriels attendent désormais des IHM qu’elles fournissent, au bon moment, au bon endroit et à la bonne personne, toute l’information nécessaire pour prendre rapidement les meilleures décisions, faire face aux évènements imprévus avec une meilleure réactivité, et optimiser les performances globales des unités de production.
Image AOP de AAEON-8150.jpg
Voir, entendre, communiquer, partout
Pour atteindre une efficacité optimale, les opérateurs doivent pouvoir disposer à tout moment d’informations fiables et utiles sur l’état de fonctionnement des dispositifs, mais également être capables d’interagir avec les procédés au travers d’interfaces offrant la meilleure ergonomie possible. Derrière le mot ergonomie se cachent des problématiques complexes, relevant de l’étude des conditions psychophysiologiques et socioéconomiques de travail, ainsi que des relations entre l’homme et la machine. Il s’agit d’une fonction éminemment subjective, dont la définition nécessite de faire appel à des ergonomes professionnels, et suppose une implication forte du personnel exploitant. Il ne s’agira donc pas ici de donner la description de ce qu’est ou de ce que n’est pas une bonne ergonomie, mais de passer en revue un certain nombre d’éléments, tant matériels que logiciels, qui contribuent directement ou indirectement à l’amélioration de l’ergonomie des interfaces homme-machine.
Tout d’abord, parce qu’il permet la visualisation, l’écran joue un rôle de première importance. Les écrans cathodiques (CRT) monochromes des années 80 ont aujourd’hui définitivement cédé leur place aux écrans plat LCD au sein des environnements de production, sauf peut-être au niveau des salles de contrôle, où l’encombrement ne constitue pas nécessairement une contrainte incontournable. On distingue essentiellement deux types d’écrans LCD : les écrans à matrice passive (STN pour Super Twisted Nematic) et les écrans à matrices actives (TFT pour Thin Film Transfer). Le principal élément différenciateur de ces deux technologies est que dans le cas des écrans TFT, chaque pixel dispose d’un transistor propre lui permettant d’être commuté individuellement. Les écrans STN sont caractérisés par des vitesses de trames lentes, une palette de couleurs réduite et un angle de visualisation faible, de l’ordre de 15° seulement. Les écrans TFT, au contraire, offrent des vitesses de trames importantes, à même de restituer la continuité de séquences d’images de mouvements, avec une palette de couleurs allant jusqu’à 16.7 millions de couleurs. Ces écrans fournissent par ailleurs des angles de visualisation beaucoup plus importants que les STN, variant entre 30 et 70°. Malgré leur prix, plus élevé que les STN, les écrans TFT constituent aujourd’hui les éléments de choix pour une large gamme d’applications industrielles. Disponibles pour des tailles allant de 4.5 à 22 pouces, ils offrent des performances élevées ainsi qu’une faible consommation d’énergie (environ 8W), et supportent des températures ambiantes élevées, pouvant aller jusqu’à 60°C.
Image ESA-VT525H.jpg
Mais il ne suffit pas de voir, encore faut-il pouvoir interagir avec le système. Avec des tailles d’écrans plus larges et des prix moins élevés qu’il y a quelques années, ce sont incontestablement les dalles tactiles qui tiennent le haut du pavé des systèmes d’interactions. Celles-ci remplacent dans bien des situations les équipements traditionnels à base de clavier/souris, dont la manipulation s’avère moins intuitive et plus propice aux erreurs. Notons toutefois que beaucoup d’opérateurs se sentent parfaitement à l’aise avec un clavier et une souris, et que quoi qu’on en dise, les dalles tactiles ne sauraient constituer la solution idéale pour tous les cas de figure. Dans les usines, les opérateurs portent souvent des gants, ou possèdent de grandes mains, ce qui rend parfois les opérations tactiles assez délicates. C’est pourquoi lors du choix d’un système d’interaction, les utilisateurs doivent prendre en considération un certain nombre de contraintes, liées notamment à la navigation, à la sélection des objets et à la fréquence des actions. Typiquement, une dalle tactile constitue un choix judicieux dès lors que l’interaction ne nécessite pas une navigation continue entre différents niveaux hiérarchiques d’information, et lorsque les tâches ne sont pas trop répétitives et ne risquent pas de fatiguer l’opérateur ou d’endommager rapidement le matériel. Le choix d’un clavier et d’une souris s’avère quant à lui pertinent lorsque la saisie de texte est nécessaire, ou pour la manipulation de petits objets. Signalons également que l’utilisation de lecteurs de codes barre est de plus en plus répandue, notamment dans des applications de manipulation de matériel ou de packaging. On doit s’attendre à ce que ces systèmes soient employés dans un nombre croissant d’applications dans les années à venir.
Des technologies émergentes pas assez sûres
Pour ce qui est des technologies émergentes, la communication sans fil est sans doute celle dont on parle le plus et dont les industriels attendent les plus gros bénéfices. Avec la diminution de la taille des équipements sans-fil portatifs, les opérateurs seront bientôt à même d’emporter avec eux les données IHM, où qu’ils se trouvent dans l’atelier, ce qui s’avèrera particulièrement intéressant dans le cadre d’opérations de maintenance, pour la détection des pannes ou encore pour le partage d’informations en temps réel. Cependant, bien que le sans-fil ait d’ores et déjà démontré de nombreuses qualités en tant que médium de communication (faible coût, fiabilité des transmissions, élimination des risques d’arrachement ou d’écrasement des câbles…), des améliorations doivent encore être apportées avant que ces technologies ne puissent être utilisées dans le cadre d’applications industrielles critiques. De nombreuses questions restent en suspend, notamment concernant les risques d’interférences, les problèmes de couverture réseau, l’alimentation en énergie des équipements sans-fil, etc.
Soulignons également l’importance croissante des enjeux liés à la sécurité. Du fait de l’interconnexion des équipements et de l’intégration des IHM au sein d’architectures globales, le contrôle et la restriction des accès sont devenus des problématiques cruciales, nécessitant la mise en place de systèmes complexes d’identification, de signatures électroniques, de traçabilité, etc. Comme on peut légitimement le penser, les réseaux sans-fil sont particulièrement vulnérables aux intrusions. Des solutions permettant d’assurer la sécurité des réseaux sans-fil existent, certes, mais leur mise en œuvre reste extrêmement contraignante. C’est pourquoi, indéniablement, les problématiques de sécurité continuent aujourd’hui encore de freiner l’adoption des technologies sans-fil dans les milieux industriels.
Il en va de même des technologies de reconnaissance vocale, qui n’ont pas non plus atteint un degré suffisant de maturité pour être mises en œuvre dans des environnements industriels. Dans de nombreux cas il serait encore nécessaire de répéter les commandes plusieurs fois avant que celles-ci ne puissent être prises en compte. Par ailleurs, il pourrait s’avérer extrêmement dangereux que quelqu’un puisse passer une commande vocale sans s’identifier au préalable, or les systèmes de reconnaissance vocales sont pour l’heure incapables de faire la différence entre une voix et une autre.
Toujours plus de convivialité
Que cela soit pour faciliter l’exploitation, le développement ou la maintenance des applications, pour accélérer la formation du personnel, ou encore tout simplement pour rendre les produits plus attrayants, les clients industriels et OEM exigent de disposer d’interfaces toujours plus conviviales. Les fournisseurs de solutions d’IHM l’ont bien compris et proposent désormais des solutions tirant pleinement profit des technologies du web, intégrant également des supports multimédia tels que la vidéo, et offrant des représentations graphiques toujours plus réalistes et esthétiques des installations à surveiller.
L’apport des technologies du web, et en particulier de la navigation html, a fait considérablement progresser les IHM, et ce dans des proportions que l’on ne réalise pas toujours. La navigation html, c’est avant tout la possibilité d’accéder à une documentation complète et à jour, accessible directement et en permanence par l’utilisateur. Mais c’est aussi un moyen on ne peut plus naturel de suivre pas à pas des instructions. Autrement dit, la navigation html a révolutionné totalement la notion même d’interface, ôtant une difficulté conceptuelle que seuls ceux qui se sont battus pendant des années avec la conception d’interfaces « à plat » comprennent immédiatement. Cette révolution de l’interface doit pouvoir être étendue à tout travail ou projet suivant une procédure, c’est-à-dire une succession d’actions élémentaires qui se déroule dans un certain ordre.
Image Sreen5.png : Les solutions d’IHM proposent des représentations graphiques toujours plus réalistes et esthétiques des installations à surveiller.
PC ou embarqué ?
Dans le domaine industriel, on distingue essentiellement deux catégories d’IHM : d’une part les IHM embarquées, et d’autre part les IHM sur base PC. Les solutions d’IHM embarquées constituent un choix logique pour les fabricants de machines ou d’équipements industriels simples, tels que palettiseurs ou machines d’emballage, pilotés par un contrôleur unique et n’ayant pas des besoins très poussés en matière d’IHM. Dans certains systèmes OEM « high-end », plusieurs IHM embarquées peuvent s’avérer nécessaire au bon fonctionnement du système. La mise en œuvre de réseaux multi-maître ou Peer-to-Peer est souvent requise pour ce type de configuration, avec le risque de se retrouver avec un grand nombre d’IHM indépendantes réclamant des informations au même contrôleur, provoquant une baisse des performances du système.
Les lignes de production basées sur des processus hybrides ou continus, que l’on retrouve typiquement dans des secteurs comme l’agroalimentaire, l’industrie pharmaceutique, l’industrie du bois ou encore la chimie fine, peuvent avoir des besoins très poussés en termes d’IHM, pour la visualisation, la notification des erreurs, le pilotage, etc. Les architectures mises en œuvre, souvent très complexes, intègrent un grand nombre de contrôleurs. Les problèmes de surcharge peuvent être évités grâce à la mise en œuvre d’architectures clients/serveurs, supportées naturellement par les systèmes IHM basés sur Windows. Un ou deux nœuds IHM jouent alors le rôle de serveurs de données d’I/O, les autres nœuds jouent le rôle de clients. Ceci permet d’éviter la surcharge des contrôleurs en offrant par la même occasion une voie de communication redondante pour l’acquisition de données en cas de panne de l’un des serveurs.
Un compromis, fréquemment observé pour des systèmes de production de tailles moyennes et grandes, consiste en l’utilisation d’IHM embarquées au niveau du terrain, et d’IHM à base de PC au niveau de la salle de contrôle. Bien que des arguments valables plaident en faveur de ce type d’architecture, notamment pour des raisons de fiabilité du système et d’absence de points de défaillance critiques, une telle approche implique la formation sur deux systèmes différents, à la fois pour le développement et pour l’exploitation des applications, ainsi que la duplication des efforts de configuration et de maintenance. Par ailleurs, ce type d’architecture peut mener à des performances médiocres, étant donné que les contrôleurs peuvent se retrouvés surchargés par les requêtes provenant à la fois des IHM embarquées et des serveurs de données des IHM sur base PC.
Image jauto_img_3.jpg : Le concept ViewAnyWare de Rockwell Automation
Propriétaire ou standard ?
L’une des principales sources de frustration des utilisateurs d’IHM embarquées a pendant longtemps été le problème de la gestion de l’obsolescence. En effet, l’histoire des IHM embarquées est truffée de cas de ruptures au niveau matériel, ayant entraîné des problèmes d’incompatibilité des nouvelles solutions avec les outils de configuration des versions précédentes et
avec les applications utilisateurs existantes. Ce type de produits étant fortement dépendant des circuits intégrés, CPU et middleware (low-level software) qu’ils embarquent, lorsque l’un des fabricants décidait de stopper la production de tel ou tel circuit, certains fournisseurs d’IHM embarquées se retrouvaient contraints de reprendre la conception à la fois matérielle et logicielle de leurs produits.
Ces problèmes tendent aujourd’hui à être résolus par la standardisation « de fait » des éléments matériels et logiciels utilisés. Un grand nombre de fournisseurs de solutions d’IHM embarquées proposent désormais des systèmes à base de composants standard (Intel, AMD, ARM…) et d’OS (Operating System) embarqués tels que Windows CE, Windows XP Embedded ou Linux. Cette standardisation des technologies, y compris des technologies réseau, au travers de l’émergence du standard de communication Ethernet, ont également permis la mise en œuvre d’architectures distribuées, dans lesquelles les IHM peuvent jouer le rôle de clients légers. Dans ce type d’architectures, les IHM ne font que transmettre les actions du claviers et de la souris vers un serveur central sur lequel tourne l’application. L’IHM est alors accessible à plusieurs endroits à partir desquels il est possible de prendre la main, sans pour autant qu’il soit nécessaire de disposer d’une grande puissance au niveau des postes terminaux.
Conclusion
Avec le développement récent de technologies telles que la communication sans fil, la reconnaissance vocale ou encore les technologies 3D, on imagine sans peine à quoi pourrait ressembler l’ergonomie des IHM dans un avenir proche. Cependant, force est de constater qu’aujourd’hui la demande des utilisateurs reste centrée sur des moyens d’interaction traditionnels, à base d’écrans tactiles, d’ensembles clavier/souris, etc. Par ailleurs, si la standardisation a permis la résolution des problèmes d’obsolescence ainsi qu’une plus grande ouverture des IHM, elle a aussi rendu les systèmes plus vulnérables aux virus et autres menaces qui pèsent aujourd’hui sur ces environnements informatiques ouverts. C’est pourquoi certains utilisateurs continuent de préférer l’utilisation de technologies propriétaires, qui présentent l’avantage de fournir une protection naturelle contre ces menaces, au détriment de l’ouverture. On en revient une fois de plus à la problématique de la sécurité, qui devrait devenir la préoccupation numéro un des fournisseurs d’automatismes pour permettre aux industriels de tirer pleinement profit des technologies émergentes.