La capacité des techniques d’intelligence artificielle (IA) à gérer d’importants volumes d’information et de les analyser rapidement permet d’augmenter l’efficacité et la précision d’une variété d’opérations : navigation autonome de véhicules, robotisation, contrôle de process industriel, maintenance prédictive, etc. L’IA rend possible l’optimisation du fonctionnement des machines et procure une aide à la prise de décision. Elle exploite diverses techniques simulant les processus cognitifs humains : Deep-learning, algorithmes de réseaux neuronaux… Xavier Hermite, expert Référent Data au Cetim, présente leurs spécificités et les méthodologies à suivre pour pleinement tirer profit du potentiel de l’IA.
Quelles techniques mettent en œuvre les applications à base d’intelligence artificielle (IA)?
Xavier Hermite : L’intelligence artificielle comprend toute technique qui vise à reproduire le comportement d’êtres vivants par des machines, sans que ce comportement soit explicitement programmé. L’apprentissage se fait de manière empirique, en nourrissant la machine d’une multitude d’exemples, à l’aide d’algorithmes qui permettent, via des calculs sur des données, de prendre ou aider à prendre des décisions. L’intelligence artificielle est la transposition vers la machine de la notion de raisonnement et de choix en autonomie.
Plusieurs techniques peuvent être mises en œuvre : pour une grande partie des offres sur le marché, il s’agit avant tout de méthodes statistiques de réduction de dimensions, fusion de l’information et de visualisation. Ces techniques sont primordiales pour extraire d’une base de données massive des paramètres pertinents. Cette catégorie reprend notamment les méthodes reposant sur la préservation de la distance ou la similarité entre les données, ainsi que des méthodes telles que ACP, ANOVA, ACM… L’approche supervisée est basée sur la bonne connaissance du phénomène analysé et sur l’intégration d’autres facteurs pour optimiser la performance de l’IA. L’IA utilise alors des modèles éprouvés ou non, à partir desquels elle sera capable de décider, pour affecter les données à des classes connues à l’avance, souvent en collaboration avec l’être humain. L’apprentissage (Machine Learning) supervisé consiste donc à apprendre et à fournir une réponse correcte à partir d’un ensemble de données d’entrées. Pour une réponse catégorielle (à spectre discret), on parle de classification. Pour une réponse numérique (à spectre continu), on parle de régression.
L’approche non supervisée se base sur un volume de données souvent considérable pour identifier des situations en autonomie, grouper et interpréter des données d’entrées en tant que telles. Elle est utilisée lorsque les phénomènes ne sont plus modélisables, ou trop mal connus. L’être humain a peu ou pas d’influence sur le raisonnement et les décisions de la machine.
Les outils associés aux trois principales composantes de l’IA (analyse statistique, apprentissage, exploration de données) comprennent notamment : l’analyse discriminante linéaire et régression, plus proches voisins, arbres de décision, réseaux de neurones et de Deep learning, Support Vector Machines (SVM) ainsi que le couplage de plusieurs méthodes.
Les méthodes adaptatives par dictionnaire ou appelées aussi mono-classe sont particulièrement intéressantes dans l’industrie car elles permettent de détecter les instants de rupture de l’état de fonctionnement normal d’un système.
Pour quels types d’applications les techniques d’IA peuvent-elles être déployées ?
Xavier Hermite : Difficile de circonscrire les champs d’applications couronnés de succès de l’IA. Les limitations, s’il y en a, ne sont peut-être que celles liées aux mathématiques elles-mêmes (indécidabilité). Pour de très nombreuses applications, tout dépend de la méthode utilisée. On peut citer dans les approches prévisionnelles, des techniques comme le krigeage, l’interpolation, la statistique, très couramment utilisées dans le forage pétrolier, la météorologie, la maintenance des machines, l’estimation de durée de vie résiduelle, etc. Parmi les nouvelles applications, on peut lister : le tracking et le retargeting dans l’industrie du cinéma, du jeu vidéo, et les fournisseurs de cosmétiques (lunettes, maquillage, etc.) ; l’analyse d’images pour la reconnaissance faciale, le renseignement, la gestion d’accès de sites, etc. ; la reconnaissance et la synthèse vocale, pour dialoguer avec son téléphone ou sa voiture ; le traitement multi sources dans l’automobile (véhicule autonome) ; la réalité virtuelle ; l’automatisation des tâches fastidieuses (spams, mailing, etc.) ; l’assistant robot (exosquelette, lunettes pour daltonien, drones, coach sportif virtuel, évaluation du sommeil, etc.). Et bien d’autres applications industrielles telles que la régulation (contrôle-commande), le diagnostic de panne machine, le traitement de signaux temporels (vibrations, ultrasons, acoustique), la détection de défauts de fabrication dans une image bruitée… Il faut cependant noter que l’approche supervisée est favorisée dans le cas d’application critique car on peut remonter aux phénomènes physiques associés.
Comment ces applications tirent parti de l’IA ?
Xavier Hermite : L’IA permet de concevoir des modèles prédictifs capables de s’affranchir de la variabilité naturellement présente dans un ensemble de données, sans avoir besoin de modéliser cette variabilité explicitement. Par exemple, pour la reconnaissance d’images, un objet pourra être reconnu en dépit de nombreuses variations qu’il serait impossible de modéliser manuellement : variations de point de vue 3D, variation des conditions d’illumination, variations d’échelle, de couleurs, de modèle, déformations, occultation partielle, variations de l’arrière-plan, etc.
L’IA présente des avantages pour la gestion des volumes d’information, et l’analyse rapide de données massives (inaccessibles à l’être humain) : démultiplication de l’exploitation des connaissances métiers historiques de nos experts. Elle permet d’augmenter l’efficacité et de la précision de tâches du quotidien (répétitives, ingrates pour l’opérateur, dangereuses), voire leur automatisation complète. Elle rend possible l’optimisation du fonctionnement des machines, et procure une aide à la prise de décision. Elle offre l’opportunité d’accéder à des zones inaccessibles ou dangereuses, et d’intégrer des systèmes d’assistance à la personne, de port de charge, de levée d’alertes/alarmes, etc. Elle promet la création de valeur ajoutée sur de nouveaux usages. A terme, l’IA pourra gérer des cas que l’être humain ne peut comprendre ou expliquer.
Quels sont les principaux freins à la mise en œuvre d’applications à base d’IA ?
Xavier Hermite : Le volume nécessaire des données pour l’apprentissage et la difficulté à démontrer l’exhaustivité et la représentativité des bases d’apprentissage (la machine ne saura traiter que ce qu’elle a déjà vu, et identifier parfois des « aberrations ») sont de véritables freins au déploiement. Dans l’industrie, le fonctionnement des machines impose une évolution temporelle des indicateurs qui doit impérativement être prise en compte. L’interprétabilité des résultats est en général difficile. Un modèle entraîné par apprentissage automatique est une boîte noire, qui ne livre pas naturellement d’explication aux choix qui sont les siens. Cela peut rendre difficile l’acceptabilité des résultats par des utilisateurs humains et la collaboration avec les experts métier. Le frein psychologique devient que l’IA est compliquée et réservée aux experts du domaine. Celle-ci ne doit pas se substituer à la compréhension des mécanismes. La vérification de la cohérence avec les lois physiques reste indispensable. L’utilisation de l’IA peut permettre le remplacement des tâches fastidieuses par des automates, ce qui est assimilé à des suppressions d’emploi bien que de nouveaux emplois soient créés (informaticiens, maintenance logicielle, matérielle, etc.) mais malheureusement moins accessibles. Le niveau de fiabilité de l’analyse et des logiciels utilisés est également critique pour éviter les erreurs, notamment dans des applications ou le risque humain est avéré (véhicule autonome, secteur industriel), les notions de responsabilité juridique et d’assurance sont également un frein. Enfin, pour la donnée en elle-même il faut disposer d’une structure, des ressources, des serveurs, de solution de cybersécurité, d’espaces de stockages, etc. Tout cela a un coût, en termes économiques et écologiques. Le retour sur investissement dans l’industrie est à ce jour inconnu et sera évalué à l’aide des premiers résultats d’utilisation de l’IA sur des cas d’applications réels.
Quels outils peuvent être utilisés pour la mise en œuvre d’applications à base d’IA ?
Xavier Hermite : Les outils permettant la mise en œuvre d’applications d’IA sont de nos jours très largement accessibles, grâce au développement du mouvement open source, dont l’IA est même devenue un moteur depuis quelques années. Ainsi, le développement de modèles d’apprentissage automatique se fait très largement en Python, disposant d’un très grand nombre de librairies qui sont elles aussi open source. L’utilisation du Cloud computing ou de serveurs dédiés privés est indispensable pour consulter des données a priori massives et hétérogènes, générer des bases d’apprentissage, définir et extraire les modèles (algorithmes). L’implémentation de ces outils et algorithmes de décision en local (Edge computing) permet d’optimiser le fonctionnement en temps réel et donc d’agir rapidement. Ce genre d’outil nécessite un modèle de décision prédéfini. Il faut néanmoins garantir une architecture solide du réseau local, garantissant l’accès rapide aux données et leur intégrité.
Les objets connectés (IoT) disposent souvent de ressources de pré-traitement comme les composants FPGA rapides, rarement de stockage (ce n’est pas leur but) : on parle alors d’IA embarquée. La récupération des données sur les objets connectés mobiles (véhicules, outils agricoles, drones…) sera facilitée par la 5G grâce à la prise en compte de l’IoT dans ses protocoles, la gestion d’un grand nombre d’objets, la faible consommation permettant plusieurs années d’autonomie sur batterie, des temps de réponse permettant la gestion temps réel à distance…
Quelles sont les priorités à la mise en œuvre d’une application à base d’IA ?
Xavier Hermite : Le manque de données représentatives peut être un handicap pour déployer l’IA. Les priorités à sa mise en œuvre sont donc justement la création de la donnée. Dans l’industrie mécanique, il est difficile d’obtenir des données labellisées de bonne qualité et représentatives. L’absence de qualité se traduit par de mauvaises prédictions selon le principe « Garbage in, garbage out ». Cela nécessite un gros travail amont de mise en place de la collecte de données pour que celles-ci soient adaptées à l’apprentissage que l’on souhaite effectuer, contrairement aux applications de l’IA dans d’autres domaines où les bases de données sont déjà très bien structurées tels que les secteurs du marketing ou de la pharmacie. La notion de confiance dans les données utilisées est donc essentielle. Il est également impératif de disposer d’une structure matérielle adaptée au déploiement de l’IA, tant sur le plan de la performance de traitement des données que sur la sécurisation de cette utilisation.
Comment choisir des données représentatives et leur volume avec pertinence ?
Xavier Hermite : Dans le domaine industriel, peu de données représentatives valent beaucoup plus qu’une base massive non pertinente. En d’autres termes, il faut pré-traiter les données massives (filtrage et élimination des données aberrantes, réduction de dimension…) afin d’utiliser les méthodes de l’IA et de prendre des décisions pertinentes. On parle de Small data dès que possible lorsque l’on a une idée précise de ce que l’on cherche. Les données d’entrées qui serviront à l’apprentissage doivent être représentatives du phénomène physique réel, en prenant en compte les variations des paramètres influents (matière première, process, moyen de mesure et d’analyse, etc.). L’importance d’une bonne connaissance de l’architecture du système et de la stratégie de mesure associée est critique. On parle donc ensuite de Smart data, dans lequel le savoir du métier doit être injecté pour aboutir à des solutions exploitables. En règle générale, le traitement temps réel est rendu possible grâce à l’IoT lorsque l’algorithme est déjà validé et les indicateurs définis. Les données peuvent être transmises et traitées en temps réel. Cependant, l’impact peut varier d’une fonction à une autre. Par exemple, si on parle de sécurité de fonctionnement et que le temps réel est de l’ordre de la seconde, il vaut mieux privilégier l’Edge computing mais cela se fera au détriment de la souplesse d’évolution de la solution.
Les applications à base d’IA évoluent-elles au fil des nouvelles exigences des industriels ?
Xavier Hermite : En fonction du type d’IA déployé, parfois une unique version est suffisante car le cas traité est simple, parfois il faut penser évolution dès les premières réflexions. Pour des systèmes d’apprentissage, il est impératif d’anticiper l’évolution, ne serait-ce que pour compléter l’apprentissage par des cas jamais vus encore. Typiquement, concernant les exigences industrielles (mais aussi législatives, écologiques, économiques), une IA qui n’évoluerait pas serait un non-sens, les exigences étant en perpétuelle évolution. Généralement, les évolutions matérielles ou logicielles permettent d’optimiser la rapidité de l’IA ou le stockage des données. L’IA est un algorithme plus ou moins complexe, assez peu dépendant du matériel. La création d’API dédiées, facilement intégrables dans une solution Cloud ou Edge semble aussi être une solution prometteuse. En revanche, une dégradation du matériel par rapport au niveau actuel est inenvisageable.
Quelles sont les principales évolutions attendues dans le domaine de l’IA ?
Xavier Hermite : Les principales évolutions attendues concernent la fiabilité, la facilité d’utilisation et le déploiement dans tous les secteurs de l’industrie avec des success story qui vont encore accélérer la démocratisation de l’IA. L’IA doit devenir un outil comme un autre, facile à utiliser et accessible, qui pourrait être déployé par l’utilisateur en fonction de son besoin. La création de plateformes web avec des services pour l’utilisation rapide et facile de l’IA est enclenchée. Dans le cas de l’Edge computing, si le matériel ne peut pas suivre les évolutions apportées, il devient rapidement obsolète. Les applications avec une architecture Cloud semblent donc être une solution plus adéquate vu la souplesse en termes d’évolution du matériel et des logiciels.