L’intelligence artificielle fera-t-elle disparaître les ingénieurs ?

Retour sur la conférence d’IESF Alsace pour la Journée Nationale de l’Ingénieur du 21 Mars 2019.

Faux espoirs et vraies opportunités.

Entre espoirs, fantasmes et craintes, l’Intelligence Artificielle (IA) fait parler d’elle. Depuis quelques années, le développement de la « big data » et ses implications sur la génération d’applications prédictives ont donné à l’intelligence artificielle un énorme regain d’intérêt. Technologie pourtant ancienne -on parle d’IA depuis les années 50, et le « deep learning » ou apprentissage profond sont connus et conceptualisés depuis plusieurs décennies-, les applications concrètes étaient jusque-là limitées à certains secteurs clés.

Entre temps, une étude publiée en 2017 par l’université d’Oxford annonçait qu’un métier sur deux allait disparaître avec l’informatisation[1], c’est dire l’ampleur des évolutions à venir. Et le métier d’ingénieur dans tout ça ? Ce 21 mars 2019, à l’occasion de la Journée Nationale de l’Ingénieur, c’est donc tout naturellement que l’ARISAL – Association Régionale des Ingénieurs et Scientifiques d’Alsace – organisait sa conférence annuelle sur le thème « Intelligence Artificielle : quels impacts pour les métiers de l’Ingénieur ».

Quatre expériences concrètes en Alsace

Pour répondre aux questions de Céline Poloce (5 par Cinq) et Marie-Laure Jourdainne (H&J Intelligence), 4 experts étaient invités à partager leur regard, parfois critique mais toujours pertinent, de leur expérience de l’intelligence artificielle avec les plus de 70 participants de la soirée :

  • Pierre Gançarski, Directeur adjoint de l’iCube
  • Laurent Prudhon, Responsable du département « Solutions Cognitives » chez Euro-Information / Groupe Crédit Mutuel
  • Pierre Parrend, Chef du département Ingénieur Informatique et Mathématiques, ECAM Strasbourg-Europe
  • Florent Paris, Responsable Numérique et Data chez SIKIM

Commençons par nous intéresser aux données

Pour Pierre Gançarski, l’IA et la science des données intéressent à plusieurs niveaux :

  • Ces technologies bénéficient d’un effet de mode tout d’abord : les promesses liées à l’IA et le battage médiatique autour des victoires des algorithmes contre des joueurs de go par exemple y contribuent
  • Pour une seconde catégorie, il y a un réel besoin d’optimisation et d’anticipation, sur des services qui existent déjà mais que l’on cherche à rendre plus rapides ou plus efficaces grâce à l’IA ou la Data Science
  • Enfin, dans une troisième catégorie, la recherche de nouveaux services ou de nouvelles applications, qui n’existent pas encore aujourd’hui mais que l’IA peut faire émerger.

Néanmoins, le développement et l’intégration d’une IA ne doivent, ni ne peuvent être vues comme un simple « one shot », un projet qui s’arrêterait au livrable client. En effet, la valorisation de l’IA passe par la connaissance que l’on extrait des données, puis qu’on réinjecte dans le système et l’organisation, de façon à en améliorer considérablement le fonctionnement et les résultats.

Or le fonctionnement actuel de l’IA repose très souvent sur de la big data, qui nécessite elle-même la mise en place de beaucoup de nouveaux moyens, et ce d’autant plus qu’on constate un manque de compréhension globale des objets discutés. Pour commencer à appréhender correctement le sujet de l’IA, une (re)mise à niveau des interlocuteurs.

En effet, de quoi parle-t-on concrètement lorsqu’on parle de « big data », de classification ou de pérennisation des données ? quels sont les enjeux liés à la sécurité ? comment va-t-on étiqueter les données récoltées, et que signifient-elles ?

La maîtrise de ces concepts est fondamentale pour aborder des problématiques liées au « Deep Learning » (ou apprentissage profond), technique sur laquelle reposent beaucoup de systèmes d’IA actuels. Le principe de l’apprentissage profond est le suivant : à partir d’un ensemble de données, tout l’enjeu consistera à trouver des corrélations et extraire la structure cachée des données. Pour y parvenir, le système va se « nourrir » d’un grand nombre d’exemples, qui, accumulés, augmenteront le niveau d’exactitude de la prévision : plus on dispose de photos différentes d’un chat par exemple, mieux on sera capable d’identifier un chat sur une image nouvelle.

Là où la technologie donne les meilleurs résultats, ce sera dans des situations aux règles connues et fixes… comme popularisées par les victoires des algorithmes aux jeux d’échec, de go, ou encore, de façon moins connue, dans les parties de poker en ligne : de plus en plus de robots jouent… et gagnent !

Mais par sa nature même, le Deep Learning s’adapte mal à la nouveauté. En effet, il faudrait un nombre important de nouvelles données pour entraîner le système à détecter de nouveaux éléments.

Mais dans la majorité des cas, une démarche de Deep Learning ne fonctionnera pas ; or nous traversons une période de rupture, où tout change en même temps avec l’adoption de ces nouvelles technologies. Et l’avènement de la big data et la gestion des données génèrent des problématiques nouvelles :

  • garantir l’objectivité des données. Exemple de mauvais usage : le recrutement au sein d’Amazon, ou l’utilisation de données par le ministère de la justice américaine : loin d’optimiser les systèmes, ils révèlent et amplifient des biais importants.
  • Quid du droit à l’oubli, que fait-on des données récoltées il y a 10 ans ? est-il pertinent de les utiliser encore ? en a-t-on d’ailleurs le droit, légal ou moral ?
  • Dans quelle mesure va-t-on, doit-on, peut-on accepter la décision prise par la machine ? Quand suivre sa décision, quand ne pas la suivre ?
  • Qui est responsable ? Exemple, une voiture autonome écrase un piéton : qui est responsable, du conducteur, du fabricant, du développeur, de l’assureur… ?

Finalement, seuls 10% des besoins sont concrètement couverts par le Deep Learning. Mais ces 10% peuvent déjà représenter des progrès importants, à l’image de ce qui se pratique au sein d’Euro-Information / Groupe Crédit Mutuel.

Voir l’IA comme une solution cognitive

Pour Laurent Prud’hon, directeur de l’équipe « Cognitive Factory », il est délicat de parler d’intelligence artificielle, puisque les systèmes développés n’en ont pas en tant que tels. Le terme de « solutions cognitives » a donc été préféré par le Crédit Mutuel, qui a développé ces dernières années un département dédié autour de 3 domaines/usages :

  • Le développement d’interfaces utilisateur plus naturelles : en cas d’accrochage en voiture par exemple, permettre le traitement d’une photo de l’accident plutôt qu’un constat papier fastidieux à remplir, dans une situation déjà source de stress. Autre exemple, le traitement du langage naturel sur un standard téléphonique plutôt que des choix téléphoniques type 1,2,3…), permettant aux utilisateurs d’exprimer le motif de leur appel sans avoir à naviguer dans des listes de choix peu conviviales.
  • Partager l’expertise en interne, en mettant à disposition de tous les connaissances de l’organisation. Permettre aux connaissances des experts d’être partagées avec ceux qui en ont besoin au quotidien
  • Optimiser le traitement automatique des emails ou documents réceptionnés par les conseillers

Le cas de l’analyseur d’emails est parlant : aujourd’hui, près de 300.000 emails sont reçus chaque jour par les conseillers du groupe ; pour les accompagner dans le traitement de la meilleure réponse à chaque demande, l’algorithme va chercher à détecter les intentions du client, puis proposer des options de réponse au conseiller. Or, avec un catalogue de plusieurs milliers de produits vendus au sein du groupe, impossible pour un conseiller de tous les connaître. Ainsi, la base d’expertise interne va permettre de donner une assistance au conseiller, avec un taux de bonnes réponses dépassant les 80%. Si cela représente un bon score, cela signifie néanmoins que près d’1 réponse sur 5 est « à côté de la plaque », et ce malgré les quelques 5000 règles déjà contenues dans l’algorithme et les 12000 réponses dans la base de données de l’assistant virtuel.

Sur des volumes de cet ordre, comment peut-on vérifier et améliorer la pertinence du modèle ? Réponse : à la main ! Ainsi, toutes les semaines, 2 à 3000 mails sont vérifiés à la main, et les conseillers sont invités en parallèle à évaluer la prédiction de l’algorithme à travers un système de pouce vert ou pouce rouge. Difficile de faire autrement aujourd’hui, car le marché et les outils de l’ « IA » sont encore loin d’être mures malgré son effervescence : en matière de langage naturel, on voit apparaître un nouvel outil plus performant quasiment toutes les semaines.

Si la commande d’un chéquier est simple à comprendre pour une machine, le plus difficile reste la réclamation client. L’usage extrêmement riche et varié de la langue ne permet pas aujourd’hui à une machine d’en saisir toutes les subtilités, et face à un client mécontent, le risque d’impair est grand. Et l’écart entre la compréhension d’une machine et la richesse de nos échanges explique également la répartition des expertises au sein des équipes du département « Cognitive Factory » : loin d’une armée de « data scientists », on fait la part belle aux experts « métiers », les analystes métiers représentant près de 40 des 100 collaborateurs du département pour seulement 7 data scientists.

Investir dans de tels systèmes est une forme de pari pour le groupe, puisqu’on ne sait pas dire aujourd’hui combien il faudra d’exemples pour que l’algorithme puisse comprendre « suffisamment bien » la demande d’un client, ni combien de temps cela prendra. Plus on disposera d’exemples, plus le taux de fiabilité de l’algorithme augmentera, mais on atteint certains plateaux qui deviennent difficiles à franchir et pour lesquels une intervention humaine reste nécessaire. Et que pèsent 10.000 emails analysés à la main, lorsqu’on en reçoit plus de 300.000 par jour ?

Dans l’industrie, l’IA pour les « small data »

A l’inverse, que faire quand on dispose d’un nombre extrêmement restreint de données, lorsqu’on ne parle plus de « big data » mais de « small data » ?

C’est l’exemple qu’a pu nous donner Pierre Parrend, responsable du département Ingénieur Informatique et Mathématiques à l’école d’ingénieurs ECAM Strasbourg-Europe. Si l’on a beaucoup parlé jusque là de big data et de systèmes reposant sur une quantité importante de données, il en est dans lequel on espère au contraire ne pas avoir trop d’exemples : celui de la sécurité informatique. Il s’agit ici notamment de contrer des attaques complexes, donc difficiles à monter ou à contrer, et pour lesquels on dispose alors justement de données… très réduites. A l’image de ce projet pour un grand groupe industriel européen, qui utilise une IA pour contrer des attaques complexes : 2 attaques seulement, en 3 ans de projet. Vous avez dit « small data » ?

La dimension temps est souvent un frein dans les projets d’IA dans la gestion des données : entre les délais administratifs et légaux, pour obtenir les données nécessaires à l’entraînement d’un modèle, et leur nettoyage, il arrive fréquemment que les données ne soient disponibles qu’à la fin du projet, en même temps que les algorithmes développés…

La gestion des données est en pratique souvent très chaotique, et les données sont souvent « sales », c’est-à-dire pas adaptées ou pas étiquetées de façon à pouvoir être utilisées sans retraitement. Au mieux, on disposera de données « propres », mais nettoyées pour un autre projet et qu’il faudra alors là également retraiter pour les adapter au projet en cours. La visualisation et la mise en forme des données a également son importance, puisque des données peuvent être présentées de façon extrêmement diverses et pas toujours pertinentes.

Avant de réaliser le fantasme de l’IA couplée à de l’IoT (Internet des objets), avec des capteurs capables d’échanger des informations directement entre eux de façon autonome, il faudra d’abord démontrer que l’on sait gérer les données envoyées par les capteurs au data center.

Cette meilleure compréhension passe énormément par le développement de compétences transverses, c’est-à-dire de personnes capables de comprendre le développement informatique (mais sans pour autant savoir coder elles-mêmes) et vice-versa pour un ingénieur informatique, d’être capable de comprendre les enjeux des métiers auxquels ils s’adressent.

Comment ma problématique métier se traduira-t-elle en code, et quelles opportunités ou limites les outils informatiques présentent-ils ? Dès que l’on parle d’informatique, on croit souvent que les données et programmes sont là, à portée de main et qu’il suffit de les mettre en forme pour en disposer, alors que c’est tout l’inverse.

IA et résolution de problèmes concrets

La question est d’autant plus centrale que l’IA n’est généralement pas une question de moyens, mais beaucoup de problématique terrain, comme l’explique Florent Paris, Responsable numérique et data au sein de la start-up Sikim. Créée il y a moins de 3 ans à Reims, la jeune pousse a ouvert une antenne strasbourgeoise dédiée à la santé il y a moins d’un an.

Ainsi, si les collaborateurs d’une entreprise ont beaucoup de tâches répétitives à faible valeur ajoutée, l’introduction d’une IA prend tout son sens, même pour une petite entreprise. C’a été le cas notamment pour une fonderie dans les Ardennes, confrontée à d’importants rebuts dans sa production.

La mise en place de capteurs sur la chaîne de production a permis l’agrégation de données, couplées avec les achats et des facteurs externes (température, météo, taux d’humidité…) ; l’utilisation de « réseaux neuronaux » a ensuite permis de passer d’une démarche explicative à une démarche prédictive, et donc de déterminer le choix du type de fonte, en fonction de la météo, du planning, des achats, générant ainsi une économie de 20% du taux de rebuts.

Autre cas d’application, celui d’Enedis, pour qui a été développé un assistant virtuel à destination des conseillers téléphoniques. Confrontés à des réclamations client en direct, apporter une réponse nécessitait jusque-là de parcourir une documentation dense tout en faisant patienter un client parfois énervé ou confronté à une situation de stress.

Afin d’accompagner les conseillers dans leur fonction, toute la documentation a alors été intégrée dans l’assistant virtuel, avec le développement d’un plan de classement et d’une FAQ dynamique. Grâce à cet outil, les conseillers téléphoniques peuvent dès lors se reconcentrer sur l’essentiel : calmer les colères, rassurer l’interlocuteur, utiliser leur empathie pour comprendre ses attentes, plutôt que de passer du temps à chercher une solution dans la documentation.

Accompagner les transformations

En conclusion, les présentations des experts, les échanges avec la salle ont permis de mettre en avant plusieurs points :

  • l’IA est une technologie qui suscite beaucoup d’espoirs et d’attentes, mais dont les enjeux fondamentaux sont encore mal compris aujourd’hui. Les réussites des IA dans les jeux (échecs, go, poker) masquent le chemin qui reste à parcourir, et le degré de complexité que les applications de l’IA doivent encore atteindre pour être utilisables au quotidien dans la vie réelle
  • Pour bénéficier pleinement des performances d’une IA et des nouvelles technologies de façon plus générale, il existe un double enjeu pour les entreprises et les écoles :
    • D’une part, la maîtrise des données récoltées : trop de données aujourd’hui sont inexploitables car mal préparées, traitées, anticipées, malgré la richesse qu’elles peuvent apporter
    • D’autre part, la gestion des transversalités au sein d’une entreprise est un enjeu fort, pour permettre à des experts de secteurs différents de comprendre leurs enjeux respectifs et de travailler ensemble

Si beaucoup de questions restent ouvertes, il semble évident que l’IA et ses successeurs modifieront profondément les métiers d’ingénieurs dans les années à venir. On constate néanmoins la difficulté qu’ont les machines à développer des capacités de compréhension du langage, d’écoute, de créativité, de compréhension des échanges : autant de « soft skills » et de qualités humaines qu’il deviendra nécessaire de développer au quotidien. Assisté-e d’outils « intelligents » ou « cognitifs », l’ingénieur-e de demain sera augmenté-e.

 

Auteur : Benjamin Schmitt
CEO at The Org | Gestion de projet externalisée

[1] FREY, Carl Benedikt et OSBORNE, Michael A. The future of employment: how susceptible are jobs to computerisation?. Technological forecasting and social change, 2017, vol. 114, p. 254-280. URL : https://doi.org/10.1016/j.techfore.2016.08.019

Partagez !