AI : maturité chez les sociétés “digital natives”, difficultés chez les “legacy” !

Voir depuis 3 ans une certaine maturité autour de l’intelligence artificielle grâce en partie à la réalisation par les dirigeants de la valeur de leur data. En conséquence, ils mettent les moyens pour les tenir de façon beaucoup plus propre. De plus, le mouvement open data permet aux intégrateurs de venir ajouter à ces données, propriétés de l’entreprise, des Open Data externes qui peuvent servir à expliquer les phénomènes.  

Enfin, s’il en était encore besoin pour démontrer l’entrée en adolescence de cet IA, vous aurez observé toutes les initiatives sur la gouvernance de l’IA et de ses données que ça soit dans le monde des NGO ou au niveau de l’Union Européenne avec le DSA et le DMA qui sont à l’étude au parlement Européen.

À l’inverse, on voit aussi beaucoup de voix s’élever contre ces victoires de façade européennes telle que la RGPD qui brident l’innovation en Europe sans se transformer en développement de business, en Europe, ou encore moins en véritable protection des données personnelles. (cf. cash investigation et le scandale des pharmacies)

Sur les nouveaux business model “digital native” comme celui de la voiture autonome, on voit une accélération du côté de Mobileye (lien) que nous suivons depuis 5 ans. Il y a un an, Mobileye nous expliquait que pour avoir un système de conduite autonome résilient et redondant, il avait dû concevoir une façon automatique de faire des cartes au centimètre dans les principales villes pour bien positionner la voiture dans la ville. Ceci est possible grâce à une solution de “Edge computing” où les 6 ou 12 caméras embarquées avec autant de radars et lidars transmettent des Gbytes d’informations brutes par km dans un ordinateur situé dans le coffre de la voiture qui lui-même, après les avoir traitées au niveau local, ne remonte in fine dans le cloud que 1700 kb de data par km contextualisé. Non seulement c’est très brillant au niveau architecture mais surtout très efficace au niveau respect des données personnelles – permettant un essor rapide pour développer d’autres business model.

Au tout récent Vivatech, Mobileye avait animé un thème entier avec une scène sur laquelle se sont succédés tous ses partenaires à travers le monde. Chacun venait illustrer la vision des nouveaux business model basés sur cette carte au centimètre des villes mise à jour de façon quotidienne. Il y avait ainsi bien le gestionnaire d’infrastructure de Madrid, avec lequel il mettait en place une flotte de free-floating de Renault électrique, qu’un autre gestionnaire des espaces urbains tous extrêmement friand de ces cartes toujours à jour. 

Dans le domaine des business existants, la grande frustration des dirigeants par rapport à cette IA – sur des projets notamment industriels ou de Supply Chain – c’est le fait qu’on n’arrive que trop rarement à “opérationnaliser”, c’est-à-dire passer en production avec des résultats récurrents tel que démontrés lors du pilote.

Pour cela il y a peut-être 2 niveaux d’explications:

  1.  Rafraîchir les données: une fois les datas analystes partis en laissant leur algo, ce n’est pas évident de rafraîchir les données et de construire un mode automatique d’importation et de nettoyage de celles-ci ;
  2.  La confiance: Trop souvent ces projets sont menés avec des opérations commando sans impliquer les opérateurs de terrain pour lesquels cette solution devrait améliorer les choses. On prétexte parfois qu’ils sont biaisés et surtout inquiet qu’on vienne supprimer leur job. Bref, il y a un manque d’explicabilité de ce que fait l’algo qui alimente un déficit de confiance.

Prenons un exemple bien classique de résilience et d’optimisation des stocks dans une Supply Chain compliquée. Au départ, tout ceci s’appuie sur un process existant et des outils genre SAP sur lesquels les opérateurs ont l’habitude de passer leur commande. Pour qu’un tel projet marche, il a un procédé en 3 temps :

  1. Réactif : premièrement, il y a toute une étude métier afin d’être réactif aux situations de crise. Il faut, avec les opérateurs,trouver les KPI qui peuvent être efficaces face aux questions posées et en général en rejouant le film les opérateurs arrivent à pointer dans la bonne direction. (Exemple : Ratio précision du forecast sur taille du stock) ;
  2. Pro-actif : ensuite, il suffit de mettre de façon très simple la bonne alerte sur le bon indicateur pour déclencher une business logique. Et jusqu’ici … on n’a pas parlé d’intelligence artificielle ;
  3. Prédictif : c’est seulement à cette étape qu’on peut commencer à construire des algorithmes sur des briques opérationnelles. Pour ajuster les paramètres – bien sûr on refait le match ce qui est un exercice pas facile de tout point -, il faut s’assurer que tous les paramètres qui auraient pu influencer la décision, et que si on avait exécuté la recommandation de l’algo, « toutes choses étant égales par ailleurs » (ce qui n’est jamais le cas), le résultat final aurait été meilleur. Et uniquement à ce stade, lorsqu’une certaine explicabilité de l’algorithme a été possible, on peut introduire des dimensions de machine Learning au-dessus des éléments maîtrisés par les opérateurs pour être en alerte de la prochaine crise lorsque toutes les autres choses n’auront pas été également par ailleurs.

Deux conclusions, sur tous ces projets industriels où l’on ne construit pas à partir d’une feuille blanche,

  1. partir des bons KPI fournis par les opérationnels aboutira à un algo IA plus performant ;
  2. ensuite, il faut gérer chaque exercice pratiquement comme un projet individuel avec les opérateurs impliqués et tout le “change management” à mettre en place au niveau des organisations, des process et des outils. 

 

Patrice DE KONINCK et tous les membres du TT Intelligence Artificielle.
Juin 2021