Guillaume Chaslot qui sera notre prochain invité au TEDx Issy-les-Moulineaux le 17 décembre est venu parler au Think Tank (TT) intelligence artificielle d’Innocherche chez Epoka.

Fondateur d’AlgoTransparency et ex-salarié de Youtube & Google, Guillaume est Diplômé de Centrale Lille, et d’un Master en Intelligence Artificielle, il a réalisé une thèse sur la programmation du jeu de Go, à l’université de Maastricht. Il est également Fellow chez Mozilla Il vient d’être nommé dans la prestigieuse list de WIRED25 : “Stories of 25 young People Who Are Racing to Save Us”. 

Guillaume a donc commencé dans l’intelligence artificielle en 2005 à Maastricht sur l’approche à adopter pour espérer battre un champion de go. L’approche qui a gagné est une approche purement aléatoire avec du Monte Carlo sur lequel ensuite on fait des statistiques de probabilité de gain de la partie à partir de millions de parties enregistrées.C’est donc sa solution qui paraissait complètement folle au début qui a réussi  avec alphago à battre le champion du monde coréen en Mars 2016.

Lorsqu’il arrive après sa thèse chez YouTube à Los Angeles, la seule fonction d’optimisation sur laquelle on lui demande de travailler est d’augmenter le temps en ligne sur Youtube. Cela augmente directement les publicités passées donc le revenu de YouTube. Ainsi aujourd’hui 70 % des vidéos vues sur Youtube sont proposées par cet algorithme d’intelligence artificielle.

Avec ce système, les problèmes sont multiples:

  • Premièrement, la fonction d’optimisation :  l’algorithme n’est pas là pour vous présenter des sujets intéressants mais pour vous scotcher à l’écran avait des sujets qui confortent votre opinion en exploitant ce biais bien connu qui est qu’on aime ce que l’on connaît déjà.
  • Deuxièmement, l’asymétrie de l’info :  il y a une asymétrie d’information puisque sur les milliards de vidéos sur YouTube, vous n’en connaissez qu’une très petite partie et l’algo lui les connait toutes et potentiellement pourrait bien vous guider. Mais ce n’est pas l’objectif donné aux développeurs AI de YouTube.
Après avoir été pendant quelques mois le nez dans le guidon, il s’est posé la question de voir ce que son algorithme recommandait. Rien n’étant prévu à cet effet comme outil pour les développeurs chez Google, Guillaume développe un petit robot pour simuler un comportement d’un internaute et  voir les recommandations faite par l’algorithme. Effaré devant les résultats, il propose à Google son employeur, de développer pour les utilisateurs une option “marche arrière”– ou encore “zoom out” – qui leur permettrait de sortir de la bulle où ils s’enfoncent et changer de sujet. Refus de Google car cela aurait pu aller contre le but recherché qui est d’augmenter leurs revenus donc le nombre d’heures de l’internaute.

La plateforme aujourd’hui ne vous propose même pas des like pour connaître votre goût et vous orienter de façon personnelle.

Guillaume nous raconte que, de retour en France pendant les vacances d’été, il prend le bus et remarque à côté de lui un passager complètement accro à son écran YouTube. Au début il  se sent tout fier d’être à l’origine de cette qualité perçue. Il engage la conversation avec son voisin qui lui montre alors toutes les vidéos conspirationnistes dont il s’est nourrit en boucle pendant tout son voyage: deuxième choc !

Convaincu qu’il ne peut rien faire de l’intérieur, il quitte YouTube, la Californie et sa belle Porsche, pour devenir un “convert” et combattre de l’extérieur ces abus. Il crée donc l’association algotransparency qui va s’efforcer d’éduquer le public en montrant le type de vidéo que YouTube va vous servir pendant ce Milliard d’heures quotidiennes passées sur Youtube.

Dans ce projet de web 3.0 (ou nouvelle architecture du web), il travaille notamment depuis Paris avec Mozilla où il est Fellow, pour stocker toutes les recommandations que font les algorithmes supposés intelligents et être capable d’exposer ces faits aux utilisateurs.

Guillaume Chaslot dénonce inlassablement les dérives des systèmes de recommandations vidéos, et appelle à un « éveil collectif » sur la transparence des algorithmes.  Aujourd’hui, Guillaume confirme qu’il est tout à fait possible de retourner l’utilisation de ces algorithmes d’intelligence artificielle pour faire des recommandations utilisateur avec des critères d’ouverture d’esprit et non plus d’addiction …

Bref quelque chose au service de l’homme et non pas pour l’exploiter. Il y a là une source d’espoir, … mais beaucoup de chemin pour faire changer les business modèles actuels.

Venez l’écouter le 17 Décembre chez Microsoft ou en streaming.

En attendant: