L’année dernière au SXSW 2017 c’était Mary Lou JEPSEN qui nous bluffait avec son casque capable d’obtenir avec cet IRM portable, une image 3D instantanée de notre cerveau nous permettant d’envisager des communications cerveau à cerveau à l’horizon 2022. Cette année c’est le professeur Alcaide de la start-up Neurable qui lui analyse les ondes émises par le cerveau. Avec une couche d’intelligence artificielle auto-apprenante il analyse puis interprète les ondes de notre cerveau et en déduit des ordres instantanément exécutables que nous souhaitons transmettre à une machine sans besoin de faire de gestes !

SXSW 2018 - BCILors de sa démonstration, un joueur équipé  d’un casque de réalité virtuelle avec six capteurs d’ondes cérébrales intégrés – était capable d’interagir à toute vitesse par la pensée dans un jeu vidéo où il devait combattre des tas d’ennemis. D’après ses concepteurs, cet outil  ne nécessite qu’une minute d’adaptation à votre cerveau et ensuite l’auto apprentissage commence. Au fil des heures et des journées, l’intelligence artificielle interprète de mieux en mieux la nature des ondes cérébrales que vous émettez … et vous devenez invincible par la rapidité de vos réactions.

SXSW 2018 - machineD’ici 2 ans,  le concepteur nous annonce un système encore moins envahissant qui pourrait se mettre juste derrière l’oreille, au bout d’une branche de lunettes de réalité augmentées,  qui serait piloté par les ondes du cerveau. Dans la rue, avec cet interface homme machine ultime, des suggestions viendront apparaître dans nos lunettes au bon moment. Ainsi, comme sur cette photo, je pourrais dans mes lunettes, identifier la personne que je croise, connaître le prix de ses habits et prévoir le dîner en passant devant l’image Burger King qui en déclenchant des associations d’idées, envoie une commande à Amazon avec les ingrédients de ma recette préférée à livrer tout de suite.

Fini donc les interfaces imparfaits du passé où nous devions nous mettre au diapason de la machine ; c’est maintenant la machine que se met au diapason de notre organe le plus puissant: notre cerveau !

 

Nouvelle architecture AI

Pour piloter tout cela, il faut repenser l’architecture de nos systèmes d’AI. C’est le défi que Leslie Capper Yearsly de la société A-kin se lance.  Ancienne patronne de COGNEO – la boîte d’intelligence artificielle rachetée par IBM pour construire l’interfaces universelle avec les bons habits pour Watson –  elle a la crédibilité pour se lancer dans ce projet. L’architecture actuelle est historiquement basée sur des verticaux dédiés sur une problématique … sans prévoir un système transverse de Tiers de Confiance devant piloter le tout.

En effet lorsque l’on a un objectif parfaitement défini, des données parfaites et des règles précises qui ne changent pas dans le temps comme par exemple pour le jeux de GO, une intelligence artificielle construite spécifiquement pour cette mission gagne toujours comme démontré par AlhaGo.

Mais nous savons bien que, dans notre vie de tous les jours les conditions énoncées ci-dessus ne seront jamais remplies; nous avons constamment des changements d’objectif en réaction aux données que nous recevons qui elles-mêmes sont souvent imparfaites … dans un environnement où les règles du jeu changent. C’est le domaine où notre intelligence humaine est extrêmement forte avec des boucles très rapides “perception action” faisant appel à tous les domaines de notre intelligence.

Leslie Capper Yearslei s’est fixé comme tâche de concevoir quelque chose s’en rapprochant et elle nous promet des résultats d’ici deux ans

 

Usages et interactions avec les robots.

Retour d’expérience très intéressant sur l’interface hommes-machines qui montre que l’homme a besoin d’un feed-back empathique pour être plus à même de communiquer avec la machine. C’est cela qui pousse au développement de petits robots sympathiques qui vous regardent gentiment avec des yeux pleins d’empathie.

Pour beaucoup de chercheurs il y a un parallèle intéressant à exploiter avec la psychologie de nos relations avec les animaux ; si vous mettez une caméra sur la tête de votre cheval, vous voyez précisément, grâce au mouvement de ses oreilles, si vous avez ou non capté son attention.

Ce qui amène à la question logique : Partant du principe que l’amour est la forme d’empathie ultime, faut-il donc que la machine apprenne à aimer  et que nous l’aimions? Sans doute OUI … mais avec un hiatus. Lorsqu’on n’a pas de liberté, que l’on est payé pour aimer, on a en quelque sorte une fausse interaction comme on a pu très bien le voir dans le film HER.

Donc en synthèse, avec ce nouvel interface homme-machine avec mon cerveau, on peut dès à présent envisager une nouvelle architecture d’AI avec un cloud en Open source qui me servirait de plate-forme transverse sur toutes mes applications en silos et qui serait pilotée par notre cerveau. Cette plate-forme serait mon véritable tiers de confiance car c’est lui qui comprendrait précisément ce que je veux et aussi ce que chaque vertical a pour mission et ce qu’il est capable de faire. Il orchestrerait entre les différents verticaux, la transmission de mes ordres émis par mon cerveau au bon vertical.

Pour illustrer l’aberration actuelle et le chemin à parcourir, prenons Alexa en contre-exemple à ne pas imiter.  Soit-disant ce “speaker intelligent” que j’ai acheté pour me simplifier la vie, est en fait un relais de vente dont le premier objectif est d’augmenter le CA d’Amazon. Donc la mission de ce système d’intelligence artificielle est complètement trompeuse et masquée car elle prétend être là avant tout pour me simplifier la vie ( “Non seulement j’achète ce smart speaker … mais c’est toujours moi le produit (=: “  ) De plus cette plate-forme demande accès à toutes mes conversations privées pour arriver à ce résultat médiocre sans dire précisément le traitement qu’elle comptent en faire et quels data elle  garde après coup.

Pour InnoCherche – Mars 2018