Les Robots: les nouveaux Sherlock Holmes du langage du corps
Robots détectives: à la chasse aux micro-mouvements
Imaginez un monde où les robots pourraient vous comprendre sans même que vous n’ayez besoin de prononcer un mot. Oui, je parle de ces petits signes que vous faites quand quelque chose vous échappe ou ces clins d’œil complices que vous lancez à vos amis. Et bien, enfilez votre chapeau de Sherlock car les machines vont bientôt mener l’enquête dans l’univers complexe de notre langage corporel!
Des scientifiques portant probablement des blouses blanches (et des lunettes pour augmenter leur crédibilité) à l’Université de Carnegie Mellon aux États-Unis se sont lancés dans une mission passionnante: enseigner aux intelligences artificielles à interpréter les subtilités non verbales qui font la richesse de la communication humaine. Figurinez-vous qu’ils ont créé un système capable de traquer les moindres mouvements de votre corps!
Et si les robots lisaient entre les lignes (du corps) ?
Dans ce monde où les machines n’ont plus besoin de nous écouter parler, elles pourraient comprendre nos gestes de maestro dirigent une symphonie invisible. Exit les moments où vous devez expliquer à votre smartphone que non, vous n’avez pas demandé la météo mais voulu allumer la lumière. En effet, un simple geste précis pourrait suffire!
Les assistants vocaux comme Alexa ou Siri, ces charmants colocataires à qui on ne doit pas faire de café le matin, sont fort utiles mais ne font qu’écouter nos paroles. Quant à Pepper, ce robot humanoïde qui a autant de charisme qu’un grille-pain, il essaie bien de lire sur notre visage si on est content ou sur le point de lui refaire une beauté à coups de marteau. Mais cela semble se limiter à si l’on sourit ou si l’on crie.
Des interfaces qui swinguent avec nos émotions
Le futur s’annonce groovy! On parlerait de réalité virtuelle aussi réactive qu’un chat sur une vidéo de laser, et d’interfaces tellement intuitives qu’on les soupçonnerait de lire dans nos pensées. Plus besoin de s’époumoner sur une télécommande récalcitrante qui décide que « volume plus fort » est un concept abstrait. Votre robot, lui, saura que si vous faites des grands gestes, ce n’est pas parce que vous vous prenez pour un chef d’orchestre, mais simplement parce que vous voulez zapper!
Alors imaginez, avec ces interfaces qui sautent à la corde avec nos émotions et nos intentions, bientôt on pourrait commander une pizza d’un simple hochement de tête ou annuler l’alarme d’un regard noir (voyez-le comme une nouvelle forme de pouvoir magique). Finie la tyrannie de la pression des boutons, vive la fluidité gestuelle!
Conclusion: bientôt des robots empathiques ?
Pour l’heure, les machines restent un peu à la traîne dans ce domaine, se contentant d’une interprétation rudimentaire de nos signaux corporels. Mais patience, il semblerait qu’on soit sur le point de franchir une nouvelle ère où nos nouveaux compagnons métalliques sauront reconnaître quand on a besoin d’un câlin robotique ou qu’on préfère rester seul à méditer sur la vie, l’univers et tout le reste. En attendant, continuez de parler à vos robots – c’est bon pour leur éducation.