Jan 19

Newsletter du 19 janvier 2018

 

Le petit-déjeuner tech et équilibré

Vendredi 19 Janvier 2018, planète Terre
Salut ! Ça va bien aujourd’hui ? Comme tous les vendredi, on se retrouve après le café pour papoter tech et actualité.

Au menu de ce matin :

Et en accompagnement :
Bon appétit !

La formule express_ L’actu en bref

Les intelligences artificielles d’Alibaba et de Microsoft surpassent l’homme à un test de lecture_

Coincidence ? Le même jour (ce mardi 16 Janvier), Alibaba et Microsoft ont toutes deux annoncé que leurs intelligences artificielles respectives avaient surpassé l’homme à un test de lecture de référence : le Stanford Question Answering Dataset (SQuAD).

Il s’agit d’un test de lecture où plus de 100 000 questions sont posées à partir de 500 articles Wikipédia. Il s’agit de questions fermées du type :

– « Henri IV avait un cheval blanc. »
– Q : « De quelle couleur était le cheval d’Henri IV ? »
– R : …

Comme on peut le constater sur le classement du test, les IA d’Alibaba et de Microsoft ont obtenu un score EM (Exact Match) supérieur à l’humain : respectivement 82.440 et 82.650 vs. 82.304 pour l’homme. On constate également que de nombreux autres acteurs ne sont pas loin de dépasser l’homme : Tencent, Salesforce ou encore Samsung, etc. Et l’IA n’est d’ailleurs pas loin de battre également l’homme sur les aspects de précision et de rappel (retrouver les éléments pertinents pour répondre à la question) donnés par le score F1, où l’humain ne mène que de 2.6 petits points.

Ces prouesses en lecture prouvent que les IA conversationnelles progressent et se rapprochent toujours plus du langage naturel. Avec ces IA aptes à traiter de grandes quantités de texte, il devient de plus en plus possible pour elles de nous comprendre et de répondre le plus précisément possible à nos requêtes humaines. Concrètement, ces IA sont redoutables pour répondre à questions objectives en un temps record. Des applications directes existent pour les assistants personnels (type Cortana pour Microsoft, Alexa, Google Assistant, etc.) mais aussi pour les services automatisés à la clientèle.

Par contre, ce test ne fait pas appel à l’interprétation des textes par les machines, et ne sert donc pas à apprécier la capacité des IA à comprendre les sens cachés, l’humour, l’ironie, l’exagération, etc. – tant de particularités qui font toute la richesse et la complexité du langage humain.

Une autre intelligence artificielle parvient à recréer l’image à laquelle on pense _

Alors oui, sur l’image, on voit que le carré est vaguement recrée par l’intelligence artificielle (on distingue difficilement 4 coins sur l’image de droite). Si ce n’est pas très impressionnant visuellement, il s’agit tout de même d’une première qui a été réalisée par le Computational Neuroscience Laboratories (CNS) de Kyoto.

En analysant l’activité cérébrale, cette intelligence artificielle est alors capable de retranscrire l’image (ou plutôt la forme à ce stade) à laquelle vous êtes en train de penser.

Pour entrainer cette IA, des images ont été montrées aux volontaires afin d’analyser leurs ondes cérébrales. Grâce aux images cérébrales obtenues, les scientifiques ont pu entrainer un réseau d’apprentissage permettant à l’IA de décoder les données et voir ce à quoi l’individu pensait : l’IA est alors capable de récupérer les données clés, de les transformer en image et de répéter cette mécanique jusqu’à obtenir une image correspondant aux pensées du cerveau.

La technique mise au point n’est pas parfaite, mais elle existe et sera probablement améliorée dans le futur. Et cette analyse de nos pensées par l’intelligence artificielle, bien qu’aujourd’hui cantonné à une compréhension très sommaire, ouvre tout de même la question de notre vie privée et de notre liberté de penser (se dirige-t-on un débat sur le pour et le contre de l’IA qui décrypte nos pensées dans 10-20 ans ?).

 

Place au « biorobot » : mi-biologique mi-robotique_

Un chercheur de la prestigieuse université californienne UCLA, Ali Khademhosseini, a réussi à créer le premier robot issu à la fois de composants électroniques et biologiques, soit un « biorobot » (? – le mot reste peut-être à inventer).

Là encore, le résultat n’est pour l’instant pas très visuel et donc peu impressionnant. Il s’agit d’un petit robot de 10mm qui peut nager dans l’eau (c’est déjà ça), et qui est composé de cellules musculaires cardiaques, de « specialized biomaterials for structural support » (on n’a pas tout compris à ce niveau) et d’électrodes flexibles.

Selon le chercheur, cette avancée pourrait ouvrir la voie à une nouvelle génération de robots, composés à la fois de matière biologique et électronique, aux nombreuses utilisations. Notamment médicale, comme l’intégration dans les organes humains de micro-robots (le chercheur donne l’exemple de patch cardiaques robotiques à greffer sur le coeur pour augmenter le tissu musculaire à la suite d’une attaque cardiaque).

Et au-delà de la médecine, notre imagination s’emballe déjà quant ce qu’il serait possible de créer (des vrais humains robots, ou plus modestement des poissons rouges robots, ce qui reste sympa).

 

Des chiffres et des tech_ l’info qui compte

16%

C’est le pourcentage d’américains qui possèdent une enceinte intelligente_

Selon une étude NPR et Edison Research, 16% des américains possèdent déjà une enceinte connectée, soit environ 39 millions de personnes et une hausse de 128% (!) par rapport à 2016. La pénétration des enceintes intelligentes aux USA est donc très forte puisque 1 américain sur 6 en possède déjà alors que le premier objet du genre, Amazon Alexa, est sorti il y a peine un peu plus de 3 ans (nov. 2016).

Le marché est logiquement dominé par ce dernier qui détient 11% des parts de marché, suivi par Google Home avec 4% des parts de marché.

Ecouter de la musique reste le premier usage (60%), mais déjà 31% des utilisateurs s’en servent pour contrôler les appareils de la maison, et autant l’utilisent pour faire leurs courses en ligne.

En peu de temps, les enceintes intelligentes sont donc devenues des produits incontournables pour de nombreux américains et les usages changent très rapidement (du moins aux USA). D’autant plus que ce n’est pas près de s’arrêter car pour 65% des utilisateurs, il n’est plus de question de vivre sans enceinte intelligente.

La news douceur_ Les robots vont dominer le monde car ils sont (trop) mignons

Leurs yeux sont grands et ronds et leurs regards de LED est chaleureux ; la forme de leur tête en plastique est harmonieusement arrondie et nous donne envie de les cajoler ; quand à leur voix, elle est douce et enfantine. Au CES 2018, les grandes stars du salon étaient bel et bien les robots. Si tous n’ont pas le même charme que Bambi (comme ces robots striptiseuses à tête de camera), les robots compagnons présentés à Las Vegas étaient tous plus attendrissants les uns que les autres. Et une chose est sûre : les robots vont envahir le monde car devinez quoi : ils sont hyper mignons.

Mais alors pourquoi tant de mignonnerie dans le robot domestique ? Si l’objectif final est bien entendu de nous faire craquer – et donc consommer, il est intéressant de comprendre pourquoi et comment les fabricants de robots y parviendront grâce au “mignon”, quelles théories se cachent derrière et surtout quels dangers pour l’espèce humaine (on exagère à peine). A ce niveau, la théorie robotique ainsi que la psychologie et la neurologie nous donnent quelques billes. On te promet qu’après cet article, tu réfléchiras à deux fois avant de pousser un grand “Ooooooh” devant une paire de grands yeux lumineux.

La théorie robotique derrière le mignon : la “Vallée de l’étrange”

Pour justifier le choix des fabricants de s’orienter vers des robots mignons et non pas vers des robots strictement à notre image et nous ressemblant comme deux gouttes d’eau, se cache une vieille théorie énoncée dans les années 70 par un professeur de robotique japonais : Masahiro Mori.

Il a théorisé ce qui s’appelle la “vallée de l’étrange” (“uncanny valley” en anglais), qui stipule que plus un robot ressemble à un humain, plus il s’engouffre dans la “vallée de l’étrange”, car n’agissant pas exactement comme tel. Si l’apparence d’un robot peut nous être très ressemblante, certains petits détails (expressions du visage, textures, gestes et démarches, etc.) ne parviennent pas à imiter exactement un humain et trahissent alors le robot qui sera perçu comme bizarre et effrayant. Un sentiment de malaise se crée alors : nous sommes face à quelque chose qui ressemble (beaucoup) à un humain mais qui objectivement n’en est pas un. Ce malaise pourrait provenir de notre neurologie qui cherche à nous éloigner de l’inconnu et du danger :  le robot humanoïde étant différent des humains que l’on connaît, il est perçu comme potentiellement dangereux.

La théorie de la « Vallée de l’étrange » de Masahiro Mori, illustrée par des personnages de fictions

Selon Masahiro Mori, il est certainement possible de construire un robot humanoïde avec des détails qui nous ressemble suffisamment pour ne pas nous effrayer. Mais cette tâche peut s’avérer tellement complexe qu’il conseillait plutôt de préférer des robots aux designs simples et objectivement non-humain afin de ne pas mettre mal à l’aise les utilisateurs.

Comme le montre la courbe de Masahiro Mori, imiter certaines caractéristiques humaines (comme les bras, jambes, tête, yeux, etc.), sans en faire trop, augmente alors notre affection pour les robots. C’est pourquoi les robots d’aujourd’hui ne sont ni de simples boites de métal contenant de l’électronique – leur apparence serait trop neutre et ne susciterait alors aucune réaction – ni des robots « trop humains ». Et objectivement, quitte à ressembler “un peu mais pas trop” à un humain, autant mettre en avant les aspects physiques les plus agréables – à savoir le mignon.

Voilà donc pourquoi nous, humains, préférons les robots qui ne nous ressemblent pas vraiment et pourquoi les robots présentés au CES sont juste “mignons”, sans chercher à nous imiter dans les moindres détails.

Le robot Kuri : « oooowww » (super mignon)

Le robot Buddy : « uuuuuuw » (super mignon)

Le robot Aeolus : « hiiiiw » (encore mignon)

Le robot Pepper : « Heeeey » (on se rapproche doucement de la « Uncanny Valley »).

Le robot Sophia : « Arrrg » (on entre carrément dans la « Uncanny Valley »).

Le robot le plus creepy de l’histoire : Bina48, réplique de l’épouse du milliardaire américain transgenre Martine Rothblatt. « Urrrrghhghgh » (on touche le fond de la « Uncanny Valley » et on creuse encore).

Mais au fait : pourquoi trouve-t-on certaines choses mignonnes ??

C’est la deuxième question qui se pose. Si on comprend bien pourquoi les robots font le choix d’être mignons (enfin leur fabricants), comment expliquer, d’un point de vue scientifique, que d’un bout à l’autre de la planète nous soyons attendris par ces petits personnages métaliques et que le “mignon” soit autant universel.

Il s’avère qu’en réalité, certaines caractéristiques précises sont responsable du “mignon” comme :

  • Un petit corps et une tête disproportionnément grande
  • Des grands yeux
  • Des formes larges, arrondies et douces
  • Une démarche mal assurée et maladroite
Des caractéristiques qui, je vous le donne en mille, sont celles des bébés humains. Notre appréciation des chatons vient en réalité de notre penchant naturel à cajoler nos rejetons.

Notre instinct naturel nous pousse alors apprécier toute chose qui possède ces caractéristiques. En applicant ces caractéristiques à d’autres objets, on peut alors facilement les rendre mignons. Et ça marche avec tout – vraiment tout – les robots comme les marteaux.

Un marteau pas mignon du tout VS. un tout petit marteau trop cute

Aibo 1999 pas super mignon VS. Aibo 2017 trop mignon

Les recherches ont même réussies à localiser le phénomène du “mignon” dans notre cerveau. Confronté au mignon, les noyaux accumbens s’activent (situés grosso modo au milieu un peu à gauche de nos cerveaux). C’est cette même zone qui lorsqu’elle est activée libère la dopamine, la molécule du plaisir et de la récompense, délivrée après un bon repas sain, une bonne séance de sport mais aussi après la prise de la cocaïne ou de méta amphétamines. Autrement dit mignon et coke : même combat pour notre cerveau (enfin presque).

Le cas du robot mignon est alors plus clair : en jouant sur les caractéristiques universelles du mignon, le plaisir associé à ces dernier n’en est que renforcé – et derrière l’acte d’achat est évidemment facilité. Car le but des roboticiens est bel et bien de mettre un robot par famille et par foyer. Par exemple, l’objectif affiché de Softbank et de son robot Pepper est d’équiper tous les foyers japonais dans les 5 ans qui viennent. Et pour cela, les robots nous font les yeux doux.

Le véritable danger au-delà du mignon

Cette machinerie robotique qui envahira nos foyers peut alors devenir diabolique du fait de la tromperie de tous ces robots mignons qui nous font croire qu’ils ressentent des émotions à notre égard, quitte à nous enfermer nous-même dans un jeu de dupes.

En effet, derrière le mignon ce sont les capacités émotionnelle des robots qui sont mises en avant par les constructeurs, comme Sony qui précise que Aibo, grâce à l’apprentissage profond de son IA, « peut créer un lien émotionnel avec les membres de la famille en leur apportant l’amour, l’affection et la joie de s’occuper d’un compagnon ».

Une chose est sûre, nous allons aimer nos robots. Mais eux, nous aimeront-ils vraiment ? Le robot ne dira jamais non, car il n’est pas programmé pour cela.

Comme le souligne Serge Tisseron, psychologue français et auteur de “Le Jour où mon robot m’aimera. Vers l’empathie artificielle”, le robot ne développe évidemment pas un véritable lien émotionnel, c’est une simulation de la part du robot. Le robot est programmé pour simuler les émotions afin de mieux communiquer avec nous. Et leurs programmes en font des robots merveilleux à la compagnie la plus agréable possible : des interlocuteurs parfaits qui connaissent nos goûts grâce à l’IA, nos données et leur connexion à internet.

Cet “apprentissage profond” des émotions que vend Sony est en réalité un apprentissage sans compréhension et sans conscience de la part du robot. Au contraire, nous, humains, réagissons à ces émotions simulées en développant à notre tour de véritables émotions, comme le sentiment d’attachement. Et plus plus les robots apprennent de nous, plus leur comportement devient parfait et plus nous développons d’attachement pour eux en retour.

Cette tromperie de la part des robots est possible car on arrive à faire des machines qui semblent avoir un comportement avancé, voire intelligent, alors qu’il ne s’agit en réalité que d’une bonne simulation. Simulation d’autant plus touchante du fait de leur capacité à prendre des initiative d’interactions en créant l’illusion de se soucier de nous, avec le sentiment d’attachement évident qu’il procure.

Il est alors facile de se laisser abuser par la technique, et notamment par le mignon qui renforce la simulation des émotions. Comme l’acteur qui sourit alors qu’il n’est pas réellement heureux, un robot simule des émotions pour nous y faire croire. Ce qui pourrait à terme nous pousser à considérer les robots comme des êtres vivants à part entière, et ne pas pouvoir nous empêcher de nous comporter vis-à-vis d’eux comme s’ils avaient des émotions propres, pouvant s’attacher à nous comme nous nous attachons à eux, voir même souffrir.

Croire que notre robot, si mignon et chétif soit-il, peut souffrir pose un problème très sérieux : celui de prendre des risques pour lui. Qu’en sera-t-il du potentiel futur accident où, pour sauver son Aibo gambadant au milieu de la route, un petit enfant sera renversé ? Si cela ne te semble pas convainquant, Serge Tisseron cite dans une interview l’exemple de GI américains allant jusqu’à prendre des risques pour sauver leur robot démineur, tant l’attachement peut se créer. A ce titre, vouloir protéger juridiquement les robots (certains souhaitent légiférer pour leur octroyer des droits et interdire leur maltraitance) impliquera une incitation à penser que les robots sont capables de souffrir, et les problèmes qui peuvent en découler.

Quid alors d’un message obligatoire sous chaque robot : “je n’ai pas de vraies émotions et je suis un programme”, au même titre que les autres messages de prévention ?

Serge Tisseron souligne également que si les robots nous donnent l’illusion de l’empathie et de l’amour le plus parfait, cela questionnera alors notre relation aux autres humains, avec le risque de préférer à terme la compagnie des robots à la compagnie humaines. Le robot, en nous rendant à la perfection un tas de services, peut risquer de nous faire oublier que les humains pourraient eux-aussi les assurer. Les humains étant naturellement imprévisibles, ils seront moins à même de nous combler face aux robots chez qui la surprise est impossible.

Ce possible éloignement vis-à-vis des relations humaines et la relation de dépendance au robot est d’autant plus problématique qu’il reste un objet commercial (avec des services associés, du traitement de données personnelles, etc.).

Une question se pose alors : est-ce que les robots seront programmés pour nous inciter à rencontrer d’autres humains, ou bien seront-ils orientés à centrer notre attention et notre affection sur eux ? Toute la question sera alors comment seront présenté les robots. Sera-t-il clairement indiqué qu’un robot, aussi mignon soit-il, n’est autre qu’une machine à simuler ? Dans ce cas, l’humain ne sera pas trompé. Mais il semblerait plutôt que l’on prenne l’autre voie, celle des robots mignons et qui simulent des émotions et de l’empathie pour nous faire craquer en trompant nos sens et nos émotions.

Au final tout dépendra des programmes qui seront dans les robots et de l’éthique qu’adopteront les constructeurs. Nous sommes aujourd’hui à un carrefour. De quoi nous faire repenser à la première loi de la robotique énoncé par le célèbre Isaac Asimov : “un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger”, à laquelle on voudrait bien ajouter : « ni, en étant trop mignon, permettre qu’un humain soit trompé ».

Maman maman regarde !_ Niji passe à la télé

Et cette semaine, David-Henri Bismuth nous parle de la tech au service de la natalité. Un sujet qui compte alors qu’on apprend cette semaine qu’elle baisse en France pour la troisième année consécutive.



Voilà, c’est fini pour le petit dej’ d’aujourd’hui !

On te souhaite une bonne semaine et surtout un très bon weekend (plus que quelques heures, courage !).

Ah, et si tu as bien aimé cette newsletter, n’hésite pas à la partager ! (envoie les lien ci-dessous aux intéressés).

S’inscrire à Brain & Breakfast par mail
Recevoir Brain & Breakfast dans Facebook Messenger



 

This email was sent to *|EMAIL|*

why did I get this?    unsubscribe from this list    update subscription preferences

*|LIST:ADDRESSLINE|**|REWARDS|*

 

About The Author

Arthur Le Menec, content Manager @Niji. Essaie actuellement de comprendre le monde 🤔