Apple s’intéresse à la domotique mais aussi à l’intelligence artificielle. Et sur ce dernier point, la firme compte bien rendre son iPhone capable de détecter vos émotions.

iPhone qui décode les émotions

Digne de la science fiction, cette nouvelle direction de recherche intéresse grandement Apple. Si Siri, l’assistant vocal, est déjà capable d’effectuer plusieurs actions à la demande par des ordres données vocalement, il peut aussi interagir sur votre maison avec HomeKit et ses commandes domotiques. Mais cela ne s’arrête pas là. Apple a racheté Emotient, une startup justement focalisée sur la reconnaissance des émotions humaines dans le cadre d’une utilisation avec un appareil informatique.

Aujourd’hui, nos appareils sont capables de nous reconnaître par le timbre de notre voix, pas nos empreintes digitales et par notre visage. Demain, ils pourront non seulement nous reconnaître mais aussi agir en fonction de nos émotions. Pour le moment, ils agissent surtout en fonction de notre position géographique avec les suggestions basées sur la localisation GPS et les centres d’intérêts des cartes de guidage.

De la reconnaissance faciale aux émotions

C’est justement ce sur quoi Emotient travaillait. La firme partait en effet des technologies liées à la reconnaissance faciale pour y intégrer une dose d’intelligence artificielle capable de repérer vos émotions en fonction des traits de votre visage. Mais plus que détecter les émotions, la solution de Emotient permettrait de les interpréter pour réagir en conséquence, de la manière la plus adaptée qu’il soit en fonction de votre état émotionnel.

Dérives possibles

La firme donne des exemples qui ne sont pas forcément là pour rassurer les utilisateurs mais plutôt satisfaire les grands groupes. En effet, dans un des exemples donnés il est question de détecter si une publicité a suscité de l’intérêt et de l’attention. On imagine que Google serait ravi d’utiliser cette technologie pour sa régie publicitaire. La technologie de Emotient à de quoi attirer le monde marketing avec la possibilité d’affiner l’impact de la publicité sur les consommateurs : réaction émotionnelle ou pas face à un produit et plus précisément si elle est positive, neutre ou négative. Autant dire que c’est un véritable moyen technique de vérifier la pertinence de l’impact d’un produit pour tenter de le vendre en affinant ses campagnes publicitaires.

On peut également imaginer des caméras de surveillance dans des magasins afin de vérifier si la disposition et la présentation des produits suscite de l’intérêt ou au contraire n’a que peu d’effet sur la décision d’achat. C’est assez préoccupant d’imaginer être surveillé et analysé pour voir si l’on est touché par une stratégie marketing dans le but de renforcer à tout prix l’impact émotionnel qui pousse à acheter.

Un Siri humanisé

Mais revenons à l’iPhone et son assistant vocal. Siri, doté d’une telle technologie, pourrait devenir plus humain dans sa façon de parler et surtout, dans sa capacité à adapter son discours et le ton de sa voix en fonction de nos émotions. Apple a d’ailleurs acheté une autre startup en 2015, VovalIQ, qui propose justement des solutions de voix nuancées et non platoniques. Plus il collera justement à la bonne attitude, plus il pourra affiner la qualité de ses réponses en fonction de votre personnalité et non plus seulement vos centres d’intérêt. On introduit alors les nuances entre les choix OUI et NON.

siri-inline

Sait-on jamais, un jour votre iPhone pourrait bien vous connaitre mieux que vous-même…

Mots clés : , ,