Microsoft a déposé un brevet pour créer des chatbots à partir de vos proches décédés et pourrait vous ressusciter d’entre les morts

😁 Si vous appréciez cet article, n’hésitez pas à faire un don à votre guise. Merci.

Microsoft a déposé un brevet (US10853717B2) qui soulève la possibilité intrigante de réincarner numériquement des personnes en tant que “chatbot”. Au lieu d’utiliser la méthode conventionnelle de formation des robots de discussion en utilisant des conversations et du matériel provenant d’un large échantillon d’utilisateurs, le brevet de Microsoft – tel que repéré par Ubergizmo – soulève la possibilité de créer un bot de discussion à partir de la sortie d’une personne spécifique. Le système utiliserait des « données sociales » telles que « des images, des données vocales, des publications sur les réseaux sociaux, des messages électroniques [et] des lettres écrites » pour créer le profil d’une personne. « Les données sociales peuvent être utilisées pour créer ou modifier un index spécial sur le thème de la personnalité de la personne spécifique. L’index spécial peut être utilisé pour former un chat bot à converser dans la personnalité de la personne spécifique. »

Le chatbot pourrait même ressembler à la vraie personne. « Dans certains aspects, une police vocale de la personne spécifique peut être générée à l’aide d’enregistrements et de données sonores liés à la personne spécifique ». De plus, « un modèle 2D / 3D de la personne spécifique peut être généré à l’aide d’images, d’informations de profondeur et / ou de données vidéo associées à la personne spécifique ».

Essentiellement, il semble que Microsoft espère mieux améliorer ses chatbots de service client, ainsi que l’assistance future de l’intelligence artificielle comme Alexa, Siri ou sa propre Cortana. Cela peut ouvrir la possibilité de créer des logiciels qui semblent identiques à ceux des personnes décédées, ce qui pourrait inaugurer une nouvelle ère pour la cyberfraude et le vol d’identité.

Mort ou vif

Le brevet de Microsoft, intitulé “Créer un chatbot conversationnel d’une personne spécifique”, n’est pas particulièrement difficile à déterminer qui pourrait être choisi pour faire l’objet d’un de ses robots de discussion, indiquant que le sujet pourrait être mort ou vivant. « La personne spécifique [que le chatbot représente] peut correspondre à une entité passée ou présente (ou à une version de celle-ci), comme un ami, un parent, une connaissance, une célébrité, un personnage fictif, un personnage historique, une entité du hasard, etc. » Le brevet ajoute : « La personne spécifique peut également correspondre à soi-même (par exemple, l’utilisateur qui crée / forme le chatbot », ce qui soulève la possibilité pour les gens de former une version numérique d’eux-mêmes avant de mourir.

Le brevet souligne la mesure dans laquelle ce chat bot sera formé aux traits personnels de l’individu, en particulier les « attributs conversationnels » de la personne, « tels que le style, la diction, le ton, la voix, l’intention, la longueur et la complexité de la phrase / dialogue, sujet et cohérence ».

Si le chatbot ne dispose pas de suffisamment de données pour fournir une réponse sur un sujet spécifique, des magasins de données conversationnelles provenant de la foule peuvent être utilisés pour combler les lacunes, ce qui met presque littéralement des mots dans la bouche des gens.

Le brevet traite également de la question délicate de la gestion des profils des morts, suggérant que le robot peut même être conscient (pour un meilleur mot) qu’il imite une personne décédée. Par exemple, si on posait au bot une question sur un événement qui a eu lieu après sa mort dans la vie réelle, « ces questions peuvent indiquer que la personne spécifique représentée par l’indice de personnalité personnalisée (par exemple, le parent décédé) possède une perception perçue qu’elle est, en fait, décédée ».

Br. GB2543893A — Méthodes de génération de modèles de tête 3D personnalisés ou de modèles de corps 3D

Le droit de refuser ?

L’idée de réincarner les gens en tant que robots de discussion soulève évidemment toutes sortes d’implications sur la vie privée qui ne sont pas abordées dans le brevet, qui est, par nature, concerné par le fonctionnement technique du système.

Par exemple, les gens auront-ils le droit de se retirer d’un tel système ? Les proches des morts pourraient-ils empêcher les autres de transformer leurs proches décédés en robots de discussion ? De telles questions sont, bien sûr, sans objet jusqu’à ce que Microsoft (ou quelqu’un d’autre) fournisse un prototype fonctionnel. Mais il se peut que votre personnalité ne meurt pas longtemps avec vous.

Tout cela rappelle un peu trop un épisode de Black Mirror dans lequel le personnage principal parle à une version IA de son défunt partenaire. Dans cet épisode, « Be Right Back », une femme nommée Martha est bouleversée lorsque son partenaire, Ash, meurt dans un accident de voiture le jour où ils étaient censés emménager l’un avec l’autre. Il s’avère que l’un des amis de Martha l’a inscrite à un service qui lui permettra de communiquer avec Ash par SMS. Bien sûr, ce n’est pas vraiment Ash, mais une sorte de version de lui basée sur l’IA. Autant dire que les choses deviennent bizarres.


RÉFÉRENCES :
Pouchot
5

« Vos articles sont toujours très intéressants, mais ce que j'aime le plus c'est qu'ils sortent de l'ordinaire et méconnus de la plupart d'entre nous. Merci beaucoup et continuons à nous battre contre ces gens indigne de l'être humain. »

💛 😁 Vous avez apprécié cet article ? Je vous remercie de m’offrir un café. 😃 💛
VEUILLEZ NOTER : Les commentaires des lecteurs et lectrices peuvent être approuvés ou non, à ma seule discrétion et sans préavis. Merci de votre compréhension. — Guy Boulianne
Partager cet article sur les réseaux sociaux :
Traduire/Translate
Ce contenu est protégé ! Merci.