Microsoft a déposé un brevet pour créer des chatbots à partir de vos proches décédés et pourrait vous ressusciter d’entre les morts

Microsoft a déposé un brevet (US10853717B2) qui soulève la possibilité intrigante de réincarner numériquement des personnes en tant que “chatbot”. Au lieu d’utiliser la méthode conventionnelle de formation des robots de discussion en utilisant des conversations et du matériel provenant d’un large échantillon d’utilisateurs, le brevet de Microsoft – tel que repéré par Ubergizmo – soulève la possibilité de créer un bot de discussion à partir de la sortie d’une personne spécifique.

Le système utiliserait des « données sociales » telles que « des images, des données vocales, des publications sur les réseaux sociaux, des messages électroniques [et] des lettres écrites » pour créer le profil d’une personne. « Les données sociales peuvent être utilisées pour créer ou modifier un index spécial sur le thème de la personnalité de la personne spécifique. L’index spécial peut être utilisé pour former un chat bot à converser dans la personnalité de la personne spécifique. »

Le chatbot pourrait même ressembler à la vraie personne. « Dans certains aspects, une police vocale de la personne spécifique peut être générée à l’aide d’enregistrements et de données sonores liés à la personne spécifique ». De plus, « un modèle 2D / 3D de la personne spécifique peut être généré à l’aide d’images, d’informations de profondeur et / ou de données vidéo associées à la personne spécifique ».

Essentiellement, il semble que Microsoft espère mieux améliorer ses chatbots de service client, ainsi que l’assistance future de l’intelligence artificielle comme Alexa, Siri ou sa propre Cortana. Cela peut ouvrir la possibilité de créer des logiciels qui semblent identiques à ceux des personnes décédées, ce qui pourrait inaugurer une nouvelle ère pour la cyberfraude et le vol d’identité.

Mort ou vif

Le brevet de Microsoft, intitulé “Créer un chatbot conversationnel d’une personne spécifique”, n’est pas particulièrement difficile à déterminer qui pourrait être choisi pour faire l’objet d’un de ses robots de discussion, indiquant que le sujet pourrait être mort ou vivant. « La personne spécifique [que le chatbot représente] peut correspondre à une entité passée ou présente (ou à une version de celle-ci), comme un ami, un parent, une connaissance, une célébrité, un personnage fictif, un personnage historique, une entité du hasard, etc. » Le brevet ajoute : « La personne spécifique peut également correspondre à soi-même (par exemple, l’utilisateur qui crée / forme le chatbot », ce qui soulève la possibilité pour les gens de former une version numérique d’eux-mêmes avant de mourir.

Le brevet souligne la mesure dans laquelle ce chat bot sera formé aux traits personnels de l’individu, en particulier les « attributs conversationnels » de la personne, « tels que le style, la diction, le ton, la voix, l’intention, la longueur et la complexité de la phrase / dialogue, sujet et cohérence ».

Si le chatbot ne dispose pas de suffisamment de données pour fournir une réponse sur un sujet spécifique, des magasins de données conversationnelles provenant de la foule peuvent être utilisés pour combler les lacunes, ce qui met presque littéralement des mots dans la bouche des gens.

Le brevet traite également de la question délicate de la gestion des profils des morts, suggérant que le robot peut même être conscient (pour un meilleur mot) qu’il imite une personne décédée. Par exemple, si on posait au bot une question sur un événement qui a eu lieu après sa mort dans la vie réelle, « ces questions peuvent indiquer que la personne spécifique représentée par l’indice de personnalité personnalisée (par exemple, le parent décédé) possède une perception perçue qu’elle est, en fait, décédée ».

Brevet GB2543893A — Méthodes de génération de modèles de tête 3D personnalisés ou de modèles de corps 3D.

Le droit de refuser ?

L’idée de réincarner les gens en tant que robots de discussion soulève évidemment toutes sortes d’implications sur la vie privée qui ne sont pas abordées dans le brevet, qui est, par nature, concerné par le fonctionnement technique du système.

Par exemple, les gens auront-ils le droit de se retirer d’un tel système ? Les proches des morts pourraient-ils empêcher les autres de transformer leurs proches décédés en robots de discussion ? De telles questions sont, bien sûr, sans objet jusqu’à ce que Microsoft (ou quelqu’un d’autre) fournisse un prototype fonctionnel. Mais il se peut que votre personnalité ne meurt pas longtemps avec vous.

Tout cela rappelle un peu trop un épisode de Black Mirror dans lequel le personnage principal parle à une version IA de son défunt partenaire. Dans cet épisode, « Be Right Back », une femme nommée Martha est bouleversée lorsque son partenaire, Ash, meurt dans un accident de voiture le jour où ils étaient censés emménager l’un avec l’autre. Il s’avère que l’un des amis de Martha l’a inscrite à un service qui lui permettra de communiquer avec Ash par SMS. Bien sûr, ce n’est pas vraiment Ash, mais une sorte de version de lui basée sur l’IA. Autant dire que les choses deviennent bizarres.


RÉFÉRENCES :


« Guy Boulianne fait ma fierté d’être Québécois. J’étais collé à sa diatribe de 2:14.49. Sa prestation est retentissante. Qu’il conduise notre parade. C’est un vrai guerrier. »

Buzzball

« Salut Guy, Avant toute chose, merci pour ton dévouement. Je suis conscient du temps que tu mets pour produire tes articles. On devrait copier ton approche (surtout pour le fait tu que donne des références crédibles pour tes articles, livres, etc). »

Jonathan Charette

« Merci Guy tu es L’HOMME que tout Artiste devait côtoyer car en apprend toujours plus en te suivant. Ton expérience et ta connaissance sont une source inépuisable de richesses. »

Jean pierre Makosso