GlobalSign Blog

Deepfakes et Covid-19 : le secteur de la santé menacé d’asphyxie

Deepfakes et Covid-19 : le secteur de la santé menacé d’asphyxie

Jusqu’ici, l’intelligence artificielle (IA) a prouvé son utilité dans la lutte contre le Covid-19. Son rôle dans la compilation de travaux de recherche a permis de faire émerger des pistes potentielles. Les autorités l’ont utilisée pour le suivi des interactions sociales et l’on se penche aussi sur son usage comme outil de diagnostic. Mais il y a un revers à la médaille : l’IA contribue aussi à surcharger un secteur de la santé qui, dans une période comme celle que nous vivons, doit pouvoir compter sur toute l’aide possible.

Dans cet article, nous observerons de quelle manière les deepfakes pourraient asphyxier un peu plus des ressources de santé déjà sous l’eau.

Qu’est-ce qu’un deepfake ?

Un deepfake est une contraction des termes anglais deeplearning = apprentissage profond et fake = faux ou trucage. Le terme désigne du contenu falsifié à l’aide de l’intelligence artificielle, le plus souvent des images ou des vidéos. L’IA utilise un contenu existant comme base de référence. Le logiciel mappe différentes caractéristiques et points dans le contenu original.

La personne aux commandes du logiciel crée un nouveau contenu que l’IA modifie ensuite pour le faire correspondre le plus possible aux caractéristiques du contenu original. L’objectif : superposer le nouveau contenu sur l’ancien, en faisant correspondre les différents points pour que les « coutures » soient pratiquement invisibles.

Cette technologie est souvent utilisée pour superposer un nouveau visage sur de vieilles images ou faire tenir à quelqu’un des propos que cette personne n’a jamais prononcés.

Quel est l’intérêt ?

Cette technologie peut être utilisée pour créer des images et des vidéos très convaincantes. L’industrie cinématographique l’utilise par exemple pour combler l’arrière-plan de certaines séquences ou superposer le visage d’un acteur décédé sur des images déjà tournées.

La technologie a été utilisée — certes, de façon assez maladroite — pour faire apparaître une jeune princesse Leia dans Star Wars : Rogue One. Si, pour ce cas précis, les fans ont crié à la faute, les hypertrucages ont néanmoins montré qu’ils avaient encore de l’avenir dans le monde du cinéma.

Quel pourrait être le danger ?

Le plus préoccupant, c’est l’utilisation d’images truquées pour diffuser de fausses informations. Ce clip de Barack Obama produit par Buzzfeed dans lequel joue l’acteur Jordan Peele présente les dangers potentiels. La vidéo a été créée pour expliquer la façon dont cette technologie pourrait être utilisée dans le but de désinformer.

Si vous regardez la vidéo très attentivement jusqu’au bout, vous remarquerez quelque chose de bizarre. Mais si vous ne visionnez que le clip transformé, il y a peu de chances que vous repériez la supercherie. Il suffirait de diffuser quelques secondes de la vidéo sur votre téléphone pour vous convaincre.

Et c’est bien là que réside le danger. De fausses vidéos de ce type ont été utilisées pour discréditer des personnalités publiques et propager la désinformation.

Quel est le danger des deepfakes pour le secteur de la santé ?

Les fausses informations (ou « infox ») sont dangereuses parce qu’elles contribuent à répandre la désinformation. De fausses vidéos affirmant que l’alcool, la chaleur ou le froid à des températures extrêmes tuent le coronavirus ont déjà prouvé leur pouvoir de nuisance. Car malgré l’absence de preuves scientifiques pour étayer ces propos, ces vidéos sont devenues virales. 

La désinformation peut avoir d’autres conséquences néfastes, sur la façon dont la population agit et réagit aux mesures de contrôle instituées par les autorités. Aux États-Unis, les nombreuses manifestations anti-confinement ont eu pour effet de pousser certains soignants à organiser une contre-manifestation et ainsi à bloquer la route à ces protestataires. Toute cette démarche n’était certes pas fondée sur des deepfakes, mais sur un mouvement qui existe réellement. Il n’est toutefois pas difficile d’imaginer comment la technologie des deepfakes pourrait être utilisée pour reproduire un tel chaos.

Infox : des effets délétères pour le secteur de la santé

Dans le contexte de panique liée au coronavirus, le pouvoir de viralité décuplé des vidéos trafiquées est sans doute ce qu’il y a de pire pour le secteur de la santé. Les criminels utilisent en effet les vidéos truquées à l’aide de l’IA comme pièges à clics pour attirer leurs cibles sur des sites truffés de logiciels malveillants.

Ils exploitent la puissance de cette technologie pour frapper plus large. Leur mode opératoire ? Soigner la vignette et l’en-tête des vidéos qu’ils postent pour inciter leurs victimes à cliquer… et ça marche.

Mais une fois sur le site, les personnes bernées se retrouvent à la merci de logiciels malveillants tels que les rançongiciels, les enregistreurs de frappe ou autres logiciels espions. En l’absence de mesures de cybersécurité adéquates, l’ordinateur est infecté... et il faut gérer les conséquences.
Aujourd’hui, le public fait preuve de plus de discernement avant de cliquer sur un site inconnu… Loin de baisser les armes, les individus malveillants en profitent pour multiplier les attaques plus ciblées.

Imaginez le scénario suivant. Vous recevez un message qui semble provenir d’une organisation sérieuse, comme l’Organisation mondiale de la santé ou les autorités de votre pays, concernant le suivi de vos interactions sociales dans le cadre du Covid-19. Une vignette s’affiche, représentant la réception de votre entreprise, avec une photo floue de ce qui ressemble à l’un ou l’une de vos collègues. Ne seriez-vous pas tenté-e de cliquer sur le lien ?

Et pour terminer…

Les personnes mal intentionnées mêlent plusieurs tactiques pour convaincre leurs proies de cliquer sur des liens infectés ou de leur livrer leurs identifiants d’accès. Si certains pirates informatiques et groupes aux commandes de rançongiciels se sont engagés à ne pas s’en prendre au secteur de la santé pendant cette crise, d’autres moins scrupuleux exploitent à fond la situation.

Or, en cette période, quel hôpital peut se permettre qu’un logiciel de rançon vienne saturer ses systèmes vitaux ? Combien peuvent courir le risque de voir fuiter les noms de patients positifs au COVID-19 ? Les deepfakes viennent ajouter un stress supplémentaire à des systèmes de santé déjà débordés. 

Remarque : ce billet de blog a été écrit par une rédactrice externe afin de varier les contenus proposés à nos lecteurs. Les opinions exprimées par l’auteure de cet article sont exclusivement les siennes et ne reflètent pas nécessairement les opinions de GlobalSign.

Share this Post