Les Crises Les Crises
23.février.201823.2.2018 // Les Crises

Les deepfakes, ces fake news vidéo dopés à l’intelligence artificielle qui menacent votre e-reputation

Merci 580
J'envoie

Source : Archimag, Clémence Jost, 20/02/2018

Capture d’écran d’un deepfake transposant le visage de Nicolas Cage sur celui d’Harrison Ford dans le film Indiana Jones. (DR)

Sans doute avez-vous entendu parler des deepfakes porno, ces trucages video malveillants qui se sont déversés sur la toile ces dernières semaines. Mais en quoi consiste cette technique, basée sur l’intelligence artificielle, qui vise à remplacer le visage d’une personne par celui d’une autre dans une vidéo ? Et quelles conséquences peut avoir cette technologie, à la fois magique et dangereuse ?

Alors que le contenu de la future loi sur les fake news, promise par le président de la République Emmanuel Macron, se précise, une autre tendance, toute aussi fatale pour nos sociétés de l’information, pour l’e-reputation et même pour la cybersecurité voit le jour : le deepfake.

Remplacer un visage par un autre

Basée sur le deep learning et propulsée grâce à la démocratisation du développement de l’intelligence artificielle, cette technique apparue pour la première fois sur le forum Reddit en septembre dernier, permet grâce à un algorithme de remplacer un visage par un autre dans des vidéos ou des photos.

C’est surtout sous la forme de deepfakes porno que la tendance a déferlé sur les réseaux sociaux (le visage d’un acteur ou d’une actrice en plein ébat est alors remplacé par celui d’une personne célèbre), mais aussi de deepfakes humoristiques (comme ceux dédié à l’acteur Nicolas Cage, qui se voit propulsé dans des situations plutôt inattendues). Un sousreddit (sujet thématique sur Reddit) consacré aux films pornos réalisés à partir d’intelligence artificielle, baptisé CelebFakes, est même passé de 15 000 membres à 90 000 entre fin janvier et le 6 février, date à laquelle Reddit a finalement décidé de le supprimer.

Des applications étonnantes

Certains jouent aujourd’hui gentiment avec les deepfakes. C’est par exemple le cas des petits malins publiant de multiples vidéos mettant en scène le pauvre Nicolas Cage, l’une des victimes préférées des réseaux sociaux.

Ou encore ce mari, qui s’est amusé à propulser sa femme dans l’émission télévisée Tonight Show, présentée par Jimmy Fallon, en remplaçant le visage de l’actrice Anne Hathaway par celui de sa bien aimée.

Mais cela peut aller plus loin : il y a moins d’un an, des scientifiques de l’Université de Washington publiaient le fruit de leur travail, Synthesizing Obama. Grâce à de nombreuses heures de séquences vidéo de l’ancien président des Etats-Unis, ces chercheurs ont réussi à constituer un réseau neuronal récurrent ayant appris toute les mimiques et formes possibles que prend la bouche du président américain lorsqu’il parle, et ainsi à créer des mouvements pouvant correspondre à n’importe quelle piste audio. Le résultat est saisissant, puisque ces chercheurs peuvent désormais lui faire tenir des propos qu’il n’avait jamais prononcés.

Quelques mois plus tard, le programme Face2Face réussissait à faire bouger et parler, en temps réel et à l’aide d’une webcam, Georges W. Bush, Vladimir Poutine ou encore Arnold Schwarzenegger : là aussi, la prouesse est stupéfiante, puisqu’il est désormais possible de leur faire dire à peu près n’importe quoi.

N’importe qui peut jouer à l’apprenti sorcier

Et l’outil qui se cache derrière les deepfakes n’en restera certainement pas là. Baptisé TensorFlow, il a vu le jour au sein d’une écurie surpuissante bien connue, Google, qui l’a déployé en open source en 2015. Basé sur des techniques de deep learning, il est particulièrement efficace pour le traitement d’images de visages et est aujourd’hui glorifié par la plupart des spécialistes de l’intelligence artificielle.

Il faut dire que l’open source permet à n’importe qui de télécharger TensorFlow, de le paramétrer, de le bidouiller, et bien sûr de l’optimiser pour des tâches particulières. C’est ainsi qu’un internaute a mis en ligne sur Reddit, quelques jours à peine après les premières publications de deepfakes porno, une application baptisée FakeApp, qui permet à n’importe qui de jouer à l’apprenti sorcier vidéo. Et l’émulation dans le domaine est galopante : toujours sur la plateforme Reddit, le sujet « Machine Learning »est suivi par près de 230 000 personnes.

Comment ça marche ?

Concrètement, si l’on veut schématiser la création d’un deepfake, il faut d’abord faire analyser par le programme d’intelligence artificielle une séquence vidéo, image par image. Pour remplacer le visage d’un protagoniste par un autre, il faut ensuite fournir au programme environ un millier d’images de la personne que l’on veut intégrer dans le film. C’est toute cette matière ingurgitée qui lui permettra ensuite d’intégrer les traits du nouveau protagoniste tout en conservant les expressions du visage du film original. Un processus qui peut prendre plusieurs heures, même pour une petite séquence.

Des applications dangereuses

A la fois prodigieuse et effrayante, cette nouvelle application de l’intelligence artificielle doit être surveillée de très près car elle contribue à faire tomber une fois de plus la barrière, toujours plus fine, qui existe entre réalité et fiction. Certes, plusieurs plateformes, à l’image de Reddit, comme Twitter ou encore Pornhub, ont décidé de combattre les deepfakes porno.

Mais au delà du porno, les applications possibles du deepfake sont tellement multiples et dangereuses qu’elles pourraient avoir de graves conséquences sur l’e-reputation des personnes et des entreprises et bien sûr à un niveau politique : intégration dans une vidéo compromettante, modification des propos tenus dans une vidéo, chantage à la diffusion ou encore de graves menaces à la cybersécurité (ex: usurpation d’identité dans le cadre de la reconnaissance faciale).

Alors que la désinformation menace toujours plus nos sociétés et que la lutte contre les fake news bat son plein, il faudra très vite intégrer dans ce combat une nouvelle cible : la manipulation des images et l’usurpation d’identité vidéo.

Source : Archimag, Clémence Jost, 20/02/2018

Nous vous proposons cet article afin d'élargir votre champ de réflexion. Cela ne signifie pas forcément que nous approuvions la vision développée ici. Dans tous les cas, notre responsabilité s'arrête aux propos que nous reportons ici. [Lire plus]Nous ne sommes nullement engagés par les propos que l'auteur aurait pu tenir par ailleurs - et encore moins par ceux qu'il pourrait tenir dans le futur. Merci cependant de nous signaler par le formulaire de contact toute information concernant l'auteur qui pourrait nuire à sa réputation. 

Commentaire recommandé

smaksing // 23.02.2018 à 05h55

Le problème n’est pas seulement là.
Il est dans le fait qu’internet contribue à rendre virtuel le monde concret. Ou tout du moins la représentation que l’on en a.
Le problème c’est qu’à terme il ne restera plus rien de tangible sur quoi baser nos certitudes, sur quoi ancrer notre représentation du monde. De quoi tous devenir fou!

36 réactions et commentaires

  • lupo // 23.02.2018 à 05h20

    Il faudra bien, un jour, arriver à prendre le net pour ce qu’il est :

    => un monde virtuel …

      +10

    Alerter
    • smaksing // 23.02.2018 à 05h55

      Le problème n’est pas seulement là.
      Il est dans le fait qu’internet contribue à rendre virtuel le monde concret. Ou tout du moins la représentation que l’on en a.
      Le problème c’est qu’à terme il ne restera plus rien de tangible sur quoi baser nos certitudes, sur quoi ancrer notre représentation du monde. De quoi tous devenir fou!

        +37

      Alerter
      • Ayudar // 23.02.2018 à 08h18

        Il nous restera toujours les idées, débats, arguments, pensées, valeurs, sentiments. Des choses qu’un ordinateur aura bien du mal à singer correctement avant longtemps. Et dans le cas contraire, tant mieux, ça nous fera de nouveaux points de vue.

        Les mystifications graphiques nous y sommes habitués depuis longtemps avec la photo. Les trucages vidéos ne sont pas un secret, leur dégât potentiel en sera forcément amoindri.

          +4

        Alerter
    • Kiwixar // 23.02.2018 à 05h59

      Le problème, c’est que tout est désormais dématerialisé : documents bancaires, titres de propriété, preuves d’identité, et même les encyclopédies, donc l’histoire. L’enseignement des bambins par Microsoft. Les moyens de paiement (Visa, Mastercard) avec des serveurs aux US (Patriot Act).

      Avec les progrès techniques, on ne peut plus être sûrs de rien. Quel ciment pour une société en deliquescence (misère, chômage) avec les problèmes energétiques qui pointent? Chacun pour soi et tous contre la Russie (hydrocarbures)? Mal barré.

        +21

      Alerter
    • Dominique // 23.02.2018 à 12h37

      « prendre le net pour ce qu’il est : un monde virtuel »

      Rien à voir avec le net. C’est de vidéo dont on parle ici. Lorsqu’au cinéma, par exemple dans le film Nymphomania  » on voit Charlotte Gainsbourd se prendre une double pénétration, alors qu’il s’agit d’une actrice de hard, on n’est pas sur le net.
      D’autre part, je trouve le monde de Macron ou celui du journal Le Monde tout aussi virtuel que celui des jeux vidéo.

        +14

      Alerter
    • V_Parlier // 23.02.2018 à 16h09

      « prendre le net pour ce qu’il est : => un monde virtuel … »
      -> C’est bien là le problème: Tout ce qui ne sera pas retransmis par les canaux TV officiels (pouvant eux aussi paradoxalement générer des « deepfakes ») n’aura plus de crédit, car on ne pourra plus prouver que ce sont des prises de vues réelles. Je considère ça comme l’une des plus grandes catastrophes pour la presse alternative.

        +5

      Alerter
      • Subotai // 23.02.2018 à 17h57

        Toute la presse.
        Parce que vous croyez que la presse « officielle » sera plus crédible?

          +4

        Alerter
        • V_Parlier // 23.02.2018 à 22h27

          Comme elle l’est aujourd’hui pour le même public. Crédible parce-qu’elle sera toujours appelée « la vraie », conseillée par les profs, le gouvernement, le pseudo-intello du coin, etc…

            +5

          Alerter
    • bluetonga // 23.02.2018 à 13h44

      Voyons, Basile, un peu de sérieux. L’heure est grave. Qui cela pourrait-il faire rire de découvrir Hollande se faire engueuler par le sergent Hartman ou Sarkozy monté sur le corps de Bruce Lee? Oups, spoiler!

        +0

      Alerter
  • Anonymous-Civil-Sergent // 23.02.2018 à 07h36

    Il vous restent deux choses sur quoi vous baser: sûreté et sérénité.

    Croyez en ce que vous faites même si c’est incertain.

    Aiu fait, tout les soirs, extinction des feux dès 20h00.

    Et d’ailleurs mes comptes youtubes sont plus ou moins fantômes.

      +2

    Alerter
  • kasper // 23.02.2018 à 07h40

    c’etait trop facile de mettre en lumiere les photos bidonnees de soldats russes en Ukraine, avec google image. Alors il faut passer a la vitesse au dessus: bientot vous aurez des videos de soldats russes torturant a la perceuse des enfants kosovars au Honduras. garanties 100% fiables par decodex et bellingcat.

      +21

    Alerter
    • V_Parlier // 23.02.2018 à 16h14

      Et par la même occasion ils accuseront par exemple ceux qui publient des vidéos génantes des officiels ukrainiens et chefs de bataillons tortionnaires d’avoir créé des deepfakes. Nous serons revenus au point de départ: monopole de crédibilité du mainstream, sans possibilité d’apporter du matériel imparable pour se défendre.

        +7

      Alerter
  • François Marquet // 23.02.2018 à 08h01

    On avait les Fake News, place aux Deep Fake News!
    A quand l’abdication de Maduro « en direct » sur une TV vénézuélienne pro US?

      +8

    Alerter
  • Kesse // 23.02.2018 à 08h21

    Moi, je suis sûr qu’Obama a dit toutes les choses qu’on veut lui faire dire.

      +5

    Alerter
  • Nicolas // 23.02.2018 à 08h36

    je pense que ce sera l’ultime étape pour dégouter beaucoup de personnes. internet a un grand pouvoir car c’est un miroir qui reflète notre société et nous permet de nous identifier à tel ou tel chose. si le miroir devient déformant, qui plus est à notre insu, la confiance va encore baisser d’un coup et les gens vont se détourner.

      +5

    Alerter
  • Nouréiev // 23.02.2018 à 08h38

    C’est quelques fois rigolo comme un bon dessin humoristique. Pour le moment je ne vois pas trop le danger si on prend soin des sources. Ça ressemble aux lettres qu’on reçoit de temps en temps et signées par un ponte remarquable. Certains se laissent prendre bien sûr mais ils le veulent bien, disons qu’ils ne sont pas trop regardants. Même si internet véhicule ce genre de produit, il véhicule aussi toutes les mises en garde, heureusement.

      +2

    Alerter
  • Crapaud Rouge // 23.02.2018 à 08h43

    « graves conséquences sur l’e-reputation des personnes » : en principe oui mais « graves conséquences » aussi sur la réputation des vidéos et des images en tant que preuves…

      +13

    Alerter
  • caliban // 23.02.2018 à 09h01

    C’est saint Thomas qui doit faire des galipettes dans sa tombe 🙂

    Par contre les journalistes pourfendeurs des faiqueniouzes et amateurs de pastilles colorées vont devoir réapprendre leur métier : recouper les sources avant de diffuser une vidéo.

      +6

    Alerter
    • V_Parlier // 23.02.2018 à 16h19

      Recou… quoi? Non: Prendre pour fiables celles qui vont dans le sens de la ligne éditoriale, comme avant. C’est justement pour eux que rien ne change!

        +9

      Alerter
  • BOURDEAUX // 23.02.2018 à 09h16

    Ce qui est inquiétant, c’est que beaucoup de gens ont une approche « technologiste » de ce genre de phénomène. Si je fabrique une machine à reproduire à la perfection des billets de banque, je doute que la justice hésite longtemps avant de voir dans ma trouvaille un outil de contrefaçon. Il sera intéressant d’observer comment la législation garantira la protection de l’authenticité de la personne humaine face à ce nouveau type de « machines infernales » ; là où il serait légitime que les peines encourues soient vraiment dissuasives (20 ans de tôle par exemple), je crains qu’il n’y ait encore que circonvolutions hésitantes et inertie politique. Après tout, si l’on risque moins à fabriquer une fausse image de quelqu’un pour lui nuire qu’à fabriquer un faux billet, on peut se demander dans quel type de société on est arrivé…

      +11

    Alerter
  • Raoul C, // 23.02.2018 à 09h33

    Bon, les vidéos vont perdre leur statut de preuves…?

    Sinon, j’aimerais bien qu’on élimine « fake » (faux, toc, contrefaçon, chiqué) et « deep » (learning) qui n’est jamais que l’apprentissage profond. Donc pour deep fake, je ne sais pas du «Toc profond» ? Un esprit inventif trouvera certainement plein de synonymes amusants.

      +7

    Alerter
  • Raoul C, // 23.02.2018 à 09h36

    Impact sur le doublage des films ? On peut imaginer qu’ils pourraient devenir meilleurs (question synchro) et moins difficiles (puisqu’on ne doit plus trop s’occuper des lèvres).

      +0

    Alerter
  • TuYolPol // 23.02.2018 à 09h42

    En intelligence purement opératoire, celle qu’on privilégie actuellement, il est évident qu’on est dans les choux. Toute expertise sera trompée.

    Le détrompeur sera d’un autre ordre pour échapper à la perte d’identité. Il existe un ou deux domaines, qu’il est possible de cultiver, dans lequel l’homme est hors de portée d’une IA. Je pense entre autres aux formes d’intelligence qui forgent le génie, l’intuition, l’art. Je crois que ce sujet est bien abordé ici :
    Thinkerview – Bernard Stiegler : mutations sociales, politiques, économiques et psychologiques

      +2

    Alerter
    • Crapaud Rouge // 23.02.2018 à 10h45

      « dans lequel l’homme est hors de portée d’une IA » : bel optimiste qui ignore cependant que « l’homme » est inséparable de son milieu social. C’est ce dernier qui le définit. Or donc, notre milieu social va se faire coloniser par des IA, donc « l’homme » va s’en trouver changé, et non pas rester « hors de portée ».

        +2

      Alerter
      • TuYolPol // 23.02.2018 à 11h46

        En écrivant « il existe un ou deux domaines » je faisais bien la part de l’exception, mon propos n’est pas optimiste. Je me mets juste dans la peau du lecteur à qui on demanderait si Dostoïesvki ou était une IA ou un homme.

          +2

        Alerter
  • Jean // 23.02.2018 à 12h25

    Je m’étonne toujours de ce phantasme de l’IA, cette divinité matérialiste, chez les non-technophiles. Ceux qui connaissent un peu le sujet savent que nous venons tout juste d’inventer la roue alors que l’IA correspondrait à l’invention de la voiture.
    En réalité, vu l’état de nos connaissances, nous ne sommes même pas en mesure de prévoir quant la création d’une conscience artificielle deviendra possible, ni même si elle le sera un jour.

      +2

    Alerter
    • Sandrine // 23.02.2018 à 14h27

      Votre expression « IA, divinité matérialiste » est très juste.
      Pour autant, l’IA, meme de degrès zero, est une sacrée « blessure narcissique » pour l’homme moderne qui est obligé de s’interroger sur la nature et la « fiabilité » de sa raison.
      Notre civilisation moderne est fondée sur la croyance en la toute-puissance de la science expérimentale, elle-même fondée sur la toute-puissance de la raison calculante. Les anciens identifiaient différentes formes de raison ; la raison calculante ( la « ratio », la rationalité) n’en était qu’un aspect ; Ils la distinguaient notamment de l’esprit (parfois appelé « intellect ») et de la sagesse (sophia). Ivre de la toute-puissance de nos constructions mathématiques et de nos modèles matérialistes que nous pensons corroborés par les réussites technologiques nous nous sommes crus bien malin en tirant un trait sur toutes ces subtilités… et voilà que notre matérialisme nous revient en pleine figure, menaçant de faire de nous des êtres subalternes, des « quasi-objets », manipulables à souhait par des reflets sur un écran – comme les prisonniers de la caverne de Platon.

        +6

      Alerter
      • Jean // 23.02.2018 à 16h23

        Ressentez-vous cette blessure narcissique lorsqu’une calculatrice affiche le résultat d’une addition plus rapidement que vous ne pourriez le faire ? Et pourtant l’informatique n’est rien d’autre que l’addition de 0 et de 1 et aucun système autonome n’est capable de faire autre chose que ces simples additions. L’intelligence, ou la raison, ne se résume pas à la capacité de compter rapidement. Pour qu’une machine raisonne il faudrait qu’elle puisse se reprogrammer comme nous le faisons nous-même en fonctions des stimulus de notre environnement.
        Cette mythologie de l’IA n’a pas pour vocation d’élever la machine à la dignité de l’Homme mais vise à rabaisser la conscience humaine à celle d’un robot organique. Que deviendront les hommes qui n’auront plus conscience de leur supériorité sur la matière ? De parfaits petits esclaves dans le monde de Mammon.

          +13

        Alerter
  • javaj // 23.02.2018 à 19h18

    Ca va vite, je me demande bien où on en sera dans dix ans. Je ne vois pas bien quel pourrais être les applications «positives » de ce truc, qu’est ce qui peut bien passer par la tête de ces petits génies? C’est assez désespérant.

      +1

    Alerter
  • adam bros // 23.02.2018 à 20h52

    Ainsi donc, nous voici arrivés au point où nous ne pouvons plus faire confiance à AUCUNE information circulant sur internet. Désormais, TOUT EST POTENTIELLEMENT FAUX sur ce système de communication. Chacun de nous est à présent exposé à l’usurpation d’identité et au discrédit social par atteinte à sa réputation. Les pirates sont en train de détruire internet : il ne peut plus être un moyen de communication fiable, mais seulement un canal de « spectacles », comme la télé, la presse, et tous les médias sous la coupe des financiers. Dorénavant, les gens sérieux refuseront de se laisser filmer et vous serez obligés de porter un masque d’Anonymous quand vous sortirez dans la rue. Ce réseau merveilleux qui aurait permis de centupler les possibilités intellectuelles de l’humanité va la diviser dans le mensonge. Et nos gouvernants qui prétendent séparer les fake-news des vraies, comprendront peut-être que c’est impossible le jour où ils seront à leur tour victimes de ces deep-fakes. Nous devons trouver un nouveau moyen pour communiquer…

      +0

    Alerter
  • Galvan // 24.02.2018 à 09h53

    Question : Qui a financé ces recherches et dans quel but ? Que l’on ne me dise pas que c’est pour la beauté technique de la chose. Si Google est dans le coup, la machine militaro industrielle US ne doit pas être bien loin non ?
    Au delà de la ré-création d’acteurs morts en image de synthèse (voir La guerre des étoiles par exemple), il me semble que l’usage propagandiste ne doit pas être très loin.

      +1

    Alerter
  • Raskolnikov // 24.02.2018 à 10h33

    Cela dit, il faut aussi se rendre compte que les mêmes techniques qui permettent de créer ces fakes, sont aussi capable de les débusquer. Parce qu’à moins de se servir d’une vidéo exclusive, la vidéo originale sera toujours accessible et une IA programmée à cet effet serait tout à fait capable de chercher l’original à partir du fake.

      +0

    Alerter
  • LeFredLe // 24.02.2018 à 12h17

    Pas mal de choses rappellent 1984 d’Orwell, voilà qu’on lorgne à présent du côté de Running Man…Film intéressant pour ceux qui ne connaissent pas. J’espère qu’on arrêtera là les analogies avec l’oeuvre de Stephen King, ça pourrait devenir assez flippant sinon…

      +1

    Alerter
  • vert-de-taire // 24.02.2018 à 18h46

    « Désormais, TOUT EST POTENTIELLEMENT FAUX sur ce système de communication.  »

    pas tout à fait.

    ce qui peut être faux c’est que untel a dit ceci ou cela.
    Cela n’empêche pas de dire, de réagir de penser.
    Que M X dise ou non qqchose je peux m’en contrefiche. Ce qui devient plus délicat c’est pour les affaires (certains commerces), la diplomatie … on peut penser que ces domaines prennent quelques précautions .. de plus.
    plus gênant pour la politique de propagande, si je peux croire ou non que tel/le politicien/ne a vraiment dit ou non.
    Il faudra repasser par les officines qui tenteront de garantir la véracité de leur site.
    Le reste sera plus problématique là où déjà chacun peut écrire dire et reprendre n’importe quoi. Mais on est déjà dans cette situation.

      +0

    Alerter
  • Afficher tous les commentaires

Les commentaires sont fermés.

Et recevez nos publications