Les Crises Les Crises
7.octobre.20197.10.2019 // Les Crises

Deepfakes 2.0 : La suite est encore plus terrifiante

Merci 493
J'envoie

Source : Shelly Palmer, 06-09-2019

[Deepfake, hyper-trucage, ou permutation intelligente de visages, est une technique de synthèse d’images basée sur l’intelligence artificielle. Elle sert principalement à superposer des images et des vidéos existantes sur d’autres images et/ou vidéos. NdT]

Shelly Palmer

À la fin de l’année dernière, j’ai écrit un article au sujet des deepfakes et de la façon dont, pendant près de 200 000 ans, nous nous sommes fiés à nos yeux et à nos oreilles pour séparer la vérité des mensonges et les faits de la fiction. Même si nous mettons de côté la montée des fausses nouvelles [fake news, NdT], la technologie est sur le point de rendre cela impossible, nous ne pourrons plus savoir si ce que nous voyons et entendons est réel ou faux.

Cela fait moins d’un an que j’ai écrit cet article, et la technologie a évolué dans un sens qui fait passer les contrefaçons de l’an dernier pour des fakes primitives. Voici un tour d’horizon des avancées et des utilisations réalisés au cours de la dernière année.

Déjà illégal : DeepNudes

[DeepNudes est une application d’hyper-trucage NdT]

La porno-divulgation [divulgation d’un média à caractère sexuel, comme une vidéo ou une photo, produit avec ou sans le consentement d’une personne, afin de lui nuire, NdT] a été interdite dans de nombreuses juridictions à travers le monde. En juillet, la Virginie est devenue l’un des premiers États à interdire le partage de pornographie générée par ordinateur, ou deepfakes. Pour ce faire, elle a modifié une loi existante qui criminalise la porno-divulgation, en précisant que cette catégorie comprend désormais le matériel « faussement créé ». (Image ci-dessus).

Terrifiant : DNC Deepfake

Le DNC s’est hyper-truqué tout seul

Le Parti démocrate a hyper-truqué son propre président pour mettre en lumière les préoccupations de 2020. Début août, au DEF CON – l’un des plus grands congrès mondiaux pour hackers – les participants ont appris que le président du DNC [Comité national démocrate, NdT], Tom Perez, n’a pas pu assister à la présentation du DNC. Au lieu de cela, il a « Skypé » et chatté. Sauf qu’il ne l’a pas fait. Vous savez vous, à quoi ressemble la voix de Perez ? Les personnes présentes non plus.

Bob Lord, le chef de la sécurité du DNC, a dirigé l’exercice (avec l’aide d’experts dans le domaine de l’IA) pour démontrer l’art du possible. C’est ce qui nous attend jusqu’aux élections de 2020. La vidéo parle d’elle-même. S’il vous plaît, regardez là. [IA : intelligence artificielle NdT]

Amusant : « Réparer » Le Roi Lion

Le Roi Lion « réparé »

Il est important de se rappeler que les deepfakes ne sont pas tous malveillants. Les puristes de Disney n’ayant pas aimé l’infographie (époustouflante) de The Lion King cet été, ils ont « réparé » la bande-annonce en fusionnant les visages des personnages de la version originale (animée) et les animaux de la nouvelle version. Les images qui en résultent sont si bien faites qu’il vous faut une seconde pour réaliser ce que vous regardez.

Quelque part entre les deux : FaceApp

Vieilli par FaceApp

Au cas où vous auriez vécu sur une île déserte cet été, ou simplement arrêté Internet, FaceApp est une application sur Android et iOS qui utilise l’IA pour « générer des transformations très réalistes de visages à partir de photos ». Fondamentalement, FaceApp met le pouvoir des deepfakes à votre portée, ce qui fait qu’il est facile de faire paraître une personne sur une photo plus âgée, plus jeune, ou de lui faire changer de sexe.

Sortons de cette petite controverse – Fast Company a découvert que chaque photo téléchargée sur l’application a été envoyée sur les serveurs cloud de FaceApp (ce que vous avez accepté lorsque vous avez coché la case des termes et conditions de l’application, mais clairement sans les lire) – la technologie ici est remarquable. FaceApp propose ses effets photo depuis début 2017, mais les résultats se sont nettement améliorés depuis son lancement.

Bien que FaceApp ait des fonctionnalités limitées, c’est l’un des créateurs d’hyper-trucage parmi les plus faciles et les plus populaires à la disposition du grand public. Sa vitesse et ses résultats impressionnants le rendent amusant… et dangereux.

Qu’est-ce que tout cela veut dire ?

La technologie derrière les deepfakes était déjà facile à trouver et à utiliser l’automne dernier, mais elle l’est encore plus aujourd’hui. Imaginez où on en sera l’été prochain, au moment des élections de 2020, dans quatre mois.

Elizabeth Warren a-t-elle vraiment dit ça ? La vidéo de Bernie Sanders dans cette publicité offensive était-elle réelle, ou était-ce un hyper-trucage? Comme les publicités politiques trafiquent déjà les dires des candidats et manipulent la vérité pour obtenir l’extrait sonore parfait, pouvez-vous croire quoi que ce soit de ce que vous entendez alors que tout cela peut être fabriqué sur n’importe quel ordinateur portable que vous pouvez trouver chez Best Buy ?

Et ça empire

Une image créée par thispersondoesnotexist.com

Alors que les informations, émission après émission, ont fait état d’allégations de manipulation possible des médias sociaux avant les élections de 2016, quelqu’un est-il prêt pour la suite des événements ? Imaginons rapidement comment un système assisté par IA aggravera le problème.

Allez sur le site ThisPersonDoesNotExist.com. Vous voyez ce visage ? Cette photo réaliste ? Eh bien ce n’est pas une vraie personne. Le site « présente une synthèse d’images humaines entièrement automatisée en générant à l’infini des images qui ressemblent à des portraits de visages humains »

Rigolo ! N’est-ce pas ? Seulement jusqu’à ce que vous commenciez à réfléchir aux conséquences possibles. Combien de travail faudrait-il pour construire une histoire et une vie entière pour cette personne ? Il suffit d’utiliser l’intelligence artificielle pour générer le nom et l’histoire de la personne (peut-être en faire une nécrologie pour qu’elle puisse trouver ses parents vivants sur les médias sociaux, à côté d’une mémoire de stockage d’images « réelles ») ?

Créez une adresse e-mail, un compte Facebook et un profil Twitter. Utilisez FaceApp pour vieillir la photo de 30 ans, 60 ans. Photoshop pour la ressemblance de la personne avec ses (vraies) photos de famille. Faites la même chose pour d’autres photos.

Utilisez un logiciel assisté par IA pour générer des tweets et des messages Facebook. Utilisez la méthode procédurale de génération pour faire en sorte que les messages de la personne semblent réels, et non planifiés dans le temps. Faites retweeter les choses par la personne. Répondez aux trucs. Comme des trucs. Interagissez avec le monde. C’est comme la célèbre arnaque des « Yahoo Boys », mais automatisée et amplifiée au énième degré, alimentée par la technologie et l’apprentissage automatique. [En informatique, la génération procédurale (ou le modèle procédural) est la création de contenu numérique (niveau de jeu, modèle 3D, dessins 2D, animation, son, musique, histoire, dialogues) à une grande échelle (en grande quantité), de manière automatisée répondant à un ensemble de règles définies par des algorithmes1,2. Le modèle procédural s’appuie sur les informations d’un algorithme pour créer. NdT] [les yahoo boys sont des gangs virtuels, se faisant passer pour des militaires américains qui échangent leurs techniques et exhibent leurs trophées dans forums et réseaux sociaux. NdT]

Construisez un réseau adverse génératif (GAN) pour créer des scanners rétiniens et des empreintes digitales (de la même manière que les faux visages sont générés sur thispersondoesnotexist.com) [En intelligence artificielle, les réseaux adverses génératifs sont une classe d’algorithmes d’apprentissage non-supervisé. Ces algorithmes ont été introduits par Goodfellow et al. 2014. Ils permettent de générer des images avec un fort degré de réalisme NdT]. Piquez quelques numéros de sécurité sociale de l’internet obscur, et… Pouf ! Nous avons créé une personne virtuelle qui est pratiquement impossible à distinguer d’une personne réelle. Il faudrait pas mal de recherches pour comprendre que cette fabrication n’est pas une personne vivante qui respire.

Utilisez le serveur Chrome pour créer quelques milliers de comptes par jour (je ne vais pas vous dire comment masquer votre connexion réseau, mais vous pourriez facilement faire ça).

Trompez l’Intelligence Artificielle en la qualifiant de « rouge » ou « bleue ». Ou, si vous préférez d’« anarchiste » ou « organisateur syndical », ou présentez la personne que vous avez créée comme sympathique à toute cause qui sert votre objectif.

Apprenez à l’IA à suivre les « vrais » comptes (ou les faux comptes que vous avez créés). Les tweets et retweets générés par l’intelligence artificielle ou les messages et partages Facebook vont paraître (et être) réels. Ils ne viendront pas d’êtres humains, c’est tout.

Activez votre réseau d’un demi-million de comptes d’influenceurs. Et attendez jusqu’au 3 novembre 2020 pour voir ce que vous avez réussi à faire.

Vous n’aimerez peut-être pas ce jeu, mais ce n’est ni vous ni moi qui allons y jouer. Ce jeu sera joué par des États-nations qui ont des ressources illimitées. Bouclez votre ceinture de sécurité. Le voyage va être coriace.

Note de l’auteur : Ceci n’est pas un billet sponsorisé. Je suis l’auteur de cet article et il exprime mes propres opinions. Ni moi, ni mon entreprise non plus ne recevons quelque compensation que ce soit pour cet article.

Source : Shelly Palmer, 06-09-2019

Traduit par les lecteurs du site www.les-crises.fr. Traduction librement reproductible en intégralité, en citant la source.

Nous vous proposons cet article afin d'élargir votre champ de réflexion. Cela ne signifie pas forcément que nous approuvions la vision développée ici. Dans tous les cas, notre responsabilité s'arrête aux propos que nous reportons ici. [Lire plus]Nous ne sommes nullement engagés par les propos que l'auteur aurait pu tenir par ailleurs - et encore moins par ceux qu'il pourrait tenir dans le futur. Merci cependant de nous signaler par le formulaire de contact toute information concernant l'auteur qui pourrait nuire à sa réputation. 

Commentaire recommandé

raloul // 07.10.2019 à 07h40

Bonjour,

D’un côté, ça peut être bien et rassurant, comme ça à chaque fois que je vois m. Castaner ou Macron sur une chaîne de télévision, je peux me convaincre que c’est vraiment trop stupide pour être vrai et que c’est forcément un «deep fake»…

P.s. : j’ai pas de télé

47 réactions et commentaires

  • Pavlov // 07.10.2019 à 07h09

    A mon avis Yuval Noah Harari l’a dans l’os, difficile de croire au big data après ça !

    Nous aurons une crise de confiance dans chaque contenu numérique.

    L’analogique a encore de beaux jours devant lui

      +9

    Alerter
    • Claudezip12 // 16.10.2019 à 21h33

      Des maintenant supprimer les écrans tout au moins les liaisons avec le net.
      Pour compenserpartez vous informer en ville dans les magasins et tous les lieux où pourrez rencontrer des personnes.
      Mais aussi,engagez la conversation,parlez avec les connus et les inconnus.Ainsi vous approcherez de la réalité sans risque de deepfakes.

        +0

      Alerter
  • Jean // 07.10.2019 à 07h23

    Ceci n’est pas un commentaire sponsorisé. Je suis l’auteur de ce commentaire et il exprime mes propres opinions. Ni moi, ni mon entreprise non plus ne recevons quelque compensation que ce soit pour ce commentaire..

      +7

    Alerter
    • Jean // 07.10.2019 à 08h35

      Il faudra bientôt rajouter : Je ne suis pas un algorithme.

        +18

      Alerter
      • Narm // 07.10.2019 à 18h29

        ou un petit soldat de lobby quelconque…..

          +6

        Alerter
  • raloul // 07.10.2019 à 07h40

    Bonjour,

    D’un côté, ça peut être bien et rassurant, comme ça à chaque fois que je vois m. Castaner ou Macron sur une chaîne de télévision, je peux me convaincre que c’est vraiment trop stupide pour être vrai et que c’est forcément un «deep fake»…

    P.s. : j’ai pas de télé

      +48

    Alerter
    • M.Smith // 07.10.2019 à 08h30

      Lol. Et pas seulement, tout le système est vraiment trop stupide… Les informaticiens du futur se moquent de nous nous faisant évoluer dans un monde virtuel imbécile.

        +9

      Alerter
    • Fabrice // 07.10.2019 à 08h45

      Le fait de ne pas avoir la télé n’est plus un gage d’être épargné par la désinformation c’est avoir un écran en général qui suffit pour être touchés et même si avoir une bonne collection de livres est plus efficace on ne peut se couper du monde car nous sommes des êtres sociaux.

      même si certains se déclarent associaux quand tout va bien le réflexe est quand même de chercher l’appui des autres quand le pire arrive.

        +19

      Alerter
  • Christian Gedeon // 07.10.2019 à 07h49

    Deep fake donc…à l’image de notre monde toujours plus avide de vérités et de transparence dussent elles être…fake. Je me suis toujours instinctivement méfié des adeptes de la transparence absolue et de la moralité portée en écharpe,prêts à se jeter comme des gloutons sur le dernière « révélation » allant dans le sens de leur paranoïa. Avec ces outils là, on n’a pas fini de rigoler. Ou est ce de pleurer?

      +8

    Alerter
  • Abuduck // 07.10.2019 à 09h11

    Dommage de conclure avec “Vous n’aimerez peut-être pas ce jeu, mais ce n’est ni vous ni moi qui allons y jouer. Ce jeu sera joué par des États-nations qui ont des ressources illimitées.” C’est un reflexe de nos générations de se méfier des Etats-Nations et de ne pas dire que le grands groupes sont aussi un problème démocratique. De nos jours, la plus grande menace ne vient pas des Etats, il faut sortir des schémas mentaux de la seconde guerre mondiale. Je sais plus qui a dit : la prochaine se fera contre les grandes entreprises. Il serait temps qu’on mette à jour notre representation du monde.

      +36

    Alerter
    • Narm // 07.10.2019 à 18h46

      Mitterand a dit “les français ne le savent pas”… tout le monde connais
      Oui, nous sommes en guerre, la “guerre froite” ne s’est pas arrêté et nous sommes en guerre économique constante. Y a-t-il eu un répis d’ailleurs

        +3

      Alerter
  • vert-de-taire // 07.10.2019 à 09h12

    ALERTE !
    Les radars sont formels, une attaque massive vient de commencer.
    Le pays doit réagir et il réagit, tout est prêt.
    Le vrai chef d’État après discussion avec de faux responsables vient de décider de lancer l’alerte de riposte massive.
    Sous-marins, avions et missiles intercontinentaux sont préparés et attendent l’ordre déclenchement dans les 5 minutes. Il restera 10 minutes avant l’arrivée des premiers (faux) missiles.
    Une heure plus tard un grand pays qui n’avait rien fait, a été la cible d’une attaque massive, on estime 200 millions de morts et autant de blessés.

    On vit une épo

      +7

    Alerter
    • Dominique65 // 07.10.2019 à 10h20

      Salut ! On a déjà connu ça, sans IA, lorsque les USA ont décidé d’attaquer « la cinquième armée du monde ». Tout était faux, sauf les morts dont personne ne parlait.

        +12

      Alerter
      • Séraphim // 07.10.2019 à 13h05

        Exactement! Rien de nouveau sous le fake soleil! S’emporter contre ces images en disant que désormais on ne “voit plus que du faux” c’est oublier le mot image. On ne voit plus que des fausses images. Ce qui est le cas depuis la photographie, et même depuis la peinture de portrait. Croire à une véracité perdue, c’est oublier que le mensonge est dans la communication comme le vers dans le fruit. Et que faisait Séguéla avant les ordinateurs? Il nous montrait des vraies machines à laver avec de la vraie lessive qui lave vraiment plus blanc peut-être? Et Mitterrand, il nous regardait vraiment “dans les yeux”?

          +5

        Alerter
      • Matt // 07.10.2019 à 16h09

        Séraphim

        Votre raisonnement me paraît extrêmement simpliste.

        Les images ont une histoire, de l’art pariétal à la vidéo en passant par la peinture, les fresques, les enluminures et la photographie (j’en oublie).

        L’invention de la photographie marque une étape majeure car elle permet d’atteindre ce que recherchaient depuis longtemps les peintres : la parfaite analogie au réel. Par contre-coup, les peintres se sont mis à ne plus rechercher la ressemblance mais la subjectivité : pointillisme, cubisme, art abstrait …

        Nous avons également connu aux XIXe et XXe siècles une évolution dans les moyens de diffusion (presse, cinema, tv, internet) et de captation tout public des images (appareils photos, camera, magnétoscopes, internet, …).

        Ce qui se passe actuellement marque à mon sens une nouvelle étape, comparable peut-être à celle de l’invention de la photographie. Non pas que le trucage soit une nouveauté (Staline avait par exemple fait effacer Trotsky des toutes les photos officielles) mais ce trucage est désormais – comme indiqué dans l’article – à la portée de tous.

        Il ne faut pas beaucoup d’effort pour imaginer ce que cela peut donner :
        • les medias étant assez peu rigoureux dans la vérification des sources (on en a de nombreux exemples)
        • il est probable qu’à l’avenir des fausses vidéos soient diffusées à large échelle

        … avec des conséquences plus ou moins grave. Pour mémoire, la guerre de 70 a été déclenchée sur un simple faux en écriture …

          +7

        Alerter
        • Séraphim // 08.10.2019 à 05h59

          C’est votre raisonnement qui est simpliste sous couvert de complexité. Non jamais la photographie n’a attrapé le “réel”; Elle ne l’a d’ailleurs pas cherché depuis le début. Tout comme le tout premier cinéma. L’entrée du train dans la gare de la Ciotat en 1896 fait fuir les spectateurs qui croient voir arriver un train dans la salle. Cet effet, cette tromperie, était recherchés, comme on faisait des trompe-l’oeil en architecture, pour faire croire à une inexistante profondeur. La regrettable illusion, qui nous chagrine et dont on voudrait s’affranchir, repose non sur des images “garanties ou truquées”, mais sur une foi dans la véracité des médias. qui est impossible, hors sujet et sans fondement autre que la naïveté. Le film le plus commenté de l’histoire? C’est le mini documentaire de Zapruder, 26 secondes de 486 images de l’assassinat de Kennedy. Tout y est “vrai”. Malgré le flou dû à la technique, tout est limpide: la balle vient de l’avant! Contre cette évidence écrasante, les médias vont faire croire le contraire et ranger dans le complotisme nos convictions les plus simples fondées sur nos sens les plus élémentaires.
          Conclusion; le “trafic” des images n’est rien, il n’est qu’un outil, d’ailleurs de plus en plus dévalorisé, à la manipulation qui, elle, est première.

            +1

          Alerter
          • pascalcs // 08.10.2019 à 10h21

            Il y a de nombreuse controverses sur le film de Zapruder que nous voyons aujourd’hui. En particulier des retouches masquant les conséquences de l’atteinte de la tête. Le film original n’est pas en accès publique autant que je sache. Cela etant, et comme vous le dites, les mouvements de la tête n’ont pas pu être fondamentalement modifiés et la théorie de la balle venant de l’arrière est difficilement crédible en face des lois de la physique.

              +0

            Alerter
          • Narm // 12.10.2019 à 16h38

            meme pas besoin d’image…. aujourd’hui samedi toutes les tv et radio de france sur une arrestation de x de ligonesse ….
            des heures de baratinages sur base d’un rien … pour rien

              +0

            Alerter
        • Matt // 08.10.2019 à 13h53

          “sous couvert de complexité.”
          Ce que j’ai écrit est archi-connu, c’est la base de l’histoire de l’Art. En revanche, ce que vous écrivez me paraît extrêmement hermétique pour le non initié, vous auriez pu fournir des liens 🙁

          Pour le fond évidemment je ne suis pas d’accord : la photographie marque une étape majeure parce qu’elle réussi pour la première fois dans notre histoire à reproduire le réel sur un support durable. On s’extirpe de l’instantanéité de la vision et pour une bonne part, l’image rend la mémoire plus durable.

          Aujourd’hui avec les ordinateurs il me semble que l’on passe à une nouvelle étape avec l’impossibilité à distinguer réel et artifice. Du même coup, la fonction de mémorisation du réel pourrait être remise en cause.

          Encore une fois, les trucages ne sont pas une nouveauté : l’innovation tient surtout au fait que ces techniques de transformations (et de diffusion) du réel sont accessibles à tous.

            +2

          Alerter
  • Jean D // 07.10.2019 à 10h29

    Je me demande s’il est vraiment possible d’anticiper toutes les conséquences anthropologiques de ce genre de manipulation.

    Depuis St Thomas, on ne croit que ce que l’on voit. En réalité, c’est bien avant et plus profond : nous sommes des animaux et à ce titre nous appréhendons le monde avec nos 5 sens. La vision est très certainement celui sur lequel on se repose le plus.

    Nous avons des difficultés à bien comprendre si nos yeux ne voient pas les phénomènes. Par exemple le fonctionnement du système solaire, cela demande pas mal de “gymnastique” intellectuelle ne serait-ce que le fonctionnement des saisons ou le cycle lunaire. De même pour l’effondrement de la biosphère, les données sont à disposition de tous, mais nos yeux constatant que les magasins sont toujours aussi bien achalandés, on ne croit pas à la fin prochaine de l’abondance.

    Si nous suspectons chaque image d’être potentiellement fabriquée, cela va nous inciter à développer l’esprit critique mais, je le crains également, à dévaler une pente complotiste à la déclivité déjà bien prononcée.

      +13

    Alerter
    • Haricophile // 08.10.2019 à 17h35

      «Si nous suspectons chaque image d’être potentiellement fabriquée, cela va nous inciter à développer l’esprit critique»

      Je crains malheureusement que ça ne puisse développer le contraire chez beaucoup de gens : «Puisque tout est faux, pourquoi je ferais l’effort d’une réflexion ?». On va tomber sur «Mes certiudes suffisent» «je crois ce qui m’arrange et qui me flatte» «J’en n’ai rien a foutre» ou ça peut déboucher carrément sur la folie.

      Les sectes et autres organisations manipulatoires qui utilisent les mêmes outils pervers ont de beaux jours devant elles.

        +3

      Alerter
    • Jean D // 08.10.2019 à 19h54

      La folie. C’est bien ce qui guette effectivement. En tout cas les personnes qui sont accrocs aux écrans.

      Je me fais cette réflexion en passant … je crois que la meilleure chose qui puisse nous arriver à nous autres les Terriens serait que les médecins établissent avec certitude un lien entre temps passé devant un écran et maladie d’Alzheimer.

      Sur quoi, je m’empresse de cliquer sur off pour “retourner à une activité normale” 🙂

        +2

      Alerter
  • Michel LEMOINE // 07.10.2019 à 10h50

    On peut truquer des images, maquiller des voix, diffuser des fausses nouvelles, mais on ne peut produire une analyse convaincante, reposant sur une conceptualisation solide avec un algorithme. L’avenir appartient donc à ceux qui sont capables de penser en plus de 140 caractères

      +11

    Alerter
    • Matt // 07.10.2019 à 12h56

      “L’avenir appartient donc à ceux qui sont capables de penser en plus de 140 caractères”

      Twitter est visiblement passé à 280 il y a deux ans (https://www.ladepeche.fr/article/2017/09/28/2654659-twitter-passe-140-280-caracteres-utilisateurs-sont-deja-sceptiques.html)

      Pas très fairplay de diffuser des fausses nouvelles 🙂

        +4

      Alerter
    • Abuduck // 08.10.2019 à 10h35

      Matt, ça ne change au rien au fond, son argument reste valable.

      Effectivement on reste dans l’intelligence artificielle faible, que j’aime appeller la stupidité artificielle… (algorithmes de reconnaissance inspiré du vivant, des algorithmes de génération, de la statisitique et d’ingénierie classique à la papa) Le terme intelligence est un abus de language qui donne lieu a beaucoup de confusion.

      Ceci dit, je trouve ça très dommage qu’au moment ou notre smartphone devient assez ironiquement un outil majeur de lutte citoyenne contre la propagande, de défense contre la désinformation de masse, on se retrouve presque aussitôt face a un outil qui va jeter la suspicion sous toute forme de contestation de la version officielle appuyée par des images. Le pouvoir s’empressa aussitot de dire que les images qui le gêne sont fausses. C’est vraiment problématique de ce point de vue. Bien sur ça existait déjà avant, mais c’était plus limité et c’était relativement simple de vérifier si l’image était truquée, mais là, on vient clairement de passer un cap.

        +1

      Alerter
      • Haricophile // 08.10.2019 à 17h38

        Moi je crois qu’on passe à côté que quelque chose de bien plus profond philosophiquement, et qui est une question généralisable à l’écologie et au reste :

        Que ce soient en bien ou en mal, nos actions modifient notre environnement : Dans quel environnement et dans quel Monde voulons nous vivre ?

          +1

        Alerter
  • Brian64 // 07.10.2019 à 10h51

    Je trouve au contraire que ces “deepfakes” sont une bonne nouvelle. Du moins elles peuvent l’être :
    – Des photos de vous avec votre amant(e) qui apparaissent sur la toile : “voyons chéri(e), c’est pas moi c’est des deepfakes”
    – Des vidéos où vous êtes saoul et dites n’importe quoi et vomissez partout : “deepfake” !
    – Des photos de vous en train de danser à poil “deepfake” !
    – etc….
    Quant aux vidéos de dirigeants ayant des discours béliqueux ont les prendra moins au sérieux.

      +8

    Alerter
    • Haricophile // 08.10.2019 à 17h41

      Autrement dit le monstre de l’espionnage généralisé et intime, iconiquement représenté par FesseBouc, s’auto-dévore de lui même.

      J’aimerais avoir cet optimisme, mais il y a du vrai.

      …. je songe mettre ma tête sur le corps de Coluche à poil sur le plateau télé avec des plumes dans le cul… une transgression d’une autre époque…

        +0

      Alerter
  • Zevengeur // 07.10.2019 à 11h25

    Il est pertinent d’alerter sur les possibilités infinies de l’IA et des dégâts potentiellement immenses que cette technologie peut faire.
    N’oublions pas cependant de noter que l’IA pourra également être utilisée pour contrer l’IA !

      +2

    Alerter
    • JohnDoe // 07.10.2019 à 18h04

      Oui sauf que ce genre de Deep Learning est deja developpe en “generative adversarial network”. Ca signifie que deux reseaux sont entraines en parallele en faisant une competition entre les deux.
      Le premier cree les fake et le second tente de les demasquer. Donc la creation des fake est deja optimise pour ne pas etre demasquable par un autre reseau …

        +2

      Alerter
      • Haricophile // 08.10.2019 à 17h46

        La folie des espions et de la course à l’armement n’est pas nouvelle en effet… pas plus que les remèdes qu’on refuse d’appliquer, c’est à dire être assez raisonnable pour ne pas se créer d’ennemi.

          +0

        Alerter
  • openmind // 07.10.2019 à 12h27

    Une remarque entendue chez un blogueur et qui m’a semblé intéressante, à vous de juger.

    N’essaierait-on pas de nous préparer à rejeter certaines vérités trop dérangeantes, du genre toutes les vidéos d’Epstein avec Bill et Cie dans de fâcheuses postures qui seraient alors “forcément” des deepfakes alors que non???

    Je pose la question….

      +17

    Alerter
    • Haricophile // 08.10.2019 à 17h48

      Bah, ils rejettent la réalité quelles que soient les preuves. Non, je devrais dire qu’ils se dispensent de la réalité même quand ils sont au milieu des preuves. Donc ça ne changera plus grand chose a ce stade avancé de la folie.

        +1

      Alerter
  • calahan // 07.10.2019 à 13h06

    l’art du faux, une perte de temps avec des objectifs à visée très variable mais tous dans la duperie.
    Encore de l’énergie et de l’intelligence humaine mises au service de la fausseté.

    Étrange ce gout du “ce qui n’existe pas peut exister quand même”.

    Remarquez on n’est plus à deux trois abrutissements près.

      +1

    Alerter
  • calahan // 07.10.2019 à 13h09

    Au lieu de s’embêter à fabriquer du faux, on ferait mieux de regarder d’un peu plus près ce qui se passe en vrai !

      +3

    Alerter
  • Louis Robert // 07.10.2019 à 14h19

    Ère post-orwellienne, de la post-vérité, de la post-réalité.

    Le relativisme généralisé (« tout va et vaut ») tend vers son corollaire, le nihilisme («rien ne va, rien ne vaut »).
    _______

    Orwell, « 1984 »:

    « Winston n’était pas troublé par le fait que tous les mots qu’il murmurait au phonoscript étaient faux, tous les traits de son crayon à encre étaient des mensonges délibérés. Il était tout aussi désireux que n’importe qui dans le Département, que la falsification fût parfaite… Le mensonge passait dans l’histoire et devenait vérité… Le mensonge choisi passerait ensuite aux archives et deviendrait vérité permanente.

    (…)

    De telles pratiques ne semblaient pas l’horrifier. Elle ne sentait pas l’abîme s’ouvrir sous ses pieds à la pensée que des mensonges devenaient des vérités. »

    _____

    Le but poursuivi est clair, que personne ne puisse s’y retrouver. Alors Big Brother-Sister déterminera puis proclamera, seul(e) et selon son bon plaisir, « ce qu’il faut penser de, croire à propos de, imaginer sur, ressentir à partir de, dire et ne pas dire, faire et ne pas faire, percevoir et ne pas percevoir, aimer et ne pas aimer… à l’infini.

      +9

    Alerter
    • Narm // 07.10.2019 à 18h58

      cette nouvelle arme a connue une accélération depuis le 11 sept
      et donne lieu à des contrefeux ou le discrédit.
      Vous vous interrogez ou critiquez un truc et vous devenez complotiste. Le fond disparait instantannément. Plus de débat.

        +3

      Alerter
      • Haricophile // 08.10.2019 à 17h56

        «Le fond disparait instantannément. Plus de débat.»

        Justement ce qui est intéressant dans Orwell, ce n’est pas la supression du débat, mais la manipulation des concepts pour les vider de leur sens : Il introduit le fait qu’une chose doit être perçue comme à la fois vraie ET fausse, donc le fait qu’elle soit vraie ou fausse perd tout importance. Le débat ne meurt pas par absence, mais par non-sens. L’escamotage des faits est remplacée par la disparition des concepts, donc de l’intelligence, de la capacité à organiser sa pensée, de sa capacité à penser par soi-même.

          +2

        Alerter
  • grumly // 07.10.2019 à 14h49

    Il est aussi possible de recréer la voix de quelqu’un à partir d’un court enregistrement. On tape du texte et le programme reproduit la voix avec la nouvelle phrase.
    https://github.com/CorentinJ/Real-Time-Voice-Cloning
    https://www.youtube.com/watch?v=-O_hYhToKoA

    Dans les exemples, l’IA est entraînée à partir de livres audios, avec une voix monotone, et ça marche assez bien, mais on peut imaginer entraîner l’IA sur des voix enregistrées dans des conditions plus réalistes, interviews, conversations téléphoniques, plus adaptées à des utilisations qu’on pourrait faire d’une voix générée par un programme.

      +0

    Alerter
  • scc // 07.10.2019 à 16h16

    Il n’y a pas besoin d’IA pour créer un monde orwellien.
    Il n’y a qu’à lire la résolution votée le 19 septembre par le parlement européen au sujet du devoir de mémoire…

      +12

    Alerter
    • Haricophile // 08.10.2019 à 17h58

      Jamais l’intelligence artificielle ne suplantera la bêtise naturelle.

        +4

      Alerter
  • roseceslamort // 07.10.2019 à 19h47

    ne pas oublier de jeter un oeil (sic) à la bonne serie anglaise ‘the capture” (dernier episode ce soir d’ailleurs), disponible sur le grand mechant ouebe là où vous telechargez toutes vos series, on est en plein dans l’illustration du sujet 🙂

    http://www.allocine.fr/series/ficheserie_gen_cserie=24392.html

      +0

    Alerter
  • rolland // 08.10.2019 à 06h04

    Le progrès dans une société perverse, corrompue et immorale est certainement le pire qu’il puisse arriver..
    tite suggestion : https://youtu.be/VyQ0X2U6kPI

      +1

    Alerter
  • Nasir // 08.10.2019 à 10h02

    Si tout cela pouvait enfin permettre aux journaliste de cesser de parler des “tendances” sur les réseaux sociaux en les traitant comme de véritables informations, pour se concentrer sur des enquêtes de fond…

      +0

    Alerter
  • pascalcs // 08.10.2019 à 10h27

    Ce mouvement n’est il pas une version moderne et contemporaine des constructions religieuses?

      +1

    Alerter
  • Julien // 08.10.2019 à 16h15

    La technologie utilisée pour modifier a souhait les images ou vidéos de manière troublante vient d’une Start up israélienne de mémoire. Ils auraient partagé leur trouvaille pour prévenir le monde du danger du deep fake. Or on sait très bien ce qu’il risque de se passer, grâce à ce logiciel désormais le « pouvoir » pourra dire d’une vidéo qu’elle est vraie ou fausse et tout ceci selon son bon vouloir tout en vantant les mérites de ce logiciel formidable … vous me suivez ? Non ? Eh bien on en reparle dans quelques années ….. votre preuve vidéo sera fausse, forcément, la leur sera vraie et avec l’aval des médias.

      +1

    Alerter
    • Haricophile // 08.10.2019 à 18h11

      La Stasi a beaucoup expérimenté ce que vous nous décrivez. Le résultat est que, même si les gens se soumettent et se taisent par peur, ils ne croient plus le commencement du premier mot de ce que les «médias» racontent. Il s’agit bien d’une terrible dictature dans une société totalement démente, mais les images et les mots n’ont plus aucun pouvoir sinon pour exécuter des ordres d’une part, et de ne plus jamais exprimer sa pensée même dans la plus stricte intimité d’autre part.

        +0

      Alerter
  • Afficher tous les commentaires

Les commentaires sont fermés.

Et recevez nos publications