Les Crises Les Crises
6.mars.20196.3.2019 // Les Crises

Le cri d’alarme des experts en intelligence artificielle contre la reconnaissance faciale, “historiquement dangereuse”. Par Sam Biddle

Merci 475
J'envoie

Source : The Intercept, Sam Biddle, 06-12-2018

 

Un homme observe un visiteur en train de tester un appareil de reconnaissance faciale lors de la Conférence mondiale sur l’internet mobile à Pékin, le 26 avril 2018. Photo: Mark Schiefelbein/AP

Pour beaucoup d’entre nous, la reconnaissance faciale est passée rapidement du statut de nouveauté technologique à celui de réalité incontournable de notre quotidien, des millions de personnes étant prêtes à accepter au minimum que leur visage soit scanné par un logiciel d’aéroport, par leur iPhone ou par les grappes de serveurs de Facebook. Mais des chercheurs du AI Now Institute, à l’université de New York, ont émis de sérieuses mises en garde contre l’omniprésence de la reconnaissance faciale mais aussi contre sa parente, plus sinistre, la reconnaissance faciale d’émotions; une technologie qui prétend pouvoir identifier le sens caché de la forme de votre nez, du contour de votre bouche et de la manière dont vous souriez. Si cela semble avoir été exhumé du XIXème siècle, c’est parce que c’est plus ou moins le cas.

Le rapport de l’année 2018 de AI Now est un recueil de 56 pages sur la manière dont « l’intelligence artificielle » (IA) – terme générique qui comprend à la fois une myriade de tentatives scientifiques de simuler le jugement humain et des absurdités marketings – continue de s’étendre sans surveillance, réglementation ou examen éthique approfondi. Les auteurs du rapport couvrent un large éventail d’utilisations et d’abus, y compris des cas de discrimination raciale, de surveillance policière ainsi que des cas où les lois sur le secret commercial peuvent cacher des biais algorithmiques à un public surveillé par l’IA. Dans ce document, les chercheurs du AI Now Institute, créé l’année dernière pour s’attaquer aux répercussions sociales de l’intelligence artificielle, expriment une inquiétude particulière à l’égard de la reconnaissance d’émotions, « une sous-classe de la reconnaissance faciale, qui prétend pouvoir détecter des informations telles que la personnalité, les sentiments intérieurs, la santé mentale et “le niveau d’engagement d’un salarié” en se fondant sur des images ou des vidéos de visages ». Si l’idée que votre patron puisse vous observer à l’aide d’une caméra, qui utilise l’apprentissage machine, pour évaluer en continu votre état mental, est déjà assez grave, la perspective que la police utilise la « reconnaissance d’émotions » pour déduire ce que sera votre future activité criminelle à partir de « micro-expressions » de votre visage, est infiniment pire.

« La faculté d’utiliser la vision artificielle et l’analyse de données de masse pour faire des corrélations conduit à des assertions très suspectes. »

Dans le rapport, les chercheurs expliquent que c’est parce que « la reconnaissance d’émotions » n’est guère plus qu’une version informatisée de la physiognomonie, une branche de la pseudo-science, remontant à une autre époque, qui a été complètement ridiculisée et démystifiée et qui prétendait que l’on pouvait deviner le caractère d’une personne en s’appuyant sur son apparence physique – en particulier sur son visage. Il n’y avait aucune raison de croire que cela fut vrai dans les années 1880, lorsque des personnalités telles que le criminologue italien, Cesare Lombroso, qui fut discrédité, défendait cette théorie, et il y a encore moins de raison d’y croire aujourd’hui. Néanmoins, malgré son manque de fondement scientifique, c’est une idée séduisante, et les entreprises, dont l’activité est centrée sur la gestion de données, ont sauté sur l’occasion qui leurs était donnée de, non seulement, mettre un nom sur un visage, mais aussi d’imputer l’intégralité des schémas comportementaux et des prédictions à quelque lien invisible entre vos sourcils et votre nez, qui ne peut être déchiffré qu’au travers de l’œil d’un ordinateur. Il y a deux ans, des étudiants de l’université de Shanghai ont publié un compte-rendu détaillé de ce qu’ils affirmaient être une méthode d’apprentissage machine pour déterminer le potentiel délinquant des personnes en se fondant sur les seules caractéristiques du visage. Leur publication a été largement critiquée, y compris par Kate Crawford, de l’institut AI Now, qui a expliqué à The Intercept que cela n’était « ni plus ni moins que de la phrénologie… qui utiliserait l’instrument moderne que lui fournit un apprentissage machine supervisé au lieu d’un compas céphalique. »

Crawford et ses collègues, s’opposent maintenant plus que jamais à la propagation de cette espèce d’algorithme de prédiction, régressif sur le plan culturel et scientifique : « Bien que la physiognomonie soit tombée en disgrâce par son association avec la théorie raciale nazie, les chercheurs s’inquiètent d’une résurgence des idées physiognomoniques dans les applications de reconnaissance d’émotions », peut-on lire dans le rapport 2018 d’AI Now. « L’idée que les systèmes d’IA puissent nous dire ce qu’un étudiant, un client ou un suspect ressent vraiment, ou bien le type de personne qu’ils sont intrinsèquement, se révèle être très attrayante pour les grandes entreprises autant que pour les États, bien que les justifications scientifiques de telles affirmations restent extrêmement douteuses et que l’on dispose d’une histoire bien documentée de leur usage à des fins discriminatoires. »

Dans un e-mail envoyé à The Intercept, Crawford, professeure-chercheure émérite à l’université de New York et cofondatrice de l’Institut AI Now avec sa collègue Meredith Whittaker, qui est elle-même, une scientifique reconnue, nous a expliqué, en se référant à deux entreprises qui utilisent l’apparence pour tirer de grandes conclusions sur les gens, pourquoi la reconnaissance faciale d’émotions était aujourd’hui une question plus inquiétante que jamais. « Entre Faception, qui prétend pouvoir “détecter” si une personne est terroriste à partir de son visage, et HireVue, qui pratique l’enregistrement vidéo en masse de candidats en entretien d’embauche pour prédire à partir des micro-expressions de leur visage s’ils seront de bons employés ou pas, la faculté d’utiliser la vision artificielle et l’analyse de données de masse pour faire des corrélations conduit à faire des assertions très suspectes. »

Faception prétend déterminer si une personne est « psychologiquement déséquilibrée », anxieuse ou charismatique en se fondant sur son apparence et HireVue classe les candidats à un poste selon le même principe.

Comme pour tout système informatisé de jugements invisibles et de prises de décision automatisés, la reconnaissance faciale d’émotions comprend un risque immense d’être classé, signalé ou étiqueté de manière erronée, en particulier compte tenu de son faible fondement scientifique : « Comment une personne dont le profil a été établi par ces systèmes peut-elle contester le résultat ? », a poursuivi Crawford. « Que se passe-t’il lorsque l’on s’appuie sur des systèmes d’IA de type boite noire [En programmation informatique, module dont la structure interne est inconnue, NdT] pour porter un jugement sur la vie intérieure ou sur la valeur d’un être humain. Certains de ces produits se réfèrent à des théories extrêmement controversées, qui sont contestées depuis des années dans la littérature psychologique, mais que les start-ups en IA considèrent comme des faits. »

Ce qui est pire qu’une pseudo-science, qui porterait des jugements sur toute personne à portée de caméra, c’est que les algorithmes qui prennent ces décisions sont gardés secrets par les entreprises qui les développent, à l’abri de tout examen rigoureux, cachés derrière le voile du secret industriel. Whittaker pointe du doigt le secret industriel comme étant une interférence dans les pratiques déjà problématiques de la reconnaissance faciale des émotions : « Compte tenu du fait que la plupart de ces technologies sont mises au point par des sociétés à capitaux privés, qui fonctionnent en vertu des lois sur le secret d’entreprise, nous avons fortement recommandé dans notre rapport que des protections soient mises en place dans ces sociétés pour les lanceurs d’alertes relatives aux questions d’éthique ». Ce type d’alerte restera crucial, a écrit Whittaker, parce qu’un grand nombre d’entreprises de données conçoivent la protection de la vie privée et la transparence comme un fardeau plutôt que comme une vertu : « Les justifications changent, mais dans l’ensemble, la plupart des développeurs en IA déclinent toute responsabilité et disent qu’il revient aux clients de décider ce qu’ils veulent faire avec le produit ». Quand la pseudo-science est associée à une ingénierie informatique dernier cri et placée au cœur d’une zone grise en termes de responsabilité… Que voulez-vous qu’il arrive ?

Source : The Intercept, Sam Biddle, 06-12-2018

Traduit par les lecteurs du site www.les-crises.fr. Traduction librement reproductible en intégralité, en citant la source.

Nous vous proposons cet article afin d'élargir votre champ de réflexion. Cela ne signifie pas forcément que nous approuvions la vision développée ici. Dans tous les cas, notre responsabilité s'arrête aux propos que nous reportons ici. [Lire plus]Nous ne sommes nullement engagés par les propos que l'auteur aurait pu tenir par ailleurs - et encore moins par ceux qu'il pourrait tenir dans le futur. Merci cependant de nous signaler par le formulaire de contact toute information concernant l'auteur qui pourrait nuire à sa réputation. 

Commentaire recommandé

Fabrice // 06.03.2019 à 06h53

Les limites sont le résultat qui en ressortira combien de temps une population endurera la détection de modèles détectant le comportement sans justification.

Déjà la surveillance intrusive pour notre sécurité passera mais expliquer que vous êtes viré ou refusé d’accès selon votre faciès du moment cela permet des moments d’anthologie, j’imagine les politiciens faisant un discours avec ce type de logiciel en activité chez les individus ou par les médias.

Les décideurs trouveront moins drôle qu’on leur retourne la politesse, c’est là que l’on peut réellement leur rappeler qu’à malin malin et demi, ils n’aiment pas subir leurs propres medications pour la société 😏

42 réactions et commentaires

  • Fabrice // 06.03.2019 à 06h53

    Les limites sont le résultat qui en ressortira combien de temps une population endurera la détection de modèles détectant le comportement sans justification.

    Déjà la surveillance intrusive pour notre sécurité passera mais expliquer que vous êtes viré ou refusé d’accès selon votre faciès du moment cela permet des moments d’anthologie, j’imagine les politiciens faisant un discours avec ce type de logiciel en activité chez les individus ou par les médias.

    Les décideurs trouveront moins drôle qu’on leur retourne la politesse, c’est là que l’on peut réellement leur rappeler qu’à malin malin et demi, ils n’aiment pas subir leurs propres medications pour la société 😏

      +31

    Alerter
    • Glbert Gracile // 06.03.2019 à 19h08

      moi j’aimerais qu’on commence à parler d’internet… 7 personnes détiennent par exemple les clefs du réseau (zone racine de l’ICANN). Si une personne met la main dessus, elle dirige tout internet. Internet c’est pas un média “virtuel”, mais un ensemble de câbles, de data-centers, de serveurs, de neuds, et d’alimentation électrique immense. Tout cela est conçu, construit et possédé par quelques grandes puissance opaques. Seule la Chine possède un internet à peu près indépendant. Tout le reste est sous contrôle de la NSA (cf. Snowden). Les citoyens n’ont aucune capacité à s’extraire du flicage totalitaire d’internet qui est en train d’absorber nos vies. Et ne me parlez pas des hackers qui sont l’équivalent d’un forcené retranché dans son appartement face à une armée mondiale. Nous sommes technologiquement dominés et dépendants.

        +12

      Alerter
      • Thmos // 08.03.2019 à 09h24

        Pourriez-vous nous présenter cet internet matériel, factuel , l’usine à gaz et sa direction dont nous ignorons tout ?

          +3

        Alerter
    • Nicolas ANTON // 07.03.2019 à 09h42

      Ne soyons pas trop naïf quand à l’utilisation faite vis à vis des faces de politiques : Selon que vous serez puissant ou misérable les logiciels de reconnaissance faciale vous feront blanc ou noir ..

        +6

      Alerter
  • Fritz // 06.03.2019 à 07h03

    Pour l’instant, j’échappe au flicage du faciès. Je ne prends jamais l’avion, je n’ai pas d’aïephone, ni de profil fesse-bouc. Bon, je n’échappe pas aux caméras de vidéosurveillance… Oups, de vidéo”protection”.

      +11

    Alerter
    • charles // 06.03.2019 à 10h23

      vous ne pourrez pas y échapper très longtemps.. ya des caméras partout en france, pas comme en chine non plus, mais si vous regardez bien vous êtes filmé tous les jours, et une seule image suffira à vous tracker…

        +8

      Alerter
      • jp // 06.03.2019 à 15h18

        les caméras ne servent pas à grand chose … pour le moment : je fais régulièrement des doigts d’honneur à l’une d’entre elle parce ça m’agace d’être filmé tous les 50 m et j’attends toujours une réponse.
        Quant à voler de la bouffe dans les magasins équipés de caméras, c’est un jeu d’enfant…

          +4

        Alerter
  • Kesse // 06.03.2019 à 07h13

    Ce type d’entreprises sont basés sur de la pseudo-science mais cela ne veut pas dire que leurs effets soient nuls. Elles obtiennent:
    – de la prédicabilité et de la discrimination,
    – du contrôle social,
    – des données pour faire d’autres conneries avec.

    Nul doute qu’elles trouveront du financement.

    Cela me fait penser à la neuroscience dont les plus grandes applications consistent à avoir calculé, scanner du cerveau et algorithme d’apprentissage à l’appui, le rythme moyen d’attention à la publicité. Le financement de ce type de recherche est devenu massif et si une recherche fondamental sur ce sujet n’est pas dénuée d’intérêt, il y a tout de même peu de chance que, dans un délai raisonnable (10/30 ans), cela aboutisse à mieux qu’un listings d’idées idiotes pour dictature soft. Étrange que cet article n’en fasse pas mention, peut-être le nom fait-il moins peur que IA.

      +13

    Alerter
  • Myrkur34 // 06.03.2019 à 07h14

    Nos chers députés pourraient s’emparer de la question et voter une loi interdisant toute cette pseudo-quincaillerie intello-scientiste mais j’ai comme un doute vu que le secret des affaires est désormais plus important que le secret de la vie privé.
    En fait le démantèlement de la vie privé n’est qu’un énième avatar pour faire de l’argent facile en faisant n’importe quoi grâce aux algorithmes de l’IA, un peu comme la fable des caméras empêchant la délinquance qui permettent juste de construire un dossier de constatation des faits, point barre.

      +17

    Alerter
    • raloul // 06.03.2019 à 07h30

      Bonjour !

      Si les politiques ne veulent pas s’emparer du thème pour limiter ces dérives techno-totalitaires, il va falloir les contraindre, par la force s’il le faut.
      La résistance a bien lutté contre les nazis, pourquoi serions-nous incapables d’identifier ces graines de «facistes» authentiques et les vaincre?

      Oui je suis extrême, mais la situation l’est…

        +10

      Alerter
      • Czerny // 06.03.2019 à 09h50

        Je suis d’accord avec vous ,mais vous pensez lutter avec qui ? Des millions de mécontents dans le pays et 50 000 seulement dans la rue le samedi.Les autres regardent faire ,commentent sur les forums et zappent ,parce qu’ils ont assez de surgelés dans le frigo pour la semaine et ne se sentent pas concernés plus que ça.Les 20-30 ans ,je ne les compte même pas.Qu’attendre d’une génération, incapable de situer son propre fondement sans l’aide d’un gps ? L’élite par contre ,bien que minoritaire, est unie ,organisée et prête au conflit comme le prouvent les événements des derniers mois.

          +15

        Alerter
        • Geof’ // 06.03.2019 à 10h58

          je ne suis pas d’accord : les gens connaissent la menace mais sont trop lâches pour agir (et pas très fort en organisation : les GJ).

          ce n’est pas très malin de prendre un couteau pour “tuer du policier”, d’abord parce que c’est un peu illégal, et ensuite parce que ça n’apporte pas de solution…

          c’est quand on a la solution qu’on règle les problèmes un à un…

          MOI ? j’ai la solution, c’est le communisme 2.0, mais trop de gens (30%, la classe moyenne) sont encore trop égoïstes..la masse critique n’est donc pas (encore) atteinte…d’où l’inutilité du mouvement/ineptie. Là-dessus, on est raccord…

          Geof’-Rey, neo-communiste belge

            +2

          Alerter
          • jp // 06.03.2019 à 15h13

            le salariat en France représentait 30% de la population active en 1881, 40% en 1906, 50% en 1934 et plus de 80% en 1996, auquel il faut ajouter les chômeurs. (chiffres pris dans le livre “le nouvel esprit du capitalisme’ de Boltanski et Chiapello)
            le communisme a donc été au top quand le nombre de salariés était plutôt faible par rapport à aujourd’hui. Alors la masse critique, c’est quand ?

              +3

            Alerter
  • Pierre D // 06.03.2019 à 07h44

    Les leçon du scientisme, cancer du XXe siècles ne sont pas tirées.

    Celui-ci continue à servir d’alibi dérisoire au service des discours sur la “sécurité des États” … qui se protègent contre leurs citoyens.

      +11

    Alerter
  • RGT // 06.03.2019 à 08h16

    “Intelligence artificielle” ?

    Il n’y a AUCUNE intelligence dans ces MERDICIELS de deep learning (apprentissage profond”.
    Même caenorhabditis elegans, un petit ver nématode d’un millimètre de long, contenant exactement 959 cellules dont 302 neurones est infiniment plus intelligent que toutes les machines et tous les “logiciels” existants.

    Ce ver existe depuis des centaines de millions d’années et a réussi à survivre à la sélection naturelle grâce entre autres à son système nerveux qui lui permet de modifier son comportement de manière adaptée et cohérente vis à vis des changements de son environnement.

    Essayez simplement de lâcher une “IA” dans la vraie vie pour rigoler un bon coup.
    Non seulement elle est totalement incapable de subvenir à ses propres besoins mais de plus ses “décisions” la mèneront directement à être classée “hors concours” dans les Darwin Awards (http://www.darwinawards.fr/).

    De plus, il est très facile de tromper une “IA” : Il suffit simplement de placer dans le champ de vision un petit logo coloré et alambiqué et on lui fait prendre des chatons choupinous pour des tyranosaures…

    C’est beau “d’analyser” des milliards d’images ou de données en quelques secondes mais encore faut-il être capable de déterminer leur contenu réel et d’en déterminer une certaine pertinence.

    Le cerveau humain est capable naturellement de reconnaître entre 1 000 et 10 000 visages instantanément, et les scientifiques n’arrivent toujours pas à savoir comment.
    Essayer de reproduire un tel comportement pour l’instant totalement inconnu est de la pure fumisterie.

      +20

    Alerter
    • Pierre C // 06.03.2019 à 09h30

      Bonjour,

      Vous confondez l’intelligence de manière générale et l’IA. L’IA c’est un terme générique et marketing. L’IA, c’est une arborescence de choix avec des probabilités de victoire aux échecs. L’IA, c’est un deep learning dans le jeu de GO. L’IA, c’est un script déterminant le meilleur chemin pour un jeu de course de voiture. L’IA c’est aussi un algorithme assez complexe de vente/achat dans la bourse. L’IA c’est les phares qui s’allument tous seuls dans la voiture quand il fait sombre.L’IA c’est la reconnaissance d’image via deep learning.

      L’IA n’est pas intelligente, elle est programmée, de façon plus ou moins volontaire*, pour remplir une tâche. Un nématode est adapté à son environnement, mais ne sait pas acheter/vendre des actions en bourse. Une IA de la Bourse ne sait pas piloter une voiture de course dans un jeu vidéo. Une IA de jeu vidéo est incapable de survivre dans un milieu aquatique (ben oui, l’IA est ne l’oublions pas un circuit imprimé). Une IA n’a jamais été conçue pour “survivre” dans le “monde réel”. En cela, il n’est pas pertinent de comparer les réactions d’une IA et d’un être vivant dans un contexte de survie (Darwin Award).

      * Je m’explique : coder une IA pour avancer ou reculer selon la luminosité ambiante, c’est très simple. L’humain sait exactement prédire les réactions de l’IA. Un deep learning est plus complexe. L’humain sait quel cadre il a donné à l’apprentissage de l’IA, mais ne saura jamais prédire à 100% la réaction de l’IA.

        +10

      Alerter
      • Pinouille // 06.03.2019 à 15h18

        Et il est hautement probable que l’IA de dans 10,20,30,… ans, n’aura aussi rien à voir avec celle actuelle dont vous parlez si bien.

          +1

        Alerter
        • Sandrine // 06.03.2019 à 20h29

          « Hautement probable ». Pas sûr. L’IA actuelle est basée sur des découvertes qui datent au mieux des années 80 (les méthodes d’apprentissage profond). Depuis on a rien inventé ni découvert de très transcendant.

            +2

          Alerter
    • jp // 06.03.2019 à 23h05

      intelligent ou pas, en chine, dans une ville, il y a un “merdiciel” qui envoie un jet d’eau dans les jambes des piétons qui traversent au feu “rouge piéton”, j’y pense chaque fois que je traverse n’importe comment (ce que j’évite de faire quand il y a des gosses autour de moi pour ne pas montrer le mauvais exemple).
      Il faudrait juste que le merdique truc reconnaisse les cannes jaunes et blanches, c’est pas pour demain

        +0

      Alerter
  • Toff de Aix // 06.03.2019 à 08h27

    À mettre en rapport avec la dernière loi votée par La République En Miettes à l’assemblée, la “loi anti casseurs”, ou un amendement propose par un député, à été rejeté in extremis : il demandait à ce que ce dispositif de reconnaissance faciale soit couplé avec la videosurveillance.

    Plus concrètement, en Chine dans certaines provinces c’est déjà une réalité : on flique toute une population, et on le leur fait savoir. https://www.google.com/amp/s/www.clubic.com/amp/849079-lutter-abus-chine-equipe-hlm-serrures-reconnaissance-faciale.html
    Les élèves là bas sont équipés de tracking GPS, certaines villes expérimentent même un système très avancé :https://www.bfmtv.com/tech/chine-apres-la-reconnaissance-faciale-la-reconnaissance-de-la-demarche-1561160.html

    Ce genre de système à déjà été décrit dans une… Série de fiction, que je vous conseille : Black Mirror. Ou comment le meilleur de la technologie rencontre le pire de l’humain. Car, quoi qu’on en dise, ces “avancées” ne sont que des outils, qui pourraient être utilisés autrement, dans un but d’entraide et de progression pour toute l’humanité par exemple. Nos “élites” semblent en avoir décidé autrement… Pour notre plus grand malheur.

      +23

    Alerter
    • Haricophile // 06.03.2019 à 15h43

      C’est le problème de donner une mitraillette chargée a un singe en considérant qu’il est trop raisonnable pour s’en servir.

        +3

      Alerter
  • RGT // 06.03.2019 à 08h30

    La poussée de “l’intelligence artificielle” n’est qu’un gros buzz destinée à financer un business très fructueux pour les entreprises qui développent ces systèmes.

    Et bien sûr, comme d’habitude, les “décideurs” idiots pensent sincèrement que ces systèmes “high tech” permettront de résoudre les problèmes qu’ils ont allègrement semé en suivant leurs décisions “pertinentes”.

    Si un “marchand de cravates” leur propose un dispositif permettant de se débarrasser de tous ceux qui critiquent leurs “actions exemplaires” sans avoir besoin de faire intervenir des humains (qui ont démontré leur incapacité à commettre des actes ignobles suggérés par leurs “dirigeants – cf les soldats durant la 2nde guerre mondiale qui devenaient presque tous dépressifs) ils seront prêts à dépenser des fortunes (payées par les cons-tribuables) pour parvenir à leurs fins.

    Ensuite, s’il y a de très nombreuses “bavures” ils viendront pleurer en prétendant “qu’ils ne savaient pas”.
    En attendant ils auront fait de très nombreuses victimes et les “créateurs” de ces “machins” se seront envolés sans avoir remboursé le montant des “investissements” ni indemnisé les victimes de cette ignominie.
    C’est aussi ÇA le “libéralisme” : Tout est bon pour faire un max de fric en un minimum de temps.

      +12

    Alerter
  • Lucien // 06.03.2019 à 08h33

    Il y a de nombreux escrocs qui prétendent analyser les personnalités , les qualités , les performances … des personnes en se fondant sur tout un tas de facteurs corporels et il y a tout un tas de pigeons qui s’y jettent tête baissée et ruinent certaines carrières .un vrai sujet

      +5

    Alerter
    • Kiwixar // 06.03.2019 à 10h25

      La France est (ou a été) un des rares pays au monde a utiliser la graphologie pour son recrutement…

        +6

      Alerter
  • Alfred // 06.03.2019 à 08h51

    Ces histoires d’ia ont été inventées par des humains intelligents pour discriminer les humains crétins qui en deviendraient adeptes pour les éliminer non? Non?

      +3

    Alerter
    • Haricophile // 06.03.2019 à 15h40

      Jamais l’intelligence artificielle ne sera a la hauteur de la bêtise naturelle !

        +2

      Alerter
  • calal // 06.03.2019 à 09h24

    https://www.contrepoints.org/2019/03/06/338724-comment-les-entreprises-ameliorent-aujourdhui-leur-performance-grace-a-lia

    l’ia ne serait que de l’informatique a grande echelle.Idem pour la reconnaissance faciale qui est permise par la miniaturisation des cameras et la baisse de leur cout. Avant un systeme d’alarme pour une maison individuelle coutait plus de 1500 euros alors qu’on peut en trouver actuellement pour 200 euros sur des sites de vente en ligne chinois.

    Pour les paranoiaques misanthropes qui voient dans les autres etres humains non pas leur semblable mais leurs predateurs voir une meute de predateurs,il y a de quoi s’alarmer et s’armer.

      +2

    Alerter
  • Kokoba // 06.03.2019 à 10h19

    Les classes dirigeantes ont toujours eu ce phantasme de discrimination par l’apparence.

    Dans un film, le méchant sera moche et laid.
    Le héros, lui, est grand, blond aux yeux bleus.

    Sur BFM, le gilet jaune est vieux, mal habillé, il parle avec hésitation.
    Mais le patron du CAC40 est grand, élégant, porte un beau costume, la machoire carré, les yeux bleus acier.

    Bien entendu, la meilleure discrimination reste la couleur de peau mais comme ce n’est pas “politiquement correct” aujourd’hui, on va trouver autre chose.

      +13

    Alerter
    • Haricophile // 06.03.2019 à 15h37

      «Bien entendu, la meilleure discrimination reste la couleur de peau mais comme ce n’est pas “politiquement correct” aujourd’hui, on va trouver autre chose.»

      Il y a des solutions de contournement, renseigne-toi sur la vraie raison de la «lutte contre la drogue» et de son histoire.

        +0

      Alerter
    • RGT // 07.03.2019 à 23h19

      Ne vous en faites pas, les merdiciels d’IA sont très impliqués dans la discrimination en fonction de la couleur de peau.
      De nombreux scientifiques tirent d’ailleurs la sonnette d’alarme en signalant dans leurs rapports d’études des systèmes d’IA les plus avancés que ces systèmes ont des biais “cognitifs” très marqués avec des résultats de reconnaissance faciales d’hommes blancs à peu près cohérents, qui chutent avec les femmes blanches, s’effondrent avec les hommes à la peau sombre (plus la peau est sombre plus les résultats sont lamentables).
      Quand aux femmes noires, elles sont bien sût tout en bas de l’échelle, particulièrement si leur peau est sombre. Il en va de même avec un blonde aux yeux bleus qui a abusé du bronzage d’ailleurs.

      Le plus dangereux dans l’immédiat concerne les véhicules “autonomes” qui confondent les personnes hâlées avec des animaux ou du mobilier urbain.
      Le jour où ces véhicules pourront circuler librement ce sera l’hécatombe, mais nos “décideurs” s’en foutent ils sont blancs et sont financés par les entreprises qui conçoivent et commercialisent ces “terminators”.

      La cause principale de “racisme” de ces machines provient de leur absence totale d’intelligence et surtout du “deep learning” qui leur montre surtout des images d’hommes blancs.

      Les mêmes biais que pour les “tests de QI” (grosse fumisterie) qui sont calibrés pour des blancs de culture chrétienne ayant fait leurs études dans un système scolaire occidental.

        +1

      Alerter
  • charles // 06.03.2019 à 10h26

    j’y voit le constat que la raison à définitivement pliée devant la nécessité économique.

    ce que vous appelez des “ingénieurs” selon moi, ne sont souvent, que des matheux ratés cynique qui se rabatte sur un projet porteur de pognon.. et on laissera faire parce qu’il faut bien les occuper.

      +0

    Alerter
    • toutou // 06.03.2019 à 14h48

      Je ne vois pas bien ce que vient faire le cynisme ici Charles. Je crois surtout que les ingénieurs, ils font comme tout le monde, ils doivent payer leurs factures et il vont faire ce que les entreprises leur proposent de faire aujourd’hui. Et si on est dans l’informatique, c’est intellectuellement plus intéressant de concevoir une “mini-intelligence” que pondre des tableaux de gestion.

      Je pense que le problème de fond est qu’on est dans la science sans conscience, voire dans la pseudo-science sans conscience. Si la première est ruine de l’âme, qu’est-ce-que la seconde?

        +4

      Alerter
      • Pinouille // 06.03.2019 à 16h34

        “ils doivent payer leurs factures”
        Oui bon… Histoire de relativiser, la personne à la tête du département de développement de l’IA chez google (un français si je ne m’abuse) a touché une prime d’objectif de 100 millions de $.

          +0

        Alerter
        • toutou // 06.03.2019 à 20h48

          En “relativisant” comme vous on fait passer les 0.001% des ingénieurs dans l’IA pour une généralité, Pinouille. En France les postes dans le domaine de l’IA sont tellement courus que les salaires sont à la baisse, malgré la pénurie générale d’ingénieurs en informatique.
          Je viens de faire une recherche sur Indeed pour voir les salaires proposés: en CDI de 35 000 € à 55 000 €.
          Ce sont des salaires plutôt corrects, je le concède, mais on reste loin des 100 000 000 € de prime d’objectif chez Google, leader ou presque dans les technologies d’IA aujourd’hui.

            +0

          Alerter
  • Kiwixar // 06.03.2019 à 10h34

    Les “crises” (changement radical de notre mode de vie) vont se succéder, et avec chacune d’elles vont se mettre en place un contrôle/supervision de plus en plus poussé de l’individu, jusqu’à atteindre (même en France) la supervision/notation totale à la chinoise.

    Abolition du cash, annihilation d’un individu, d’un clic.
    Pour les plus retors, un “retirement” par drone automatique IA avec reconnaissance faciale.

    Il ne reste plus beaucoup d’années avant qu’une révolte GJ soit encore possible…

    Pour lutter : nos propres drones armés, et les lasers aveuglants.

      +3

    Alerter
  • Xavier // 06.03.2019 à 10h34

    Vouloir pointer du doigt les risques éthiques en se préoccupant de catégories me semble une erreur trop grossière pour ne pas être un contre-feu afin d’endormir les citoyens sur le principal.

    Dire que l’IA peut poser des problèmes de racistes (etc.), c’est refuser de voir que l’IA en elle-même n’est qu’un asservissement à la productivité, une aliénation totale de TOUS les individus à une logique commune, en résumé un fascisme.

    L’IA ne permettra plus la fuite, seule approximation de la liberté.

      +5

    Alerter
  • Babar // 06.03.2019 à 11h13

    Il y a un biais entre le titre, qui centre sur la reconnaissance faciale, qui me parait de fait hautement performante , ne serait ce que pour le verrouillage des smartphones et sa large et redoutable utilisation en Chine pour catégoriser les individus. Cette technologie en effet doit être étroitement controlée et limitée.
    Le contenu du texte, par contre, cible l’analyse des modifications du visage sous l’effet des émotions voire de la signification prédictive de la morphologie, qui parait peu scientifique et ressemble plus à une arnaque et vise à gagner de l’argent par tromperie. Il ne faut pas se tromper de cible. La seconde est plutôt à interdire sans tarder

      +0

    Alerter
  • Haricophile // 06.03.2019 à 15h32

    Qu’il est loin le temps où en Angleterre posséder une carte d’identité était une atteinte au droit des personnes a être elles même.

      +1

    Alerter
  • Rémi // 06.03.2019 à 15h42

    Il suffirait de légiférer:
    -Article 1: Tout systéme doit être documenté de manière à ce que la justice puisse comprendre les fondements de la decision.
    -Article 2: L’article 1 s’applique aux jugement civils. L’entreprise peut demander que la documentation soit examinée à huit clos.
    -Article trois: En cas de condamnation, (Deux possibilité) indemnisation de tous ceux ayant subit un refus en cas de condamnation de l’algorythme par le tribunal, ou indemnisation assortie d’une amende massive pour le trouble causé à la société.
    -Article quatre: Toute société proposant des decisions par algorythme doit être assurée pour couvrir une condamnation.
    Ca fait une loi courte et ca découragera tout ceux qui voudraient faire des IA inneficaces.
    Je vous rassure ca ne passera pas, ce n’est pas “Business Friendly”

      +4

    Alerter
  • Sybillin // 06.03.2019 à 17h49

    l’IA qui analyse des milliers de paramètres pourrait être un outil performant (peut être est il utilise !) en sciences par exemple dans la recherche sur le cancer ou pour trouver des solutions aux changements du climat, bref cela pourrait être un facteur de progrès pour l’humanité! On a plutôt l’impression que l’IA est utilisée à des fins de manipulation et donc de pouvoir et bien sûr de profit rapide et facile.

      +4

    Alerter
  • Trollman, le héro des temps modernes // 12.03.2019 à 16h34

    Je pense que c’est une bonne chose afin de pouvoir arrêter préventivement les personnes amenées à commettre des crimes et délits et ainsi accéder à une société enfin pacifiée !

    Les arrestations préventives sont une bonne chose. Regardez tout ces gilets jaunes mis en garde à vue préventive, avant même qu’il rejoignent les manifestations : cela a permis de protéger nos valeureuses forces de l’ordre des futurs (et certains) actes de violences de tous ces feignants (comme des jets de lunettes de piscines ou de sérum physiologique -> ce qui fait très mal quand on est peu protégé comme nos exemplaires gardiens de l’ordre).

    Je pense que nous devrions y aller franchement, en enregistrant le visage de tous les citoyens dans une base de donnée nationale, puis leur attribuer une note citoyenne (un peu comme en Chine qui sont à la pointe du progrès dans ce domaine). Cette note rendrait compte de la propension des gens à la violence, à la sédition, à la désobéissance en fonction de leur faciès, afin de pouvoir, si besoin, les enfermer préventivement et ainsi vivre en tout sécurité dans le pays des droits de l’homme.

    Vive notre bien aimé leader suprême !

      +1

    Alerter
  • Afficher tous les commentaires

Les commentaires sont fermés.

Et recevez nos publications