Les Crises Les Crises
26.avril.201926.4.2019 // Les Crises

“Big Data” et intelligence artificielle : comprendre sans expliquer (et réciproquement). Par Hubert Krivine

Merci 75
J'envoie

Source : Librairie Tropiques, Viktor Yugov, 23-10-2018

La conférence d’Hubert Krivine autour de son livre “Comprendre sans prévoir, prévoir sans comprendre“, suivie d’un débat fort instructif et très bien informé sur les questions des “Big data” , des “réseaux de neurones artificiels et des problèmes posés par la dérive actuelle des techniques désormais désignées comme relevant de l’Intelligence Artificielle…

L’apprentissage automatique

Dans le domaine de l’intelligence artificielle (IA), on parle d’apprentissage automatique lorsqu’un programme « apprend » à résoudre un type de problèmes : par exemple traduire un texte, reconnaître des objets dans une image, choisir une stratégie dans un jeu de société…

Pour comprendre la spécificité de l’apprentissage automatique en IA, regardons d’abord un programme « classique » de jeu d’échecs : à partir d’une situation de jeu donnée, il simule les nombreuses suites de coups possibles, évalue la qualité des situations futures, et choisit de jouer le coup qui maximise ses chances de gagner. En apprentissage automatique, on ne fixe pas la stratégie une bonne fois pour toutes : le programme joue un grand nombre de parties et « apprend » à reconnaître les bons coups et les jouer. On peut espérer qu’après une longue suite de parties, d’essais et d’erreurs, il adopte une stratégie raisonnablement efficace.

Ces deux méthodes sont très différentes. Dans le cas classique, le comportement du programme est identique pour toutes les parties : la stratégie qu’il utilise a été préalablement codée par l’humain. Dans le cas de l’apprentissage automatique, la stratégie n’est pas fixée : elle évolue au fil des parties selon une règle codée par l’humain.

La situation est alors paradoxale pour le concepteur : d’un côté, il est capable de comprendre le processus d’apprentissage, puisque c’est lui qui l’a codé, et d’un autre côté, la stratégie effectivement utilisée par le programme peut lui être totalement inintelligible.

Un programme qui « apprend » peut nous paraître nettement plus intelligent qu’un programme qui se contente d’appliquer la même stratégie dans toutes les situations. Cependant, pour qu’un programme apprenne efficacement, il est nécessaire de l’entraîner, parfois sur un très grand nombre d’exemples (ou de parties, dans le cas des échecs).

Supposons que l’on veuille utiliser l’apprentissage automatique pour concevoir un logiciel de traduction entre le français et l’anglais. Il est absolument nécessaire de disposer d’un grand corpus de textes écrits en français et en anglais pour que le programme puisse s’entraîner. Par exemple, en comparant la version française de la version anglaise d’un même texte, il constate qu’à chaque fois que le mot « hallebarde » apparaît dans la version française, le mot « halberd » apparaît dans la version anglaise. Il apprendra donc à traduire « hallebarde » par « halberd ».

Dans l’exemple précédent, on peut facilement deviner une limite majeure de cette technique. Supposons qu’après l’apprentissage de ce traducteur automatique, on veuille traduire la phrase « il pleut des hallebardes ». Si cette expression n’est pas apparue telle quelle dans le corpus, elle sera inévitablement traduite par… « it rains halberds », qui n’est pas une expression anglaise idiomatique. On lui aurait sans doute préféré « it rains cats and dogs ».

Pour faire une analogie scolaire, tout se passe comme si un élève (le programme informatique) apprenait à résoudre un type d’exercices en ne lisant que les annales et les corrigés (les textes du corpus). Après un tel entraînement, le programme est généralement capable de traduire correctement les textes proches de ceux du corpus, mais risque de donner des traductions absurdes face à des textes radicalement différents… tout comme l’élève qui bachote les annales risque d’être perdu devant un exercice totalement nouveau.

Les réseaux de neurones artificiels

Les réseaux de neurones artificiels sont une technique d’apprentissage automatique, dont la conception s’inspire des réseaux de neurones biologiques : de petites unités de calcul, les neurones, traitent les signaux qu’ils reçoivent, puis envoient le résultat de leur calcul à d’autres neurones.

Dans leur version artificielle, les neurones ont été considérablement simplifiés pour être facilement codés et intégrés dans un programme informatique. Bien qu’ils existent depuis les années 1950, les réseaux de neurones étaient peu connus avant les années 2010. Cette époque correspond à la fois à des avancées dans les réseaux de neurones spécialisés dans le traitement d’images, et à la mise à disposition de très grands jeux de données d’entraînement.

Pour comprendre ce que fait un réseau de neurones, utilisons-en un pour résoudre un problème de classification d’images. On veut un programme capable de classer chaque image selon son contenu : si une image contient un vélo, on la classe de type ‘A’, sinon, on la met en type ‘B’. Pour entraîner correctement ce réseau de neurones, il faut un ensemble d’entraînement, c’est-à-dire un échantillonnage d’images où chaque image est accompagnée de sa catégorie.
Le comportement typique d’un réseau de neurones consiste à calculer des corrélations1 de formes entre les images de type ‘A’, les distinguant des images de type ‘B’.

1 Techniquement, un réseau de neurones ne « cherche » pas de corrélations, mais un algorithme complémentaire modifie le réseau petit à petit pour en améliorer les performances. Toutefois, au cours de l’apprentissage sur un grand nombre d’exemples, tout se passe comme si le réseau établissait effectivement des corrélations.

 

Par exemple, des pixels sombres formant à peu près un cercle apparaissent fréquemment dans les images de type ‘A’. On peut l’associer à la “catégorie objectivée comme” pneu. Cette donnée est encore insuffisante pour “induire” la présence d’un vélo (ce peut être un pneu de voiture… ou un cerceau noir), mais combinée à d’autres corrélations associables à des catégories (identification d’une chaîne, d’un guidon, etc.), elle rapproche le programme de la bonne réponse.

Ces exemples de corrélations sont simplistes : en pratique, il est difficile, voire quasiment impossible, de reconstituer toutes les corrélations identifiables. De plus, celles-ci ne sont pas forcément « sensées » : par exemple, si toutes les images de l’échantillon qui contiennent un vélo ont été prises de nuit, le réseau de neurones associera une image sombre à la présence d’un vélo sur l’image.

Outre la performance des réseaux de neurones pour le traitement d’image, ceux-ci ont deux qualités qui ont largement contribué à leur succès. Tout d’abord, l’utilisation de réseaux de neurones est aujourd’hui à la portée de toute personne qui sait programmer. Ensuite, leur fonction de repérage de corrélations entre les données peut être appliquée à de nombreux problèmes très éloignés du traitement d’image, comme la traduction ou le jeu de go. En plus de cela, les masses de données nécessaires à l’entraînement des réseaux de neurones sont aujourd’hui disponibles (notamment les données récoltées par google, facebook, twitter, etc.).

Pour résumer, l’engouement massif pour les réseaux de neurones provient de leur facilité technique de mise en oeuvre et leur capacité dédiée à établir des corrélations entre les éléments de n’importe quel ensemble de données, ce qui est très efficace pour certaines tâches. Cependant, on est bien loin d’une quelconque intelligence autonome capable d’imagination ou d’initiative propre.
En outre son adaptabilité fonctionnelle est rudimentaire, limitée et surdéterminée.

Un réseau de neurones est une suite de lignes de code écrite en langage informatique, conçue par un humain, programmée pour effectuer une tâche déterminée par un humain, enchainant des opérations conçues par un humain, à partir de données sélectionnées par un humain, implantée sur des machines capables de traiter ces données en masse et dotées des (considérables) performances de calcul nécessaires à ce traitement massif.

C’est le caractère empirique et sommaire de la logique requise pour ce type de programmation qui permet de l’affranchir des préalables d’analyse et d’optimisation complexe requis dans les dispositifs algorithmiques traditionnels. Cet avantage pratique a cependant pour effet de rendre très difficile, pour l’humain qui a pourtant conçus de tels programmes, l’analyse récurrente du résultat qu’ils produisent. En effet les résultats de sont pas obtenus par une opération de “raisonnement” modélisée en calcul – donc susceptible d’une vérification “humaine”, mais par un traitement statistique “brut” empirique et réitéré. La difficulté est donc à la mesure de la puissance de calcul répétitif mobilisée, pour analyser un ensemble d’éléments « discrets » et hétérogènes… donc du temps et de la mémoire simultanément requis pour scruter et opérer mentalement ces masses énormes de données et en synthétiser le résultat statistique.

 

Des choix cachés

Pour donner une idée de la responsabilité de l’humain en apprentissage automatique en général, et des réseaux de neurones en particulier, prenons un exemple.

En juillet 2015, google a dû s’excuser pour le comportement raciste de leur mécanisme de reconnaissance d’images2 : il avait identifié comme « gorilles » des personnes noires. Il est difficile de connaître l’origine exacte de l’erreur, mais on peut raisonnablement proposer deux pistes. Premièrement, l’ensemble des images composant l’échantillon d’entraînement pouvait contenir trop peu de personnes noires. Dans ce cas, le réseau de neurones dispose de trop peu d’exemples pour apprendre à les identifier correctement. Deuxièmement, il est habituellement bien plus facile pour un réseau de neurones de trouver des corrélations de couleur entre les images que des corrélations de formes ou de traits. D’où la difficulté pour eux de placer dans la même catégorie les humains blancs et les humains noirs, au point d’assimiler ces derniers aux gorilles.

Le problème a été résolu de façon expéditive : google a retiré de son échantillonnage d’entraînement les images de gorilles, qui ne sont donc plus “reconnus”*. En janvier 2018, aucune autre solution n’avait été trouvée3.

3 https://www.theguardian.com/technology/2018/jan/12/google-racism-ban-gorilla-black-people.

* NdE : Google a probablement misé sur le fait que, en dépit de ce mépris flagrant des gorilles, ces derniers n’allaient pas engager d’action contre leur produit. Il demeure pourtant possible que, dans le contexte actuel, une ONG bienveillante à l’encontre de ces sympathiques primates menacés d’extinction contraignent les concepteurs à revoir leur copie au motif du caractère discriminatoire de leur “panel”.

Le sens de l’humour est un exemple de capacité humaine pour l’instant inaccessible aux réseaux de neurones, surtout si leur échantillonnage d’apprentissage et/ou le concepteur du programme qui les exploite en est dépourvu.

Cette histoire souligne la responsabilité des concepteurs dans le comportement de leurs programmes. Même s’ils sont incapables de comprendre la stratégie finale adoptée par le réseau de neurones, ils la maîtrisent de A à Z : ils ont choisi les données d’entraînement, le type de réseau de neurones, les données de test (pour vérifier que le programme fonctionne correctement avant de le diffuser) et l’objectif à atteindre. Toutes ces étapes sont sujettes à discussion : les concepteurs ont-ils introduit leurs propres biais dans les données d’entraînement ? a-t-on vérifié que le type de réseau de neurones choisi n’était pas sensible à certaines erreurs ? l’a-t-on testé sur des données suffisamment diverses avant de le distribuer ? etc.

Dans une période où il est de plus en plus simple d’utiliser des réseaux de neurones et où les données d’entraînement n’ont jamais été aussi accessibles, il peut être tentant pour des particuliers ou des entreprises d’appliquer cette technique dans tous les domaines4 et sans aucun scrupules5, tant que « ça marche » (i. e. tant qu’il y a profit ou promesse de profit)…

Pierre Wolinski

4 À ce titre, les réseaux de neurones alimentent la bulle spéculative du transhumanisme, phénomène très bien décrit par C. Perragin et G. Renouard : https://www.monde-diplomatique.fr/2018/08/PERRAGIN/58988.

5 On se rappellera l’étude de EU Disinfo Lab, parue durant l’affaire Benalla, qui classifiait les utilisateurs de twitter en fonction de leur « russophilie » et de leur couleur politique supposée : https://spark.adobe.com/page/Sa85zpU5Chi1a/. Bien qu’aucun réseau de neurones ne semble avoir été utilisé, les auteurs se sont abondamment servi des données « publiques » disponibles sur chaque utilisateur de twitter pour faire des corrélations en fonction des critères qui les arrangeaient.

Postface

Finalement on s’aperçoit que la difficulté pratique qu’il y a à contrôler le modus opérandi des réseaux de neurones artificiels est en rapport direct mais inverse avec l’atomisation des opérations “machine” ainsi “optimisées”, et directement proportionnelle à la croissance exponentielle des opérations rudimentaires qui en résultent sans ordonnancement déterminé.

C’est la contrepartie de l’économie réalisée au stade préalable de la conceptualisation et de l’analyse d’un éventuel “programme expert” équivalent.

Ce type d’intelligence de synthèse présente donc le tour paradoxal d’être particulièrement “bourrin” mais rendu efficace par l’investissement préalablement accumulé par l’humain en matière de créativité de conception des calculateurs qui “boostent” ces “neurones” rudimentaires, et en font des outils bien adaptés à leur usage statistique appliqué à de très grosses masses de données.

Viktor Yugov

Source : Librairie Tropiques, Viktor Yugov, 23-10-2018

Nous vous proposons cet article afin d'élargir votre champ de réflexion. Cela ne signifie pas forcément que nous approuvions la vision développée ici. Dans tous les cas, notre responsabilité s'arrête aux propos que nous reportons ici. [Lire plus]Nous ne sommes nullement engagés par les propos que l'auteur aurait pu tenir par ailleurs - et encore moins par ceux qu'il pourrait tenir dans le futur. Merci cependant de nous signaler par le formulaire de contact toute information concernant l'auteur qui pourrait nuire à sa réputation. 

Commentaire recommandé

Tonton Poupou. // 26.04.2019 à 09h58

“Intelligence” Artificielle ??????
Le dénommé n’est pas tout à fait exacte et a l’inconvénient de faire fructifier les phantasmes – positifs et négatifs. Donc tous faux et exagérés.
Pour être plus juste il faudrait plutôt dire : “Savoir” Artificiel. En effet une machine même très sophistiquée faite de silicium de données statistiques et d’algorithmiques ultra performants ne peut pas être “intelligente” au sens où on l’entend du point du vue “humain”, c’est à dire “sensible” et ayant “conscience” de ce qu’elle fait.
Cette machine est juste plus rapide et plus efficiente dans l’analyse qu’un humain mais dépend entièrement de ce que l’humain lui a mis dans la “cervelle”.

33 réactions et commentaires

  • fais-gafa-tes-donnees // 26.04.2019 à 08h05

    “L’Intelligence Artificielle est un artifice pour tirer les ficelles…. au nom de l’intelligence”

    pour voir les détails et constats,…
    https://www.les-cris.com/pages-010-quelques-articles-2018/cri-pensee-du-jour-171103-l_intelligence-artificielle-sera-a-la-vie-quotidienne.php

    et d’une manière plus générale,….
    https://www.les-cris.com/pages-300-articles-de-CRIs/theme-060-Numerique/cri-00-articles-Numerique-gen.php

    j’ai programmé 3 fois des systèmes d’IA, en 1990, 2001 (en plein boum de la net economie, avant que la bulle ne se dégonfle,…) et en 2005.

    aujourd’hui, ce qu’il se fait, en IA, est bien décrit dans cet article.
    j’appelle cela : “l’IA est le nom marketing qui est venu habilement remplacer celui de BigData, qui faisait peur, … notamment aux PME, aux populations,… et aux gouvernants…”.
    dans l’IA, actuellement, il ne s’agit que de faire de la recherche de “schemas” (patterns en anglais), sur des grosses masses de données.
    C’est bien, c’est même super de pouvoir faire cela,… mais visiblement les messages usuelles dans les médias prétendent à beaucoup plus que ce n’est.

    je trouve que c’est bien qu’il y ait quelques articles et voix (Eric Sadin) qui s’exprime pour démystifier et mettre en garde sur ces présentations fallacieuse de ce qu’il se passe.

      +7

    Alerter
  • calal // 26.04.2019 à 08h53

    merci aux crises pour cette video.J’avais un a priori en voyant krivine mais c’est tres interessant. L’anecdocte sur le hongrois qui doit blinder les avions pendant la seconde guerre mondiale est particulierement savoureuse.

      +2

    Alerter
    • 4Kdave59 // 27.04.2019 à 16h17

      C’est le frère jumeau de krivine l’homme politique.

        +0

      Alerter
  • Pierre C // 26.04.2019 à 08h55

    Eh bien cet article est très clair. Il permettra enfin de poser un peu le débat sur les IA.
    NON les IA ne sont pas conscientes, on ne sait même pas correctement définir la conscience, alors la créer… (Alain Damasio je crois)
    NON l’IA n’est pas neutre, elle dispose du point de vue du codeur, et donc de l’actionnaire.

    Maintenant les questions qui découlent de l’article :
    – en quoi le big data (qui est le principal secteur où ces IA sont utilisées) est souhaitable (au niveau social, écologique) ?
    – quel est le risque de dérive de l’utilisation des IA, dans la justice, dans l’embauche, dans la notation des citoyens, autre ? (Voir la Chine, les notes de babysitters aux USA..)
    – quelle est l’infrastructure technologique et énergétique indispensable au fonctionnement du big data ? Est ce durable ?

      +8

    Alerter
    • Chris // 26.04.2019 à 09h26

      “en quoi le big data (qui est le principal secteur où ces IA sont utilisées) est souhaitable (au niveau social, écologique)”
      Un outil peut couteux et efficace pour opérer en ingénierie sociale : les gilets jaunes d’ici et d’ailleurs n’ont plus qu’à bien se tenir ! A mettre en corrélation avec le rapport Meadows, 1973. Selon ses prospectives, le temps est venu, voire presse…
      A propos de gilet jaunes, un sitrep sur le mouvement Gilet Jaune, actes XXII et XXIII paru chez S…r :
      .fr/rapport-de-situation-sur-le-mouvement-gilet-jaune-acte-xxii-et-xxiii

        +2

      Alerter
    • Dominique Gagnot // 26.04.2019 à 09h58

      Le capitalisme ne se pose pas de questions.
      On peut s’en poser, mais ils s’en fout. Elles resteront lettre morte.
      Le Big Data est juste une calamité supplémentaire.

        +9

      Alerter
    • Tonton Poupou. // 26.04.2019 à 10h46

      Autres questions :
      L’humain est t-il un démiurge capable de créer un être……- un “être” (ou un machin, le masculin de machine !) – non seulement bourré de big data et d’algorithmique mais aussi : d’intime conviction, d’intuition, d’instinct, de sensibilité et de conscience (de lui même et d’autrui), d’empathie, d’amour, de haine ……….etc…… si oui : il est Dieu ! (attention ! blasphème !)
      Et même si ce machin ou cette machine est capable aujourd’hui de battre le champion du monde d’échec ou diagnostiquer avec des biens meilleurs résultats des analyses médicales d’imagerie (ce dont on ne peut que s’en réjouir), ou dans un avenir proche d’être un combattant plus performant sur les champs de bataille que leurs homologues humains (ce qui finalement aurait l’avantage de ne plus envoyer nos fils se faire ouvrir le vide dans des tranchées boueuses) ; ce machin ou cette machine aurait-il, ou aurait- elle été capable de découvrir par intuition les équations d’Einstein ?

        +3

      Alerter
      • yann // 26.04.2019 à 11h19

        L’intime conviction, l’intuition, l’instinct et la sensibilité ne sont que des algorithmes dont vous ne connaissez pas exactement le fonctionnement vous même.
        Et qui se plantent parfois.

          +4

        Alerter
        • Tonton Poupou. // 26.04.2019 à 11h27

          En ce qui concerne Einstein “ils” (L’intime conviction, l’intuition, l’instinct et la sensibilité) en tout cas ne se sont pas “plantés” (comme vous dites !) n’est ce pas ? Puisque aujourd’hui encore nous utilisons toujours ses équations pour continuer à comprendre et connaitre l’Univers.

            +2

          Alerter
        • Wakizashi // 26.04.2019 à 14h06

          “L’intime conviction, l’intuition, l’instinct et la sensibilité ne sont que des algorithmes dont vous ne connaissez pas exactement le fonctionnement vous même.”

          Un commencement de début de justification à cette affirmation ?

            +2

          Alerter
          • yann // 26.04.2019 à 23h22

            Pas de justification. C’est juste a mi-chemin entre une intuition et une conviction intime.

              +0

            Alerter
            • Wakizashi // 27.04.2019 à 07h06

              S’il n’y a aucune justification, en langage courant ça s’appelle une croyance.

                +1

              Alerter
      • calal // 26.04.2019 à 11h37

        cette machine produite par l’etre humain et capable de tant de choses cela ne s’appellerait pas un ENFANT ??
        en plus ca coute pas cher a l’entretien ni a la production puisque ca necessite surtout des mots et de l’amour…

          +1

        Alerter
        • Tonton Poupou. // 26.04.2019 à 14h01

          Vous avez tout à fait raison et j’abonde dans votre sens. Mais il faut aussi reconnaitre que déjà dans biens des domaines le machin ou la machine surclasse l’homme. Et demain le surclasseront encore plus. Imaginez une voiture sans pilote gagner un grand prix de formule 1 bientôt. Quand on sait que déjà les voitures sans conducteurs humains (tesla) aux usa ont moins d’accidents que les voitures avec conducteurs humains. Et que dire des chauffeurs routiers qui s’épuisent dans d’interminables heures de conduite sur les autoroutes du monde entier avec les risques que cela comporte ……. autres exemples. Perso je ne peux que me réjouir de savoir que l’IA est et sera un adjoint principal et parfait de l’humain. Surtout si vous incluez avec l’IA les progrès de la robotique. On est là dans l’humanoïde au service de l’humain. Welcome to the future.

            +0

          Alerter
          • alain maronani // 26.04.2019 à 14h50

            Vos réflexions sont impressionantes. On voit que vous avez longuement pensé sur ce sujet. les voitures sans conducteurs de chez Tesla ont moins d’accidents que les autres..c’est vrai sachant que ce sont uniquement des prototypes ce doit être vrai. Ou peut-on en acheter une ? Vous confondez auto-pilot and self-driving….
            Vous avez oublié l’utilisation de l’IA pour activer la chasse d’eau…

              +0

            Alerter
            • Tonton Poupou. // 26.04.2019 à 18h37

              La voiture autonome est conçue pour éviter théoriquement les collisions – qui sont à 80 % liées à une erreur humaine. Toutefois, le risque zéro n’existe pas, comme vient de le montrer l’accident mortel survenu à bord d’une Tesla en Floride en 2016. Selon un récent sondage de l’Observatoire Cetelem, 37 % des personnes interrogées se déclarent « inquiètes » du développement de cette technologie, citant en premier lieu la crainte de « ne plus être totalement maître du véhicule » ou la « peur pour [leur] sécurité ». Et elles n’ont pas forcément tort, puisque l’intelligence artificielle peut choisir de sacrifier le conducteur pour sauver plusieurs autres vies, selon une étude parue dans la revue Science.
              Pour les chasses d’eau personne n’a encore noté d’accident grave………. merci.

                +1

              Alerter
          • alain maronani // 26.04.2019 à 22h14

            Votre laborieuse explication et la citation dde l’accident en Floride ne change RIEN au fond. Vous confondez auto-pilot (donc avec un chauffeur) et self-driving….enfin causer pour causer…Telus n’a strictement AUCUNE voiture que vous puissiez acheter avec sel-driving..rien, nada, nothing….

              +0

            Alerter
    • visiteur // 26.04.2019 à 11h02

      Une réponse partielle à vos questions est implicitement apportée par l’article :

      “La situation est alors paradoxale pour le concepteur : d’un côté, il est capable de comprendre le processus d’apprentissage, puisque c’est lui qui l’a codé, et d’un autre côté, la stratégie effectivement utilisée par le programme peut lui être totalement inintelligible.”

      Cette caractéristique rendra particulièrement ardues les questions de responsabilité civile devant un tribunal (comment s’en défausser si l’on ne peut même pas expliquer comment fonctionne le bidule piloté par réseau neuronal commercialisé à tout va ?) ou de couverture assurancielle (pour des raisons identiques).

      D’aucun affirment que la technique à la mode d’apprentissage par réseau neuronal (“deep learning”) est par là-même vouée à rester marginale dans les juridictions particulièrement litigieuses (p.ex. USA), et qu’il faut développer de nouvelles techniques au mécanisme intrinsèquement intelligible.

        +1

      Alerter
      • yann // 26.04.2019 à 11h36

        Comparons la voiture autonome et la voiture classique:
        Les deux sont imparfaits, donc on fait des statistiques et on calcule une prime d’assurance. Et on espère que la voiture autonome aura moins d’accidents par km, donc prime réduite.
        Mais je vois une différence: Il n’y a aucun intérêt à mettre une voiture autonome en prison, alors qu’un chauffard, ça peut se faire.

          +0

        Alerter
        • visiteur // 26.04.2019 à 11h54

          Cela ne fonctionnera que sous trois conditions :

          1) Il existe suffisamment de statistiques pour procéder au calcul assuranciel. Ce n’est pas le cas aujourd’hui pour les voitures autonomes.

          2) Le logiciel de conduite autonome doit présenter des garanties minimales qu’il se conduit raisonnablement. Avec les êtres humains, cela consiste à passer des examens avant de pouvoir conduire un véhicule seul. Hélas, les techniques IA actuelles ne permettent pas de garantir formellement un comportement raisonnable du logiciel (puisque son raisonnement est inintelligible).

          3) Il faut garantir que l’expérience renforce le caractère prévisible et raisonnable du comportement du conducteur. C’est le cas pour les êtres humains (les primes diminuent avec l’âge, du moins avant d’atteindre le 4e âge), on ne peut apporter cette garantie avec l’IA actuelle.

          Ergo : bonne chance pour assurer votre Waymo.

            +2

          Alerter
          • yann // 26.04.2019 à 12h13

            1) Pas encore assez de statistiques, mais ca viendra.
            2) Comment garantissez vous un comportement raisonnable d’un humain? Pas vous, mais disons le pire conducteur sur un échantillon de 1000 personnes. Comment garantissez vous formellement.
            3) Un humain apprend au depart de l’experience des autres (Quand il apprend pour le permis, par exemple),puis ensuite principalement de ses propres erreurs. En revanche, avec l’IA une voiture peut constamment inclure dans son apprentissage les experiences de l’ensemble des autres voitures.

              +0

            Alerter
            • visiteur // 26.04.2019 à 13h25

              1) Dans l’intervalle, pas de statistiques, pas de couverture assurancielle. La poule et l’oeuf.

              2) Humains : âge minimum + examen médical + examen théorique + cours obligatoires + examen pratique.

              Pour les voitures autonomes, je puis encore imaginer l’examen médical (certification matérielle + vérification pratique) et l’examen pratique (on emmène le véhicule dans la nature).

              Mais les équivalents de l’examen théorique, l’âge minimum (tenu comme indicateur d’un certain niveau de responsabilité et de compétences physio-motrices) et les cours obligatoires ?

              A ma connaissance, on n’a encore jamais certifié (comme on le fait dans les chemins de fer, la marine ou l’aviation) un système de pilotage IA.

              3) Le problème ne disparaît pas. Comment garantir que le comportement demeure raisonnable avec de nouveaux cas d’apprentissage, sans invalider l’apprentissage de base ? Comment intégrer l’apprentissage de multiples véhicules de façon cohérente ? Comment filtrer les apprentissages non-pertinents ou extrêmes ?

              Si vous avez la technique, vous pourrez convaincre la compagnie d’assurances, mais d’ici là…

                +0

              Alerter
        • Xavier D // 26.04.2019 à 14h25

          Juridiquement c est le proprietaire/concepteur de la voiture autonome qui sera responsable et non pas la voiture puiqu elle n a aucune personnalité juridique.

            +0

          Alerter
  • Geoffrey // 26.04.2019 à 09h52

    je me souviens d’une phrase ici et là entendue : donner des couteaux à un singe et l’entraîner à jongler avec…

    l’humanité en est encore au capitalisme, càd le Moyen-Age de l’économie : la main invisible ? quelle honte !!! On se comporte comme des animaux particulièrement vils (le genre serpent ou araignée) : cupidité, tromperie, exploitation.

    l’IA, c’est comme la physique nucléaire : on peut en faire des bombes ou des centrales électriques ; je devine ce que les capitalistes voudront en faire…(indice ? on est bcp bcp bcp trop nombreux sur terre, selon eux).

    Geof’-Rey, technologue

      +2

    Alerter
  • Tonton Poupou. // 26.04.2019 à 09h58

    “Intelligence” Artificielle ??????
    Le dénommé n’est pas tout à fait exacte et a l’inconvénient de faire fructifier les phantasmes – positifs et négatifs. Donc tous faux et exagérés.
    Pour être plus juste il faudrait plutôt dire : “Savoir” Artificiel. En effet une machine même très sophistiquée faite de silicium de données statistiques et d’algorithmiques ultra performants ne peut pas être “intelligente” au sens où on l’entend du point du vue “humain”, c’est à dire “sensible” et ayant “conscience” de ce qu’elle fait.
    Cette machine est juste plus rapide et plus efficiente dans l’analyse qu’un humain mais dépend entièrement de ce que l’humain lui a mis dans la “cervelle”.

      +12

    Alerter
  • charles // 26.04.2019 à 10h45

    laissez les faire, un jour ils auront finit de construire la grosse boite en fer qui nous aura tous détruit nous autres, sur le pas de la porte il feront glisser leurs doigts sur l’appareil à reconnaissance digitale. bump bump nimehn bushe dzongorhen; bump bump; ils seront comme des cons pour réparer un outil dont ils ne comprennent plus le fonctionnement, ils seront seuls pour s’en occuper. a ce moment là, peut être, que le vieux souvenir de l’humanité les frappera d’effroi à l’aune de leurs inutile solitude. pas sur.

      +2

    Alerter
    • charles // 26.04.2019 à 11h35

      d’ailleurs c’est déjà commencé [CONFÉRENCE DE MACRON : LE LOGICIEL DE L’ÉLYSÉE NE VEUT PAS DU MÉDIA] https://www.youtube.com/watch?v=RLjyY-twuyE

      Bon comme on est en avance sur le progrès, c’est ça le macronisme que voulez vous, nous on fait ça juste pour le fun de se foutre de la gueule du peuple 😀

        +1

      Alerter
  • visiteur // 26.04.2019 à 11h46

    La littérature des réseaux neuronaux est riche d’études portant sur l’apprentissage proprement dit, car c’est un vrai problème très difficile à maîtriser.

    1) L’ensemble d’entraînement doit comprendre des cas “aisés” et “ardus”, mais il faut éviter de les présenter dans un ordre déterministe de difficulté.

    2) Si les données peuvent être regroupées en plusieurs classes, il faut éviter un apprentissage déterministe par classes.

    3) Il faut éliminer toutes les formes de corrélations occultes non pertinentes.

    4) Il faut inclure les exemples pertinents, sans entraîner un accroissement exponentiel du jeu d’apprentissage.

    Le cas des gorilles / personnes noires est typique de 4.

    a) Un système entraîné à la reconnaissance des champignons avait conclu que les images paires correspondent à des espèces non-comestibles, les impaires à des espèces comestibles (cas 2). C’est une forme naturelle d’apprentissage pour les êtres humains qui l’avaient inconsciemment reproduite pour le système AI : voici le bolet royal; et maintenant le bolet blafard; voici la morille ronde, et maintenant la fausse morille; etc.

    b) Un autre réseau entraîné à distinguer les grains de beauté bénins des cancéraux avait conclu que si l’image comprenait une règle, alors il y a cancer, sinon pas. Les images médicales d’entraînement incluaient toujours une règle pour mesurer les dimensions de la tumeur (un élément diagnostique significatif) lorsque c’en est une. Ici, application du cas 3.

      +8

    Alerter
    • bluetonga // 26.04.2019 à 12h56

      Merci pour cet avis plus expert, mais sans doute encore obscur. Je voudrais ajouter en complément ceci.

      Des réseaux de neurones, qu’ils soient artificiels ou biologiques, captent et mémorisent les régularité de l’environnement auquel ils sont exposés. Pour être plus précis, l’apprentissage de ce qui constitue cet environnement modifie la relation entre les unités du réseau, la capacité qu’elles ont de s’influencer mutuellement (ce qu’on appelle le poids, ou efficacité, des synapses). La mémoire du réseau est donc une configuration particulière d’interconnexion à un moment donné, qui fait que deux événements (réalités, objets, ce qu’on veut) y sont associés sous forme d’un pattern spécifique d’activation. D’une manière générale, un réseau de neurones extrait des corrélations de l’environnement, automatiquement. Plus on ajoute de couches au systèmes, plus les corrélations sont subtiles et inaccessibles. L’idée d’utiliser cette procédure est justement d’éviter certains biais de conscience (préjugés par exemple) dans la prise de décision, ou au contraire de tenir compte de paramètres a priori inaccessible à l’entendement humain. Le travers est que tout réseau dépend des échantillons utilisés pour l’apprentissage, ainsi que des règles de classification des données, qui eux n’échappent pas à ces biais.

        +3

      Alerter
      • bluetonga // 26.04.2019 à 12h57

        Le docteur ès mathématiques Cathy O’Neal parle magistralement de tout ça:

        https://www.ted.com/talks/cathy_o_neil_the_era_of_blind_faith_in_big_data_must_end?language=fr

        Au-delà des fantasmes, l’intelligence artificielle, les big data, le deep learning sont des outils puissants. Comme les explosifs ou l’énergie nucléaire, ils peuvent servir de bon desseins (applications médicales ou météo, par exemple) ou de mauvais desseins (surveillance ou manipulation publicitaire, par exemple). Ils peuvent libérer ou aliéner. Tout dépend de qui les manipule.

          +5

        Alerter
  • alain maronani // 26.04.2019 à 15h11

    Bon les complotistes sont présents…big data, ia, etc..je me souviens des vêtements connectés, de la reconnaissance automatique de la parole, etc, les claviers sont toujours la…et avant la lecture optique…globalement des échecs cuisants.
    Ce qui est en jeu ici ? Il s,agit pour le capitalisme de trouver d’autres voies pour poursuivre un développement qui ne peut plus se poursuivre. Après la généralisation de l’ordinateur, du téléphone portable que faire ? Il s’agit d’investir (d’envahir) l’ensemble des activités quotidiennes de la naissance à la mort, de connecter votre réfrigérateur, surveiller vos yaourts (je plaisante…enfin pas sûr) La surveillance, la reconnaissance faciale ne sont que 2 composants (les plus visibles pour les complotistes) d’un projet global (d’ou le rôle de la 5G). On entend de nouveau parler des emplois qui se profilent à l’horizon mais lesquels au fait et pour qui ? Actuellement il y a plus ou moins 3000 spécialistes de classe mondiale (réseaux neurobaux, etc). Les salaires chez Google sont de l’ordre de 1 million de $ par année..
    Notons que la réflexion éthique sur ces sujets est soit absente (une constance avec les nouvelles techno) soit étouffée. Le débât (ou la propagande) est le fait de l’industrie, d’une coterie techno obsédée et surtout d’investisseurs qui disposent de montants sans limite.
    Ces technologies sont bien entendu dévoreuses d’énergies, de matières premières, de talent au détriment des besoins globaux élémentaires qui sont immenses…

      +5

    Alerter
  • Albert-Nord // 26.04.2019 à 15h38

    La librairie Tropiques, Rue Raymond Losserand, Paris 14ème, est une très bonne référence en matière de pensée critique. C’est un de mes 10 points d’informations incontournables avec Les crises, Comité Valmy et qq autres…
    Tout en sachant qu’il faut rester critique de la critique !

      +2

    Alerter
  • FrédéricB // 27.04.2019 à 19h45

    Merci pour cette conférence qui active bien les réseaux de neurones, les vrais, ceux que nous avons tous entre les deux oreilles !
    L’IA et les Big data sont des techniques informatiques, basées sur une approche statistique capables de traiter de grands nombres de données. Au plan scientifique, elles sont importantes, mais ni plus ni moins que beaucoup d’autres.
    Le problème c’est l’appropriation idéologique qui en est faite. Ce que souligne Krivine c’est que cette idéologie est fondamentalement anti-science : la causalité (déduction à partir d’un modèle formel) est remplacée par l’établissement de corrélations. Plus besoin alors de physiciens pour faire de la physique. Plus besoin de modèle ni de théorie, la connaissance sort de la boîte noire de l’IA, pour peu qu’elle ait reçu suffisament de données. Hubert Krivine montre bien que l’idéologie qui s’approprie l’IA et les big data est fondamentalement anti-scientifique.

    L’IA c’est un peu le retour de la magie : la vérité sort de la machine par des procédés merveilleux, uniquement maîtrisés par les membres d’une caste de Merlin l’enchanteur.
    La science étant remplaçée par l’IA, l’esprit critique n’a plus vraiment sa place : les systèmes dirigés par l’IA seront meilleurs en tout que les humains. Et ainsi, c’est un système totalitaire qui est en perspective.

      +2

    Alerter
  • Afficher tous les commentaires

Les commentaires sont fermés.

Et recevez nos publications