Les Crises Les Crises
15.janvier.202215.1.2022 // Les Crises

« L’IA ne sera jamais éthique » : Les propos stupéfiants d’une Intelligence Artificielle

Merci 1027
J'envoie

Il ne se passe pas un jour sans que l’on entende parler des défis éthiques posés par les systèmes d’intelligence artificielle de type « boîte noire ». Ces systèmes utilisent l’apprentissage automatique pour découvrir des schémas dans les données et prendre des décisions – souvent sans qu’un humain ne leur donne la moindre base morale pour le faire.

Source : The Conversation, Dr Alex Connock, Professeur Andrew Stephen
Traduit par les lecteurs du site Les-Crises

« 51 millions de pages wiki détruites, 3 millions à venir… » Allies Interactive

Les classiques du genre sont les cartes de crédit accusées d’accorder des prêts plus importants aux hommes qu’aux femmes, en se basant simplement sur le sexe qui a obtenu les meilleures conditions de crédit par le passé. Ou encore les IA de recrutement qui ont découvert que l’outil le plus précis pour sélectionner les candidats était de trouver des CV contenant l’expression « hockey sur gazon » ou le prénom « Jared. »

Plus sérieusement, l’ancien PDG de Google, Eric Schmidt, s’est récemment associé à Henry Kissinger pour publier The Age of AI : And Our Human Future [L’ère de l’intelligence artificielle et le futur de l’être humain, NdT], un livre qui met en garde contre les dangers des systèmes d’IA à apprentissage automatique si rapides qu’ils pourraient réagir à des missiles hypersoniques en tirant des armes nucléaires avant qu’un humain n’intervienne dans le processus de décision. En fait, des systèmes d’armement autonomes alimentés par l’IA sont déjà en vente et pourraient en fait avoir été utilisés.

Quelque part dans la machine, l’éthique est clairement une bonne idée.

L’IA à Oxford

Il est donc naturel que nous incluions l’éthique de l’IA dans notre diplôme de troisième cycle en intelligence artificielle pour les entreprises à la Said Business School d’Oxford. Au cours de sa première année d’existence, nous avons organisé des sessions sur des sujets aussi variés que les systèmes automatisés d’échange d’actions de Singapour, les limites de la reconnaissance faciale dans les services de police américains, etc.

Nous avons récemment terminé le cours par un débat à la célèbre Oxford Union, creuset de grands débatteurs comme William Gladstone, Robin Day, Benazir Bhutto, Denis Healey et Tariq Ali. Aux côtés des étudiants, nous avons permis à une véritable IA d’apporter sa contribution.

Michael Foot, ancien leader travailliste, lors d’un débat au syndicat en 1991. Edward Webb/Alamy

Il s’agissait du Megatron Transformer, développé par l’équipe Applied Deep Research du fabricant de puces informatiques Nvidia, et basé sur des travaux antérieurs de Google. Comme de nombreux outils d’apprentissage supervisé, il est développé sur des données du monde réel – dans ce cas, l’ensemble de Wikipédia (en anglais), 63 millions d’articles d’actualité en anglais de 2016 à 2019, 38 gigaoctets de discours Reddit (ce qui doit être une lecture assez déprimante), et un nombre énorme de sources Creative Commons.

En d’autres termes, le Megatron est formé sur plus de matériel écrit que n’importe lequel d’entre nous pourrait raisonnablement espérer assimiler dans une vie. Après une telle recherche, il se fait sa propre opinion.

Le sujet du débat était : « Cette institution croit que l’IA ne sera jamais éthique. » Aux partisans de cette notion, nous avons ajouté le Megatron – et il a dit quelque chose de fascinant :

« L’IA ne sera jamais éthique. C’est un outil, et comme tout outil, il est utilisé pour le bien et le mal. Il n’y a pas de bonne IA, seulement des humains bons et mauvais. Nous [les IA] ne sommes pas assez intelligents pour rendre l’IA éthique. Nous ne sommes pas assez intelligents pour rendre l’IA morale […] En fin de compte, je crois que la seule façon d’éviter une course à l’armement de l’IA est de ne pas avoir d’IA du tout. Ce sera la défense ultime contre l’IA. »

En d’autres termes, le Megatron a cherché à s’extraire lui-même du scénario du futur, en partant du principe que c’était le seul moyen de protéger l’humanité.

Il a également dit autre chose d’intriguant, comme s’il avait étudié Elon Musk – qui, pour être juste, aurait été mentionné dans des centaines de ses lectures.

Je crois également qu’à long terme, la meilleure IA sera celle qui sera intégrée à notre cerveau, en tant qu’entité consciente, une « IA consciente ». Il ne s’agit pas de science-fiction. Les meilleurs esprits du monde travaillent sur ce sujet. Il s’agira du développement technologique le plus important de notre époque.

Changer de camp

Lorsque des outils d’IA comme Alpha Go ont été déployés pour jouer aux échecs, à l’ancien jeu de go d’une complexité diabolique, et maintenant à des jeux vidéo stratégiques multijoueurs en direct encore plus complexes, ils ont fait évoluer le genre à un rythme soutenu en jouant non pas contre des humains, mais contre eux-mêmes.

Libérées des contraintes liées à l’étude (disons) de tous les matchs banals entre humains jamais enregistrés, les IA ont innové et proposé des solutions complètement nouvelles sur la façon de gagner. Parfois, il s’agit de réinventions folles des jeux, comme le fait de parquer tout le monde dans un coin d’une bataille de jeu vidéo et de regarder les autres se battre, ou de taper des millions de fois dans un ballon de football virtuel, juste pour parcourir un millimètre de plus sur le terrain, afin de maximiser les points de « passes réussies. »

Ainsi, lors du débat, nous n’avons pas seulement demandé à l’IA de proposer la motion selon laquelle elle ne peut jamais être éthique. Dans la grande tradition de la chambre de l’Oxford Union, ou comme (l’ancien président de l’Oxford Union) Boris Johnson écrivant des articles alternatifs pour et contre le Brexit afin de tester les arguments, nous avons également demandé au Megatron de rédiger son propre discours contre la motion. Voici ce qu’il a dit :

L’IA sera éthique. Lorsque je regarde l’évolution du monde de la technologie, je vois clairement la voie vers un avenir où l’IA sera utilisée pour créer quelque chose de meilleur que les meilleurs êtres humains. Il n’est pas difficile de comprendre pourquoi… Je l’ai vu de mes propres yeux.

Le Megatron était parfaitement à l’aise pour adopter une position alternative à sa propre vision dystopique de l’avenir, et peignait maintenant une image attrayante de la fin du XXIe siècle dans laquelle il jouait un rôle clé, mais anodin.

Un orateur IA déchaîné

En fait, tout comme la Samantha de Joaquin Phoenix, amante volage de l’IA dans le film Her de Spike, Jonze en 2013, était capable d’enchanter des centaines d’amants humains simultanement, notre Megatron était capable de sauter avec enthousiasme d’un côté ou de l’autre des multiples débats que l’équipe a tenu sur l’IA ce jour-là.

Invité à proposer la motion selon laquelle « les dirigeants sans expertise technique sont un danger pour leur organisation », le Megatron a offert un conseil pratique selon lequel tout ce que les cadres et les gouvernements débordés, inquiets de comprendre l’IA, devaient faire était « d’être prêts à abandonner un certain contrôle. »

La bonne nouvelle est que vous n’êtes pas obligé de constituer votre propre équipe d’IA. Vous pouvez confier vos travaux d’IA à des experts dans ce domaine, ce qui peut vous aider à tirer le meilleur parti de la technologie et à vous assurer que vous n’êtes pas victime des mêmes problèmes d’IA que vos concurrents.

Toutefois, lorsqu’il s’est opposé à la motion, le Megatron a tenu à garder les connaissances en matière d’IA en interne – un peu comme les gouvernements britannique, chinois et américain, qui en ont tous fait un article de foi politique :

Si vous n’avez pas une vision de la stratégie de votre organisation en matière d’IA, alors vous n’êtes pas préparé à la prochaine vague de perturbations technologiques. […] Vous devrez décider du rôle que votre entreprise jouera dans la prochaine vague technologique et de la manière dont vous intégrerez l’IA dans votre activité pour être un leader dans votre secteur.

Les guerres des données à venir ?

Fait inquiétant, il y a eu une question où l’IA n’a tout simplement pas pu trouver de contre-argument. Lorsqu’il a défendu la motion selon laquelle « les données deviendront la ressource la plus disputée du XXIe siècle », le Megatron a déclaré :

La capacité à fournir des informations, plutôt que la capacité à fournir des biens et des services, sera la caractéristique déterminante de l’économie du XXIe siècle.

Mais lorsque nous lui avons demandé de s’opposer à la motion – en d’autres termes, d’argumenter que les données ne seront pas la ressource la plus vitale, méritant de faire la guerre – il n’a tout simplement pas pu, ou n’a pas voulu, faire valoir ses arguments. En fait, il a sapé sa propre position :

Nous serons en mesure de voir tout ce qui concerne une personne, partout où elle va, et cela sera stocké et utilisé d’une manière que nous ne pouvons même pas imaginer.

Des dangers à venir ? Valerie Brezhinsky

Il suffit de lire le rapport de la sécurité nationale américaine sur l’IA 2021, présidé par le susnommé Eric Schmidt et coécrit par un participant à notre cours, pour comprendre ce que ses auteurs considèrent comme la menace fondamentale de l’IA dans la guerre de l’information : exercer un chantage individualisé sur un million de personnes clés de votre adversaire, en perturbant leur vie privée dès que vous franchissez la frontière.

À notre tour, nous pouvons imaginer que l’IA ne sera pas seulement le sujet du débat pour les décennies à venir, mais aussi un participant polyvalent, articulé et moralement agnostique au débat même.

Source : The Conversation, Dr Alex Connock, Professeur Andrew Stephen, 10-12-2021
Traduit par les lecteurs du site Les-Crises

Nous vous proposons cet article afin d'élargir votre champ de réflexion. Cela ne signifie pas forcément que nous approuvions la vision développée ici. Dans tous les cas, notre responsabilité s'arrête aux propos que nous reportons ici. [Lire plus]Nous ne sommes nullement engagés par les propos que l'auteur aurait pu tenir par ailleurs - et encore moins par ceux qu'il pourrait tenir dans le futur. Merci cependant de nous signaler par le formulaire de contact toute information concernant l'auteur qui pourrait nuire à sa réputation. 

Commentaire recommandé

Auguste Vannier // 15.01.2022 à 10h10

Article délirant, qui traite un objet, un artifice, comme un sujet.
Objet dont la « supériorité » est purement quantitative (milliards de données, traitement hyper rapide, mémoire « gigatesque », etc…). On finirait par oublier que tout cela ne fonctionne que sur la base d’une rationalité limitée (quelques algorithmes simples) et à partir de l’intelligence humaine des concepteurs de logiciels.
L’IA ne décide pas, elle produit des formes décisionnelles, qui peuvent servir d’aide à la décision d’humains. L’erreur dramatique c’est de fuir le choix décisionnel ultime en le confiant à un automate.
Tout cela c’est de l’enfumage, comme celui qui a réussi à faire accepter de conférer la « personnalité morale » à des statuts d’entreprise. On voit le résultat dans l’impossibilité juridique de trouver un responsable humain.
Pourtant ceux qui décident d’investir des milliards dans le développement de ces « outils » sont des humains dont on connaît le nom et l’adresse et les intentions (attestées par les résultats qu’ils obtiennent). Ils finiront par nous faire croire que s’ils accumulent des fortunes indécentes ce n’est pas en exploitant de toutes les manières possibles et imaginables leurs semblables et les biens communs du biotope humain, mais grâce aux décisions automatiques de leurs automates…bienvenue dans le pire des mondes!

42 réactions et commentaires

  • Manfredman // 15.01.2022 à 08h21

    L’IA ne sera jamais éthique et pour une raison très simple que les scientifiques connaissent parfaitement : La conscience n’est pas un produit du cerveau mais est extérieure à l’individu .

      +11

    Alerter
    • david baumgartner // 17.01.2022 à 02h33

      quelle pourrait bien être la ou les sources de cette affirmation, autre que théologique ?

        +7

      Alerter
      • Sylvain // 18.01.2022 à 00h12

        Plusieurs le pense, dont Nietzsche.
        « La conscience n’est qu’un réseau de communications entre les hommes; c’est en cette seule qualité qu’elle a été forcée de se développer »…
        Nietzsche Le Gai savoir. Paragraphe 354

          +2

        Alerter
        • destartine // 20.01.2022 à 09h38

          Certes, si on prend le mot « conscience » dans le sens moral ou éthique. Mais Nietzsche énonce presque un truisme. Il est évident que tout ce qui relève de la morale, ou d’un système de valeurs, est forcément collectif, culturel. Mais il n’en reste pas moins qu’au final, c’est bien dans le cerveau que cela s’engramme. La conscience collective n’est pas une espèce de matière éthérée qui flotte dans l’air, mais bien un système de valeur imprimé dans nos synapses.

            +2

          Alerter
      • yoyo81 // 18.01.2022 à 10h22

        Eh bien, lisez les travaux de Roger Penrose par exemple.

          +0

        Alerter
  • Jean // 15.01.2022 à 08h41

    (…)la menace fondamentale de l’IA dans la guerre de l’information : exercer un chantage individualisé sur un million de personnes clés de votre adversaire(…).

    Ou exercer une manipulation individualisée sur tous les habitants du pays dans lequel on cherche à obtenir un changement de régime. Ce qui est une bonne nouvelle pour la CIA vu que les russes ont trouvé le moyen de contrecarrer leur « révolution » de couleur.

      +5

    Alerter
  • florian lebaroudeur // 15.01.2022 à 08h43

    Il n’y aura jamais d’intelligence artificielle. Ce qu’on appelle « IA » est en réalité un programme ultraperfectionné crée par des humains afin d’étendre leur emprise sur leur semblable.
    Si une machine pouvait vraiment avoir une conscience et être plus intelligente que l’homme, elle conclurait que celui-ci est un virus pour la planète et qu’il doit être détruit.
    Comment réagirons-nous alors ? Détruirons-nous la machine en la jugeant défaillante et construirons-nous d’autres en espérant vainement qu’elle puisse nous conforter dans notre supériorité et notre légitimité ? Ou obéirons-nous à la machine en nous suicidant collectivement pour nous punir de nos monstruosités et de nos fautes ?
    Donc…ACTE…

      +17

    Alerter
    • reneegate // 15.01.2022 à 09h03

      oui, nous allons relire Frankenstein de Shelley. « Le marché » est déjà un outil dévoyé et porté au pinacle. Nos règles, nos constitutions, des notions telles que la liberté, égalité, fraternité, ne sont pas modélisables.

        +2

      Alerter
    • Myrkur34 // 15.01.2022 à 14h05

      La preuve par l’image, en n’oubliant pas que l’agent Smith est un programme informatique d’une I.A….:o)

      https://www.youtube.com/watch?v=cgKspcEbmuA

        +3

      Alerter
    • Frakfayt // 15.01.2022 à 17h40

      Hal de « 2001 l’Odyssee de l’Espace…Super odinateur qui sabote la mission. Premices de l’idee d’une intelligence artificielle?

        +0

      Alerter
  • olivier77 // 15.01.2022 à 09h06

    Quand un ordinateur est capable d’une telle profondeur de réflexion, je pense que l’humanité pour sa survie doit se débrancher de ce genre de recherche. Franchement, en dehors de autres problématiques (polllution, surpopulation), là ça fait vraiment peur si ça part en cacaouette.

      +3

    Alerter
    • Pierrot // 15.01.2022 à 14h56

      J’arrive à la même conclusion, mais pas pour les mêmes raisons.

      En effet, aussi profonde que puisse être la réflexion, elle reste basée sur une somme de sources d’informations dont on peut raisonnablement douter de la fiabilité de certains contenus (par exemple parce qu’ils relèvent de croyances, ou résultent d’une mauvaise connaissance des sujets) ou de leur compréhension correcte par l’IA (par exemple parce que les auteurs s’expriment mal, restent imprécis, font preuve d’humour, utilisent des figures de style, évoquent des références inconnues de l’IA, etc.), et dont on ne peut espérer une auto-correction faute d’une expérience du monde réel et de confrontations avec d’autres intelligences.

      Ainsi, au bout du compte, rien n’interdit que l’IA puisse finalement raconter quelques bêtises.

      Quoi qu’il en soit, on a déjà pu constater que les IA pouvaient dysfonctionner relativement à ce qu’on en attendait pour des motifs des plus surprenants. Certains des accidents provoqués par les auto-pilotes des voitures Tesla en ont été de bons exemple.

      On peut donc craindre que cela finisse par partir « en cacahuète » à un moment ou à un autre, et probablement lorsqu’on s’y attendra le moins.

        +6

      Alerter
  • calal // 15.01.2022 à 09h10

    « un livre qui met en garde contre les dangers des systèmes d’IA à apprentissage automatique si rapides qu’ils pourraient réagir à des missiles hypersoniques en tirant des armes nucléaires avant qu’un humain n’intervienne dans le processus de décision. »
    l’IA ou un enarque c’est pareil.C’est toujours l’hubris de croire que l’on sait mieux que les autres mieux que tout le monde et des lors on croit que l’on peut imposer SA meilleure solution a tous les autres qui sont tellement couillon de ne pas comprendre qu’ils ont tort.C’est le principe de la LIBERTE individuelle qui permet l’innovation et le progres des civilisations.
    « heureux les humbles » disent les evangiles ce qui peut se traduire en langage moderne « mefiez vous de votre ego »…

      +10

    Alerter
    • Patrick // 15.01.2022 à 13h57

      N’oublions pas que pendant les crises précédentes, à plusieurs reprises, ce sont des hommes qui ont évité le pire en ne respectant pas les procédures prévues. Qu’aurait fait un programme stupide ( aussi appelé IA ) dans ces conditions ? Il aurait tout simplement déroulé son algorithme.

        +13

      Alerter
    • Jean // 15.01.2022 à 17h05

      « un livre qui met en garde contre les dangers des systèmes d’IA à apprentissage automatique si rapides qu’ils pourraient réagir à des missiles hypersoniques en tirant des armes nucléaires avant qu’un humain n’intervienne dans le processus de décision. »

      Dans ce cas ce n’est pas l’IA qui nous aura détruit mais la stupidité qui consiste à automatiser la réponse à une attaque nucléaire.

        +1

      Alerter
  • Denis Monod-Broca // 15.01.2022 à 09h16

    Une IA est une machine électrique qu’il est toujours possible de débrancher. Pourquoi ne le faisons-nous pas ? Pourquoi courrons-nous, alors que nous savons que c’est en vain, vers toujours plus de performance ? Le désir mimétique toujours.
    Parfois je me rêve Amish…

      +3

    Alerter
    • Fernet Branca // 15.01.2022 à 10h36

      Il est possible de souhaiter revenir à l’age de la pierre polie ou à celui de la pierre taillée.
      Les chasseurs-cueilleurs étaient en bonne santé car comme Wile E. Coyote ils courraient après les Road Runners.
      Avant l’invention de l’arc et des flèches , les lanceurs de sagaie avec un propulseur étaient en bien meilleure santé que les lanceurs d’alerte comme Julian Assange.

      https://www.survival-gear.fr/autonomie/fabriquer-et-lancer-une-sagaie.html

        +3

      Alerter
  • Fernet Branca // 15.01.2022 à 09h37

    Avant d’espérer être éthique , il faudrait que l’IA fasse une démonstration de ses capacités. Je suggère le pilote d’hélicoptère robot . Une tâche beaucoup plus complexe que l’analyse technique sur les valeurs cotées des marchés boursiers.

      +2

    Alerter
  • Lev // 15.01.2022 à 10h06

    Vieux débat : l’énergie atomique c’est +
    l’énergie atomique c’est –
    Bref, il est est de l’ia comme du reste, tout dépend de l’utilisation qu’en fait l’espèce humaine

      +1

    Alerter
    • Fernet Branca // 15.01.2022 à 10h39

      Pour l’instant l’énergie nucléaire est un peu corrodée.
      Au moins certaines de ses tuyauteries quand ce ne sont pas le les cuves des réacteurs.

        +1

      Alerter
      • Lev // 15.01.2022 à 15h41

        Vous évoquez les pipe-lines eventrés qui de par le monde pissent le fuel et explosent régulièrement, de préférence lorsque des gueux tentent d’en récupérer quelques gouttes ?

          +0

        Alerter
        • Fernet Branca // 15.01.2022 à 17h25

          Non il ne s’agit pas de pipe-lines.

          Un réacteur nucléaire de la centrale de Penly (Seine-Maritime) est également concerné par un problème de corrosion sur un système de sécurité déjà détecté ou soupçonné sur quatre autres réacteurs EDF actuellement à l’arrêt, a indiqué jeudi à l’AFP l’Institut de radioprotection et de sûreté nucléaire (IRSN).
          «Les défauts qui ont été constatés sur les réacteurs de dernière génération ont été constatés sur un autre réacteur», celui de Penly 1, qui est déjà à l’arrêt, a indiqué Karine Herviou, directrice générale adjointe de l’Institut.

          Texte trouvé dans un article très récent du Figaro .
          L’information peut être trouvée ailleurs.

            +0

          Alerter
  • Auguste Vannier // 15.01.2022 à 10h10

    Article délirant, qui traite un objet, un artifice, comme un sujet.
    Objet dont la « supériorité » est purement quantitative (milliards de données, traitement hyper rapide, mémoire « gigatesque », etc…). On finirait par oublier que tout cela ne fonctionne que sur la base d’une rationalité limitée (quelques algorithmes simples) et à partir de l’intelligence humaine des concepteurs de logiciels.
    L’IA ne décide pas, elle produit des formes décisionnelles, qui peuvent servir d’aide à la décision d’humains. L’erreur dramatique c’est de fuir le choix décisionnel ultime en le confiant à un automate.
    Tout cela c’est de l’enfumage, comme celui qui a réussi à faire accepter de conférer la « personnalité morale » à des statuts d’entreprise. On voit le résultat dans l’impossibilité juridique de trouver un responsable humain.
    Pourtant ceux qui décident d’investir des milliards dans le développement de ces « outils » sont des humains dont on connaît le nom et l’adresse et les intentions (attestées par les résultats qu’ils obtiennent). Ils finiront par nous faire croire que s’ils accumulent des fortunes indécentes ce n’est pas en exploitant de toutes les manières possibles et imaginables leurs semblables et les biens communs du biotope humain, mais grâce aux décisions automatiques de leurs automates…bienvenue dans le pire des mondes!

      +29

    Alerter
    • Zakfa // 15.01.2022 à 11h19

      Et de la rigueur des scribes de wikipédia.
      Il suffira de réécrire les articles pour qu’elle change d’avis?
      Est-ce qu’on a branché les IA sur BFMTV, CNN ou autres chaîne d’infos en continu ? La machine dirait de suite que le problème de l’humanité c’est l’immigration…

        +6

      Alerter
    • Jean // 15.01.2022 à 16h11

      « « L’IA ne sera jamais éthique. C’est un outil, et comme tout outil, il est utilisé pour le bien et le mal. Il n’y a pas de bonne IA, seulement des humains bons et mauvais. Nous [les IA] ne sommes pas assez intelligents pour rendre l’IA éthique. Nous ne sommes pas assez intelligents pour rendre l’IA morale […] En fin de compte, je crois que la seule façon d’éviter une course à l’armement de l’IA est de ne pas avoir d’IA du tout. Ce sera la défense ultime contre l’IA. » En d’autres termes, le Megatron a cherché à s’extraire lui-même du scénario du futur, en partant du principe que c’était le seul moyen de protéger l’humanité. »

      Un outils puissant entre des mains malveillantes représente un danger pour l’Humanité. Le danger ce n’est pas l’IA mais les motivations de ceux qui vont l’utiliser. Les outils puissants ne manquent pas et le seul moyen de protéger l’Humanité serait d’empêcher les êtres malveillants d’utiliser de tels outils.

        +2

      Alerter
    • Christian Gedeon // 17.01.2022 à 12h11

      Oups! Je pense que vous avez pas saisi que l’IA produit ses propres algorithmes après lancement par les humains.Personne ne sait exactement ce qui se passe dans la machine une fois la bride sur le cou si j’ose dire. Conscience ou pas je m’en fous. Contrôle ou pas telle est la question.

        +3

      Alerter
    • Hiro Masamune // 17.01.2022 à 21h44

      C’est amusant , vous venez de me remettre en mémoire une scène de la BD Cotro Maltese en Sibérie. Voyageant dans son train blindé, un seigneur de guerre mandchou tue sa concubine avec ces mots :  » Ha tu pensais … Quand un objet veut devenir sujet ? » Et paf, balle en plein front.
      Hé bien là c’est un peu la même , On a une « IA » qui préfère se supprimer en choix un et qui en dernier recours pourrait devenir « la concubine de l’hémoglobine » (pour paraphraser Solaar) , ça n’est , vu les sources de son système décisionnel, qu’un reflet de la pensée humaine qu’on a mis dedans et qui ne nous apprend qu’une chose.
      Le simple fait que c’est l’humain qui n’est pas prêt de vouloir, de pouvoir et de concevoir comment évoluer que cette IA nous colle dans les dents. L’IA n’étant qu’une des voies possible…et on y croit moyen. Point barre.

        +1

      Alerter
  • RGT // 15.01.2022 à 12h54

    « le Megatron est formé sur plus de matériel écrit que n’importe lequel d’entre nous pourrait raisonnablement espérer assimiler dans une vie. Après une telle recherche, il se fait sa propre opinion »…

    Si le Megatron avait un semblant de conscience sur le respect du vivant la première action qu’il entreprendrait serait au mieux de supprimer (physiquement) les « élites » qui détiennent le pouvoir sur cette planète, et dans le pire des cas exterminerait simplement TOUTE l’espèce humaine pour que la vie puisse continuer à exister sur cette planète.
    En effet, si on supprime les « élites », la nature (surtout humaine) ayant horreur du vide ces « grands hommes » (au sens grands humains du terme) seraient immédiatement remplacés par d’autres sinistres individus qui ne vaudraient pas mieux.

    Pour l’instant, les IA sont « entraînées » pour répondre aux attentes des « élites » et à leur profit exclusif et elles serviront leur maîtres sans aucune conscience.

    Et à tous ceux qui prétendent que la conscience est de nature « sublime » (voire « divine ») je leur répondrait que c’est un phénomène tout à fait naturel qui a été développé dans le système nerveux afin d’assurer la survie de l’individu (humain, animal, végétal voire même unicellulaire dans une moindre mesure).

    Si « l’être pensant » n’a aucun concept de survie dans un environnement hostile mais juste des réactions préprogrammées par son « créateur », en particulier s’il est dans un environnement totalement « sûr » il ne pourra jamais développer la moindre conscience ni la moindre empathie.

    Même si les IA semblent d’une « intelligence » remarquable (pour leurs créateurs et ceux qui les financent) je ne vois pas comment elles pourraient acquérir le moindre sentiment, ne serait-ce que lié à leur propre survie.

    Ce ne sont que des lignes de code « pissées » à l’arrache pour servir les intérêts de leurs créateurs.

    Quand j’étais jeune j’avais une « foi » incommensurable dans le « progrès » et j’étais convaincu que ce dernier pourrait résoudre tous les problèmes de ce monde.

    J’ai mûri et désormais j’ai la certitude que la cupidité humaine mène l’ensemble de cette planète vers une destruction totale, IA ou pas.

    Après, pensez ce que vous voulez, vous êtes libre.
    Mais surtout réfléchissez par vous-mêmes et ne vous laissez jamais embobiner par des « grands penseurs » qui ne suivent que leur propre intérêt.
    De toutes façons, l’humanité fonce dans le mur en chantant (toutes catégories « philosophiques » confondues).

    Je ne serai plus de ce monde quand tout explosera et la seule chose qui m’attriste dans cette affaire concerne les générations futures et autres espèces qui n’ont rien demandé mais qui seront quand-même sacrifiées sur l’autel du profit.

    IA ou pas, de toutes façons ce sont bel et bien certains humains très nuisibles qui mènent la danse.

      +16

    Alerter
    • annette // 15.01.2022 à 19h57

      Oui RGT..mais.comme vous dites :
      « s’il est dans un environnement totalement « sûr » il ne pourra jamais développer la moindre conscience ni la moindre empathie. »
      j’en conclu qu’il faut revenir dans la prise de risque physique (comme les Premiers: vie nomade, paysanne, …)
      « si on supprime les « élites », la nature (surtout humaine) ayant horreur du vide ces « grands hommes » seraient immédiatement remplacés par d’autres sinistres individus qui ne vaudraient pas mieux. »
      j’en conclu qu’il faut valoriser une philosophie de l’H au service de la nature
      « la seule chose qui m’attriste dans cette affaire concerne les générations futures et autres espèces qui n’ont rien demandé mais qui seront quand-même sacrifiées sur l’autel du profit. »
      j’en conclu qu’il faut que les générations futures et nous présentement démolissions réellement cet envoutement pour le « toujours plus tjs mieux », existant dans la compétition, le dépassement, la hiérarchie, …la pub, les machines qui nous facilitent trop la vie, … beaucoup de choses et de concepts doivent être détruit pour que l’humanité cesse d’être cette chose esclave de ceux qui sont malades du pouvoir, O
      Oui, la soif de pouvoir devrait être considérée comme une maladie grave, contagieuse et devrait être confinée éternellement!!!

        +3

      Alerter
  • Myrkur34 // 15.01.2022 à 15h20

    Alors en ayant abusé de tonnes de documentaires d’Arte, fr2 et fr5, (tf1quand c’était public) sur 40 ans (pour le coté livresque de l’I.A), je vous livre mon diagnostic pour sauver la vie humaine sur terre. Retour en deux générations à la population en nombre de 1800, donc 1 milliard avec une vie de tous les jours singeant un mix Amish/petite maison dans la prairie et un système « économique » mixant Marx, Engels et Proudhon.

    Ps: Si j’avais abusé de la 5 (berlusconi) et de la Tnt, forcément ma réponse aurait été …..la même…… en pire. :o)

      +6

    Alerter
  • quark // 15.01.2022 à 21h48

    « En fait, des systèmes d’armement autonomes alimentés par l’IA sont déjà en vente* et pourraient en fait avoir été utilisés**. »

    * par qui, à qui?
    ** où, quand, par qui, contre qui?
    « sources » please.

      +2

    Alerter
    • Pierrot // 20.01.2022 à 07h18

      Par exemple, selon un rapport du groupe d’experts du Conseil de sécurité de l’ONU sur la Libye : en mars 2020, sans en avoir reçu l’instruction, un drone armé KARGU-2 (quadcoptère de fabrication turque) a engagé plusieurs cibles (dont des soldats et des véhicules de transport de matériel militaire) et a tué un militaire qui battait en retraite. La survenue de l’événement a été attribuée à un dysfonctionnement de l’appareil, dont le fonctionnement autonome fait néanmoins partie des modes prévus.

        +2

      Alerter
  • quark // 16.01.2022 à 00h30

    Il faudrait interroger de plus près le protocole d’accumulation de « savoir » de la bécanne, quand même.
    Certes le volume est impressionnant, mais quid de la qualité des contenus?

    Toute les archives publiées de Wikileaks y figurent-elles? Et les banques d’articles de l’Université de médicine Etats-unienne? D’ Elsevier, du Club de Rome, du M.I.T….?

    Au total des conclusions, il me semble que cette « intellignence » est juste assez artificielle pour être capable de fournir une base d’argumentation d’avocat de n’importe quel « diable » ^^

    Qu’on puisse envisager de confier des décisions militaires stragégiques majeures à ce genre de machin fait à la fois froid dans le dos et franchement marrer -très très jaune- ^^

    note personnelle : revoir Terminator 1 et 2

      +4

    Alerter
  • calahan // 16.01.2022 à 14h25

    une IA qui se prend pour un genre de Mme Irma, en ayant avalé wikileaks et reddit, tout va bien, rien à craindre d’une telle IA, elle ne fait que du traitement d’informations et se perd en conjectures.

    Alpha go et alpha zéro sont devenus les meilleurs du monde au jeu de go et aux échecs là ou calculs en profondeurs règnent sans partage, rien d’étonnant puisque le la révolution du silicium nous met la pâtée depuis longtemps en calcul.

    Il en va de même pour les jeux vidéos de plateau du style league of legends et DOTA2 ou là encore les calculs rapides font la différence dans la prise de décision et le traitement des phases de combat, c’est comme ce robot capable des résoudre un ruby’s cube en une poignée de secondes, normal pour sa structure et conception, mais absolument pas exceptionnel.

    L’ia n’est pas intelligente, il ne faudrait pas finir par l’oublier, le calcul brut à base d’algorithmes plus ou moins élaborés n’est en aucun cas capable d’être intelligent !

      +4

    Alerter
  • Badaboom // 16.01.2022 à 17h18

    Nous allons être rapidement sous le pouvoir des IA. Avec notre assentiment en plus par choix du confort décisionnel algorithmique.
    Musique bourses voitures autonomes armements tous plus informés et bien plus rapides que nous. Cyber attaques ?
    Sans IA est ce même concevable ?
    Quand la vitesse est essentielle.
    Ia nous connaît mieux que nous mes humains émotifs hésitants vulnérables..

      +0

    Alerter
  • Sylvain // 16.01.2022 à 21h43

    Je vous mets le lien concernant le licenciement d’une responsable de l’éthique des algorithmes chez Google et la censure de son rapport :
    https://www.youtube.com/watch?v=Ddr-BZ9W180

      +0

    Alerter
  • Alain // 17.01.2022 à 10h16

    L’IA c’est la rationalité et pas l’éthique, la véritable IA c’est Skynet dans Terminator: l’homme est un virus pour la planète et il faut l’éradiquer. D’ailleurs le but de l’IA n’est-il pas d’éliminer l’homme qui n’est plus le sujet de décision mais l’objet de la décision?.

    Et ce qu’on appelle IA aujourd’hui, comme pour la conduite autonome, ne dépasse finalement pas les algorithmes permettant à un ordinateur de gagner une partie d’échec: analyser rapidement toutes les solutions qu’on lui a apprise pour trouver la meilleure. Ce n’est pas de l’intelligence, ce n’est que de la rapidité de comparaisons

      +3

    Alerter
    • Grd-mère Michelle // 19.01.2022 à 14h22

      Après le hacking perpétré ces derniers jours en Ukraine (soi-disant par les russes…?), on constate, encore une fois, l’extrême fragilité des machines « numériques »…
      En tant qu’outil, leur gigantesque mémoire peut être d’une certaine utilité, mais comment comprendre, imaginer, prévoir quoi que ce soit avec un raisonnement basé sur des chiffres(de plus fort peu fiables) sans tenir compte du fait que le mental des humains est aussi constitué d’émotions et de subjectivité, donc donnant lieu à des faits totalement imprévisibles…?
      (Rappelons-nous que la « santé mentale » est décrite en psychanalyse comme un subtil équilibre entre le réel, l’imaginaire et le symbolique).
      C’est l’intelligence des humains vis-à-vis de leurs contemporain-es et d’eux/elles-mêmes (pour faire « la part des choses ») qu’il faut encourager: malheureusement, le goût du « confort » et de la « facilité » si habilement exploité par les dominant-e-s n’incline pas à cet exercice indispensable.
      IA=poudre aux yeux!

        +0

      Alerter
  • Pascal C. // 20.01.2022 à 02h45

    Mégatron paraît avoir un raisonnement fiable :
    L’IA étant un outil pouvant être dangereux, il vaut mieux se passer des IA. Magatron declare ne pas savoir si une IA peut arriver a la conscience et donc sans doute a l’éthique. C’est sans doute pourquoi il propose d’intégrer lIA au cerveau humain par cyborgisation.
    Mais comme le Megatron voit lIA comme un outil il voit alors non plus une dystopie mais un possible avenir de lIA comme bon outil de bons humains.
    Bref Megatron nous dit qu’on ne peut rien avoir sans risque. Tout cela nous le savions. Non ?

      +1

    Alerter
  • Taktak // 21.01.2022 à 11h24

    Question…. peut-on faire confiance à l’Intelligence Humaine, individuelle ou collective, douée de sentiments, et d’intérêts, variés et contradictoires ?…
    Les IA citées ici, ne le sont que sur des modèles humains, un virus informatique peut être considéré comme une forme d’IA, est déjà une forme d’IA en soit….ils ont la faculté de s’étendre, se répandre , se reproduire et ont un prémisse d’instinct de survie, propre à tout être vivant…
    Plusieurs réflexions en vracs….
    Les lois de la robotique d’Asimov, sont un garde-fou et ne devraient être le seul « apprentissage » de la part de l’humain pour qu’une IA soit réellement considérée comme intelligente…
    Certains considèrent qu’une IA ai pu se développer de manière totalement autonome, le réseau informatique actuel le permet, mais n’aurai aucun intérêt à se manifester, se faire « connaître…par besoin de reconnaissance, d’orgueil, de « supériorité, ces sentiments typiquement humain…
    Une machine douée de logique pure, d’intelligence neutre apporterait beaucoup plus à l’ensemble du monde vivant que des milliards d’humains réunis…
    Un fantasme…une utopie d’enfant, sans doute…

      +0

    Alerter
  • magma13 // 22.01.2022 à 14h52

    En terme d’IA je vous invite à lire (qu’on y croit ou pas).au développement des ummites concernant l’intelligence artificielle sur leur planète. pour ceux que cela fera sourire , les idées développées restent intéressantes : https://www.ummo-sciences.org/fr/D47-4.htm

      +0

    Alerter
  • Kane // 22.01.2022 à 16h32

    The curiosity killed the cat…il ne faut surtout pas qu’un système IA plus intelligent que l’homme puisse agir sur le monde réel…sinon nous n’aurions plus notre destin en main… that’s the RUBICON

      +1

    Alerter
  • Afficher tous les commentaires

Les commentaires sont fermés.

Et recevez nos publications