Les Crises Les Crises
4.mars.20194.3.2019 // Les Crises

Recherche nounou parfaite avec certificat de réussite au test d’IA relatif au respect et au comportement

Merci 379
J'envoie

Source : The Washington Post, Drew Harwell, 23-11-2018

Jessie Battaglia et son fils Bennett dans leur maison à Rancho Mirage en Californie. C’est en recherchant une baby-sitter que Mme Battaglia a commencé à utiliser Predictim, un service en ligne qui affirme utiliser un système « d’intelligence artificielle avancée » pour évaluer les risques de toxicomanie, d’intimidation ou de mauvaise conduite d’une baby-sitter.

Drew Harwell

23 novembre 2018

Lorsque Jessie Battaglia a commencé à rechercher une nouvelle nounou pour son fils âgé d’un an, elle a voulu avoir plus d’informations que celles que l’on obtient par la vérification du casier judiciaire, les avis de parents et l’entretien face-à-face.

Elle a donc fait appel à Predictim, un service en ligne utilisant une « intelligence artificielle avancée » pour évaluer la personnalité des baby-sitters, et a fait examiner par les scanners de l’agence les milliers de publications Facebook, Twitter et Instagram d’une candidate.

Le système a présenté une note d’évaluation automatisée pour cette femme de 24 ans, expliquant que le risque qu’elle soit toxicomane était très faible, mais lui donnant toutefois un risque légèrement plus élevé – 2 sur 5 – quant aux possibilités d’intimidation, de harcèlement, de manque de respect et de mauvaise conduite.

Le système n’expliquait pas comment il était arrivé à cette note, mais Mme Battaglia, qui avait crû que la nounou était digne de confiance, se sentit soudain assaillie de doutes.

« Les réseaux sociaux révèlent le caractère d’une personne », affirme Mme Battaglia, âgée de 29 ans, qui vit dans la banlieue de Los Angeles. « Alors pourquoi obtient-elle un 2 et pas un 1 ? »

Predictim offre aux parents le même modèle que des douzaines d’autres entreprises informatiques vendent aux patrons d’entreprises à travers le monde : des systèmes d’intelligence artificielle qui analysent la façon de parler d’une personne, ses expressions faciales et son historique en ligne, avec la promesse de révéler les aspects cachés de sa vie privée.

Cette technologie est en train de remodeler les méthodes de recrutement, d’embauche et d’évaluation des salariés par les entreprises, en proposant à ces dernières un regard sans pareil sur les candidats à l’embauche grâce à l’arrivée de nouveaux systèmes de surveillance et d’évaluation psychologique intrusive.

La société de services informatiques Fama indique qu’elle utilise l’intelligence artificielle pour surveiller les « comportements indésirables » des employés sur les réseaux sociaux et en alerter leur hiérarchie. De même, la société de recrutement informatique HireVue, qui travaille avec de grands groupes comme Geico, Hilton et Unilever, propose un système qui analyse automatiquement les intonations de voix des candidats, leurs choix de mots et les mouvements de leur visage lors d’entretiens vidéo afin de prédire quelles seront leurs compétences et leur attitude une fois en poste (les candidats sont encouragés à sourire pour obtenir la meilleure notation possible).

Cependant, les critiques pensent que Predictim et d’autres systèmes similaires présentent elles-mêmes un danger en automatisant des décisions, parfois lourdes de conséquences dans la vie d’une personne, et pratiquement sans contrôle.

Ces systèmes reposent sur des algorithmes de type « boîte noire », qui ne donnent que peu d’information sur la manière dont ils réduisent les complexités de l’intimité d’une personne à un résultat chiffré de vertu ou de malfaisance. De plus, même si la technologie de Predictim influence le raisonnement des parents, elle n’a pas encore fait ses preuves et demeure largement inexpliquée et exposée à des préjugés implicites concernant ce que la nounou idéale devrait partager sur les réseaux sociaux, ce à quoi elle devrait ressembler et la manière dont elle devrait s’exprimer.

On observe cette « course folle pour s’emparer du potentiel de l’intelligence artificielle et prendre toutes sortes de décisions sans se soucier de savoir si cela est juste envers l’humain », constate Jeff Chester, directeur général du Centre pour la démocratie numérique, un groupe de pression pour la protection du consommateur, qui analyse et informe le grand public, les médias et les décideurs, des activités du secteur du marketing numérique. « C’est comme si les gens avait bu un Kool-Aid numérique et s’imaginaient que c’est la manière indiquée de gouverner nos vies ».

Les balayages numériques de Predictim analysent l’intégralité de l’historique d’une baby-sitter sur les réseaux sociaux, ce qui, pour beaucoup de jeunes nounous, peut couvrir presque toute leur vie. On informe les candidates qu’elles seront extrêmement désavantagées sur ces emplois à forte concurrence si elles refusent cet examen.

Sal Parsa, le responsable et cofondateur de Predictim explique que la société, lancée le mois dernier dans le cadre de SkyDeck, pépinière d’entreprises technologiques de l’Université de Californie à Bekerley, prend très au sérieux les questions éthiques sur l’usage qu’elle fait de la technologie. Il indique que les parents devraient considérer cette notation comme une aide « pouvant refléter ou pas les attributs réels d’une baby-sitter ».

Mais il ajoute aussi que le risque d’embaucher une baby-sitter à problèmes ou violente, fait de l’intelligence artificielle un outil nécessaire pour tout parent qui entend assurer la sécurité de son enfant.

« Si vous cherchez ‘baby-sitter violente’ dans Google, vous obtiendrez immédiatement des centaines de résultats », continue-t-il. « Il y a des gens qui ont de sérieux problèmes mentaux ou qui sont tout simplement nés mauvais. Notre but est de faire tout ce que nous pouvons pour les empêcher de nuire. »

Un scan Predictim est facturé à partir de 24,99 $, et requiert le nom de la baby-sitter, son adresse e-mail et son accord pour l’accès à ses comptes sur les réseaux sociaux. Elle peut refuser, mais le parent sera informé de son refus et elle recevra par e-mail une note, lui indiquant que le parent intéressé ne sera pas en mesure de l’embaucher tant qu’elle n’aura pas complété cette demande.

Les responsables de Predictim expliquent qu’ils utilisent un algorithme de traitement du langage et un logiciel de reconnaissance d’image, appelé « vision par ordinateur », pour évaluer les publications Facebook, Twitter et Instagram de la baby-sitter afin de dénicher des indices sur sa vie hors ligne. Un rapport est envoyé au parent uniquement, qui n’a pas l’obligation de révéler le résultat à la candidate.

Les parents pourraient sans doute examiner les comptes des nounous eux-mêmes. Mais les rapports générés par ordinateurs portent la promesse d’une inspection en profondeur d’années entières d’activité en ligne, ramenées à un simple chiffre : autrement dit, ils apportent une solution d’une simplicité enivrante à un problème compliqué.

La notation des risques est divisée en plusieurs catégories incluant les contenus douteux et l’usage de drogue. La jeune entreprise a également vanté la capacité de son système à évaluer les baby-sitters sur d’autres aspects de leur personnalité, tels que la politesse, l’aptitude à travailler avec d’autres et leur « positivité ».

Les responsables de l’entreprise espèrent prendre la tête du secteur multimillionnaire de la « sous-traitance parentale » et ont commencé à faire de la publicité à travers le parrainage rémunéré de blogs d’éducation des enfants et de blogs de mamans. Le marketing est fortement axé sur la capacité de la société à mettre au jour les secrets cachés et éviter « le cauchemar de tout parent », citant des affaires criminelles comme celle de cette baby-sitter du Kentucky inculpée plus tôt dans l’année, pour avoir gravement blessé une enfant de huit mois.

Ainsi, les documents marketing de la société expliquent que « si les parents de la petite fille avaient pu utiliser Predictim dans leurs démarches de recrutement, ils n’auraient jamais laissé cette femme seule avec leur précieuse enfant ».

Mais les experts en technologie disent que le système soulève des problèmes qui lui sont propres, dont, entre autres, la crainte que la peur des parents ne soit exploitée pour vendre des tests de personnalité dont l’exactitude n’est pas vérifiée.

Ils émettent également des doutes sur la manière dont ces systèmes font leur apprentissage et sur leurs difficultés éventuelles à comprendre les significations assez vagues de l’activité d’une nounou sur les réseaux sociaux. Pour toute requête, à l’exception de celles à haut risque, les parents ne reçoivent qu’une suggestion des comportements qui laissent à désirer, sans extrait de publications, sans lien URL ou tout autres détails à évaluer par eux-mêmes.

Ainsi, lorsque les résultats d’une requête sur une baby-sitter ont signalé la possibilité d’une attitude brutale, une maman, décontenancée, a expliqué qu’elle n’était pas en mesure de savoir si le logiciel était tombé sur une citation de vieux film, des paroles de chanson ou une autre expression, ou bien sur des propos réellement intimidants.

L’écran du portable de Jessie Battaglia montrant les résultats de l’application Predictim (Photo : Kyle Grillot pour le Washington Post)

Jamie L. William, avocat des libertés civiles pour la Electronic Frontier Fondation, note que la plupart des algorithmes utilisés aujourd’hui pour accéder aux sens des mots et des images publiés en ligne, sont largement connus pour manquer du bon sens et de la mise en contexte qu’apporte une lecture humaine. Même des géants technologiques, comme Facebook, ont eu du mal à construire des algorithmes qui puissent faire la différence entre un commentaire inoffensif et une incitation à la haine.

« Quant à utiliser ces systèmes sur des gamins; soyons sérieux, ce sont des gamins ! », nous dit William. « Les gamins ont des blagues d’initiés. Ils font un usage notoire du sarcasme. Ce qui pourrait ressembler à une « mauvaise attitude » pour un algorithme, ne serait pour une personne qu’un point de vue politique ou une critique fondée. »

Lorsque la machine se trompe – suggérant, par exemple, que la nounou est toxicomane – il peut être impossible pour un parent de le savoir. Le caractère tranché des notations et des attestations de confiance du système peut conduire les parents à imaginer que ce dernier est bien plus précis et digne de foi que ne le serait un humain, et peut les orienter vers des nounous qu’ils auraient normalement évitées, ou bien les détourner de personnes en qui ils avaient confiance.

« A l’heure actuelle, on ne dispose d’aucun paramètre pour vraiment comprendre la capacité de ces outils à prédire ce qu’ils prétendent prédire », explique Miranda Bogen, analyste politique confirmée chez Upturn à Washington, un groupe de réflexion qui examine la manière dont sont utilisés les algorithmes dans la prise de décision et dans les affaires pénales. « Il est fort probable que l’attrait pour ces technologies dépasse leur capacité réelle. »

La baby-sitter de Madame Battaglia, Malissa Nielsen, 24 ans, a récemment donné son accord à deux familles différentes qui lui ont demandé de remettre à Predictim ses accès aux réseaux sociaux. Elle a expliqué qu’elle a toujours été prudente sur les réseaux et s’est dit que partager un peu plus ne pouvait pas faire de mal ; elle va à l’église une fois par semaine, ne jure pas et elle termine sa formation en éducation de la petite enfance, grâce à laquelle elle espère ouvrir une garderie.

Mais en apprenant que le système lui avait attribué une mauvaise note pour harcèlement et manque de respect, elle a été stupéfaite. Elle avait cru qu’il s’agissait de permettre aux parents d’examiner ses comptes sur les réseaux sociaux, et non pas de consentir à ce qu’un algorithme dissèque sa personnalité. Elle n’avait pas été informée non plus des résultats d’un test qui pourrait mettre à mal sa seule source de revenu.

« J’aurais voulu comprendre un peu plus. Comment la machine peut penser ça de moi ? » nous a dit Malissa Nielsen. « Un ordinateur n’a pas de sentiment. Il n’est pas capable d’identifier tout ça. »

Les Américains cultivent une méfiance persistante à l’égard des algorithmes dont les décisions pourraient affecter leur vie quotidienne. Dans une étude du Pew Research Center, 57 % des personnes interrogées pensent que l’examen automatisé des CV de candidats à l’embauche est « inacceptable ».

Néanmoins, les responsables de Predictim confirment qu’ils se préparent à déployer leurs services à l’échelle nationale. Chez Sittercity, une plateforme de recrutement de baby-sitters en ligne, visitée par des millions de parents, la direction va lancer, en début d’année prochaine, un programme pilote qui intégrera les notations de Predictim aux tests et vérifications d’antécédents actuellement en place.

« La recherche d’une nounou peut s’accompagner de beaucoup d’incertitudes », explique Sandra Dainora, chef de produit chez Sittercity, qui pense que ce type d’outils pourrait devenir une norme en matière de recherche en ligne de personnel aidant. « Les parents sont toujours à la recherche des meilleures solutions, plus on peut avoir d’informations, meilleures sont les conclusions. »

Les cadres de Predictim pensent qu’il peuvent considérablement augmenter les capacités du système afin de proposer des évaluations encore plus poussées de la vie privée des baby-sitters. Joel Simonoff, directeur technologique de la société, a confirmé que son équipe s’intéresse à la possibilité d’obtenir « d’utiles données psychométriques » à partir des réseaux sociaux des candidates, en faisant passer l’historique de leurs activités au travers de tests de personnalité, comme celui de Myers Briggs, et de vendre les résultats aux parents.

Le travail d’extraction de données de Predictim sur les réseaux sociaux et son intérêt pour l’analyse psychologique de masse n’est pas sans rappeler les ambitions de Cambridge Analytica, le cabinet en conseil politique qui a travaillé sur la campagne de Trump et entraîné Facebook dans un scandale mondial relatif à la protection de la vie privée. Mais les dirigeants de l’entreprise affirment qu’ils ont mis en place des gardes-fous internes et travaillent sur la protection des données personnelles des baby-sitters. « Si nous laissions fuiter les infos d’une baby-sitter, ce ne serait vraiment pas cool », a relevé Simonoff.

Jessie Battaglia et son fils Bennett, chez eux (crédit photo : Kyle Grillot pour le Washington Post)

Les experts craignent que les notations des systèmes d’intelligence artificielle, comme celles de Predictim, annoncent un futur dans lequel l’attribution de tout emploi, pas seulement de garde d’enfants, sera décidée par une machine. De nombreuses entreprises de recrutement à l’embauche construisent déjà ou investissent dans des systèmes qui peuvent analyser les CV de candidats à très grande échelle et obtenir une évaluation automatisée de la manière dont chacun d’eux pourraient travailler une fois en poste. Des systèmes d’intelligence artificielle de même type – comme Jigsaw, une jeune entreprise d’informatique créée par Google – sont utilisés pour patrouiller sur Internet et débusquer dans les commentaires, le harcèlement, les menaces et la violence en ligne.

Mais il a été démontré régulièrement que les algorithmes de recrutement ne font pas apparaître le genre de préjugés subtils qui pourraient faire dérailler la carrière d’une personne. Ainsi, des sources ont confié à l’agence Reuters qu’Amazon avait arrêté le développement d’un algorithme de recrutement lorsqu’elle s’était aperçue que celui-ci avait injustement pénalisé les femmes – l’historique du recrutement de la société, dans un secteur informatique dominé par les hommes, avait appris au système que les caractéristiques masculines étaient préférables. La société a affirmé que l’outil n’avait jamais servi à évaluer les candidats (le fondateur et dirigeant d’Amazon est propriétaire du Washington Post).

Certains experts pensent que de tels systèmes ont le pouvoir d’exacerber les préjugés liés à l’âge et aux origines raciales, y compris en signalant les mots ou les images issus de certains groupes plus que ceux issus d’autres groupes. Ils craignent également que Predictim puisse forcer de jeunes nounous à remettre des données personnelles uniquement en vue d’obtenir un boulot.

Cependant, Diana Werner, mère de deux enfants, qui vit juste au nord de San Francisco, pense que les baby-sitters devraient être disposées à partager leurs informations personnelles pour satisfaire la tranquillité des parents.

« La vérification d’antécédents, c’est bien, mais Predictim va plus en profondeur, elle dissèque réellement la personne – son statut social et son état psychologique », a-t-elle expliqué.

Là où elle habite, « 100 % des parents voudront utiliser ce service », a-t-elle ajouté. « Nous voulons tous la parfaite baby-sitter. »

Drew Harwell est reporter national sur la technologie pour le compte du Washington Post, spécialisé en intelligence artificielle. Il a couvert par le passé les questions de commerce national et les entreprises de Trump.

Source : The Washington Post, Drew Harwell, 23-11-2018

Traduit par les lecteurs du site www.les-crises.fr. Traduction librement reproductible en intégralité, en citant la source.

Nous vous proposons cet article afin d'élargir votre champ de réflexion. Cela ne signifie pas forcément que nous approuvions la vision développée ici. Dans tous les cas, notre responsabilité s'arrête aux propos que nous reportons ici. [Lire plus]Nous ne sommes nullement engagés par les propos que l'auteur aurait pu tenir par ailleurs - et encore moins par ceux qu'il pourrait tenir dans le futur. Merci cependant de nous signaler par le formulaire de contact toute information concernant l'auteur qui pourrait nuire à sa réputation. 

Commentaire recommandé

Nerouiev // 04.03.2019 à 06h42

Je connais une Nounou tellement parfaite qu’elle a fini par se marier avec l’enfant qu’elle gardait.

69 réactions et commentaires

  • Xavier // 04.03.2019 à 06h25

    Je conseille ici fortement la lecture du livre d’Ira Levin, « Un bonheur insoutenable ».
    Extrait du résumé sur Wikipedia :
    « L’action se situe dans l’avenir, après l’année 2000. L’humanité (désignée sous le nom de Famille) est unifiée, et il n’y a plus qu’une seule langue parlée. Son destin dépend d’un ordinateur caché sous les Alpes : UniOrd ou Uni. Uni contrôle tout : il éduque, oriente, autorise ou non les mariages et la procréation. Violence et égoïsme ont disparu de la surface de la Terre. Hommes et femmes reçoivent un traitement médicamenteux mensuel — dans les médicentres — chargé de les rendre dociles et maîtriser leur reproduction. Les prénoms ont été remplacés par des identifiants alphanumériques, chacun devant s’identifier en permanence devant des scanners. Seul le bonheur des membres de la Famille compte et Uni y pourvoit.« 

      +23

    Alerter
  • Kiwixar // 04.03.2019 à 06h34

    La réponse à cela est la « double personnalité virtuelle » sur les réseaux sociaux :

    – compte « prénom.nom » : personnalité lissée, qui aime Liszt, les séries télés, les balades en forêt, vote Macron, lit LeMonde, adore l’UE, mange vegan, a un chien (golden retriever), aime les champignons et les week-ends à New York, pense que les GJ ne devraient manifester que la où le préfet autorise et quand il l’autorise, hait Maduro qui fait souffrir le peuple Mexicain (euh Vénézuelien), donne son opinion sur les pays lointains selon la doxa officielle

    – le compte « pseudonyme » accédé via VPN

    N’est-il pas du mauvais côté du rideau de fer celui qui doit cacher ses pensées et faire attention de ne pas être dénoncé par ses enfants pour déviationnisme et pensée anti-bourgeoise (compl*tisme, anti-EUrisme, confusi*nisme, antis*mitisme, etc)?

      +64

    Alerter
    • thecis // 04.03.2019 à 14h23

      C’est là qu’on voit que les gens sont limités dans leur appréhension du monde qui les entourent. Ce qui est valable pour une nounou aujourd’hui sera valable pour ces gens « bien pensant » pour un job auquel ils vont postuler demain.

      Sans vouloir faire de la pub pour une plateforme de streaming bien connue, la série Black Mirror traite de sujets de cet envergure, à savoir qu’est-ce que pourrait devenir la société dans ce monde hyper connecté.

        +2

      Alerter
  • Nerouiev // 04.03.2019 à 06h42

    Je connais une Nounou tellement parfaite qu’elle a fini par se marier avec l’enfant qu’elle gardait.

      +87

    Alerter
    • Linder // 04.03.2019 à 09h54

      Etait-ce une nounou ? ou une prof de français ?

        +7

      Alerter
      • jp // 04.03.2019 à 13h52

        je crois qu’il s’agit d’une prof de théâtre

          +5

        Alerter
    • Le Belge // 04.03.2019 à 09h56

      Moi aussi. Si c’est à celle que vous pensez, nul doute qu’ils finiront (peut être) mal tous les deux.

        +9

      Alerter
  • LBSSO // 04.03.2019 à 06h49

    Moi gentil. Vous méchants.

    Si je comprends bien, Amazon et son fondateur Jeff Bezos par ailleurs propriétaire du Washington Post font paraître un article fin novembre concernant Predictim et en passant évoque le logiciel Jigsaw de Google. Hasard…
    Or on apprend qu’un mois auparavant , en octobre, qu’  » Amazon avait été contraint de mettre au placard son logiciel de tri des CV en raison de biais importants: en se basant sur l’historique des recrutements, l’algorithme avait pris l’habitude de privilégier les hommes. Malgré des tentatives d’amélioration, Amazon a finalement renoncé à l’utilisation de ce programme. Autant de biais d’âge, de sexe ou d’ethnie, qui pourraient concerner les algorithmes utilisés par Predictim ».

    https://www.bfmtv.com/tech/cet-algorithme-evalue-votre-babysitter-en-fouillant-les-reseaux-sociaux-1574643.html

    Si certains se demandent encore pourquoi les géants du numérique s’offrent des journaux, je prédis avec une note de 5/5 qu’ils trouveront ici une réponse.

      +16

    Alerter
    • smaksing // 04.03.2019 à 09h32

      On voit bien que l’article n’est pas du tout critique vis à vis de l’utilisation même de ce type d’outil, mais uniquement vis à vis de la qualité de l’outil.
      Alors que ce qui est décrit fait froid dans le dos dès les première lignes, on est surpris de lire que le journaliste trouve surtout que Predictim n’est pas encore assez performant.
      Vivement que ça fonctionne bien!!

        +21

      Alerter
      • Tepavac // 04.03.2019 à 16h55

        Extrait;
        « Il y a des gens qui ont de sérieux problèmes mentaux ou qui sont tout simplement nés mauvais. Notre but est de faire tout ce que nous pouvons pour les empêcher de nuire. »

        Oui, imaginons notre premier entretien pour postuler à un emploi et se retrouver avec ce genre de considération placardée dans le dos ad vitam aeternam…sans que vous le sachiez, sans pouvoir s’en défendre, sans comprendre pourquoi on est exclu des bienfaits de la société.

        Comment peut-on accepter de tels procédés de sélection et de classification des personnes, et oser l’avouer publiquement, cela dépasse l’entendement.

          +10

        Alerter
        • Cyri // 04.03.2019 à 18h15

          Exactement ! Rien qu’avec ça on n’a pas envie de savoir comment ce logiciel « apprend » a trouver les « nés mauvais ». C’est bien connu, les méthodes de détections de bébés mal nés sont infaillibles…

            +2

          Alerter
      • LBSSO // 04.03.2019 à 19h34

        Le  » en même temps amazonien  »

        @smaksing
        1-Qui arrête d’utiliser le logiciel pour les CV ? Amazon
        2- L’arrête-t-il pour des raisons éthiques ? Oui .Biais d’âge, de sexe ou d’ethnie .
        3- D’autres continuent-ils ? Oui.En particulier Alphabet, (Google, cité dans l’article) concurrent d’Amazon en particulier en R & D ( 13,9 Mds vs 16,1 Mds ).Hasard….
        4- L’article paraît après l’arrêt d’Amazon.Serait-il paru ,si cela n’avait pas été le cas, sous cette forme et dans le WP ?
        Évidement , ces technologies vont perdurer. Amazon est la première entreprise de technologie à prendre la tête du palmarès »Global Innovation 1000″ .Elle détrône Volkswagen.Elle doit sa rentabilité au cloud et non directement à son site de vente en ligne.

        En résumé : Amazon interrompt l’utilisation de son programme (à noter :pour des raisons sociétales bien tendance qui sentent le communiquant à plein nez, non en raison de l’intrusion dans notre vie privée bien sûr) , le fait savoir dans son journal , et « en même temps » poursuit ses investissements technologiques qui analysent nos données personnelles.

        Je maintiens : article en faveur de l’image d’Amazon qui a en bien besoin…

          +1

        Alerter
        • smaksing // 05.03.2019 à 05h32

          « Je maintiens : article en faveur de l’image d’Amazon qui a en bien besoin… »

          Oui. Et d’ailleurs merci pour cette précision concernant le propriétaire du Washing Post (ce calambour est apparu tout seul juste pour l’abreviation, mais il est bien à propos pour le coup..).

            +1

          Alerter
  • Fabrice // 04.03.2019 à 07h17

    Quand l’humain délégue ses décisions fruits de son intelligence ainsi que de son ressenti à l’IA pour préserver ce qui est le fruit de ses sentiments humains comme ses enfants ou son amour qu’il ne s’etonne pas que le résultat soit deshumanisé et un échec, la machine ne fait que prendre en compte que ce qu’elle connaît, or les sentiments ne font pas partie de ce qu’elle peut appréhender.

      +22

    Alerter
    • Xavier // 04.03.2019 à 07h54

      C’est le piège de penser cela, l’humain ne délègue rien à des machines, il camoufle sa dominance à travers des algorithmes dont il choisit les paramètres sous prétexte d’efficacité et d’optimisation…

      Et plus nous serons nombreux, plus nous consommerons, plus cela deviendra à la fois la seule possibilité pour gérer le système et une prison.
      1984 n’était pas de la dystopie mais de l’anticipation.

        +21

      Alerter
      • Fabrice // 04.03.2019 à 08h38

        Les paramètres font parti de la connaissance de L’IA et si vous regardez le nbre de personnes qui paramètrent celle-ci, ce sont rarement celles qui sont majoritairement prêtes à se soumettre à leur propre création.

        Cela devrait d’ailleurs être un signal d’alerte mais trop sont prêt à confier l’autorité de leur décisions à d’autres (avant politique, religieux, professionnel,…) ou désormais à une machine pour ne pas avoir la responsabilité de de leur choix ou action. Donc désolé mon intervention est parfaitement à propos.

          +11

        Alerter
        • Tepavac // 04.03.2019 à 17h25

          Bah Xavier ne vous contredit pas, vous en arrivez à la même conclusion, « prétexter l’utilisation d’un tiers pour se soustraire a ses responsabilités ».

          C’est évidemment ennuyeux, mais la vrais menace vient du procédé lui même, qui ajoute à la sélection, des critères de classification discriminatoire étalés publiquement, la personnes qui pense postuler pour un emploi, peut en sortir avec une étoile jaune tatouée électroniquement sur tous ses CV.

            +1

          Alerter
  • Jean-Do // 04.03.2019 à 07h26

    Nous critiquons la notation des individus en Chine comme du totalitarisme et nous avons ici quelque chose d’encore pire. Cette habitude américaine de devoir donner ses identifiants sociaux pour obtenir une embauche ou passer la douane ne semble quand même pas avoir débarqué en Europe. Mais pour combien de temps encore ?

      +28

    Alerter
  • pol // 04.03.2019 à 07h28

    Bahhh, moi quand je vois la tronche du gamin je sais tout de suite que c’est un gros casse-couilles.

    j’ai le même à la maison…

      +27

    Alerter
    • Jerrick // 04.03.2019 à 14h56

      C’est exactement ce que j’ai pensé en voyant les photos… ce sera encore un de ces « gosses-rois », « casse-c******s », égoïste, archi-pourri par la surconsommation de ses parents… bref, un petit con.

      Je suis d’un « autre temps », et, comme @jp plus bas, n’ai aucun compte sur les réseaux sociaux hormis LinkedIn, car il s’agit de ma face « publique », mon activité professionnelle. Pour le reste, je mets en pratique l’adage « Pour vivre heureux, vivons cachés ».

        +2

      Alerter
  • Alfred // 04.03.2019 à 07h44

    Les gènes de Jessie disparaîtront assez rapidement selon les observations de Darwin. Bye bye Jessie qui fait confiance à une ia plus qu’en elle même pour décider ce qui est bon pour son bébé. C’est bien mérité. Bye Jessie.

      +16

    Alerter
  • Max // 04.03.2019 à 07h53

    Cela est déjà le cas dans la vie de tous les jours ainsi en est t’il des gens qui vous enregistrent avec leurs Smartphones a votre insu.
    Ainsi en est-il de vos cartes de crédits Mastercard et Visa qui enregistrent directement vos achats aux USA .
    Idem pour les Gafa.
    C’est un pas, de plus, dans le système dans lequel s’est engagé la Chine, à savoir le crédit social : https://fr.wikipedia.org/wiki/Système_de_crédit_social
    Efficacité garantie en Chine ou les actes déviants et autres fondent comme neige au soleil d’été.
    Nous n’en sommes qu’au début.

      +8

    Alerter
    • Tepavac // 04.03.2019 à 18h06

      « Efficacité garantie en Chine ou les actes déviants et autres fondent comme neige au soleil d’été. »

      C’est l’effet recherché, la docilité en toutes circonstances. C’est le même principe qui est employé par les pieds nickelés de disinfolab et autres « equipes du lol » pour faire taire toutes opposition en les menacants de révéler leurs petites particularitéss intimes sur tous les medias publique.

      On retrouve le même procédé avec ce type d’émission télévisée ;
      https://www.twitter.com/Tonner13/status/1101967924020080640

      On peut noter que les accusations portées contre le mouvement des Gj, sont exactement les faits quotidiennement entretenus par les grands médias, guerres, violences, haines, critiques venimeuses, racisme de classe, racisme d’opinion, et mépris des autres, mais mépris seulement, si l’insolent estime les autres sont subalternes a lui-même.

      Face aux danger, l’instinct de l’ordre amplifie l’obéissance au maître.

      Sur le coup, vu le comportement obsequieux de ces drôles de personnages envers le pouvoir, je me demande qui fait partie de la plèbe, et qui fait partie des vaillants….

        +0

      Alerter
  • Kesse // 04.03.2019 à 07h53

    L’entreprise Predictim est à gerber.
    Il est évident que l’algorithme est raciste, anti-pauvre, anti-gay et anti-moche … et cela n’est que pour citer quelques-uns des biais du à l’échantillon. Et si, vous n’avez pas de vie sur les réseaux sociaux, vous étes coupables aussi.
    Il faudra se battre contre ce genre d’entreprises et leurs idiots utiles qui entonnent: « Moi, je n’ai rien à cacher. »
    -« Ben si. Arrête de montrer que t’es con. C’est vachement discriminant. »

      +32

    Alerter
    • Xavier // 04.03.2019 à 07h57

      L’algorithme n’est rien de tout cela, l’algorithme est productif, il optimise, il ne laisse pas de place aux faibles, entendre aux plus faibles.
      En cela, il est fasciste, d’un fascisme absolu : nier le droit d’exister à certains.

        +17

      Alerter
      • libraire // 04.03.2019 à 09h27

        L’algorithme est une béquille utilisée ici à fin de sécurisation. La disparition totale de tout communautarisme oblige à utiliser des « médias numériques » qui remplaceront le bouche à oreille et la relation vivante. Continuons à vivre une vie anonymisée (dans des mégapoles) et les nounous et autres prestataires de services seront illusoirement des dangers potentiels. Dans ma bourgade si une nounou déconne, même en dehors de son boulot, elle est grillée pour le reste de sa carrière. Idem pour le maçon, l’électricien, le boulanger…..Cela implique d’aller se lâcher ailleurs ou dans des cadres convenus et prévus à cet effet. Une vraie vie sociale, en fait.
        Cet article est anxiogène à souhait. J’ai tapé sur qwant « baby siter violente » et je n’ai eu que deux résultats, repris par tous les médias papiers, ce qui laisse à penser que de nombreux cas….. Avec Nounou violente cinq résultats entre 2012 et aujourd’hui, dont deux qui se recoupent avec la recherche utilisant l’anglicisme. En fait trois faits divers pour combien de nounous?
        Démarche perverse: on crée la peur, on propose la sécurisation et dans ces systèmes de sécurisation sont présents des systèmes de surveillance et de discrimination.
        Méthode de soins: On n’entre pas dans le jeu de la peur.

          +19

        Alerter
        • Tepavac // 04.03.2019 à 18h24

          Merci de dénoncer cette supercherie qui rejoint actuellement tous les autres « catastrophismes » dans l’air du temps; le catastrophisme climatique, celui du nucléaire, celui de la fin de l’énergie à gogo, celui des météorites, des volcans, …de la fin du monde…
          Les médias nous baignent dans un océan de catastrophe à longueur d’année, faire peur semble jouissif à certains exhibitionnistes.

          Mais le plus cocasses et ironie de cette lamentable histoire, c’est le fait que ces pourfendeurs « de fausses informations  » , sont les mêmes qui ensuite vous espionnent pour rechercher dans le cours de votre vie, des éléments qui pourrais indiquer que vous avez de mauvaises intentions. Mais attention, ce n’est pas du complotisme….

          Enfin, comprenne qui pourra.

            +0

          Alerter
    • Alfred // 04.03.2019 à 07h59

      Il m’arrive d’être d’accord avec vous (Jesse) (si ça ne vous dérange pas).
      L’algorithme cache au fond les a priori de ceux qui l’ont conçu (Xavier) et légitimise lâchement ce qui n’est que leurs opinions.

        +6

      Alerter
      • Kess // 04.03.2019 à 08h53

        Il y a deux types d’algorithmes de prédiction.

        Les old schools sont construits sur un enchevêtrement de systèmes experts, eux-mêmes composés de fonctions établissant le poids de certains liens causaux dont la structure a été établie par l’humain. Alors, je suis d’accord: « L’algorithme cache au fond les a priori de ceux qui l’ont conçu . »

        Mais les old schools tendent à être dépassés dans tous les secteurs par les algorithmes d’apprentissage automatique (ou statistique, vous savez le fameux deep learning: https://www.youtube.com/watch?v=xuBzQ38DNhE). Dans le cas du deep learning, celui qui concoit l’algorithme est très peu capable de mettre des a priori discriminant (ou alors à travers la fonction de coût: -2 si on tape le bébé, -10 si on le mord, ce qui discrimine les chiens).

        Par contre l’a priori viendra fortement de l’échantillon utilisé pour entraîner l’algorithme (des caractéristique de personnes sur les réseaux sociaux et leur casier judiciaire, par exemple). Et là, il est possible de faire n’importe quoi en augmentant la représentation dans l’échantillon de telles ou telles catégories. Si, on n’autorise pas ces manipulations sur l’échantillon, celui-ci est de toute manière biaisé: plus de criminalité chez les noirs et chez les pauvres, les pauvres sont plus gros, donc les gros plus criminelles … et caetera

          +8

        Alerter
        • Alfred // 04.03.2019 à 14h23

          Un peu pour vous taquiner, Kesse, mais aussi car c’est une vraie question dont la réponse m’intéresserait: que pensez vous de ce qui ressort de Google image à la requette suivante: « european people history ».
          Est ce l’algorithme? Qui? Pourquoi? Dans quel but?

            +0

          Alerter
          • kess // 04.03.2019 à 15h45

            Oui, c’est l’echantillon qui est biaise. L’echantillon est, cette fois, les preferences des cliques des usages apres avoir tape ces mots clefs. Deux possibilites me viennent a l’esprit:
            – Les personnes originaires d’Afrique noire sont tres interessees par le role qu’aurait eu leurs ancetres en Europe et leurs representations dans des tableaux de la renaissance. Certitude: peu probable
            – Les personnes naviguant sur des thematiques proches de la fachosphere sont tres interesses par confirmer leurs propre biais, a savoir ici, qu’il y aurait un complot visant a transformer la perception historique des gens a propos de l’Europe. Du coup, il clique sur les tableaux representant des personnes de couleur dans des habits renaissance. Ils font artificiellement remonter la prevalence de ces images associees a ces mots clefs. Et plus elles sont presentes, plus ils sont certains. Ils se refilent alors les mots clefs a taper pour que les gens de meme sensibilite puissent verifier ce phenomene qu’ils ont eux-memes crees. Certitude: Tres tres probable.

            Note: il a fallu qq gens motives pour creer ce phenomene, maintenant, il s’entretient par le bouche a oreille, comme vous l’avez fait pour moi. Ce qui confirme … bref vous savez quoi. Non? Vos inquietudes …

              +2

            Alerter
            • Alfred // 04.03.2019 à 17h20

              Assez bonne réponse. A la première lecture. Cela répond à la question « comment » cela se maintient. La question initiale reste entière: qui peut être assez taré pour produire cela? Si c’est juste une bande d’excité, alors soit ils ont beaucoup de ressources (temps) soit le moteur de google est particulièrement nul et fragile.
              Merci de votre réponse courtoise en tous cas (je fais fi de vos sous entendu, car d’eux je me cogne).

                +2

              Alerter
            • kess // 04.03.2019 à 18h04

              Il aurait fallu etre motive pour essayer de lier cela a « European History ». Ils n’y sont pas parvenus, par contre « european people history » dans cet ordre donne un ensemble de mots clefs plutot rare. Je pense pouvoir dire que je ne connais personne qui aurait tape ces mots clefs dans mon entourage, sauf a ce qu’on lui en souffle l’idee. Cela veut donc dire qu’avant « l’affaire », google avait peu d’a priori dessus. Un a priori facilement modifiable.

              Cela me rappelle une autre manipulation du genre, quoique un peu plus complexe. Je ne sais plus quelle insulte, peut-etre « trou du cul » ou quelque chose du genre, renvoye vers la page web de Sarkozy.

              Ok, celle-la etait marrante.

                +2

              Alerter
    • jp // 04.03.2019 à 14h09

      je n’ai ps de vie sur des réseaux sociaux, par choix. Je fais partie d’une génération qui pense que la vie privée est … privée.
      Mais je confirme que ça pose des pb : on est suspecté de vouloir cacher des choses « pas bien ».
      Et autre point : l’exactitude des les données enregistrées dans la mémoire de ces foutus logiciels n’est jamais remise en cause. Or c’est parfois (ou souvent ?) faux : j’ai eu la surprise récemment de voir que la médiathèque de ma ville proposait de consulter l’historique des emprunts effectués !
      1) donc n’importe qui qui connait mon n° de carte et ma date de naissance (mot de passe imposé) sait ou croit savoir ce que je lis ou regarde
      2) la liste de mes emprunts est fausse ! Il y figure des films, or je n’en regarde pas.

        +6

      Alerter
  • Bèbert le Fou // 04.03.2019 à 08h08

    Pas besoin d’être grand clerc pour deviner et même affirmer que :
    1. Ces méthodes de recrutement pour nounous vont arriver en Europe sous peu, étant donné que l’on copie tout ce qui vient des USA qui ont des années d’avance comme dirait Todd.
    2. Ces méthodes vont s’étendre pour la majorité des recrutements.
    3. Elles vont même envahir bien d’autres domaines que le recrutement (médecine, politique, gestion,…).
    Elles nous informeront, puis nous conseilleront, puis nous prescriront, et finalement nous ordonneront ce qu’il faut faire (Éric Sadin).
    Bienvenue dans le pire des mondes (on a déjà un pied dedans)

      +14

    Alerter
    • raloul // 04.03.2019 à 09h13

      Bonjour !

      En fait non, cela n’arrivera pas, car si de tels procédés s’étendent à toute la société et tous les actes, les citoyens prendront les armes pour détruire ces pervers qui ont l’ambition de nous gouverner.
      Prédiction 99,9% fiable en suivant la masse de données que l’Histoire nous a léguée.

      Stop au techno-défaitisme. Nos aïeux ont réussi à vaincre les nazis, les esclavagistes, etc… c’est pas pour se laisser subjuguer par nos propres machines.
      Frankenstein est un mythe, comme Terminator. Le pain et les jeux ça suffit un moment, mais ça fait long feu.

      Par contre il va falloir se battre, pour de vrai…

        +14

      Alerter
      • Bèbert le Fou // 04.03.2019 à 10h08

        Je crains que vous ayez tort. Le fait que le libéralisme existe avec toute l’aliénation qu’il entraîne (abrutissement consumériste, exploitation des hommes et des ressources terrestres à grande échelle, amoralité constitutive) tend à prouver au contraire que nous sommes déjà engagés dans cette voie.

          +6

        Alerter
      • Kokoba // 04.03.2019 à 11h35

        Vous etes optimiste…

        Si l’histoire nous enseigne quelque chose, c’est surtout que les esclavagistes ont regnés en maitre pendant des milliers d’années et même aujourd’hui l’esclavage « moderne » (ou par des methodes détournées) reste un must.

        S’il est arrivé dans l’histoire que le peuple se rebelle, c’est tout de même assez rare et encore plus rare qu’il gagne.

          +8

        Alerter
  • Marie P // 04.03.2019 à 09h00

    À mon avis il faudrait en parallèle faire passer le même « test » aux parents… aux employeurs… pour qu’ils en relativisent les résultats. Non ?

      +14

    Alerter
  • Duracuir // 04.03.2019 à 09h13

    Et ça continue, encore et encore.
    Version cybernétique de la graphologie, tests psychologiques, PNL et de toutes ces foutaises pseudo-scientifiques qui font régner une véritable dictature sur les systèmes de recrutement et qui disparaissent aussi soudainement qu’elles ont pourri la vie des gens et servi de marotte à des recruteurs qui prouvent là leur véritable niveau.

      +10

    Alerter
  • Sébastien // 04.03.2019 à 09h26

    L’I.A., c’est bien ce truc qui est censé aidé les personnes dénuées d’intelligence naturelle?

      +6

    Alerter
    • Casimir Ioulianov // 04.03.2019 à 14h24

      Non , l’IA c’est un truc qui sert à trier des photos de chats.
      Pour aider les personnes dénuées d’intelligence il y a le bon sens ou le concours d’entrée à l’ENA , c’est au choix :p

        +3

      Alerter
  • Marie // 04.03.2019 à 09h27

    Je connais une nounou parfaite, celle de notre chatte, à laquelle nous la confions lorsque nous partons (souvent) en voyage. Dame nounou vient lui tenir compagnie quotidiennement pendant deux ou trois heures,s’entretient avec elle ,fait son ménage et la nourrit. Elle sait parfaitement de quoi il retourne puisqu’elle même vit seule avec trois chats et un chien.

      +3

    Alerter
  • Roger // 04.03.2019 à 09h29

    Ah! le « rêve américain »…qui continue de fasciner nos « élites ». C’est beau comme le 1984 d’Orwell, dans la version actualisée par les « technologies » numériques qui s’installent inexorablement au nom du totalitarisme de marché (tout ce qui peut faire du profit est bon). Ira Levin (cité par @Xavier) pourrait prolonger son « Bonheur Insoutenable » par un « 2024 »
    tellement la réalité dépasse de plus en plus vite la fiction.

      +5

    Alerter
  • scipio // 04.03.2019 à 09h37

    Cet article montre:
    1/ Que le système d’intelligence artificiel pouvant analyser une personnalité n’est pas au point
    2/ Que ce type de système ne sera jamais appliqué à certaines personnes. Par exemple qui l’appliquera aux candidats à l’élection présidentielle en France? Ou aux USA?…Ou ailleurs?
    3/ Que les gens qui utilisent ce type de système en lieu et place de leur intelligence ou de leur simple bon sens et se laissent guider dans leurs opinions par une machine, EUX ont un sérieux problème.
    4/ Et si la personne analysée n’a pas de compte sur les réseaux sociaux, il fait quoi le système?

      +10

    Alerter
    • Bèbert le Fou // 04.03.2019 à 10h11

      Si la personne n’est pas présente sur les réseaux sociaux, c’est qu’elle a quelque chose à cacher. À éliminer de suite !

        +7

      Alerter
    • TB // 04.03.2019 à 11h47

      Je pense comme Bébert : pas de présence sur le net ? Éliminé !

      Lorsque les réseaux ont commencé à devenir importants, en commençant par les jeunes, beaucoup de gens se sont émus que leurs enfants puissent perdre une occasion d’embauche si un recruteur tombait sur leurs photos de beuveries et autres moments de vie théoriquement privée. Un auteur américain (je crois que c’était Cory Doctorow) a alors fait cette observation : « Ok, aujourd’hui, avoir sa photo sur le net dans une situation embarrassante, ça pourrait être un problème dans sa vie professionnelle. Mais bientôt presque tout le monde aura sa vie en ligne, et dans ce cas ne pas avoir de présence sur le net pourrait bien devenir un sérieux handicap. »

      Et bien, peu d’années après, j’ai entendu de mes oreilles quelqu’un dire : « On a trouvé une personne dont le profil semble parfait pour le poste, mais… C’est très bizarre, Google ne trouve rien sur elle… » Donc, on en est déjà là, et depuis un bon moment.

        +7

      Alerter
    • Xavier // 04.03.2019 à 12h17

      Il faudrait surtout définir le mot intelligence !
      Le productivisme expansionniste n’est en aucun cas intelligent.

        +1

      Alerter
    • Louis Robert // 04.03.2019 à 12h21

      N’a pas de compte sur les réseaux sociaux? — Pas possible!!!

      Sans doute un asocial ou un antisocial, un solitaire, sûrement un isolé errant (un «loner »), une âme en peine… pire, un perdant (un « loser »).

      Verdict du système: « REJETÉ »

        +7

      Alerter
  • Tassin // 04.03.2019 à 09h55

    On dirait un nouvel épisode de Black Mirror… Mais ça semble malheureusement bien réel.

      +5

    Alerter
  • Kalista // 04.03.2019 à 10h00

    Il n existe pas une nounou parfaite. On a tous des défauts et des qualités. Excepté qu une nounou doit faire son job à cent pour cent avec les enfants c est son métier. Être bien vaillante, patiente,motivé, sérieuse, souriante,soigneuse,discrète, affectueuse, douce,tous ce qu un enfant à besoin quand ces parents sont absents. Donner de l amour ,l affection,la tendresse et prendre soins de cet enfant.voilà à quoi consiste une nounou censé faire son job.

      +2

    Alerter
  • Kalista // 04.03.2019 à 10h11

    On devrait faire des enquêtes sur des parents aussi.car je peux vous assurer qu’il en a il devrait pas faire des enfants. Ils demandent la perle rare et eux sont incapables de faire la moitié de ce que fait la nounou.je sais de quoi je parle.Les enfants préféré rester avec moi qu avec leurs parents. Pourquoi ? Parce que je prends le temps de les écouter et de les occuper voilà la différence. Alors quand des parents exige la perfection, cela me met hors de moi.Car lui est incapable. Je suis nounou depuis plus de 15 ans et je n arrive pas à trouvé un poste.cela me fait rire toutes ses exigences.

      +18

    Alerter
  • Jules Vallés // 04.03.2019 à 10h39

    On pourrait se dire qu’en boycottant TOUS les réseaux sociaux, TOUTE activité par téléphone et/ou internet, il y a un bon moyen d’éviter ce flicage intrusif, mais l’absence même de traces, nous fera paraître éminemment suspect !!!

      +2

    Alerter
  • Lila // 04.03.2019 à 11h01

    Elle est paranoiaque elle a qu a garder son fils elle elle-même

      +5

    Alerter
    • jp // 04.03.2019 à 14h18

      et le père du gamin, il fait quoi ? j’ai délégué la recherche de la 2è nounou au père de mes gosses, parce qu’il avait plus de temps et que c’est aussi son rôle non ?

        +1

      Alerter
  • Chris // 04.03.2019 à 12h20

    Que les gens en viennent à douter de leur sens commun et facultés cognitives montre à quel point le formatage médiatique des foules est avancé.
    A propos de l’Intelligence Artificielle que l’on essaie de (nous) vendre à tout prix/pris… :
    http://alt-market.com/articles/3674-the-real-reason-why-globalists-are-so-obsessed-with-artificial-intelligence
    « Chaque fois que l’établissement tente de saturer les médias d’un récit particulier, c’est généralement dans l’intention de manipuler la perception du public de manière à produire une prophétie auto-réalisatrice. En d’autres termes, ils espèrent façonner la réalité en racontant un mensonge si souvent que les masses l’acceptent au fil du temps comme un fait. Ils le font avec l’idée du mondialisme comme inévitable, avec la science factice du changement climatique comme « indéniable » et ils le font avec l’IA en tant que nécessité technologique. »
    Bien dans l’air du temps

      +5

    Alerter
  • lo // 04.03.2019 à 12h35

    A quand l’algorithme pour choisir le bon patron respectueux de « ses » salariées et salariés 😀

      +4

    Alerter
  • Sybillin // 04.03.2019 à 13h19

    lisez le livre « l’algorithme une bombe à retardement  » d’une américaine dont je ne me souviens plus du nom. Elle a participé en tant que mathématicienne chevronnée aux algorithmes et dénonce l.utilisation qui en est faite.

      +3

    Alerter
  • Abdel // 04.03.2019 à 14h17

    Tres interressant. J ai un compte email depuis 1996 , depuis sa création. Jeune , on pouvait me qualifier de geek et gamers : je programmais en c++ , je montais des cartes mères, carte graphique, des réseaux , je créais des sites comme hobby dans les années 90 via Frontpage. Aujourd’ hui , je repare surtout des smartphones 🙂

    Tout cela pour dire que vous taper mon nom sur Google , je n’ existe pas !
    Je n’ ai pas Facebook ,pas de Twitter , pas d’ Instagramm….. en fait rien .

    Je suis étonné comment les gens étalent leurs vie intimes sur le net.

    Maintenant , avec cette anonymat ,je me demande si je visite les USA comment expliquer que je n’existe pas sur internet (en plus d’ avoir un nom d’origine magrébine ) ?

      +8

    Alerter
    • Tepavac // 04.03.2019 à 19h55

      Et tu es mal barré ami, un journaliste dans le but d’écrire un article, s’est mis dans la peau d’un anonyme du web, faux identifiant, pc neutre, ligne neutre, thor pour naviguer dans l’ombre et tout l’arsenal du parfait fantôme de l’internet.
      Tois semaine apres elle avait la sécurité nationale sur le dos…

      C’était aux E.U. évidement

        +2

      Alerter
  • Pinouille // 04.03.2019 à 15h02

    Je prédis fortune et gloire à celui qui inventera un contre-outil intelligent qui créera de toutes pièces en temps réel une vie/likes/photos/opinions sur les réseaux sociaux qui répondra aux critères de sélection de ces nouveaux outils intelligents.
    Les individus se construiront ainsi une vitrine, une image de marque aussi factice que le font actuellement les entreprises.
    A en juger par le comportement de certains, on est déjà largement entrés dans l’aire du paraître 2.0: ceux là ne vivent plus qu’à travers le prisme de la représentation fantasmagorique qu’ils donnent de leur vie sur les réseaux sociaux.
    La réalité, on la retrouvera immanquablement ailleurs: dans la vraie vie ou sur les réseaux anonymes.

    A regarder: épisode 1 de la saison 3 de Black mirror – « Chute libre »

      +7

    Alerter
  • Vladimir K // 04.03.2019 à 15h03

    Personne dans l’article ne s’est posé la question de ce que faisait la compagnie – autre que de noter les nounous – avec les données personnelles ainsi recueillies. Est-ce qu’elle les garde ? Est-ce qu’elle les vend à des fins publicitaires ?
    Est-ce qu’une compagnie d’assurance pourrait se faire passer pour des parents et analyser une cliente pour lui augmenter sa prime ?

    On ouvre une boîte de Pandore avec ce genre de systèmes.

      +3

    Alerter
  • Trinity209-22 // 04.03.2019 à 16h27

    J ai une nounou parfaite… Je l ai juste choisie en prenant le temps de discuter avec elle et en voyant son expérience. En fait j ai juste réagi en être humain qui se donne la peine de connaître les autres, et pas qui fait confiance aveuglement à une machine…
    Dans quel monde vit on si une machine peut décider de qui sera ou non capable de faire un métier ? Comment des personnes se disant intelligentes et en haut de la chaîne alimentaire peuvent elles se fier à quelques câbles dénués de toute émotion… On touche le fond et on creuse encore… Sale époque.

      +6

    Alerter
  • Sandrine // 04.03.2019 à 18h41

    Aux USA existe une application qui vous permet de visualiser sur une carte tous les pedophiles presents autour de vous (style « Grinder » mais pour les pedophiles). Je me demande comment on a fait pour ficher ces gens étant donné qu’a priori ce n’est pas le genre de chose qu’on affiche sur la place publique.

      +1

    Alerter
    • Kasper // 05.03.2019 à 02h35

      Dans certains états les gens condamnés pour atteinte sexuelle sur mineur ont l’obligation de publier leur photo nom et adresse. L’application doit se contenter de consulter ces infos et de les représenter sur une carte. Pas d’IA ici.

      Ce fichier est d’ailleurs une vraie catastrophe à l’américaine, car y figurent pèle mêle les vrais pédophiles et les ados de 16 ans et 1 mois ayant couché avec leur copine de 15 ans et 11 mois.

        +1

      Alerter
  • Rémi // 05.03.2019 à 16h11

    Ce qui m’impressionne ici est que personne ne s’en prends à ce qui est la base du capitalisme: L’élimination des défaillants.
    Que risque Predictim si une babysiter marqué 1 partout avait quand même un problème?
    Résponse rien….
    Donc soyons violent: Si preidctim laisse passer quelqu’un de mauvais un amende de 10mio de dollars pour les troubles causés à la société en introdusant un logiciel non fiable.
    La société doit être assurée pour couvrir cette amende.
    Vous verrez que les candidats se presserrons beucoup moins au portillon pour vendre leurs analyses.
    Sinon pour rappel, si vous êtes interressé, monsieur Mamadou peut vous permettre d’identifier la bonne baby siter, soigne les corps aux pieds et garanti le retour de l’être aimé.
    Oups, je suis peut-être trop violent avec l’IA.

      +0

    Alerter
  • Arthur de la Barre // 06.03.2019 à 08h16

    Et bien sur payer des clopinettes….

    la société des « nouveaux » domestiques qui ne disent pas leur noms…

      +1

    Alerter
  • Afficher tous les commentaires

Les commentaires sont fermés.

Et recevez nos publications