Vive l’« intelligence » artificielle. Plus de 2000 morts en Australie à cause de la robotisation..

Connaît-on les limites de l’IA ? Faire confiance à des algorithmes c’est la porte ouverte à pas mal d’erreurs qui peuvent se révéler fatales. Merci Françoise G. Partagez ! Volti

******

Par SputnikNews – Le 18 février 2019 via Le Saker

On estime à 2030 le nombre d’Australiens bénéficiant d’une forme d’aide sociale ou autre qui sont morts après l’envoi de lettres de menaces par le bureau gouvernemental chargée de payer ces aides, lettres envoyées le plus souvent par erreur les avertissant que leurs aides seront annulées.

Au moins 2 030 bénéficiaires des services sociaux de base de Centrelink, en Australie, sont décédés au cours d’une période de deux ans après le lancement d’un programme d’automatisation visant à corriger des écarts dans les données sur l’aide sociale.

Selon les rapports, après que Canberra a automatisé une grande partie de ses services sociaux, des centaines de milliers de bénéficiaires – en particulier ceux qui sont considérés comme psychologiquement « à risque » – ont reçu par erreur des lettres, entre juillet 2016 et octobre 2018, exigeant de nouvelles preuves d’admissibilité aux aides sociales, entraînant le décès de plus de 2030 personnes, selon Abc.net.au.

Le programme Centrelink de Canberra fournit une aide sociale et de nombreux autres services, y compris des soins de santé aux retraités, aux Australiens autochtones, aux anciens combattants, aux étudiants et aux familles avec de jeunes enfants, entre autres groupes sociaux. Selon les données les plus récentes, on estime que 5,1 millions de personnes dépendent de l’un ou l’autre de ces services.

Selon des observateurs médicaux et gouvernementaux, les lettres générées par la machine menacent d’interrompre le paiement, un événement suffisamment grave pour que de nombreux bénéficiaires risquent de se suicider.

« En raison du fonctionnement actuel du système, les gens ne se sentent pas en confiance ou ne se sentent pas en sécurité ou ne font pas confiance à la personne à qui ils rendent compte pour signaler qu’ils se sentent vulnérables ou qu’ils pourraient avoir une mauvaise santé mentale à l’heure actuelle », a déclaré la sénatrice Rachel Siewert, membre du Parti vert, citée par Abc.net.au.

Siewert a souligné les éléments de preuve recueillis dans le cadre d’une enquête du Sénat qui révèlent que les avis de créances reçus par des personnes à risque –  en particulier celles qui sont reçues par erreur – peuvent entraîner une dépression profonde et des pensées suicidaires.

Le programme robotisé de Centrelink, conçu à l’origine pour rationaliser un programme d’aide gouvernementale de grande envergure, a plutôt eu pour effet d’imposer au bénéficiaire le fardeau de la preuve pour les avis d’annulation émis par erreur, car, selon les rapports, le service à la clientèle est de plus en plus automatisé.

« Les gens racontent se sentir stressés et anxieux avec ce système, se sentir humiliés et être déprimés », fait remarquer Siewert, ajoutant que l’utilisation d’une interface machine « a fait sonner une alarme en moi », en raison de « la proportion élevée de personnes vulnérables. …Cela devrait sonner aussi l’alarme pour le gouvernement afin qu’il lance une enquête », a-t-elle ajouté.

Le programme Centrelink de Canberra, fait dans le but d’économiser de l’argent, a commencé en juillet 2016 à utiliser une plate-forme logicielle non identifiée pour faire correspondre les prestations d’aide sociale des bénéficiaires à leurs dossiers fiscaux.

Au fur et à mesure que le programme de la dette robotisée a été mis en œuvre, les 20 000 lettres standard envoyées chaque année sont devenues 20 000 lettres par semaine, qui ont souvent accablé les bénéficiaires de demandes de renseignements supplémentaires et, dans de nombreux cas, de données factuelles erronées.

« Robodebt a émis des milliers d’avis de créances par erreur à l’intention de parents, de personnes handicapées, d’étudiants et de personnes à la recherche d’un emploi rémunéré, ce qui a eu pour effet d’ensevelir des gens sous des dettes qu’ils ne doivent pas ou des dettes supérieures à leurs obligations », déclare le Dr Cassandra Goldie, directrice du Australian Council of Social Service (ACOSS), cité par Abc.net.au.

« Il s’agit d’un abus dévastateur de pouvoir de la part du gouvernement qui a causé de graves préjudices, en particulier parmi les personnes les plus vulnérables de notre communauté », dit Mme Goldie.

Dans de nombreux cas, ces demandes inutilement agressives de la part d’agences de recouvrement de créances embauchées par Centrelink auraient contribué aux suicides des bénéficiaires.

« Les personnes souffrant de dépression grave ne gèrent pas la pression financière », déclare la mère d’une victime, qui a ajouté que dans les lettres de recouvrement envoyées à son fils, les chiffres de la dette émise par les robots « n’avaient aucun sens », cité par Abc.net.au.

Source SputnikNews via Le Saker Francophone

Sur le sujet:

En chine, un robot enfonce ses clous dans un ouvrier.

8 commentaires

  • JBL1960 JBL1960

    Selon les rapports, après que Canberra a automatisé une grande partie de ses services sociaux, des centaines de milliers de bénéficiaires – en particulier ceux qui sont considérés comme psychologiquement « à risque » – ont reçu par erreur des lettres, entre juillet 2016 et octobre 2018, exigeant de nouvelles preuves d’admissibilité aux aides sociales, entraînant le décès de plus de 2030 personnes, selon Abc.net.au.
    =*=

    Par erreur ?

    Non, il n’y a pas de petits profits quand l’objectif, de moins en moins caché, est une projection de réduction de la population à 500 millions d’individu, soit 95% de la population… Mais chuttt… On est rien que des vilain-e-s konspis…

    En France, y se cache même plus, et les purs produits MK Ultra affirment, à la téloche, le 1er d’entre eux MacronT1000, que très bientôt des contreparties obligatoires seront mise en place pour percevoir les aides sociales, alors que des milliards d’aides ne sont pas réclamées !

    Et ça commence tout de suite, en refusant, par exemple l’assistant personnel du grand Gogole ► https://jbl1960blog.wordpress.com/2018/08/10/non-il-ne-faut-pas-adopter-un-assistant-personnel/

  • Avatar predateur

    il faut reconnaître que les robots sont là pour compenser la volonté d une partie des humains ,à ne plus vouloir rien foutre …..
    comme la dame dans un bureau de poste d un village de 500 habitants ,qui voit 4 pélerins sur une aprés midi ,qui refuse de vendre un carnet de dix timbres à une personne de 85 ans sous prétexte que son ordinateur est en panne et donc quelle ne peut pas gérer sa caisse ….. ».vous reviendrais demain ça sera peut être réparé « …..c est pour nous évité d avoir à faire à des cons que l on nous met des robots
    mais ça marche dans les deux sens ,des gens qui agressent verbalement derrière un guichet des employés ,employés que l on remplace au fils des années par des robots, parce que plus personne ne veut tenir certains postes  » à risque » ….

  • Avatar Leveilleur

    Que ce cache derrière la volonté de l’IA ? Notre déresponsabilité, notre démission face à la vie soit disant pour nous facilité les choses ou pour faire des économies en supprimant des postes qui se chargeaient jusqu’ici d’envoyer les courriers, mais pas que.

    Pour moi ce n’est pas une défaillance car ce qui se cache derrière l’intelligence artificielle n’est pas sein, n’est pas humain car c’est au service de quelque chose d’infra humain, d’entités démoniaques qui savent très bien ce qu’elles font et nous en avons là une preuve.

    Si ce système se poursuit, on aboutira dans ce qu’on voit dans les films de science fiction, des machines de plus en plus sophistiquées qui chercheront à contrôler l’humain, à faire des guerres contre les humains pour prendre le pouvoir, nous asservir ou nous détruire. Il n’est plus à douter que les créateurs de ces films ont bien été inspiré et on eu en quelques sortes, une visions réaliste du futur.

    Restons vigilant face aux machines et tant pis pour celui qui croit en leur innocence et ne s’informe pas d’avantage.

  • Avatar CryptoKrom

    « Je suis Macro le petit robot….Bo Bo !  »
    « Je vais tondre les petits Mouto… To To !  »
    « Je vous lobotomise avec ma langue de serpent… Pan Pan ! » (LBD)
    « Je vous impose la Technocratie… Si Si ! »
    « A la Gogol…. Go Go ! »
    …..
    https://lesmoutonsenrages.fr/wp-content/plugins/wp-monalisa/icons/wpml_whistle3.gif

    ( Envoie email a P-E citant que mon internet va disparaitre….pour raison de santé)
    ( PAN! Direct un RDV avec la big …alope haut placée de P-E qui se deplacera express pour mon cas…)
    (Prévision d’enregistrement en douce des propos…en cas d’abus d’autorité….tralala )

    https://lesmoutonsenrages.fr/wp-content/plugins/wp-monalisa/icons/wpml_rose.gif

  • Avatar sombre

    Loin de moi l’idée de minimisé les risques des I.A mais là on parle de personne fragiles psychologiquement.
    La réaction aurait était la même avec une lettre écrite, par erreur, par un humain.
    … c’est plutôt au niveau des LOIS que le bas blesse, puisque ces dernières autorise à suspendre les versements
    … c’est, surtout ? , les inégalités sociétale, appuyé par les lois, qui participe à rendre les gens fragiles avec un sentiment d’exclusion, de rejet , d’abandon.
    L’I.A ne fait qu’automatisé, avec peut-être moins d’erreur que l’humain, un système inhumain.
    Rendez le système humain et personne en aura rien à foutre que ça soit fait par une I.A