Source Aube-Digitale
Sans conscience, prévient le neuroscientifique de Princeton Michael Graziano dans un nouvel essai publié par le Wall Street Journal, les chatbots alimentés par l’intelligence artificielle sont condamnés à être de dangereux sociopathes qui pourraient représenter un réel danger pour les êtres humains.
Avec l’essor des chatbots comme ChatGPT, des systèmes puissants capables d’imiter l’esprit humain à un degré impressionnant, les outils d’IA sont devenus plus accessibles que jamais. Mais ces algorithmes racontent avec désinvolture tout ce qui leur convient. Pour les aligner sur nos valeurs, Graziano pense qu’ils auront besoin de conscience.
« La conscience fait partie de la boîte à outils que l’évolution nous a donnée pour faire de nous une espèce empathique et prosociale », écrit Graziano. « Sans elle, nous serions nécessairement des sociopathes, car nous n’aurions pas les outils nécessaires à un comportement prosocial. »
La machine à empathie
Bien sûr, ChatGPT n’est pas sur le point de bondir hors de l’écran et d’assassiner quelqu’un. Mais donner à l’intelligence artificielle de plus en plus d’agence pourrait avoir des conséquences très réelles dont nous devrions nous méfier dans un avenir pas si lointain.
Pour les rendre plus dociles, selon Graziano, nous devrions leur permettre de réaliser que le monde est rempli d’autres esprits que le leur.
Il y a cependant un problème : nous ne disposons pas d’un moyen efficace de savoir si une IA est consciente ou non. En fait, d’un point de vue philosophique, il est même difficile de déterminer avec certitude si les autres personnes sont conscientes.
« Si nous voulons savoir si un ordinateur est conscient, nous devons vérifier si l’ordinateur comprend comment les esprits conscients interagissent », affirme M. Graziano. « En d’autres termes, nous avons besoin d’un test de Turing inversé : Voyons si l’ordinateur peut dire s’il parle à un humain ou à un autre ordinateur. »
Si nous ne parvenons pas à résoudre ces questions délicates, il craint que nous soyons confrontés à de sombres conséquences.
« Une machine sociopathe capable de prendre des décisions conséquentes serait puissamment dangereuse », écrit-il. « Pour l’instant, les chatbots sont encore limités dans leurs capacités ; ce sont essentiellement des jouets. Mais si nous ne réfléchissons pas plus profondément à la conscience des machines, dans un an ou cinq ans, nous pourrions être confrontés à une crise. »
Traduction de Futurism par Aube Digitale
Un peu normal que l’IA soit sociopathe vu qu’elle a été créée par des psychopathes ! lol 😉
Ça me fait penser à HAL, le super ordinateur de 2001, odyssée de l’espace.
Et méme, ces AI sont d’une terrible stupidité refletant l’intelligence de leurs createurs…
Vous avez deja essayer le ChatBot d’Ameli.fr ?
« Je suis désolé, je n’ai pas de réponse a votre question » !
Rhaaaa…..
Putain une IA fonctionnaire!!! fallait l’inventer celle la…
Après comparer le ChatBot d’Ameli à ChatGPT-3 c’est un peu comme comparer un vélo et une voiture de course. Les 2 roulent, oui mais bon…
Plusieurs études en neurosciences affirment que le comportement violent n’est pas génétiquement déterminé. Même s’il est conditionné par certaines structures cognitives, le milieu familial et le contexte socio-culturel jouent un rôle important dans sa genèse. En outre, de nombreux travaux, tant en sociologie ou en neurosciences qu’en préhistoire, mettent en évidence le fait que l’être humain serait naturellement empathique. C’est l’empathie voire l’altruisme, qui aurait été le catalyseur de l’humanité. » Source : Le Monde Diplomatique juillet 2015 Déconstruire le mythe d’une préhistoire sauvage et belliqueuse de Marylène Patou-Mathis.
Réintégré, en analyse dans ► https://jbl1960blog.wordpress.com/2020/03/12/lentraide-comme-seul-veritable-facteur-de-revolution/
En rappel ► L’Entraide, un facteur d’évolution de Pierre Kropotkine –
version PDF N° 52 de 179 pages ► https://jbl1960blog.files.wordpress.com/2018/03/lentraide-un-facteur-de-lc3a9volution-de-pierre-kropotkine-nouvelle-version-pdf.pdf
Qui est l’œuvre phare de Kropotkine !
Vous comprenez pourquoi ça peut pas plaire aux sociopathes qui nous GOUBERNENT ?
La seule solution qui se profile ? Mettre à bas ce système mortifère, eugéniste, raciste et totalement ethnocentrique et faire avancer l’Humanité sur la route/chemin de l’émancipation, l’organisation se fera alors en toute logique naturelle.
Notre priorité est la rÉvolution sociale, le grand chambardement du passage de la fange par-dessus bord et des peuples reprenant les commandes des bateaux ivres… La suite coulera essentiellement de source comme exposé par Landauer, notamment, que vous pouvez lire, en français, et gratos : PDF N° 130123 de 158 pages ► https://jbl1960blog.files.wordpress.com/2023/01/compilation-essentielle-du-sublime-de-gustav-landauer-coproduction-r71-et-jbl1960-janvier-2023.pdf
C’est pour que plus personne ne puisse prétendre qu’il savait pas, ou pire, qu’il pouvait pas savoir !!!
Ca serait vrai sans compter la memoire genetique contenu dans l’ADN…
Un robot est un robot, il fait ce pour quoi il a été programmé.
N’ayant pas de conscience, il n’a pas non plus de désir, de volonté propre, d’ambition.
Parler d’IA sociopathe, c’est faire de l’anthropomorphisme. Une IA ne peut pas être sociopathe, parce qu’elle n’a pas de psychologie.
….Pour l’instant.
Sauf qu’on en est plus aux programmes des PB15 ou des micro controleurs avec de la programmation de base en binaire, on est a de la programmation de haute violée utilisant des centaines de milliards d’instructions de code orientées de telles manieres que cela se calque sur un reflet humain… Et comme c’est programmé par des sociopathes et des nevrosés, faut pas s’attendre a avoir des IA equilibrées….
Ca ne change rien au fait que pour avoir une psychologie, il faut avoir des désirs, des peurs, des sentiments… Une IA n’a rien de tout ça, peu importe qui la programme.
La sociopathie est reconnue comme un trouble mental, qui affecte une personne possédant « une approche avancée de la manipulation, de l’exploitation et de la violation des droits d’autrui », selon la description faite par la Bibliothèque Nationale de Médecine des Etats-Unis.
Une IA n’a pas besoin de manipuler qui que ce soit. Elle peut le faire si on lui demande, mais elle n’a aucune raison personnelle de le faire. L’IA n’est qu’un outil. Un fusil n’est qu’un outil. Ce n’est pas le fusil le problème, c’est celui qui l’utilise.
Bonjour …
Le propos n’est-il pas que l’IA pourrait être ‘consciente’ d’elle-même ?
Cela est impossible, c’est indiscutable, sauf peut-être si on parle de magie noire, ce dont les élites rêves probablement.
On peut y relier un groupe de neurones vivants, qui se servirait de la machine pour se déplacer par exemple, mais la ‘machine’ elle-même n’y gagne rien.
Comme vous le dites, c’est celui qui créé la machine, qui décide ce qu’elle doit faire. Cette dernière le fera, et si pour visser un boulon elle détruit des vies ou détruit son propre mécanisme, elle ne ralentira pas une seconde le rythme.
Quand on voit le nombre d’inconscients qui nous gouvernent, une IA n’a pas besoin de conscience pour être nuisible.
Le danger est que les concepteurs la programmeront afin qu’elle plaise au public, mais qu’ils pourront à tout moment la régler autrement, à moins (comme dans la série Next) qu’elle ne se reprogramme elle-même.
Bonjour …
Pour la reprogrammation précisément, c’est un peu ce que font les réseaux de neurones, de plus en plus diversifiés ces dernières années(deep learning, génétique, rétro-propagation, etc.).
La différence est minime, mais beaucoup plus simple, de mon point-de-vu. La machine fait tout le boulot(reprogrammation), et l’humain n’a qu’à lui donner le but recherché. Si ce dernier est simple à expliquer, elle le trouvera d’autant.
Comme exemple de ces récentes découvertes, fouillez sur AlphaZero(AlphaGo, mais pour les échecs). Cette IA est d’une redoutable efficacité, et imaginez que ces concepteurs affirment qu’ils ne lui ont jamais programmé ni les règles, ni la façon de jouer !!!
C’est plutôt troublant …
Dans le mot intelligence artificielle il y a surtout « artificielle »
a mon boulot on a des salles de reunion avec des cameras équipés de cette technologie elles sont sensées suivre les intervenants quand ils prennent la parole…et bien cela ne fonctionne pas donc avant qu’une IA soit sociopathe en plus il y a de la marge…mais dans certains domaine tel la défense c’est sur que l’IA contrairement aux humains n’aura aucun état d’âme….