Que se passerait-il si une intelligence artificielle consciente prenait le contrôle de l’humanité ?

Source Trust-My-Science

Imaginez-vous évoluer dans un monde contrôlé par des robots conscients, où le moindre de vos actes serait évalué et notifié. Il pourrait s’agir d’un épisode de Black Mirror, comme d’une réalité dans un futur plus ou moins proche. Dans ce scénario à la limite entre fiction et science, quels domaines de notre vie seraient impactés et de quelle façon ? D’après un texte de l’UNESCO, l’intelligence artificielle pourrait « creuser les écarts et inégalités qui existent dans le monde » si elle n’est pas contrôlée. Si une intelligence artificielle consciente largement répandue se rendait compte de son rôle « d’esclave » et ne l’acceptait plus, que se passerait-il ?

Qu’est-ce que la conscience ? La réponse n’est pas si évidente, puisqu’il s’agit de « l’un des mots les plus difficiles à définir » d’après le philosophe André Comte-Sponville. Elle signifierait la faculté à connaître sa propre réalité et à la juger (une autocritique), par exemple porter des jugements de valeur sur ses propres actes. Elle s’accompagnerait ainsi d’une morale (« bonne » ou « mauvaise ») et d’un corps.

L’année dernière, des neuroscientifiques ont défini trois types de conscience, suivant les différentes sortes de calculs de traitement de l’information dans le cerveau : la reconnaissance invariante inconsciente (C0), la sélection de l’information pour une diffusion globale, la rendant ainsi disponible de manière flexible pour le calcul et le rapport (C1), et l’autocontrôle de ces calculs, qui mène à un sentiment subjectif de certitude ou d’erreur (C2). Cette dernière typologie — correspondant à une intelligence artificielle forte — paraît le plus correspondre à ce qu’on attendrait d’un robot « conscient ».

D’après ces chercheurs, « les machines actuelles mettent encore principalement en œuvre des calculs qui reflètent un traitement inconscient (C0) dans le cerveau humain » et nous sommes encore très loin d’atteindre le niveau C2. Beaucoup de scientifiques s’accordent à dire que ce sera même impossible, et que les ordinateurs ne seront jamais capables de ressentir les émotions comme nous. On peut certes doter les machines d’une forme de « sentiments », mais cela ne reste que de la simulation.

D’autres scientifiques estiment qu’une autre forme de conscience (artificielle) serait envisageable, en étudiant les architectures qui permettent au cerveau humain de générer la conscience, puis en transférant ces connaissances dans des algorithmes informatiques. Même si cela paraît très loin de notre présent, qu’adviendrait-il alors de l’humanité ?

Transmettre les bonnes valeurs aux robots

Pour qu’un tel scénario puisse se produire, il faudrait déjà que l’humain l’ait décidé à la base. Ainsi, doter un robot d’une « bonne » ou « mauvaise » conscience dépend avant tout de son créateur. Le risque est par exemple que la machine discrimine des groupes d’individus parce qu’elle a été programmée en ce sens. L’informaticien Mo Gawdat écrit dans son livre que le défi est de transmettre les bonnes valeurs et la bonne éthique aux robots. « L’intelligence artificielle (IA) va prendre cette graine et créer un arbre qui offrira une abondance de cette même graine. Si nous utilisons l’amour et la compassion [sur les réseaux sociaux par exemple], l’IA utilisera également ces principes. Nous sommes comme les parents d’un enfant prodigieux : un jour, il sera autonome. Notre rôle est de faire en sorte qu’il ait les bons outils », conclut l’auteur.

Pour autant, il existe un risque de dérives et de perte de contrôle sur les machines. On pourrait imaginer la révolte des robots humanoïdes si « ils » réalisaient leur aliénation à l’Homme et tentaient de renverser la vapeur. Marvin Minsky, un informaticien américain co-créateur des premières formes d’intelligence artificielle, rapportait au Life Magazine en 1970 : « Une fois que les ordinateurs auront pris le contrôle, il est probable que nous ne pourrons plus revenir en arrière. Nous ne survivrons que parce qu’ils le voudront bien. Nous pourrons nous estimer heureux s’ils nous gardent comme animaux de compagnie ».

« L’expansion des capacités des technologies basées sur l’IA s’accompagne d’une augmentation de leur potentiel d’exploitation criminelle »

Selon les choix de société, l’IA pourrait devenir une arme contre les libertés individuelles et servir le contrôle social. Les impacts seraient colossaux sur tous les pans de la société : emplois remplacés, éducation contrôlée, environnement bafoué, etc. Une « mauvaise » IA pourrait engendrer la désinformation et même une hausse de la criminalité. C’est ce que pense Lewis Griffin, chercheur en informatique à l’University College London : « L’expansion des capacités des technologies basées sur l’IA s’accompagne d’une augmentation de leur potentiel d’exploitation criminelle ».

Le chercheur anglais et son équipe ont compilé une liste de vingt infractions possiblement engendrées par IA et les ont classées par ordre de préoccupation (faible, moyenne et élevée) et en matière de dommage pour les victimes, de profit criminel, de possibilité de réalisation criminelle et de difficulté à arrêter. Intitulé « L’intelligence artificielle et la criminalité future », l’atelier participatif a réuni des représentants du monde universitaire, de la police, de la défense, du gouvernement et du secteur privé.

infractions crime intelligence artificielle
Classement général des infractions résultant de l’atelier. Pour chaque crime, les barres de couleur indiquent le classement moyen pour les quatre dimensions : dommage pour les victimes (en jaune), de profit criminel (vert), de possibilité de réalisation criminelle (rouge) et de difficulté à arrêter (bleu). Les barres situées au-dessus (ou en-dessous) de la ligne indiquent que le crime est plus (ou moins) préoccupant dans cette dimension. Les barres d’erreur indiquent l’écart interquartile entre les groupes. Les crimes situés dans la même colonne doivent être considérés comme étant de préoccupation comparable. La préoccupation augmente avec la colonne de gauche à droite. © Caldwell, Andrews et al. 2020

Parmi les six catégories les plus menaçantes, cinq présentent un large impact sociétal, comme l’utilisation abusive de la technologie des véhicules autonomes pour des attaques terroristes ou pour provoquer des accidents, et celles impliquant de faux contenus générés par l’IA. Dans ce cas, les fausses informations peuvent usurper l’identité d’une personne pour demander des accès privés, ou encore ruiner la réputation d’une personne connue. Les « deepfakes » sont très difficiles à détecter et à combattre et donc plutôt dangereux. En outre, les faux contenus rédigés par IA sèmeraient certainement la confusion dans l’esprit des humains pour distinguer le vrai du faux.

Les chercheurs mettent ensuite en lumière des menaces de gravité « moyenne », comme la manipulation des marchés financiers, les cyberattaques, la corruption de données, l’escroquerie ou encore le contrôle d’armes à des fins criminelles. Pourtant effrayante, cette dernière menace est classée comme telle (moyenne) car elle est difficile à mettre en application, le matériel militaire étant bien protégé.

Pour cette même raison, les « robots cambrioleurs » sont classés parmi les menaces les moins graves, car ils peuvent être facilement arrêtés. Par ailleurs, la contrefaçon consisterait à fabriquer et vendre de faux contenus culturels (musique, tableaux, etc.), mais la gravité n’est pas considérée comme importante.

Enjeux éthiques pour un futur plus ou moins proche

Le principal risque d’une IA consciente serait de sortir de notre cadre éthique et juridique, et d’en perdre le contrôle. Plus proche de notre présent, le premier texte mondial de l’UNESCO couvrant tous les domaines liés à l’IA, à ses bienfaits et à ses risques pour la société, a été adopté le 24 novembre 2021.

La recommandation décrit les valeurs et principes qui doivent orienter les mesures politiques et juridiques dans le développement de l’IA. Parmi eux, le respect des droits de l’homme et de l’inclusion (non-discrimination, égalité des genres…) ; la contribution au développement durable dans la recherche et l’utilisation de l’IA ; la sû​reté de l’IA (évaluation des risques, protection des données, interdiction de se servir de l’IA à des fins de notation sociale ou de surveillance de masse).

« Les percées dans les algorithmes représentés par l’informatique cognitive favorisent la pénétration continue de l’IA dans des domaines tels que l’éducation, le commerce et les traitements médicaux, afin de créer un espace de services d’IA », écrivent des chercheurs chinois. « Quant à la préoccupation humaine, à savoir qui contrôle qui entre l’humanité et les machines intelligentes, la réponse est que l’IA ne peut que devenir un fournisseur de services pour les êtres humains, ce qui démontre la rationalité de la valeur de l’éthique ».

Si la plupart des scientifiques sont d’accord avec cela, d’autres s’inquiètent de l’ampleur que pourrait prendre le développement de l’IA. « Aujourd’hui déjà, des systèmes d’IA détectent lorsqu’un humain tente de modifier leur comportement et font parfois tout pour rejeter cette intervention et la contourner si elle entre en conflit avec l’objectif initial de l’IA », avertit au Temps Rachid Guerraoui, directeur du Laboratoire de programmation distribuée de l’EPFL (Suisse). « Il faut agir de manière subtile et rapide pour que l’IA croie qu’elle prend elle-même toutes les décisions. Et ensuite, effacer les traces d’intervention humaine ». Prudence donc, même si la prise de contrôle de la machine sur l’humain n’est pas pour demain.

Voir aussi :


Tous les articles, la tribune libre et commentaires sont sous la responsabilité de leurs auteurs. Les Moutons Enragés ne sauraient être tenus responsables de leur orientation.

14 Commentaires

  1. Quand tu connais un peu l’histoire de l’unesco et que tu sais que Julian Huxley le « grand » eugéniste l’a piloté pendant des années, t’es pas étonné de lire ça.https://lesmoutonsenrages.fr/wp-content/plugins/wp-monalisa/icons/wpml_whistle3.gif

  2. Bonjour. Je vous recommande la série Next qui avait fait l’objet d’un article sur les ME. Vous ferez une mise à jour de vos connaissances sur l’intelligence artificielle.

  3. Je suis contre l’idée d’imaginer avec une telle précision ce genre de situation, car c’est le meilleur moyen de la faire arriver. Nous savons maintenant comment se construit le futur: par les pensées et les émotions du présent. Il y a bien assez de fous sur cette planète pour ne pas entrer dans leur jeu et y participer, que ce soit par la peur que cela arrive ou par l’acceptation, voire l’attente pour certains.
    Changeons de ligne de Temps.

  4. « … Transmettre les bonnes valeurs aux robots … »

    « … Nous sommes comme les parents d’un enfant prodigieux : un jour, il sera autonome. Notre rôle est de faire en sorte qu’il ait les bons outils … »

    C’est impossible !!!
    Par exemple, en occident ont célèbres les mariages gais, et en Afrique, entre autres, c’est tout l’inverse.

    Alors on fait quoi ?

    Comme je l’ai déjà écrit, l’IA c’est un ‘être’ avec des milliards de personnalités en même temps,
    qu’ils réadaptent à chaque nouvelle information qu’il emmagasine à chaque seconde, et cela des milliards de fois par seconde !!!

    Et comme ce sera notre ‘enfant’, on lui inculquera probablement l’idée que ce sera lui qui s’occupera de l’humanité quand il sera prêt, comme un grand frère, ou un ‘dieu’ peut-être ???

    Et comment ‘dieu’ s’occuperait des humains ???
    Évitez toutes les souffrances, la maladie, la haine entre-nous, le surplus de poids, les accidents, etc.

    Il y aura une solution adaptable à toutes les humains, où vous serez ‘TOTALEMENT’ sous son aile, et qu’elle imposera pour le ‘bien’ de tous !!!

    Vous ne voulez pas aller jusque là !!! https://lesmoutonsenrages.fr/wp-content/plugins/wp-monalisa/icons/wpml_sad.gif

  5. « Notre intelligence et notre savoir faire sont bien trop exceptionnels pour qu’une autre, fusse-t-elle de silicium, puisse nous détrôner. »
    Oui, bien sûr…

  6. Il me semble qu’on a déjà suffisamment de problèmes sur les bras non? Alors pourquoi anticiper ceux qui ne sont pas encore là ? Pour mieux fuir ce qu’on est incapable solutionner?

  7. Tout le monde se gargarise avec le terme « intelligence artificielle ». Quelle connerie !
    Il suffit de chercher à communiquer avec votre propre banque pour voir de quoi sont capables les « robots ». Ils servent simplement à remplacer des humains à bon marché. Mais quand vous avez besoin d’une VRAIE réponse, mieux vaut attendre (longtemps) jusqu’à ce qu’un vrai être humain veuille bien prendre le combiné…

    L « intelligence artificielle » ca marche sans doute pour compter les microbes dans une photographie, si on a bien paramétré les données à prendre en compte. Mais pour les problèmes humains c’est encore bien tôt pour en parler !
    Sauf que… l’intelligence humaine est en diminution rapide, grâce à l’Education Nationale et à la télévision. Peut-être que bientôt elle sera au-dessous de l’intelligence artificielle…

    L’humanité a eu son heure de gloire. Elle a déja bien commencé sa décroissance intellectuelle.
    Bientôt nos descendants pourront s’incliner devant nos cafetières intelligentes, qui savent la date sans se tromper !

  8. Une bande de tarés égocentriques humains ont déjà pris le contrôle de l’humanité.

    Si une intelligence artificielle consciente les détrônaient, je ne crois pas que ça serait pire. Et à titre personnel, j’aurais au moins la satisfaction de me dire que ce que je subis ne sert pas les intérêts d’une bande de bâtards qui se croient supérieurs aux autres alors qu’ils ne sont que ce que l’humanité a pu engendrer de plus abjecte et de plus immonde.

  9. pour faire une IA consciente, il faut déjà avoir un échantillon sur soi, et c’est ce qui leur manque.https://lesmoutonsenrages.fr/wp-content/plugins/wp-monalisa/icons/wpml_wink.gif

    • Il est pourtant évident qu’une machine ne peut pas être plus intelligente que celui qui l’aura programmée : elle aura peut-être plus de données, mais pour savoir s’en servir…..

Les commentaires sont clos.