L’IA pourrait aussi servir à créer de la désinformation scientifique

Merci à mon correspondant

Source Presse-Citron

Des chercheurs tirent la sonnette d’alarme face à ce danger.

Pour illustration

Dans la lutte contre les fausses informations, l’intelligence artificielle peut apporter une aide précieuse. En novembre dernier, nous vous parlions notamment de ce système développé par des chercheurs de l’Université de Californie, de Berkekey et de Cornell. Il permet de repérer les adresses de sites d’informations douteux.

Dans le détail, l’outil se concentre sur les données d’enregistrement du domaine, ou encore sur l’identité de la personne qui l’a enregistré. Le résultat est concluant puisque ce dispositif affiche un taux de réussite de 92 % dans la détection de faux sites d’information.

Une bataille entre plusieurs formes d’IA

Pour autant, l’intelligence peut aussi devenir un vrai danger en matière de désinformation dans le domaine scientifique. Des chercheurs américains ont ainsi constaté qu’il est possible de générer de fausses nouvelles en ayant recours au générateur de texte de type GPT-2 de la société OpenAI. Cette découverte est assez effrayante et ils citent l’exemple de la fourniture de conseils médicaux erronés à des médecins qui mettraient la vie de leurs patients en jeu.

Pour tester de manière concrète ces risques, les scientifiques ont pris pour base un élément de cybermenace réel dans le secteur aérien. Ils ont alors demandé à l’IA de générer le reste de la description de la menace. Le résultat a ensuite été présenté à des spécialistes de cybersécurité. Elle était suffisamment crédible au point que ces professionnels n’y ont vu que du feu.

Ils estiment dès lors que ces pratiques pourraient «empêcher les cyberanalystes de s’attaquer aux vulnérabilités légitimes de leurs systèmes en reportant leur attention sur de faux bugs logiciels. » Ainsi, « la compagnie aérienne en question pourrait avoir été confrontée à une attaque sérieuse exploitant une vulnérabilité réelle et non traitée. »

Au final, on aurait donc affaire à une course à l’armement en matière de désinformation par l’IA. Les systèmes de détections automatisées de fausses informations pourraient en effet perdre un temps précieux à analyser les faux textes créés par des générateurs, au détriment de la détection des vraies menaces. L’enjeu sera donc de savoir quel type d’IA est la plus efficace.

Pour autant, l’humain a plus que jamais son mot à dire. La vigilance et un regard critique doivent toujours être de mise, surtout lorsque les publications n’ont pas encore été vérifiées par d’autres scientifiques.

Presse-Citron

Voir aussi:

Le MIT explique pourquoi les internautes partagent des fausses nouvelles

Encelade : un surplus de méthane vient-t-il de trahir la présence de la vie ?

La première fusion d’un trou noir avec une étoile à neutrons confirmée

8 commentaires

Laisser un commentaire