Surveillance : le réseau français « intelligent » d’identification par caméras arrive..

Paru en juin dernier cet article nous explique la stratégie Big Brothers de notre « cher » gouvernement. Fantastique, souriez vous êtes filmés, et gare si vous avez des soucis et présentez un comportement inadéquat, vous devenez un suspect potentiel.. Quelle avancée ! Pour le pays « des droits de l’homme et du citoyen ». Partagez ! Volti

**********

Auteur Pascal Hérard pour TV5Monde

Copie d’écran d’une vidéo promotionnelle pour le logiciel de détection et identification de visages » Morpho argus », vendu à la police néerlandaise. Un autre logiciel de « détection de suspects », « Morpho Video Investigator » a été lui vendu en 2016 à la police nationale française par l’entreprise française leader en biométrie : Safran. Le principe d’intelligence artificielle d’analyses des visages à capacités prédictives est au cœur de ce type de logiciels.

L’identification en temps réel des personnes par des réseaux de caméras de rue n’est plus un fantasme de film d’anticipation : la Chine a massivement déployé ces systèmes et s’en vante. Le « réseau céleste » — ainsi nommé par le gouvernement central — de près de 200 millions de caméras, est un œil géant piloté par des intelligences artificielles qui travaillent jour et nuit à analyser les millions de visages des passants des grandes villes chinoises. Un journal de Hong Kong — cité dans le Courrier international —  l’Apple Daily, résume les capacités surhumaines du « réseau céleste » avec délectation :

Le système peut identifier en temps réel avec exactitude le type de voiture, l’habillement, le sexe et même l’âge d’un passant… Ces informations sur les passants s’affichent automatiquement à l’écran. Quand il s’agit d’un criminel recherché, l’alarme du système se déclenche en montrant les données le concernant sur l’écran.Extrait du Courrier International : « Surveillance. Le “réseau céleste”, version chinoise de Big Brother », le 28/09/2017

La France est l’un des pays champion des technologies numériques de surveillance.  Pionnier dans le domaine du « Deep packet inspection » (DPI, inspection profonde de paquets) grâce à sa recherche universitaire et des montages d’entreprises spécialisées dans l’exportation de ces systèmes à des dictatures, le pays de Victor Hugo a légiféré en cascade depuis plusieurs années pour autoriser les services de police et de renseignement à surveiller et capter les échanges numériques des citoyens de façon administrative, sans contrôle d’un juge d’instruction.

« Boites noires » chez les fournisseurs d’accès internet, sondes sur les câbles sous-marins, systèmes d’interception des communications « silencieux », logiciels de morpho-analyse intelligents : la plupart des technologies numériques de surveillance, d’identification et d’analyses prédictives sont en place dans les services de renseignement et de police français. Ne manque — visiblement — aujourd’hui qu’à déployer de façon massive les derniers outils de reconnaissance faciale, pilotés par intelligence artificielle, et les généraliser. Ce qui semble être en cours de discussion dans les ministères, les centres de recherche et les services d’Etat.

Gérard Collomb annonce…

Le ministre de l’Intérieur français, Gérard Collomb ne s’est pas caché depuis quelques mois de vouloir moderniser la police et les services de renseignement français. Cette modernisation passait pour l’instant par le déploiement de tablettes, de caméras connectées, le tout lié au nouveau fichier « monstre » TES de fichage biométrique de la quasi totalité de la population française.

> Dossier : Le gouvernement officialise la constitution d’un fichier biométrique de 60 millions de Français 

L’intelligence artificielle doit permettre, par exemple, de repérer dans la foule des individus au comportement bizarre. Gérard Collomb dans son bilan « d’un an de maintien de l’ordre », le 8 juin 2018

Des déclarations sur l’utilisation de technologies à base d’IA comme aide à la décision pour les forces de police avaient déjà été effectuées alors par Gérard Collomb : « Les service de l’Etat vont analyser les données avec de l’intelligence artificielle pour être encore plus efficaces, avec une expérimentation déjà lancée dans onze départements. » La question de la concomitance de ces annonces avec les nouvelles disposition de surveillance technologique policières — prises par le gouvernement chinois — se posait déjà en février 2018 :

> Surveillance et cybersécurité : la France se met-elle dans les pas de la Chine ?

Aujourd’hui, le ministre de l’Intérieur annonce clairement ses intentions au sujet de la surveillance et l’identification par reconnaissance faciale dans son bilan « d’un an de maintien de l’ordre » (article La Croix) :

(…) en matière d’exploitation des images et d’identification des personnes, on a encore une grande marge de progression. L’intelligence artificielle doit permettre, par exemple, de repérer dans la foule des individus au comportement bizarre. 

Sur la problématique des manifestants violents, le ministère veut explorer des voies technologiques prédictives, et ne s’en cache pas : « Les services ont identifié certains meneurs, il y a aussi sûrement de petits groupes assez structurés derrière eux, et il faudrait pouvoir agir en prévention. » Arrêter des futurs manifestants avant que les actes violents ne soient commis à l’aide de caméras intelligentes repérant les individus aux comportements suspects ? Les défenseurs des libertés et les avocats sont logiquement déjà alarmés par cette possibilité. Comment accepter, dans une démocratie, l’arrestation de personnes sans qu’elles n’aient commis de délit, mais seulement parce que des machines les ont repérés, identifiés et analysés de façon prédictive comme étant de futurs fauteurs de troubles ?

Le CNRS confirme

L’annonce récente par le CNRS de la signature d’une convention avec la Direction du renseignement militaire (DRM) confirme l’intérêt des services de l’Etat pour le développement d’intelligences artificielles de reconnaissance d’image, comme Fabrice Boudjaaba, le directeur adjoint scientifique de l’Institut des sciences humaines et sociales du CNRS l’explique : « Les questions liées à l’Intelligence artificielle sont évidemment centrales. Les recherches sur la reconnaissance automatique d’image intéressent particulièrement le renseignement militaire. En effet, leur principal problème du renseignement aujourd’hui n’est pas le manque d’information, mais bien le trop plein d’information qui peut submerger et finalement paralyser l’outil de renseignement.« Si les technologies innovantes d’analyses d’image par intelligence artificielle pour la DRM sont avant tout liées à des théâtres d’opérations à l’étranger, il n’est pas interdit de penser que ces recherches publiques seront utilisées aussi pour du renseignement intérieur ou de l’investigation policière.

Les questions dans le cadre de la surveillance de la population et l’identification des personnes par apprentissage automatique restent donc toujours sans réponse de la part des autorités, et celles-ci sont pourtant très simples : peut-on ficher une population et laisser des agents numériques traiter les données biométriques qui s’y affèrent ? La surveillance d’Etat par reconnaissance et identification faciale est-elle compatible avec le respect des libertés publiques et des droits fondamentaux à la vie privée ? Quelles garanties la population a-t-elle que les données biométriques propres à chacun ne serviront pas à des fins de prévention ou de répression d’expression politique ou de contestation sociale ?

La Chine, quant à elle ne s’est pas posée ces questions et applique sans états d’âme la surveillance électronique permanente des citoyens  : la France, bien plus discrètement, et sans publicité s’apprête visiblement à faire de même. Jusqu’à copier aussi à terme le système de crédit social chinois ?

Chine : « Sesame Credit », la clef du contrôle social ?

Reste que l’on ne sait pas si la population française est prête à accepter de vivre dans une société sous contrôle de machines autonomes où chacun de ses faits et gestes sera enregistré, analysé et potentiellement… noté ?

8 Commentaires

  1. technique du FUD adapté à la soumission populaire,pour sa sécurité surveillée en liberté,j’ai bon?

    on ne sait pas si la population française est prête à accepter de vivre dans une société sous contrôle
    > prête?
    elle est assidument VOLONTAIRE !
    – participe bien
    – résultats encourageants
    – évolution satisfaisante

  2. Si je me sentais observée par une caméra, et cela m’est arrivé dans un super marché il y a quelques années, je regarde bien en face et je tire la langue en rigolant. C’est une réponse comme une autre à une surveillance mais cela m’amuse. Cependant dans la rue je crois que je ferais un bras d’honneur !
    Après tout, pendant l’occupation à Paris quand je passais à côté d’un boche, je crachais devant ou à côté lui. je n’avais que 7/8 ans et déjà rebelle !

  3. « Quelles garanties la population a-t-elle que les données biométriques propres à chacun ne serviront pas à des fins de prévention ou de répression d’expression politique ou de contestation sociale ? »
    C’est justement là le but !
    Après on va nous dire: eh bien… celui-là, on n’a pas pu l’arrêter avant qu’il commette un attentat, ce n’aurait pas été … démocratique ! Alors ?
    Donc le but est bien là: les fauteurs d’attentats oui, les fauteurs de trouble s à l’ordre public, non.

    « Reste que l’on ne sait pas si la population française est prête à accepter de vivre dans une société sous contrôle de machines autonomes où chacun de ses faits et gestes sera enregistré, analysé et potentiellement… noté ? »
    Oui, bien sûr que oui, puisque la plupart de moutons vont nous dire: m’en fous, j’ai rien à cacher !
    Aucun souci, le système peut se mettre en place…
    Dans mon village, la surveillance vidéo s’est mise en place (pas partout) et personne a ouvert la bouche !

  4. Quand je disais que la Chine servira d’exemple pour le monde.
    Donc pas compliqué de comprendre où est-ce qu’ils veulent en venir, suffit de voir ce qu’en a fait la Chine.

  5. Plusieurs options:
    -faire en sorte que votre enregistrement facial soit erroné… La reco faciale ne fonctionne pas très bien avec une unique photo, donc évitez d’en avoir partout.

    -le format préfecture s’accomode très bien de déformation faciale.
    Personne ira vous faire remarquer qu’une partie de votre visage est déformé, ou que vous avez les yeux verts.
    Seuls vous saurez. Perso, j’aime pas les lentilles, mais du coton dans les gencives…

    – la reco facial ne fonctionne pas si vous avez des lu’ettes de soleil couvrantes. Ou des mouches rajoutées au visage, il en faut 4 pour ne plus être reconnu.
    Je parle même pas de faux tatouages sur le visage pour contourner la loi anti masque.

    – toutes caméras fait l’objet d’un recensement par la CNIL, et il existe des sites avec cartes de où sont les caméras.

    – il est difficile, mais possible de brouiller une caméra sans la vandaliser , mais une équipe sera envoyée.. Mieux vaut lunettes+ chapeau/perruque.

    – on parle de reconnaissances faciales, mais les programmes modernes corroborent avec la démarche

    Faites tourner ces infos.

    Si vous êtes plutôt contestataire du clic, vous pouvez aussi demander l’effacement des données…mais bon.

    https://lesmoutonsenrages.fr/wp-content/plugins/wp-monalisa/icons/wpml_bye.gif

Les commentaires sont clos.