L’INTELLIGENCE ARTIFICIELLE, UNE NOUVELLE ACCÉLÉRATION DU CAPITALISME

dessin issus du site https://lepoing.net/

Aujourd’hui,dans cette émission, vous allez pouvoir entendre le montage de l’intervention de Félix TREGUER enregistrée le jeudi 23 janvier 2025, organisée par le Cercle Universitaire d’Études Marxistes (CUEM) aillant pour thème ; L’Intelligence Artificielle, une nouvelle accélération du capitalisme ?

Le 18 novembre 2022, au cours d’une réunion organisée à huis clos avec ses homologues européens, le représentant français a bataillé pour exclure des discussions sur la réglementation de l’IA en Europe : Les questions de sécurité et de défense. La France veut garder la possibilité de recourir à la reconnaissance faciale en temps réel dans l’espace public. « La France considère que l’ordre public fait partie de la sécurité nationale, c’est pourquoi elle a réclamé que tous les aspects du maintien de l’ordre soient exclus du règlement ». Elle est le seul pays à avoir demandé cette exclusion totale.

Les efforts de la France ont été récompensés, les jeux olympiques y ont largement contribué. Les systèmes de surveillance biométrique de masse vont permettre de renforcer lourdement le contrôle sur nos libertés de mouvement, de réunion, d’expression ainsi que nos vies privées : l’article 46, alinéa 2 du règlement européen, précise que « dans une situation d’urgence dûment justifiée pour des raisons exceptionnelles de sécurité publique (…) les autorités répressives » peuvent utiliser « un service d’IA à haut risque spécifique », sans autorisation. Si un État estime que sa sécurité est en jeu, il pourra aller jusqu’à rechercher une personne sur la base de la « race, de ses opinions politiques, de son affiliation à une organisation syndicale, de ses convictions religieuses ou philosophiques, sa vie sexuelle ou son orientation sexuelle », grâce à la science algorithmique. Au cours des discussions sur l’AI Act, ( ça fait penser au patriote Act ) la France a obtenu que les prisons et les zones de contrôles aux frontières soient « exclues de la définition de l’espace public », ce qui place ces espaces hors réglementation.

Derrière l’activisme de la France, on trouve la volonté de laisser les coudées franches aux industriels européens de l’intelligence artificielle largement subventionnés par les Etats qui déploient déjà dans de nombreux secteurs privés comme publics les algorithmes de l’intelligence artificielle. Revenons deux secondes sur cette terminologie. Comment l’intelligence pourrait être qualifiée d’artificielle. Cette oxymore pourrait bien plutôt être nommé pour ce qu’il est ; un logiciel de plagia ou une production artificielle.

Intelligence artificielle : la France ouvre la voie à la surveillance de masse en Europe.

Disclose et Investigate Europ

Reconnaissance faciale en temps réel, interprétation des émotions, catégorisation des pensées religieuses, sexuelles et politiques… La France a activement milité pour que ces pratiques soient permises par « l’AI Act », le règlement européen sur l’intelligence artificielle, révèlent Disclose et Investigate Europe, documents confidentiels à l’appui.

Imaginez que vous participiez à une manifestation pour le climat, que vous portiez un badge ou que vous brandissiez une pancarte. Une caméra « intelligente » détecte ces signes, enregistre votre visage et transmet les images à la police pour les comparer au fichier des personnes recherchées pour crimes environnementaux. Vous n’y figurez pas, mais les données restent stockées. Imaginez un naufragé qui vient de débarquer sur l’île de Lampedusa. Arrêté, il est interrogé à l’aide d’une caméra capable de détecter des émotions. Le système enregistre des signes de nervosité, de peur, d’indécision : il en conclut que l’exilé ment sur son âge ou ses origines. Sa demande d’asile est rejetée. 

Ces scènes qui semblent sorties d’un film de science-fiction pourraient devenir réalité dans les prochaines semaines. Le 2 février, les articles les plus controversés — dits « risques inacceptables » — du règlement européen sur l’intelligence artificielle (IA) entreront en vigueur avec, dans leur sillage, une myriade de portes ouvertes pour contrôler l’espace public. Le texte était pourtant censé encadrer l’usage de l’intelligence artificielle contre les menaces pour les droits fondamentaux et les libertés publiques en Europe. Mais après deux ans de négociations secrètes entre les États européens, ce cadre n’a pas survécu aux coups de boutoir de la France, qui a obtenu des exemptions majeures en imposant le thème de « la sécurité nationale ».

C’est ce que démontre l’analyse d’une centaine de documents confidentiels européens sur l’AI Act, obtenus par Disclose et Investigate Europ. Des comptes-rendus de négociations qui dévoilent comment Paris est parvenu à ouvrir une brèche pour autoriser la surveillance de masse dans l’espace public.

La « ligne rouge » de la sécurité nationale

Le lobbying de la France commence fin 2022. À l’époque, les débats sur ce projet porté par la Commission européenne depuis avril 2021 sont tendus. Au cœur des discussions entre les 27 pays de l’UE : la classification des risques liés à l’utilisation de l’IA. Très vite, Paris s’oppose à ce que la future loi européenne interdise certaines technologies particulièrement intrusives. En l’occurrence, celles qui présentent des risques dits « inacceptables » pour les libertés publiques.

Le 18 novembre 2022, au cours d’une réunion organisée à huis clos avec ses homologues européens, le représentant français prévient, selon le compte-rendu en notre possession : « L’exclusion des questions de sécurité et de défense [du cadre du règlement]… doit être maintenue à tout prix ». Par cette requête, la France veut garder la possibilité de recourir à la reconnaissance faciale en temps réel dans l’espace public, en cas de risque pour la sécurité du pays. Cela vaut aussi pour le maintien de l’ordre. Ce que confirme une source en première ligne des négociations : « La France considère que l’ordre public fait partie de la sécurité nationale, c’est pourquoi elle a réclamé que tous les aspects du maintien de l’ordre soient exclus du règlement. Elle est le seul pays à avoir demandé cette exclusion totale ». Des manifestant·es accusé·es de troubler l’ordre public pourraient ainsi devenir les cibles légales de la reconnaissance faciale. Sollicités à plusieurs reprises, le gouvernement français et ses représentant·es à Bruxelles n’ont pas répondu aux questions de Disclose et Investigate Europe. 

Soyez les premiers au courant de nos enquêtes

Nos dernières enquêtes et leurs coulisses, racontées par nos journalistes.

D’abord isolé, Paris ne ménage pas ses efforts pour persuader ses homologues européens du bien-fondé de sa demande. En septembre 2022, l’ambassadeur adjoint français s’entretient avec l’un des rapporteurs du texte au Parlement européen. Objectif : le convaincre de la nécessité d’autoriser la reconnaissance faciale pour le maintien de l’ordre. « Le diplomate français était nerveux, il y avait de la tension dans la pièce, témoigne notre source. Le ton est monté… Le représentant français campait sur ses positions, au prétexte que la France organisait les Jeux olympiques quelques mois plus tard .» En France, avant les JO, l’utilisation de la vidéosurveillance algorithmique par la police n’était autorisée que dans de très rares cas. L’événement sportif a donné l’occasion au gouvernement de faire adopter une loi validant son expérimentation jusqu’en mars 2025. Sans toutefois parvenir à convaincre les parlementaires d’y inclure la reconnaissance faciale.

Matignon à la manœuvre 

L’activisme de Paris en faveur de technologies ultra-intrusives est étayé par un courrier envoyé, fin novembre 2023, au secrétariat du Conseil de l’UE. Ce document que Disclose et Investigate Europe se sont procuré est signé du Secrétariat général aux affaires européennes (SGAE), un service placé sous l’autorité de Matignon et chargé de la coordination interministérielle pour les politiques européennes. Le service rappelle d’abord la « ligne rouge » de la France « sur l’exclusion de la sécurité nationale ». Il insiste ensuite pour pouvoir utiliser l’IAdans l’espace public « en cas d’urgence justifiée ».

Les efforts de la France ont été récompensés. Comme l’indique l’article 2.3 de l’AI Act. Celui-ci dispose en effet que « le présent règlement (…) ne porte pas atteinte aux compétences des États membres en matière de sécurité nationale. » Selon Aljosa Ajanovic, membre de l’EDRI, une organisation de défense des droits des citoyen·nes européen·nes, ce principe « permet d’introduire des systèmes de surveillance biométrique de masse qui risquent d’affecter lourdement nos libertés de mouvement, de réunion, d’expression ainsi que notre vie privée ».

Quant à l’article 46, alinéa 2 du règlement européen, il précise que « dans une situation d’urgence dûment justifiée pour des raisons exceptionnelles de sécurité publique (…) les autorités répressives » peuvent utiliser « un service d’IA à haut risque spécifique », sans autorisation.

Appartenance religieuse et politique

Si un État estime que sa sécurité est en jeu, il pourra aller jusqu’à rechercher une personne sur la base de la « race, opinions politiques, affiliation à une organisation syndicale, convictions religieuses ou philosophiques, vie sexuelle ou leur orientation sexuelle », grâce à la science algorithmique. Une attaque en règle contre les libertés publiques et les droits civiques qui semble également défendue par les autorités françaises, comme l’indique un passage du courrier du Secrétariat général aux affaires européennes. Celui-ci souligne que la France estime « très important de préserver la possibilité de rechercher une personne sur la base de critères objectifs exprimant une croyance religieuse ou une opinion politique ». Une surveillance qui serait rendue possible grâce, notamment, est-il précisé, à la détection du « port d’un insigne ou d’un accessoirelorsque cette personne est impliquée dans l’extrémisme violent ou présente un risque terroriste ». Un badge d’un mouvement écologiste classé « extrémiste et violent » pourrait donc motiver l’allumage de caméras dopées à l’IA.

« Il est glaçant de voir l’UE laisser ses polices recourir à ces systèmes pour tenter de détecter l’orientation sexuelle, s’indigne Félix Tréguer, auteur de Technopolice, la surveillance policière à l’ère de l’IA et porte-parole de la Quadrature du Net, une association française de défense des libertés numériques. « C’est aussi ça l’intelligence artificielle, poursuit-il, le retour des théories naturalisantes, des pseudosciences et des catégories arbitraires, désormais inscrites dans de puissants systèmes automatisés pour mettre en œuvre la violence d’État ».

« La plupart du temps, les gens ne sauront pas qu’ils ont été surveillés »

Au cours des discussions sur l’AI Act, la France a mis en avant deux autres « lignes rouges ». Paris a en effet demandé à ce que les prisons et les zones de contrôles aux frontières soient « exclues de la définition de l’espace public », comme le dévoile le compte-rendu d’une réunion de novembre 2023. Là encore, aux côtés d’autres pays comme la Grèce, elle a obtenu gain de cause.

Dans quelques semaines, les États membres pourront donc déployer des systèmes de reconnaissance émotionnelle à leurs portes. Des logiciels, qui, une fois reliés à une caméra, pourront être utilisés lors d’interrogatoires de personnes exilées. L’objectif étant, par exemple, de chercher à évaluer avec plus ou moins de fiabilité, leur degré de nervosité ou d’anxiété pour savoir si elles mentent sur leur pays d’origine, leur âge ou la raison de leur départ. « Ce qui est insidieux dans l’utilisation de l’IA par la police et le contrôle des migrations, c’est que la plupart du temps, les gens ne sauront pas qu’ils ont été surveillés par ces systèmes », déplore Sarah Chander, cofondatrice d’Equinox, une ONG qui lutte contre les discriminations raciales en Europe.

Derrière l’activisme de la France, on trouve enfin la volonté de laisser les coudées franches aux industriels européens de l’intelligence artificielle. C’est du moins ce que sous-entend le représentant de Paris dans une réunion organisée le 15 novembre 2023. Celui-ci « met urgemment en garde contre les impacts négatifs [que pourrait avoir le règlement] sur la capacité d’innovation de l’UE ». Il insiste, évoquant le risque que « les entreprises délocalisent leurs activités dans des régions où les droits fondamentaux ne jouent pas de rôle ». Un argument repris par Emmanuel Macron un mois plus tard. Selon le chef de l’État, en régulant « beaucoup plus vite et beaucoup plus fort que nos grands compétiteurs, on régulera des choses qu’on ne produira plus ou qu’on n’inventera pas ». À Bruxelles, beaucoup interprètent ces prises de position comme un soutien à peine voilé à un fleuron de la « start-up nation » : Mistral AI. La société française compte parmi ses actionnaires Cédric O, un proche du président de la République et ancien secrétaire d’État au numérique. C’est lui aussi qui est chargé des relations publiques de l’entreprise, dont l’un des fondateurs confiait il y a tout juste un an : « Dans sa forme finale, l’AI Act est tout à fait gérable pour nous ».

La reconnaissance faciale s’installe dans les entreprises en toute discrétion

Le règlement européen sur l’intelligence artificielle devrait bannir certaines dérives en lien avec cette technologie, même si les associations de défense des citoyens craignent une banalisation de leur usage et un manque de transparence sur les projets menés dans le secteur privé.

Par Marjorie Cessac pour Le Monde Publié le 22 janvier 2025

« C’est hyperfacile. Plutôt que de taper un long code, le matin, je m’assois devant mon ordinateur, je pose mon doigt sur le clavier, je lance la caméra et l’ordinateur s’allume. » Cette salariée d’une grande banque française – qui préfère garder l’anonymat – apprécie la rapidité que lui offre dans son quotidien cette solution biométrique. « Les employés ne sont jamais obligés de l’utiliser, ils ont le choix avec d’autres moyens, mais c’est un succès »,ajoute-t-elle.

Moins visible que dans le domaine régalien, la reconnaissance faciale n’en conquiert pas moins du terrain dans les entreprises hexagonales. Cette technologie ultrasensible, car elle permet d’identifier une personne sur la base de sa réalité biologique, fait l’objet d’expérimentations dans des domaines aussi variés que celui de l’accès à des locaux, à des outils ou encore de la vérification d’identité.

Ainsi, en juin 2024, le président de l’agence d’intérim numérique Iziwork annonçait la mise à disposition auprès de ses entreprises clientes – 2 000 en tout, au rang desquelles de grands groupes comme Carrefour et Geodis – d’une fonctionnalité sur son application intégrant un service de reconnaissance faciale.

Concrètement, ce dispositif permettra de vérifier, grâce à un selfie du collaborateur, qu’il s’agit bien de la personne figurant sur ses papiers d’identité. « Le nombre de fraudes n’est pas forcément considérable, explique Alexandre Dardy, le cofondateur de l’entreprise, mais lorsqu’il y a un problème de vol ou d’accident, en termes d’impact c’est important pour l’entreprise ou l’agence d’intérim », justifie-t-il.

Depuis, l’entreprise a fait appel à un cabinet d’avocats pour se mettre en conformité avec la loi informatique et libertés et le règlement général sur la protection des données (RGPD). « Nous ne pouvons nous servir de cette photo que pour la comparer aux papiers d’identité »,explique ce patron. Ce cliché ne doit pas être utilisé à des fins de classement des intérimaires, il ne doit pas être un critère de jugement, et doit être supprimé dès lors que le test est terminé. »