Contre-sommet sur l’intelligence artificielle: Peut-on réguler l’IA ? et comment stopper l’IA ?

En réponse au Sommet pour l’Action sur l’IA organisé par l’élite technocratique les 10 et 11 février 2025 à Paris, événement où était invité Donald Trump, Elon Musk, Sam Altman (Open AI) ou encore le dictateur indien Narendra Modi, Anti-Tech Résistance organisait le 8 février 2025, à la Bourse du travail de paris, un Contre-sommet de l’IA dans le cadre de la campagne Intelligence Artificielle Dictature Universelle.

Au programme de ce Contre-sommet de l’IA, une journée de conférences pour comprendre les enjeux, les risques et les menaces engendrés par l’IA pour nos sociétés.

Dans les émissions précédentes, nous vous avons diffusée une 1ʳᵉ table ronde sur
IA, vers une perte des savoirs
une seconde table ronde sur IA et extractivisme et Ce que l’IA ne peut pas faire
émission que vous pouvez retrouver sur notre site actualitedesluttes.info

et dans l’émission de ce jour, nous vous proposons l’écoute de la dernière table ronde avec comme thème Peut-on réguler l’IA ? Présenter par l’Association Française Contre l’Intelligence Artificielle et en seconde partie, Comment stopper l’IA animée par Anti-Tech Résistance

Voir aussi Anti tech résistance

Intelligence artificielle : le sommet du mélange des genres

Le Sommet international pour l’action sur l’intelligence artificielle (IA) qui a lieu à Paris en ce mois de février 2025 tient à la fois de la foire commerciale et de la grande messe où les dirigeants de multinationales et de start-ups sont conviés à s’asseoir à la même table que les gouvernements. On y parle d’intérêt général et de régulation tout en négociant des contrats et des investissements, sur fond de brouillage des frontières entre public et privé. Un entre-soi qui sert surtout à écarter les vraies questions. Suite dans le lien si dessous

https://multinationales.org/fr/enquetes/intelligence-artificielle-lobbying-et-conflits-d-interets/

Contre-sommet sur l’intelligence artificielle : extractivisme et processus d informatisation

Nous vous faisons entendre aujourd’hui de nouveaux échanges choisis, enregistrés lors du contre-sommet sur l’intelligence artificielle, qui se tenait le 8 février dernier, à l’initiative de Anti-tech Resistance et alors que la même semaine avait été précisément le rendez-vous avec force de propagande, de tout un tas de conférences sur le sujet pour en faire la promotion de l’IA et conclure des affaires. Ce contre-sommet était donc l’occasion de faire entendre des discours critiques sur l’intelligence artificielle, de réfléchir collectivement, et par là-même de construire une réflexion commune et de tisser des liens. La première partie de l’émission portera sur l’extractivisme pour une revue rapide, quand la seconde, elle, mettra en rapport le processus d’informatisation et la dite intelligence artificielle, par le collectif Écran Total.

Contre-sommet sur l’intelligence artificielle – table-ronde : vers une perte des savoirs

Du 6 au 11 février 2025 dernier se tenait à Paris des réunions et conférences étalées sur une semaine, sur le sujet de l’intelligence artificielle, et qui s’est terminé par un sommet diplomatique les deux derniers jours. Organisé en partie par des acteurs privés sans cadre juridique ni obligation de rendre des comptes aux pouvoirs publics, ces multiples rencontres ont été l’occasion pour les promoteurs du secteur de faire des affaires et de déployer leur propagande, les contre-discours ne trouvant que peu de place, sinon pour s’aligner avec les intérêts des entreprises de la Tech. C’est dans ce contexte, et alors que les États-Unis puis la France ont annoncé le financement de l’intelligence artificielle à coup de milliards d’euros que s’est tenu un contre-sommet sur l’IA le 8 février à l’initiative de Anti-Tech Resistance. Une journée de conférences donc, avec pour objet de comprendre les enjeux, les risques et les menaces engendrés par l’IA pour nos sociétés, pour la liberté, la démocratie, la nature et pour l’existence de l’espèce humaine. Nous vous faisons écouter l’une de ces tables-rondes, et qui portait sur la perte des savoirs.

L’INTELLIGENCE ARTIFICIELLE, UNE NOUVELLE ACCÉLÉRATION DU CAPITALISME

dessin issus du site https://lepoing.net/

Aujourd’hui,dans cette émission, vous allez pouvoir entendre le montage de l’intervention de Félix TREGUER enregistrée le jeudi 23 janvier 2025, organisée par le Cercle Universitaire d’Études Marxistes (CUEM) aillant pour thème ; L’Intelligence Artificielle, une nouvelle accélération du capitalisme ?

Le 18 novembre 2022, au cours d’une réunion organisée à huis clos avec ses homologues européens, le représentant français a bataillé pour exclure des discussions sur la réglementation de l’IA en Europe : Les questions de sécurité et de défense. La France veut garder la possibilité de recourir à la reconnaissance faciale en temps réel dans l’espace public. « La France considère que l’ordre public fait partie de la sécurité nationale, c’est pourquoi elle a réclamé que tous les aspects du maintien de l’ordre soient exclus du règlement ». Elle est le seul pays à avoir demandé cette exclusion totale.

Les efforts de la France ont été récompensés, les jeux olympiques y ont largement contribué. Les systèmes de surveillance biométrique de masse vont permettre de renforcer lourdement le contrôle sur nos libertés de mouvement, de réunion, d’expression ainsi que nos vies privées : l’article 46, alinéa 2 du règlement européen, précise que « dans une situation d’urgence dûment justifiée pour des raisons exceptionnelles de sécurité publique (…) les autorités répressives » peuvent utiliser « un service d’IA à haut risque spécifique », sans autorisation. Si un État estime que sa sécurité est en jeu, il pourra aller jusqu’à rechercher une personne sur la base de la « race, de ses opinions politiques, de son affiliation à une organisation syndicale, de ses convictions religieuses ou philosophiques, sa vie sexuelle ou son orientation sexuelle », grâce à la science algorithmique. Au cours des discussions sur l’AI Act, ( ça fait penser au patriote Act ) la France a obtenu que les prisons et les zones de contrôles aux frontières soient « exclues de la définition de l’espace public », ce qui place ces espaces hors réglementation.

Derrière l’activisme de la France, on trouve la volonté de laisser les coudées franches aux industriels européens de l’intelligence artificielle largement subventionnés par les Etats qui déploient déjà dans de nombreux secteurs privés comme publics les algorithmes de l’intelligence artificielle. Revenons deux secondes sur cette terminologie. Comment l’intelligence pourrait être qualifiée d’artificielle. Cette oxymore pourrait bien plutôt être nommé pour ce qu’il est ; un logiciel de plagia ou une production artificielle.

Intelligence artificielle : la France ouvre la voie à la surveillance de masse en Europe.

Disclose et Investigate Europ

Reconnaissance faciale en temps réel, interprétation des émotions, catégorisation des pensées religieuses, sexuelles et politiques… La France a activement milité pour que ces pratiques soient permises par « l’AI Act », le règlement européen sur l’intelligence artificielle, révèlent Disclose et Investigate Europe, documents confidentiels à l’appui.

Imaginez que vous participiez à une manifestation pour le climat, que vous portiez un badge ou que vous brandissiez une pancarte. Une caméra « intelligente » détecte ces signes, enregistre votre visage et transmet les images à la police pour les comparer au fichier des personnes recherchées pour crimes environnementaux. Vous n’y figurez pas, mais les données restent stockées. Imaginez un naufragé qui vient de débarquer sur l’île de Lampedusa. Arrêté, il est interrogé à l’aide d’une caméra capable de détecter des émotions. Le système enregistre des signes de nervosité, de peur, d’indécision : il en conclut que l’exilé ment sur son âge ou ses origines. Sa demande d’asile est rejetée. 

Ces scènes qui semblent sorties d’un film de science-fiction pourraient devenir réalité dans les prochaines semaines. Le 2 février, les articles les plus controversés — dits « risques inacceptables » — du règlement européen sur l’intelligence artificielle (IA) entreront en vigueur avec, dans leur sillage, une myriade de portes ouvertes pour contrôler l’espace public. Le texte était pourtant censé encadrer l’usage de l’intelligence artificielle contre les menaces pour les droits fondamentaux et les libertés publiques en Europe. Mais après deux ans de négociations secrètes entre les États européens, ce cadre n’a pas survécu aux coups de boutoir de la France, qui a obtenu des exemptions majeures en imposant le thème de « la sécurité nationale ».

C’est ce que démontre l’analyse d’une centaine de documents confidentiels européens sur l’AI Act, obtenus par Disclose et Investigate Europ. Des comptes-rendus de négociations qui dévoilent comment Paris est parvenu à ouvrir une brèche pour autoriser la surveillance de masse dans l’espace public.

La « ligne rouge » de la sécurité nationale

Le lobbying de la France commence fin 2022. À l’époque, les débats sur ce projet porté par la Commission européenne depuis avril 2021 sont tendus. Au cœur des discussions entre les 27 pays de l’UE : la classification des risques liés à l’utilisation de l’IA. Très vite, Paris s’oppose à ce que la future loi européenne interdise certaines technologies particulièrement intrusives. En l’occurrence, celles qui présentent des risques dits « inacceptables » pour les libertés publiques.

Le 18 novembre 2022, au cours d’une réunion organisée à huis clos avec ses homologues européens, le représentant français prévient, selon le compte-rendu en notre possession : « L’exclusion des questions de sécurité et de défense [du cadre du règlement]… doit être maintenue à tout prix ». Par cette requête, la France veut garder la possibilité de recourir à la reconnaissance faciale en temps réel dans l’espace public, en cas de risque pour la sécurité du pays. Cela vaut aussi pour le maintien de l’ordre. Ce que confirme une source en première ligne des négociations : « La France considère que l’ordre public fait partie de la sécurité nationale, c’est pourquoi elle a réclamé que tous les aspects du maintien de l’ordre soient exclus du règlement. Elle est le seul pays à avoir demandé cette exclusion totale ». Des manifestant·es accusé·es de troubler l’ordre public pourraient ainsi devenir les cibles légales de la reconnaissance faciale. Sollicités à plusieurs reprises, le gouvernement français et ses représentant·es à Bruxelles n’ont pas répondu aux questions de Disclose et Investigate Europe. 

Soyez les premiers au courant de nos enquêtes

Nos dernières enquêtes et leurs coulisses, racontées par nos journalistes.

D’abord isolé, Paris ne ménage pas ses efforts pour persuader ses homologues européens du bien-fondé de sa demande. En septembre 2022, l’ambassadeur adjoint français s’entretient avec l’un des rapporteurs du texte au Parlement européen. Objectif : le convaincre de la nécessité d’autoriser la reconnaissance faciale pour le maintien de l’ordre. « Le diplomate français était nerveux, il y avait de la tension dans la pièce, témoigne notre source. Le ton est monté… Le représentant français campait sur ses positions, au prétexte que la France organisait les Jeux olympiques quelques mois plus tard .» En France, avant les JO, l’utilisation de la vidéosurveillance algorithmique par la police n’était autorisée que dans de très rares cas. L’événement sportif a donné l’occasion au gouvernement de faire adopter une loi validant son expérimentation jusqu’en mars 2025. Sans toutefois parvenir à convaincre les parlementaires d’y inclure la reconnaissance faciale.

Matignon à la manœuvre 

L’activisme de Paris en faveur de technologies ultra-intrusives est étayé par un courrier envoyé, fin novembre 2023, au secrétariat du Conseil de l’UE. Ce document que Disclose et Investigate Europe se sont procuré est signé du Secrétariat général aux affaires européennes (SGAE), un service placé sous l’autorité de Matignon et chargé de la coordination interministérielle pour les politiques européennes. Le service rappelle d’abord la « ligne rouge » de la France « sur l’exclusion de la sécurité nationale ». Il insiste ensuite pour pouvoir utiliser l’IAdans l’espace public « en cas d’urgence justifiée ».

Les efforts de la France ont été récompensés. Comme l’indique l’article 2.3 de l’AI Act. Celui-ci dispose en effet que « le présent règlement (…) ne porte pas atteinte aux compétences des États membres en matière de sécurité nationale. » Selon Aljosa Ajanovic, membre de l’EDRI, une organisation de défense des droits des citoyen·nes européen·nes, ce principe « permet d’introduire des systèmes de surveillance biométrique de masse qui risquent d’affecter lourdement nos libertés de mouvement, de réunion, d’expression ainsi que notre vie privée ».

Quant à l’article 46, alinéa 2 du règlement européen, il précise que « dans une situation d’urgence dûment justifiée pour des raisons exceptionnelles de sécurité publique (…) les autorités répressives » peuvent utiliser « un service d’IA à haut risque spécifique », sans autorisation.

Appartenance religieuse et politique

Si un État estime que sa sécurité est en jeu, il pourra aller jusqu’à rechercher une personne sur la base de la « race, opinions politiques, affiliation à une organisation syndicale, convictions religieuses ou philosophiques, vie sexuelle ou leur orientation sexuelle », grâce à la science algorithmique. Une attaque en règle contre les libertés publiques et les droits civiques qui semble également défendue par les autorités françaises, comme l’indique un passage du courrier du Secrétariat général aux affaires européennes. Celui-ci souligne que la France estime « très important de préserver la possibilité de rechercher une personne sur la base de critères objectifs exprimant une croyance religieuse ou une opinion politique ». Une surveillance qui serait rendue possible grâce, notamment, est-il précisé, à la détection du « port d’un insigne ou d’un accessoirelorsque cette personne est impliquée dans l’extrémisme violent ou présente un risque terroriste ». Un badge d’un mouvement écologiste classé « extrémiste et violent » pourrait donc motiver l’allumage de caméras dopées à l’IA.

« Il est glaçant de voir l’UE laisser ses polices recourir à ces systèmes pour tenter de détecter l’orientation sexuelle, s’indigne Félix Tréguer, auteur de Technopolice, la surveillance policière à l’ère de l’IA et porte-parole de la Quadrature du Net, une association française de défense des libertés numériques. « C’est aussi ça l’intelligence artificielle, poursuit-il, le retour des théories naturalisantes, des pseudosciences et des catégories arbitraires, désormais inscrites dans de puissants systèmes automatisés pour mettre en œuvre la violence d’État ».

« La plupart du temps, les gens ne sauront pas qu’ils ont été surveillés »

Au cours des discussions sur l’AI Act, la France a mis en avant deux autres « lignes rouges ». Paris a en effet demandé à ce que les prisons et les zones de contrôles aux frontières soient « exclues de la définition de l’espace public », comme le dévoile le compte-rendu d’une réunion de novembre 2023. Là encore, aux côtés d’autres pays comme la Grèce, elle a obtenu gain de cause.

Dans quelques semaines, les États membres pourront donc déployer des systèmes de reconnaissance émotionnelle à leurs portes. Des logiciels, qui, une fois reliés à une caméra, pourront être utilisés lors d’interrogatoires de personnes exilées. L’objectif étant, par exemple, de chercher à évaluer avec plus ou moins de fiabilité, leur degré de nervosité ou d’anxiété pour savoir si elles mentent sur leur pays d’origine, leur âge ou la raison de leur départ. « Ce qui est insidieux dans l’utilisation de l’IA par la police et le contrôle des migrations, c’est que la plupart du temps, les gens ne sauront pas qu’ils ont été surveillés par ces systèmes », déplore Sarah Chander, cofondatrice d’Equinox, une ONG qui lutte contre les discriminations raciales en Europe.

Derrière l’activisme de la France, on trouve enfin la volonté de laisser les coudées franches aux industriels européens de l’intelligence artificielle. C’est du moins ce que sous-entend le représentant de Paris dans une réunion organisée le 15 novembre 2023. Celui-ci « met urgemment en garde contre les impacts négatifs [que pourrait avoir le règlement] sur la capacité d’innovation de l’UE ». Il insiste, évoquant le risque que « les entreprises délocalisent leurs activités dans des régions où les droits fondamentaux ne jouent pas de rôle ». Un argument repris par Emmanuel Macron un mois plus tard. Selon le chef de l’État, en régulant « beaucoup plus vite et beaucoup plus fort que nos grands compétiteurs, on régulera des choses qu’on ne produira plus ou qu’on n’inventera pas ». À Bruxelles, beaucoup interprètent ces prises de position comme un soutien à peine voilé à un fleuron de la « start-up nation » : Mistral AI. La société française compte parmi ses actionnaires Cédric O, un proche du président de la République et ancien secrétaire d’État au numérique. C’est lui aussi qui est chargé des relations publiques de l’entreprise, dont l’un des fondateurs confiait il y a tout juste un an : « Dans sa forme finale, l’AI Act est tout à fait gérable pour nous ».

La reconnaissance faciale s’installe dans les entreprises en toute discrétion

Le règlement européen sur l’intelligence artificielle devrait bannir certaines dérives en lien avec cette technologie, même si les associations de défense des citoyens craignent une banalisation de leur usage et un manque de transparence sur les projets menés dans le secteur privé.

Par Marjorie Cessac pour Le Monde Publié le 22 janvier 2025

« C’est hyperfacile. Plutôt que de taper un long code, le matin, je m’assois devant mon ordinateur, je pose mon doigt sur le clavier, je lance la caméra et l’ordinateur s’allume. » Cette salariée d’une grande banque française – qui préfère garder l’anonymat – apprécie la rapidité que lui offre dans son quotidien cette solution biométrique. « Les employés ne sont jamais obligés de l’utiliser, ils ont le choix avec d’autres moyens, mais c’est un succès »,ajoute-t-elle.

Moins visible que dans le domaine régalien, la reconnaissance faciale n’en conquiert pas moins du terrain dans les entreprises hexagonales. Cette technologie ultrasensible, car elle permet d’identifier une personne sur la base de sa réalité biologique, fait l’objet d’expérimentations dans des domaines aussi variés que celui de l’accès à des locaux, à des outils ou encore de la vérification d’identité.

Ainsi, en juin 2024, le président de l’agence d’intérim numérique Iziwork annonçait la mise à disposition auprès de ses entreprises clientes – 2 000 en tout, au rang desquelles de grands groupes comme Carrefour et Geodis – d’une fonctionnalité sur son application intégrant un service de reconnaissance faciale.

Concrètement, ce dispositif permettra de vérifier, grâce à un selfie du collaborateur, qu’il s’agit bien de la personne figurant sur ses papiers d’identité. « Le nombre de fraudes n’est pas forcément considérable, explique Alexandre Dardy, le cofondateur de l’entreprise, mais lorsqu’il y a un problème de vol ou d’accident, en termes d’impact c’est important pour l’entreprise ou l’agence d’intérim », justifie-t-il.

Depuis, l’entreprise a fait appel à un cabinet d’avocats pour se mettre en conformité avec la loi informatique et libertés et le règlement général sur la protection des données (RGPD). « Nous ne pouvons nous servir de cette photo que pour la comparer aux papiers d’identité »,explique ce patron. Ce cliché ne doit pas être utilisé à des fins de classement des intérimaires, il ne doit pas être un critère de jugement, et doit être supprimé dès lors que le test est terminé. »