Intelligence artificielle : empêchons la dictature de la machine ! – tribune d’Emmanuel Maurel dans Euractiv

tribune publiée le 7 juin 2023 (pour la version anglo-saxonne ici)

Alors que Sam Altman, le PDG de l’IA générative ChatGPT, continue son tour du monde pour demander aux gouvernements de réguler l’intelligence artificielle (IA), le député européen Emmanuel Maurel met en garde contre tous les défis que l’UE aura à relever vis-à-vis de cette technologie de rupture.

L’intelligence artificielle révolutionne l’économie mais menace aussi la civilisation. Pour nous préserver de ce péril, il faudra aller bien plus loin que « l’IA Act » voté la semaine prochaine.

Pas un jour ne passe sans que nous soyons témoins de la progression fulgurante de l’intelligence artificielle.

L’IA est déjà utilisée dans la vie quotidienne : communications, traductions, jeux vidéo, bientôt voitures autonomes, mais aussi systèmes de surveillances de masse… et conflits armés. La possibilité de voir arriver des « robots tueurs » sur le champ de bataille est en effet tout sauf théorique.

Dans une lettre ouverte publiée en mars, un millier de chercheurs et professionnels du secteur demandaient un moratoire de six mois afin d’élaborer une régulation visant à empêcher l’IA d’être « dangereuse pour l’humanité ».

Moins apocalyptique, quoique fort inquiétant : la possibilité de propager de fausses informations à l’aide de photos et vidéos créées de toutes pièces par des IA, presque impossibles à distinguer des vraies.

Dans un contexte d’uniformisation des contenus sur les réseaux sociaux et les plateformes de streaming via les algorithmes, ce genre d’innovation nuira non seulement à la manifestation de la vérité, mais aussi à la culture et sa diversité – et donc à la civilisation.

Il est important de développer un projet éducatif autour de l’intelligence artificielle, ayant pour but d’informer les citoyens sur les risques associés à l’IA, mais aussi de les former à utiliser l’IA de manière responsable et éthique.

Des mesures fortes s’imposent pour encadrer l’IA, particulièrement sur les aspects liés aux droits humains. Est-il par exemple nécessaire de recourir aux technologies de reconnaissance faciale dans le cadre des prochains Jeux olympiques à Paris ?

L’Assemblée nationale, qui a voté en ce sens le mois dernier, aurait dû faire preuve de davantage de prudence au lieu de s’engager sur un terrain aussi glissant pour les libertés fondamentales.

Entretemps, l’Union européenne s’est emparée du sujet et met au point une législation se voulant protectrice et uniforme sur tout le continent, afin d’éviter toute tentation de « dumping numérique ». Les dispositions contenues dans son « IA Act », qui sera soumis au vote du Parlement européen en juin, offrent ainsi une perspective intéressante, insistant sur l’importance du rôle de l’humain dans la supervision de l’intelligence artificielle.

Mais organiser une telle supervision nécessitera que l’Europe se dote d’unités de contrôle fortement qualifiées, or les candidats manquent. De plus, il est nécessaire que l’humain soit en capacité de “débrancher la machine” manuellement, sans besoin de mécanismes informatisés et numérisés.

Qu’il s’agisse du contrôle ou du développement de l’IA, où nous sommes en retard par rapport aux États-Unis et à la Chine, nous n’aurons pas d’autre choix que mettre en place une stratégie extrêmement volontariste pour empêcher la « fuite de cerveaux », redoubler d’efforts pour la formation et pour la consolidation d’un écosystème favorable à l’émergence d’une IA spécifiquement européenne, centrée sur l’humain et sur les principes de liberté et de démocratie.

Un aspect important de cette stratégie est la collaboration entre les entreprises, les gouvernements, les experts en IA ainsi que la société civile, qui doivent travailler main dans la main pour amener une utilisation régulée des intelligences artificielles.

Dans l’immédiat, il nous faut contrer la voracité des géants du numérique, afin de prévenir toute utilisation abusive de l’IA, notamment en matière de protection des données personnelles, d’intrusion dans la vie privée, de désinformation, ou encore d’assurance-santé.

Tout reste à faire pour mettre sur pied une vision spécifiquement européenne de l’IA, à rebours du modèle chinois, mais aussi du modèle américain. Microsoft, qui a énormément investi dans OpenAI, et son « ChatGPT » vient de licencier la totalité de son équipe responsable de l’éthique de l’IA…

Enfin, l’IA risque d’entraîner une déstabilisation sociale massive. Des études récentes pronostiquent que 300 millions d’emplois pourraient être sous-traités par des IA !

Après avoir délocalisé la classe ouvrière en Asie, les multinationales s’apprêtent à remplacer la classe moyenne, y compris la plus diplômée, par des logiciels autonomes. Nos sociétés démocratiques n’y survivront pas. En l’espèce, agir dès maintenant sur le partage du temps de travail et de la valeur ajoutée, ainsi que sur les conditions de travail n’est pas une option, mais une obligation.

Tout doit être fait pour garantir une utilisation responsable et éthique de l’IA, dans l’intérêt des travailleurs et des citoyens européens. Nous ne pouvons pas laisser la machine décider de tout à la place de l’humain.

“Transferts de nos données personnelles aux États-Unis : pourquoi la Commission est-elle si laxiste ?”

Sans sourciller, comme ça, presque entre deux portes, la Commission de Bruxelles vient d’autoriser le transfert des données personnelles des Européens vers les États-Unis. Qui a bien négocié ? Et qui a fermé les yeux ? Et, surtout, est-il trop tard pour faire machine arrière ? Marianne fait le point sur le dossier, alors que la Commission européenne a lancé en décembre dernier un processus d’adoption de la décision d’adéquation* concernant le cadre de protection des données entre l’Europe et les USA. Emmanuel Maurel y revient longuement sur ce dossier.

Qu’est-ce qui a poussé Ursula von der Leyen, présidente de la Commission européenne, à passer un accord avec Joe Biden, en septembre, pour que les données personnelles de tous les Européens soient transférées aux États-Unis ? « Cela fait partie des choses que l’on ne s’explique pas, assure Emmanuel Maurel, député européen rattaché au groupe de gauche. Cet accord ne respecte pas le RGPD [Règlement général sur la protection des données] et nous pensions que les Allemands, qui sont très tatillons en matière de droit, s’y opposeraient. Ne mentionnons pas la France, qui parlait d'”autonomie stratégique”, d'”indépendance industrielle” et de “cloud européen”. »

Côté américain, l’appropriation de ces données, de tous les éléments se rapportant à notre vie publique comme privée, fait sens. Les Gafam comme les sociétés d’Elon Musk réclament – pour bâtir le nouveau monde de l’intelligence artificielle, qui doit prédire les besoins des individus et, parfois même, les inventer – de disposer des données personnelles d’un maximum d’individus. « C’est l’or noir de ces sociétés : sans lui, Musk ne peut pas construire son rêve poursuit notre eurodéputé. Joe Biden a considéré – c’est tout à fait certain – que les intérêts économiques des Gafam prévalaient sur tout le reste. Il y a forcément un lien entre cet accord et le lancement de cette “intelligence artificielle”. »

Côté européen, l’abandon de cette souveraineté numérique ne répond à aucune logique, au regard des engagements pris, sauf si l’on applique la nouvelle clé de compréhension issue de la guerre russo-ukrainienne. « La Commission européenne, dans sa très grande majorité, considère que l’on a besoin du soutien des États-Unis non seulement pour aider les Ukrainiens, mais aussi pour nous protéger, estime Emmanuel Maurel. Il convient, dès lors, d’être solidaire de leur politique dans tous les domaines. Quitte à prendre des dispositions irréversibles en remettant les questions de fond à plus tard ! » Les pays scandinaves, les pays de l’Est, proches géographiquement de la Russie, sont sur cette ligne, comme l’Italie de Giorgia Meloni, qui se fait d’autant plus atlantiste qu’elle veut légitimer son gouvernement, dominé par l’extrême droite. « N’oublions pas non plus que ce pays – comme l’Allemagne – compte sur les États-Unis pour suppléer ses besoins en gaz » renchérit Philippe Latombe, député MoDem.

ADIEU LE CLOUD EUROPÉEN

Les entreprises européennes participent également de ce soutien à la politique économique américaine. La SAP SE, société allemande en pointe dans le domaine du progiciel, veut développer ses relations avec les sociétés américaines dont elle est le fournisseur. « Elle pèse d’autant plus fort sur son gouvernement que l’Allemagne fonctionne en écosystème ouvert avec ses entreprises, à la différence du système français, où tout cela est plus feutré » considère Philippe Latombe. Et le français Thales, qui vient de racheter OneWelcome, un logiciel de gestion des identités et des accès clients, outil essentiel dans le monde de la cybersécurité, serait aussi favorable à l’accord Biden-von der Leyen. Une société de cyber­sécurité doit théoriquement exploiter le plus de données personnelles possible pour être efficace. Si l’on sait que 42 % des entreprises françaises sont dotées aujourd’hui d’un système de protection cyber et que 72 % le seront dans dix ans, la position de Thales s’explique mieux. « N’oublions pas non plus que Thales a passé un partenariat avec Google pour créer un cloud de confiance, ce qui condamne la naissance d’un cloud européen pourtant appelé de ses vœux par Emmanuel Macron. Le mal était déjà fait » tranche Emmanuel Maurel. Cap Gemini et Orange, qui ont également passé un accord avec Microsoft en vue de créer un cloud de confiance, ne sont pas non plus hostiles à cet arran­gement. Pour leur défense, ces sociétés françaises assurent qu’elles conserveront la maîtrise de la clé d’accès à nos données.

Isolée sur la question, la France reste donc bien silencieuse sur ce dossier crucial. Thierry Breton, commissaire au Marché intérieur, que l’on a vu plus bavard sur le sujet, n’a pas fait connaître sa position. On sait seulement qu’il ne veut pas participer aux négociations informelles menées par Valdis Dombrovskis, commissaire en charge de l’Économie et du Commerce, et par la vice-présidente chargée du Numérique, Margrethe Vestager, avec les Américains Antony Blinken, secrétaire d’État, et Gina Raimondo, secrétaire au Commerce. Breton ne cautionnerait pas ces rencontres, qui se déroulent en dehors de tout mandat délivré par les États membres. Un peu de courage politique ne nuirait pas. Il est tout de même question de commerce mondial, de normes technologiques et d’administration des données. Rien ne semble donc contrarier l’adoption, au début de 2023, d’un accord dit « d’adéquation » sur le transfert des données. Celui-ci sera d’autant plus facile à mettre en œuvre qu’il ne répond pas, contrairement à un accord commercial, à la règle de l’unanimité.

Le terme « adéquation » prête d’ailleurs à sourire, car il suggère qu’il puisse y avoir convergence entre le droit américain et le droit européen. Ce qui n’est pas le cas. Cela provoque donc des réactions. Ainsi, Maximilian Schrems, l’avocat autrichien qui a fait invalider par la Cour de Justice de l’Union européenne (CJUE) deux accords précédents ­passés avec les États-Unis sur le même thème, le « Safe Harbor », en 2015, et le « Privacy Shield », en 2020, déclare : « On a vraiment l’impression que la Commission européenne prend sans cesse des décisions identiques sur la question, en violation de nos droits fondamentaux s’emporte le défenseur européen de la vie privée, fondateur de l’association None of Your Business (« Ce n’est pas votre affaire »). Je ne vois pas comment tout cela pourrait survivre à l’examen de la Cour de Justice. C’est un peu comme si les banques suisses vous disaient : “Donnez-nous votre or”, et que, une fois que vous leur auriez transféré, elles vous informeraient que vous n’avez plus aucun droit dessus car vous êtes étranger. » Me Schrems précise en guise d’explication : « Nous avons un conflit de juridictions : l’une, européenne, qui demande la protection de la vie privée ; et l’autre, américaine, qui prône la surveillance. Les sociétés qui gèrent les centres de données sont broyées entre les deux systèmes. » Et le député européen Emmanuel Maurel de renchérir : « Depuis l’adoption du Patriot Act, nous ne sommes plus certains que nos droits fondamentaux soient respectés par les États-Unis. Nous n’avons pas, avec les Américains, la même notion de ce que l’on appelle la sécurité. Nous n’avons pas, en conséquence, assez de garanties sur les protections et les droits de recours. Aux États-Unis, quand vous saisissez la justice sur ces problèmes de protection de données, vous devez saisir au préalable un médiateur, qui est un fonctionnaire des services des renseignements. » Me Schrems prédit : « La surveillance de masse va continuer, mais, à la fin, l’opinion de la CJUE l’emportera et tuera une nouvelle fois cet accord. »

LE PIÈGE PARFAIT

Le temps de la justice n’étant pas, et de très loin, aligné sur celui des technologies, 90 % des données personnelles des Européens auront été transférées aux États-Unis quand la Cour rendra son verdict. C’est le piège parfait, celui qui ne laisse aucune échappatoire, mais donne l’impression qu’on nous a donnés, à nous, les Européens, notre chance. Il sera alors certain que les entreprises du Vieux Continent ne voudront plus changer leurs modes de fonctionnement, leurs codes sources, investir du temps et de l’argent pour rapatrier et gérer les données personnelles. « C’est pourquoi je demande que des préconisations soient prises au moment où nous saisirons la Cour afin d’empêcher que le transfert des données soit irréversible, souhaite Emmanuel Maurel. À écouter les députés, aussi longtemps que le conflit russo-ukrainien perdurera, cela ne pourra pas être le cas. »

ON NE BADINE PAS AVEC LE CONSENTEMENT

Accepter de partager ses données personnelles, c’est permettre à des entreprises de connaître l’intégralité de sa vie. Famille, réseau d’amis, déplacements, loisirs, situation médicale, maritale, tout peut être connu à partir de la géolocalisation, de l’historique de recherche, de la lecture des courriels comme des messages postés sur les réseaux sociaux. Sur le marché mondial des données personnelles, ces informations ont un prix. Les sociétés qui les achètent les utilisent pour vendre de la publicité, des produits ou pour influencer des choix culturels et politiques. En acceptant l’installation de cookies, c’est-à-dire de fichiers espions, l’internaute autorise que sa personnalité, sa vie dans toutes ses composantes, soit vendue aux enchères à des sociétés qui vont la monnayer. L’obtention du consentement exigé par le Règlement européen sur la protection des données est la seule garantie dont l’internaute dispose. Google avait installé sur les 310 millions de téléphones Android un identifiant unique facilitant l’envoi de publicités ciblées sans que les internautes puissent s’y opposer, mais la firme de Mountain View a dû renoncer à l’exploiter pour respecter le droit européen, suffisamment exigeant en la matière. En janvier 2022, la Commission de la protection de la vie privée, autorité belge de protection des données, dont la décision s’impose à toutes les Cnil en vertu du principe du « guichet unique », a exigé que le consentement de l’internaute ne soit pas obtenu par défaut, sans que celui-ci soit clairement informé. Si tel est le cas, toutes les données recueillies à son insu doivent être supprimées.

Il faut se préoccuper de l’intelligence artificielle avant qu’il ne soit trop tard

Tribune d’Emmanuel Maurel (député européen GRS), Pierre Ouzoulias (sénateur et conseiller départemental communiste des Hauts-de Seine) et Cédric Villani (mathématicien et ancien député) publiée dans Le Huffington Post le 16 novembre 2022

« Quelles institutions, quelles règles pour faire le bon tri, en régulant tout en permettant les progrès permis par l’IA ? Du travail a été fourni, du travail reste à fournir », estiment Pierre Ouzoulias, Emmanuel Maurel et Cédric Villani.

Que diriez-vous d’un monde dans lequel un article de journal ou le scénario d’un film serait intégralement rédigé par une intelligence artificielle ? Que penseriez-vous d’une société dans laquelle une décision de justice serait rendue par un algorithme ? D’une chaîne de musique qui vous ferait entendre un nouveau morceau composé de A à Z, paroles, instruments et arrangement, par un réseau de neurones ? Accepteriez-vous de travailler dans une entreprise qui laisserait à une machine le soin d’examiner votre CV et à une autre le droit de vous accorder une pause ?

Ces exemples ne sont pas issus du Meilleur des mondes ou de 1984, référence incontournable de la littérature dystopique. Ils ne sont qu’une infime partie de ce qui est déjà rendu possible par l’intelligence artificielle. Ils ont déjà tous été mis en œuvre ici ou là, suscitant des débats légitimes, dans la foulée du célèbre ouvrage de l’informaticienne Cathy O’Neil : Algorithmes, la Bombe à retardement.

La question n’est désormais plus de savoir si nous devons approuver ces bouleversements. Il est trop tard pour cela, et les rejeter, ce serait oublier les côtés plus sympathiques. L’algorithmique, experte en diagnostics à partir de données médicales, a déjà sauvé des vies. À Singapour, elle recale en temps réel les feux de circulation pour laisser la voie libre à une ambulance appelée pour une urgence vitale. Elle apporte un peu de confort plus que bienvenu à des agriculteurs. Elle donne chaque jour à des millions d’usagers les instructions pour trouver un itinéraire rapide, aller à la rencontre du bon arrêt de bus dans une ville inconnue. Elle améliore des consommations d’électricité à l’échelle de ménages ou de communes, aide à optimiser les positions des éoliennes, fouille les entrailles des grandes bases de données médicales pour mettre au point de nouveaux traitements.

La question n’est désormais plus de savoir si nous devons approuver ces bouleversements. Il est trop tard pour cela, et les rejeter, ce serait oublier les côtés plus sympathiques.

Quelles institutions, quelles règles pour faire le bon tri, ou le bon compromis, régulant tout en permettant les progrès permis par l’IA ? Du travail a été fourni, du travail reste à fournir. Les interrogations liées à l’IA passent souvent sous les radars politique et médiatique. Sans doute est-ce dû, pêle-mêle, à l’ésotérisme du jargon de la « tech » et au lobbying des grandes compagnies internationales qui présentent l’IA comme un progrès à accepter d’un bloc, incorporée dans des solutions démesurées par leur complexité technologique, leur dilapidation de matière et d’énergie et parfois les conditions inhumaines dans lesquelles travaillent sous-traitants et fournisseurs. La compagnie Tesla est emblématique de ce travestissement de progrès. Son fondateur n’hésite d’ailleurs pas à évoquer l’IA comme une menace existentielle pour l’humanité, bien conscient de l’efficacité d’une telle provocation pour séduire les investisseurs.

À raison, l’impact sur le travail et l’emploi nourrit les plus grandes inquiétudes, tout autant que les plus grandes incertitudes. Emploi massif de travailleurs pauvres pour consolider des bases de données toujours plus importantes : ce prolétariat d’un nouveau genre, à défaut d’être remplacé par une armée de robots, ne doit-il pas être considéré comme tel ? L’esclavage d’employés d’Amazon soumis aux ordres d’algorithmes, tant dans leurs actions que dans la gestion de leurs pauses, les « optimisations » d’horaires devenus parfaitement ingérables et décrits dans le rapport de O’Neil, donnent finalement raison à Marx lorsque celui-ci affirmait que « le temps est tout, l’homme n’est plus rien ; il est tout au plus une carcasse du temps. ».

Qu’avons-nous à dire sur les implications philosophiques, juridiques et politiques de l’intelligence artificielle ? La Chine nous démontre comment elle peut être utilisée pour la surveillance massive et l’anéantissement de la vie privée. Aux États-Unis, elle s’est sournoisement infiltrée dans les procédures judiciaires accentuant le plus souvent les jugements à caractère raciste, ainsi que des associations ont pu le prouver.

Qu’avons-nous à dire sur les implications philosophiques, juridiques et politiques de l’intelligence artificielle ?

Le gouvernement français, suivant l’avis du rapport du Conseil d’État sur l’intelligence artificielle, a décidé de continuer le déploiement d’une stratégie initiée en 2018 : en témoignent les dispositions prévues dans le projet de loi d’orientation et de programmation du ministère de l’Intérieur (LOPMI), qui est actuellement discuté au Parlement. Ce doit être l’occasion de poser encore et toujours les mêmes questions : comment instaurer un contrôle démocratique dans l’utilisation des algorithmes ? Comment l’articuler avec notre souveraineté numérique ? Quel sens politique accorder à l’usage croissant des nouvelles technologies ? Où trouver l’équilibre entre l’usage de l’algorithme et la protection des données ? Qui est responsable juridiquement de l’algorithme en cas de défaillance ?

Le temps presse, car les grands groupes disposent d’une avance considérable sur les États. Sans réaction de notre part, nous serons dans l’incapacité de construire une politique humaniste et opérante de l’intelligence artificielle. Le Parlement européen a déjà porté le fer sur le sujet, mais sans la couverture médiatique nécessaire à un débat fécond dans l’opinion publique.

L’objet de ce texte est précisément de contribuer à ouvrir la discussion pour les semaines et les mois à venir. Nous devons, selon le concept de Michel Callon et du regretté Bruno Latour, opérer un véritable travail de traduction autour de ces questions fondamentales, afin que les citoyennes et les citoyens appréhendent cette matière, qui, un jour ou l’autre, finira par les toucher. Il est essentiel que nos organisations politiques, les syndicats, les associations et les universitaires agissent de concert pour que demain, nous soyons tous capables de répondre à cet immense défi.

Nous avons besoin de vous !

Quelles que soient vos compétences, si vous touchez votre bille en droit, en bricolage, si vous aimez écrire, si vous êtes créatif… vous pouvez prendre part à des actions et ateliers près de chez vous ou encore nous envoyer vos vidéos, vos dessins pour des affiches etc.