tribune publiée le 7 juin 2023 (pour la version anglo-saxonne ici)
Alors que Sam Altman, le PDG de l’IA générative ChatGPT, continue son tour du monde pour demander aux gouvernements de réguler l’intelligence artificielle (IA), le député européen Emmanuel Maurel met en garde contre tous les défis que l’UE aura à relever vis-à-vis de cette technologie de rupture.
L’intelligence artificielle révolutionne l’économie mais menace aussi la civilisation. Pour nous préserver de ce péril, il faudra aller bien plus loin que « l’IA Act » voté la semaine prochaine.
Pas un jour ne passe sans que nous soyons témoins de la progression fulgurante de l’intelligence artificielle.
L’IA est déjà utilisée dans la vie quotidienne : communications, traductions, jeux vidéo, bientôt voitures autonomes, mais aussi systèmes de surveillances de masse… et conflits armés. La possibilité de voir arriver des « robots tueurs » sur le champ de bataille est en effet tout sauf théorique.
Dans une lettre ouverte publiée en mars, un millier de chercheurs et professionnels du secteur demandaient un moratoire de six mois afin d’élaborer une régulation visant à empêcher l’IA d’être « dangereuse pour l’humanité ».
Moins apocalyptique, quoique fort inquiétant : la possibilité de propager de fausses informations à l’aide de photos et vidéos créées de toutes pièces par des IA, presque impossibles à distinguer des vraies.
Dans un contexte d’uniformisation des contenus sur les réseaux sociaux et les plateformes de streaming via les algorithmes, ce genre d’innovation nuira non seulement à la manifestation de la vérité, mais aussi à la culture et sa diversité – et donc à la civilisation.
Il est important de développer un projet éducatif autour de l’intelligence artificielle, ayant pour but d’informer les citoyens sur les risques associés à l’IA, mais aussi de les former à utiliser l’IA de manière responsable et éthique.
Des mesures fortes s’imposent pour encadrer l’IA, particulièrement sur les aspects liés aux droits humains. Est-il par exemple nécessaire de recourir aux technologies de reconnaissance faciale dans le cadre des prochains Jeux olympiques à Paris ?
L’Assemblée nationale, qui a voté en ce sens le mois dernier, aurait dû faire preuve de davantage de prudence au lieu de s’engager sur un terrain aussi glissant pour les libertés fondamentales.
Entretemps, l’Union européenne s’est emparée du sujet et met au point une législation se voulant protectrice et uniforme sur tout le continent, afin d’éviter toute tentation de « dumping numérique ». Les dispositions contenues dans son « IA Act », qui sera soumis au vote du Parlement européen en juin, offrent ainsi une perspective intéressante, insistant sur l’importance du rôle de l’humain dans la supervision de l’intelligence artificielle.
Mais organiser une telle supervision nécessitera que l’Europe se dote d’unités de contrôle fortement qualifiées, or les candidats manquent. De plus, il est nécessaire que l’humain soit en capacité de “débrancher la machine” manuellement, sans besoin de mécanismes informatisés et numérisés.
Qu’il s’agisse du contrôle ou du développement de l’IA, où nous sommes en retard par rapport aux États-Unis et à la Chine, nous n’aurons pas d’autre choix que mettre en place une stratégie extrêmement volontariste pour empêcher la « fuite de cerveaux », redoubler d’efforts pour la formation et pour la consolidation d’un écosystème favorable à l’émergence d’une IA spécifiquement européenne, centrée sur l’humain et sur les principes de liberté et de démocratie.
Un aspect important de cette stratégie est la collaboration entre les entreprises, les gouvernements, les experts en IA ainsi que la société civile, qui doivent travailler main dans la main pour amener une utilisation régulée des intelligences artificielles.
Dans l’immédiat, il nous faut contrer la voracité des géants du numérique, afin de prévenir toute utilisation abusive de l’IA, notamment en matière de protection des données personnelles, d’intrusion dans la vie privée, de désinformation, ou encore d’assurance-santé.
Tout reste à faire pour mettre sur pied une vision spécifiquement européenne de l’IA, à rebours du modèle chinois, mais aussi du modèle américain. Microsoft, qui a énormément investi dans OpenAI, et son « ChatGPT » vient de licencier la totalité de son équipe responsable de l’éthique de l’IA…
Enfin, l’IA risque d’entraîner une déstabilisation sociale massive. Des études récentes pronostiquent que 300 millions d’emplois pourraient être sous-traités par des IA !
Après avoir délocalisé la classe ouvrière en Asie, les multinationales s’apprêtent à remplacer la classe moyenne, y compris la plus diplômée, par des logiciels autonomes. Nos sociétés démocratiques n’y survivront pas. En l’espèce, agir dès maintenant sur le partage du temps de travail et de la valeur ajoutée, ainsi que sur les conditions de travail n’est pas une option, mais une obligation.
Tout doit être fait pour garantir une utilisation responsable et éthique de l’IA, dans l’intérêt des travailleurs et des citoyens européens. Nous ne pouvons pas laisser la machine décider de tout à la place de l’humain.