Côté citoyens, l’IA transforme depuis quelques années déjà les campagnes électorales. Microciblage, désinformation automatisée, manipulation des émotions via les réseaux sociaux : autant d’outils redoutables qui peuvent biaiser le débat public. La campagne présidentielle américaine de 2016 illustre clairement cette problématique. « La société Cambridge Analytica a par exemple ciblé et influencé les électeurs indécis dont les positions pouvaient être orientées au profit de Donald Trump. Environ 20 millions d’indécis ont ainsi reçu des messages sur mesure, tels que des mèmes, des vidéos, des articles de blog en faveur de Trump », rappelle Aline Nardi. Combinée aux réseaux sociaux, l’IA remet donc en cause le droit des électeurs à se forger une opinion à partir d’une information pluraliste et fiable.
Plus récemment, la Cour constitutionnelle roumaine a invalidé l’élection présidentielle de 2024 pour cause d’usage abusif de l’IA et de manque de transparence dans les campagnes numériques. « Cela a affecté le caractère librement exprimé du vote des citoyens et en particulier leur droit d’être correctement informés », explique Aline Nardi.
L’Union européenne tente d’agir face à ces dérives. Plusieurs règlements ont été mis en place. Ils visent à encadrer les technologies numériques et à limiter leurs effets néfastes sur l’espace informationnel, notamment lors de processus électoraux. Parmi ces règlements : le Digital Services Act (DSA), le règlement sur l’IA et le règlement relatif à la transparence et au ciblage de la publicité à caractère politique (TTPA). Ces règlements ont d’ailleurs poussé Google et plus récemment Meta, à ne plus autoriser les publicités politiques, électorales et portant sur les enjeux sociaux dans l’Union européenne.
« Il subsiste toutefois une interrogation quant à l’applicabilité, la mise en œuvre concrète et l’effectivité de certaines normes issues des corpus de droit du numérique », alerte Aline Nardi qui appelle à « sortir de ce flou juridique ».