Comment l’IA pourrait prendre le contrôle des élections – et saper la démocratie

Etiquettes : Intelligence artificielle, élections, démocratie, ChatGPT, OpenAI,

Les organisations pourraient-elles utiliser des modèles de langage d’intelligence artificielle tels que ChatGPT pour inciter les électeurs à se comporter de manière spécifique?

Le sénateur Josh Hawley a posé cette question au PDG d’OpenAI, Sam Altman, lors d’une audience du Sénat américain sur l’intelligence artificielle le 16 mai 2023. Altman a répondu qu’il craignait en effet que certaines personnes puissent utiliser des modèles linguistiques pour manipuler, persuader et engager des interactions individuelles avec les électeurs.

Altman n’a pas élaboré, mais il aurait pu avoir quelque chose comme ce scénario en tête. Imaginez que bientôt, les technologues politiques développent une machine appelée Clogger – une campagne politique dans une boîte noire. Clogger poursuit sans relâche un seul objectif : maximiser les chances que son candidat – la campagne qui achète les services de Clogger Inc. – l’emporte lors d’une élection.

Alors que des plateformes comme Facebook, Twitter et YouTube utilisent des formes d’IA pour amener les utilisateurs à passer plus de temps sur leurs sites, l’IA de Clogger aurait un objectif différent: changer le comportement de vote des gens.

LIRE AUSSI : Quand l’intelligence artificielle favorise l’islamophobie

Comment fonctionnerait Clogger

En tant que politologue et juriste qui étudie l’intersection de la technologie et de la démocratie, nous pensons que quelque chose comme Clogger pourrait utiliser l’automatisation pour augmenter considérablement l’échelle et potentiellement l’efficacité des techniques de manipulation comportementale et de microciblage utilisées par les campagnes politiques depuis le début des années 2000. Tout comme les annonceurs utilisent votre historique de navigation et de médias sociaux pour cibler individuellement les publicités commerciales et politiques maintenant, Clogger ferait attention à vous – et à des centaines de millions d’autres électeurs – individuellement.

Il offrirait trois avancées par rapport à l’état actuel de la manipulation algorithmique du comportement. Tout d’abord, son modèle linguistique générerait des messages – textes, médias sociaux et courriels, y compris peut-être des images et des vidéos – adaptés à vous personnellement. Alors que les annonceurs placent stratégiquement un nombre relativement restreint d’annonces, les modèles de langage tels que ChatGPT peuvent générer d’innombrables messages uniques pour vous personnellement – et des millions pour les autres – au cours d’une campagne.

LIRE AUSSI : « L’intelligence artificielle a aidé l’agriculture marocaine »

Deuxièmement, Clogger utiliserait une technique appelée apprentissage par renforcement pour générer une succession de messages qui deviennent de plus en plus susceptibles de changer votre vote. L’apprentissage par renforcement est une approche d’apprentissage automatique, d’essais et d’erreurs, dans laquelle l’ordinateur prend des mesures et obtient des commentaires sur ce qui fonctionne le mieux afin d’apprendre à atteindre un objectif. Les machines qui peuvent jouer au Go, aux échecs et à de nombreux jeux vidéo mieux que n’importe quel humain ont utilisé l’apprentissage par renforcement.

Troisièmement, au cours d’une campagne, les messages de Clogger pourraient évoluer afin de prendre en compte vos réponses aux dépêches précédentes de la machine et ce qu’elle a appris sur le changement d’avis des autres. Clogger serait capable de mener des « conversations » dynamiques avec vous – et des millions d’autres personnes – au fil du temps. Les messages de Clogger seraient similaires aux publicités qui vous suivent sur différents sites Web et médias sociaux.

La nature de l’IA

Trois autres fonctionnalités – ou bugs – méritent d’être notées.

Tout d’abord, les messages envoyés par Clogger peuvent ou non avoir un contenu politique. Le seul objectif de la machine est de maximiser la part des votes, et elle concevrait probablement des stratégies pour atteindre cet objectif auxquelles aucun militant humain n’aurait pensé.

LIRE AUSSI : Le capitalisme immatériel et l’intelligence artificielle sont les protagonistes de notre avenir

Une possibilité est d’envoyer aux électeurs adverses probables des informations sur les passions non politiques qu’ils ont dans le sport ou le divertissement pour enterrer les messages politiques qu’ils reçoivent. Une autre possibilité consiste à envoyer des messages rebutants – par exemple des publicités pour l’incontinence – programmés pour coïncider avec les messages des opposants. Et un autre manipule les groupes d’amis des électeurs sur les médias sociaux pour donner l’impression que leurs cercles sociaux soutiennent son candidat.

Deuxièmement, Clogger n’a aucun respect pour la vérité. En effet, il n’a aucun moyen de savoir ce qui est vrai ou faux. Les « hallucinations » du modèle linguistique ne sont pas un problème pour cette machine car son objectif est de changer votre vote, pas de fournir des informations précises.

Troisièmement, parce qu’il s’agit d’une boîte noire d’intelligence artificielle, les gens n’auraient aucun moyen de savoir quelles stratégies elle utilise.

Logo

Si la campagne présidentielle républicaine devait déployer Clogger en 2024, la campagne démocrate serait probablement obligée de répondre de la même manière, peut-être avec une machine similaire. Appelez-le Dogger. Si les directeurs de campagne pensaient que ces machines étaient efficaces, la course à la présidence pourrait bien se résumer à Clogger contre Dogger, et le gagnant serait le client de la machine la plus efficace.

LIRE AUSSI : Qu’y a-t-il derrière ce qu’on appelle « intelligence artificielle » ?

Les politologues et les experts auraient beaucoup à dire sur les raisons pour lesquelles l’une ou l’autre IA a prévalu, mais probablement personne ne le saurait vraiment. Le président aura été élu non pas parce que ses propositions politiques ou ses idées politiques ont persuadé plus d’Américains, mais parce qu’il ou elle avait l’IA la plus efficace. Le contenu qui l’a emporté aurait été d’une IA axée uniquement sur la victoire, sans idées politiques propres, plutôt que de candidats ou de partis.

Dans ce sens très important, une machine aurait gagné l’élection plutôt qu’une personne. L’élection ne serait plus démocratique, même si toutes les activités ordinaires de la démocratie – les discours, les publicités, les messages, le vote et le dépouillement des votes – auront eu lieu.

Le président élu par l’IA pourrait alors prendre l’une des deux voies. Il ou elle pourrait utiliser le manteau électoral pour poursuivre les politiques du parti républicain ou démocrate. Mais parce que les idées du parti n’ont peut-être pas grand-chose à voir avec la raison pour laquelle les gens ont voté comme ils l’ont fait – Clogger et Dogger ne se soucient pas des opinions politiques – les actions du président ne refléteraient pas nécessairement la volonté des électeurs. Les électeurs auraient été manipulés par l’IA plutôt que de choisir librement leurs dirigeants politiques et leurs politiques.

Une autre voie pour le président est de poursuivre les messages, les comportements et les politiques qui, selon la machine, maximiseront les chances de réélection. Sur cette voie, le président n’aurait pas de plate-forme ou de programme particulier au-delà du maintien au pouvoir. Les actions du président, guidées par Clogger, seraient les plus susceptibles de manipuler les électeurs plutôt que de servir leurs véritables intérêts ou même la propre idéologie du président.

LIRE AUSSI : « Team Jorge »: Révélations sur les manipulations d’une officine de désinformation

Éviter la clogocratie

Il serait possible d’éviter la manipulation électorale par l’IA si les candidats, les campagnes et les consultants renonçaient tous à l’utilisation d’une telle IA politique. Nous croyons que c’est peu probable. Si des boîtes noires politiquement efficaces étaient développées, la tentation de les utiliser serait presque irrésistible. En effet, les consultants politiques pourraient bien considérer l’utilisation de ces outils comme l’exige leur responsabilité professionnelle pour aider leurs candidats à gagner. Et une fois qu’un candidat utilise un outil aussi efficace, on ne peut guère s’attendre à ce que les opposants résistent en désarmant unilatéralement.

Une meilleure protection de la vie privée serait utile. Clogger dépendrait de l’accès à de grandes quantités de données personnelles afin de cibler les individus, de créer des messages adaptés pour les persuader ou les manipuler, et de les suivre et de les recibler au cours d’une campagne. Chaque élément d’information que les entreprises ou les décideurs refusent à la machine la rendrait moins efficace.

Une autre solution réside dans les commissions électorales. Ils pourraient essayer d’interdire ou de réglementer sévèrement ces machines. Il y a un débat féroce sur la question de savoir si un tel discours « réplicant », même s’il est de nature politique, peut être réglementé. La tradition extrême de liberté d’expression des États-Unis conduit de nombreux universitaires de premier plan à dis-le ne le peuvent pas.

Mais il n’y a aucune raison d’étendre automatiquement la protection du Premier amendement au produit de ces machines. La nation pourrait bien choisir de donner des droits aux machines, mais cela devrait être une décision fondée sur les défis d’aujourd’hui, et non sur l’hypothèse erronée que les vues de James Madison en 1789 étaient destinées à s’appliquer à l’IA.

Les régulateurs de l’Union européenne vont dans cette direction. Les décideurs politiques ont révisé le projet de loi sur l’intelligence artificielle du Parlement européen pour désigner les « systèmes d’IA pour influencer les électeurs dans les campagnes » comme « à haut risque » et soumis à un examen réglementaire.

Une mesure constitutionnellement plus sûre, bien que plus petite, déjà adoptée en partie par les régulateurs européens de l’Internet et en Californie, consiste à interdire aux robots de se faire passer pour des personnes. Par exemple, la réglementation peut exiger que les messages de campagne soient accompagnés d’avertissements lorsque le contenu qu’ils contiennent est généré par des machines plutôt que par des humains.

Ce serait comme les exigences de non-responsabilité de la publicité – « Payé par le Comité Sam Jones pour le Congrès » – mais modifié pour refléter son origine IA: « Cette publicité générée par l’IA a été payée par le Comité Sam Jones pour le Congrès. » Une version plus forte pourrait nécessiter: « Ce message généré par l’IA vous est envoyé par le Sam Jones pour le Comité du Congrès parce que Clogger a prédit que cela augmenterait vos chances de voter pour Sam Jones de 0,0002%. » À tout le moins, nous pensons que les électeurs méritent de savoir quand c’est un bot qui leur parle, et ils devraient également savoir pourquoi.

La possibilité d’un système comme Clogger montre que le chemin vers la perte de pouvoir collectif humaine ne nécessite peut-être pas une intelligence générale artificielle surhumaine. Cela pourrait simplement nécessiter des militants et des consultants trop enthousiastes qui disposent de nouveaux outils puissants capables de pousser efficacement les nombreux boutons de millions de personnes.

#Intelligence_artificielle #AI #IA #Elections