Quand l’intelligence artificielle s’invite dans la campagne électorale

L’usage de l’intelligence arti­fi­cielle pro­gresse à une vitesse ver­tig­ineuse, jusque dans les cam­pagnes élec­torales. Entre fas­ci­na­tion, inquié­tude et néces­sité de com­préhen­sion, com­ment garder un regard cri­tique sans céder à la méfi­ance ? Cet arti­cle ouvre une réflex­ion sur les promess­es et les risques d’un out­il qui boule­verse déjà notre rap­port à la démoc­ra­tie, à l’éducation et à la vérité.

Une présence désormais incontournable

L’intelligence arti­fi­cielle (IA) est désor­mais partout. Il n’est donc pas sur­prenant qu’elle s’invite aus­si dans les cam­pagnes élec­torales.
 À décou­vrir : Quand l’intelligence arti­fi­cielle s’invite dans la cam­pagne (France Info).

Dans les mois à venir, après la cam­pagne élec­torale en cours,  ce site abor­dera et doc­u­mentera plus en détail le thème de l’IA. Car selon son usage, il devient de plus en plus dif­fi­cile de dis­tinguer le vrai du faux… sans par­ler du « vrai recon­sti­tué » ou défor­mé, que l’on retrou­ve désor­mais dans les reportages, les doc­u­men­taires, la télé‑réalité , et bien sûr dans les cam­pagnes élec­torales.

Entre méfiance et transparence

Le pre­mier réflexe face à l’IA serait sans doute de s’en méfi­er, de ne pas l’utiliser. Cepen­dant, dans un souci de trans­parence, il est bon de pré­cis­er que ce site lui‑même y a recours. Sur cer­taines pages ou arti­cles de ce site l’IA con­tribue à la rédac­tion et à la mise en forme des con­tenus.
Sur l’une d’elle on trou­ve:
“Cette page ain­si que d’autres pub­li­ca­tions du site sont élaborées avec l’aide de Per­plex­i­ty.
Un dossier con­sacré à ses usages, à ses pré­cau­tions et à ses dan­gers est donc en pré­pa­ra­tion.

Faut‑il signaler qu’on a utilisé une IA ?

Ce débat évoque celui qui aurait pu se pos­er au moment de l’arrivée des cor­recteurs orthographiques et gram­mat­i­caux : aurait‑il fal­lu pré­cis­er à la fin de chaque texte qu’ils avaient été util­isés, et dans quelle pro­por­tion ?
L’essentiel n’est‑il pas plutôt de dévelop­per un esprit cri­tique, c’est‑à‑dire la capac­ité à analyser les infor­ma­tions, les images, les vidéos ou les sons que l’on nous pro­pose, sans pour autant som­br­er dans la méfi­ance général­isée ou le com­plo­tisme ?
Cer­tains finis­sent en effet par douter de tout, jusqu’à croire que la terre est plate : Qui sont les “platistes” ? (France Cul­ture).

Un outil “formidable” au double sens du terme

J’aime définir l’IA comme un out­il for­mi­da­ble.
Le mot “for­mi­da­ble” sig­nifi­ait autre­fois “qui inspire une grande crainte”, avant de pren­dre le sens mod­erne d’“extraordinaire” ou “impres­sion­nant”. (cf CNRTL)
Peut‑être même, est‑ce lorsqu’on utilise le mot arti­fi­ciel que l’ad­jec­tif for­mi­da­ble prend tout son sens ? On pense alors à la décou­verte de la radioac­tiv­ité arti­fi­cielle en 1934 : Cf cette page sur musée Curie. Pierre et Marie Curie avaient très tôt perçu les dan­gers poten­tiels de leur décou­verte.
De même, aujourd’hui, plusieurs chercheurs et ingénieurs à l’origine du développe­ment de l’IA devi­en­nent des lanceurs d’alerte, inqui­ets d’une évo­lu­tion trop rapi­de et dif­fi­cile à maîtris­er. (cf pauseia.fr)

Des risques aussi pour la démocratie

Traiter de ce sujet est essen­tiel, car il en va de la san­té de nos démoc­ra­ties. L’IA trans­forme déjà pro­fondé­ment la com­mu­ni­ca­tion poli­tique, la pro­duc­tion d’information et la per­cep­tion du réel : IA : quels risques pour nos démoc­ra­ties ? (Sor­bonne Uni­ver­sité).
Mais les risques ne s’arrêtent pas là. L’usage de ces out­ils a aus­si un impact sur notre san­té physique et men­tale. Pour le grand pub­lic , et en par­ti­c­uli­er les jeunes,  l’IA peut devenir une habi­tude, voire une dépen­dance, com­pa­ra­ble à celle des réseaux soci­aux. L’impact des chat­bots util­isés comme “sou­tiens psy­chologiques” est, lui aus­si, préoc­cu­pant : IA et san­té men­tale des ados : les experts aler­tent.

Former, comprendre, accompagner

Nous faisons face à une trans­for­ma­tion aus­si rapi­de que poten­tielle­ment incon­trôlable. Déjà, lors de l’arrivée d’Internet, de Face­book ou des pre­miers réseaux soci­aux, des voix s’élevaient pour alert­er.
Le monde de l’éducation doit, là encore, accom­pa­g­n­er cette évo­lu­tion. Les élèves ne patien­tent pas : ils utilisent déjà les out­ils, sou­vent “à tort et à tra­vers”. Les enseignants doivent donc être aidés à com­pren­dre, utilis­er et faire utilis­er ces tech­nolo­gies. Voir à ce sujet la fiche DRANE Ver­sailles.

Apprendre pour mieux se protéger

Pour percevoir les lim­ites et les dan­gers d’une tech­nolo­gie, il faut d’abord l’avoir com­prise et util­isée. Comme pour le vélo : on ne peut tomber qu’après avoir appris à en faire, et c’est en chutant qu’on com­prend les risques liés à son usage.
Informer, expli­quer, faire com­pren­dre et accom­pa­g­n­er les usages : c’est la seule manière de per­me­t­tre à cha­cun d’agir en con­nais­sance de cause, de savoir pourquoi il fait tel ou tel choix, et quelles en sont les con­séquences.

Exercice d’imagination critique

J’imagine ici une Per­son­ne m’apportant la con­tra­dic­tion à pro­pos de ce texte.
C’est ICI

Pour illus­tr­er l’u­til­i­sa­tion qui peut être faite sur ce site, allez voir cette page ou est décrit le proces­sus util­isé pour rédi­ger et met­tre en forme cet arti­cle que vous venez de lire.