L’usage de l’intelligence artificielle progresse à une vitesse vertigineuse, jusque dans les campagnes électorales. Entre fascination, inquiétude et nécessité de compréhension, comment garder un regard critique sans céder à la méfiance ? Cet article ouvre une réflexion sur les promesses et les risques d’un outil qui bouleverse déjà notre rapport à la démocratie, à l’éducation et à la vérité.
Une présence désormais incontournable
L’intelligence artificielle (IA) est désormais partout. Il n’est donc pas surprenant qu’elle s’invite aussi dans les campagnes électorales.
À découvrir : Quand l’intelligence artificielle s’invite dans la campagne (France Info).
Dans les mois à venir, après la campagne électorale en cours, ce site abordera et documentera plus en détail le thème de l’IA. Car selon son usage, il devient de plus en plus difficile de distinguer le vrai du faux… sans parler du « vrai reconstitué » ou déformé, que l’on retrouve désormais dans les reportages, les documentaires, la télé‑réalité , et bien sûr dans les campagnes électorales.
Entre méfiance et transparence
Le premier réflexe face à l’IA serait sans doute de s’en méfier, de ne pas l’utiliser. Cependant, dans un souci de transparence, il est bon de préciser que ce site lui‑même y a recours. Sur certaines pages ou articles de ce site l’IA contribue à la rédaction et à la mise en forme des contenus.
Sur l’une d’elle on trouve:
“Cette page ainsi que d’autres publications du site sont élaborées avec l’aide de Perplexity.“
Un dossier consacré à ses usages, à ses précautions et à ses dangers est donc en préparation.
Faut‑il signaler qu’on a utilisé une IA ?
Ce débat évoque celui qui aurait pu se poser au moment de l’arrivée des correcteurs orthographiques et grammaticaux : aurait‑il fallu préciser à la fin de chaque texte qu’ils avaient été utilisés, et dans quelle proportion ?
L’essentiel n’est‑il pas plutôt de développer un esprit critique, c’est‑à‑dire la capacité à analyser les informations, les images, les vidéos ou les sons que l’on nous propose, sans pour autant sombrer dans la méfiance généralisée ou le complotisme ?
Certains finissent en effet par douter de tout, jusqu’à croire que la terre est plate : Qui sont les “platistes” ? (France Culture).
Un outil “formidable” au double sens du terme
J’aime définir l’IA comme un outil formidable.
Le mot “formidable” signifiait autrefois “qui inspire une grande crainte”, avant de prendre le sens moderne d’“extraordinaire” ou “impressionnant”. (cf CNRTL)
Peut‑être même, est‑ce lorsqu’on utilise le mot artificiel que l’adjectif formidable prend tout son sens ? On pense alors à la découverte de la radioactivité artificielle en 1934 : Cf cette page sur musée Curie. Pierre et Marie Curie avaient très tôt perçu les dangers potentiels de leur découverte.
De même, aujourd’hui, plusieurs chercheurs et ingénieurs à l’origine du développement de l’IA deviennent des lanceurs d’alerte, inquiets d’une évolution trop rapide et difficile à maîtriser. (cf pauseia.fr)
Des risques aussi pour la démocratie
Traiter de ce sujet est essentiel, car il en va de la santé de nos démocraties. L’IA transforme déjà profondément la communication politique, la production d’information et la perception du réel : IA : quels risques pour nos démocraties ? (Sorbonne Université).
Mais les risques ne s’arrêtent pas là. L’usage de ces outils a aussi un impact sur notre santé physique et mentale. Pour le grand public , et en particulier les jeunes, l’IA peut devenir une habitude, voire une dépendance, comparable à celle des réseaux sociaux. L’impact des chatbots utilisés comme “soutiens psychologiques” est, lui aussi, préoccupant : IA et santé mentale des ados : les experts alertent.
Former, comprendre, accompagner
Nous faisons face à une transformation aussi rapide que potentiellement incontrôlable. Déjà, lors de l’arrivée d’Internet, de Facebook ou des premiers réseaux sociaux, des voix s’élevaient pour alerter.
Le monde de l’éducation doit, là encore, accompagner cette évolution. Les élèves ne patientent pas : ils utilisent déjà les outils, souvent “à tort et à travers”. Les enseignants doivent donc être aidés à comprendre, utiliser et faire utiliser ces technologies. Voir à ce sujet la fiche DRANE Versailles.
Apprendre pour mieux se protéger
Pour percevoir les limites et les dangers d’une technologie, il faut d’abord l’avoir comprise et utilisée. Comme pour le vélo : on ne peut tomber qu’après avoir appris à en faire, et c’est en chutant qu’on comprend les risques liés à son usage.
Informer, expliquer, faire comprendre et accompagner les usages : c’est la seule manière de permettre à chacun d’agir en connaissance de cause, de savoir pourquoi il fait tel ou tel choix, et quelles en sont les conséquences.
Exercice d’imagination critique
J’imagine ici une Personne m’apportant la contradiction à propos de ce texte.
C’est ICI
Pour illustrer l’utilisation qui peut être faite sur ce site, allez voir cette page ou est décrit le processus utilisé pour rédiger et mettre en forme cet article que vous venez de lire.
