J’imagine ici une Personne m’apportant la contradiction à propos de mon texte sur l’usage de l’intelligence artificielle.
Je n’ai pas encore mis en chantier un dossier complet sur l’IA et sur les multiples risques qu’elle représente, écologiques, sociaux, économiques ou politiques.
En attendant d’aller un jour plus loin dans cette réflexion, j’essaie d’anticiper certaines objections, d’imaginer ce que pourrait me répondre une personne qui ne partage pas ma position.
C’est aussi une manière de rester lucide et en alerte et d’exercer ma capacité d’écoute, de doute et de remise en question.
Droit de réponse imaginaire
Permettez-moi de trouver regrettable l’omission, dans votre texte, de l’une des problématiques majeures soulevées par l’usage croissant de l’intelligence artificielle : son impact environnemental.
Vous mentionnez les dimensions culturelles et cognitives de cette technologie, mais vous éludez ce que j’appellerais l’aspect systémique de son empreinte écologique.
Par “aspect systémique”, j’entends le fait que les effets environnementaux de l’IA s’inscrivent dans une chaîne d’interdépendances mondiales : extraction des ressources rares nécessaires aux composants,
consommation énergétique exponentielle des centres de données, impact des infrastructures de réseau, et dynamique d’augmentation continue de la demande numérique.
L’IA ne pollue pas seulement par usage direct, mais par la structure même du système qu’elle alimente et qui s’auto-entretient.
Ces enjeux sont pourtant bien documentés et vulgarisés, notamment dans
cet article de Wikipédia.
À une époque où le réchauffement climatique et l’effondrement de la biodiversité , comme l’a récemment rappelé un rapport gouvernemental britannique , (article abonnés), menacent la survie à court/moyen terme des humains, cette omission me semble très problématique.
Elle l’est d’autant plus que certains de vos arguments déculpabilisateurs, qui consistent à dire que l’IA “ce n’est pas grave tant qu’on maintient l’esprit critique”, sont plus que discutables.
Enfin, permettez-moi une remarque de principe : il n’est pas nécessaire de pratiquer ni de comprendre en détail une technologie pour en percevoir la dangerosité.
On n’a pas besoin d’apprendre à tirer pour saisir le risque d’une arme,
pas plus qu’il n’est utile d’être physicien nucléaire pour comprendre les enjeux écologiques de l’électricité.
D’ailleurs, je pense que vous auriez du mal à m’expliquer précisément comment fonctionnent les algorithmes qui font tourner les grands modèles de langage (les LLMs).
Ce n’est pas une critique personnelle : très peu de gens en comprennent les détails. Mais c’est justement ce qui pose problème: nous utilisons des systèmes d’une complexité extrême, dont même leurs concepteurs ne maîtrisent plus toutes les logiques internes, et dont les effets peuvent pourtant influencer profondément nos modes de pensée, de travail et de décision.
L’essentiel réside donc dans notre capacité à évaluer les conséquences globales de ce que nous utilisons. Et c’est de moins en moins simple!
Voilà, en toute cordialité les remarques que je m’autorise à vous adresser.
Cet exercice ne vise pas à trancher, mais à ouvrir le champ de réflexion :
il m’aide à percevoir les angles morts possibles de mon propre raisonnement,
et à mieux comprendre les inquiétudes que suscite aujourd’hui le développement de l’intelligence artificielle.
