Exercice d’imagination critique

J’imagine ici une Per­son­ne m’apportant la con­tra­dic­tion à pro­pos de mon texte sur l’usage de l’intelligence arti­fi­cielle.
Je n’ai pas encore mis en chantier un dossier com­plet sur l’IA et sur les mul­ti­ples risques qu’elle représente, écologiques, soci­aux, économiques ou poli­tiques.
En atten­dant d’aller un jour plus loin dans cette réflex­ion, j’essaie d’anticiper cer­taines objec­tions, d’imaginer ce que pour­rait me répon­dre une per­son­ne qui ne partage pas ma posi­tion.
C’est aus­si une manière de rester lucide et en alerte et d’ex­ercer ma capac­ité d’écoute, de doute et de remise en ques­tion.

Droit de réponse imaginaire

Per­me­t­tez-moi de trou­ver regret­table l’omission, dans votre texte, de l’une des prob­lé­ma­tiques majeures soulevées par l’usage crois­sant de l’intelligence arti­fi­cielle : son impact envi­ron­nemen­tal.
Vous men­tion­nez les dimen­sions cul­turelles et cog­ni­tives de cette tech­nolo­gie, mais vous éludez ce que j’appellerais l’aspect sys­témique de son empreinte écologique.

Par “aspect sys­témique”, j’entends le fait que les effets envi­ron­nemen­taux de l’IA s’inscrivent dans une chaîne d’interdépendances mon­di­ales : extrac­tion des ressources rares néces­saires aux com­posants,
con­som­ma­tion énergé­tique expo­nen­tielle des cen­tres de don­nées, impact des infra­struc­tures de réseau, et dynamique d’augmentation con­tin­ue de la demande numérique.
L’IA ne pol­lue pas seule­ment par usage direct, mais par la struc­ture même du sys­tème qu’elle ali­mente et qui s’auto-entretient.

Ces enjeux sont pour­tant bien doc­u­men­tés et vul­gar­isés, notam­ment dans
cet arti­cle de Wikipé­dia.

À une époque où le réchauf­fe­ment cli­ma­tique et l’effondrement de la bio­di­ver­sité , comme l’a récem­ment rap­pelé un rap­port gou­verne­men­tal bri­tan­nique , (arti­cle abon­nés), men­a­cent la survie à court/moyen terme des humains, cette omis­sion me sem­ble très prob­lé­ma­tique.
Elle l’est d’au­tant plus que cer­tains de vos argu­ments décul­pa­bil­isa­teurs, qui con­sis­tent à dire que l’IA “ce n’est pas grave tant qu’on main­tient l’e­sprit cri­tique”, sont plus que dis­cuta­bles.
Enfin, per­me­t­tez-moi une remar­que de principe : il n’est pas néces­saire de pra­ti­quer ni de com­pren­dre en détail une tech­nolo­gie pour en percevoir la dan­gerosité.
On n’a pas besoin d’apprendre à tir­er pour saisir le risque d’une arme,
pas plus qu’il n’est utile d’être physi­cien nucléaire pour com­pren­dre les enjeux écologiques de l’électricité.
D’ailleurs, je pense que vous auriez du mal à m’expliquer pré­cisé­ment com­ment fonc­tion­nent les algo­rithmes qui font tourn­er les grands mod­èles de lan­gage (les LLMs).
Ce n’est pas une cri­tique per­son­nelle : très peu de gens en com­pren­nent les détails. Mais c’est juste­ment ce qui pose prob­lème: nous util­isons des sys­tèmes d’une com­plex­ité extrême, dont même leurs con­cep­teurs ne maîtrisent plus toutes les logiques internes, et dont les effets peu­vent pour­tant influ­encer pro­fondé­ment nos modes de pen­sée, de tra­vail et de déci­sion.
L’essentiel réside donc dans notre capac­ité à éval­uer les con­séquences glob­ales de ce que nous util­isons. Et c’est de moins en moins sim­ple!

Voilà, en toute cor­dial­ité  les remar­ques que je m’au­torise à vous adress­er.

Cet exer­ci­ce ne vise pas à tranch­er, mais à ouvrir le champ de réflex­ion :
il m’aide à percevoir les angles morts pos­si­bles de mon pro­pre raison­nement,
et à mieux com­pren­dre les inquié­tudes que sus­cite aujourd’hui le développe­ment de l’intelligence arti­fi­cielle.