Sur l'IA, la vérité et la peur des nouveaux miroirs

Chaque époque rencontre la connaissance à travers les instruments qu’elle forge. Les tablettes d'argile effrayaient autrefois ceux qui ne faisaient confiance qu'à la mémoire ; le parchemin déstabilisait ceux qui craignaient que la sagesse, une fois écrite, ne perde son âme ; l'imprimerie fut dénoncée pour avoir relâché l'emprise des savants sur les textes sacrés. À chaque fois, l’inquiétude ne portait pas sur l’encre ou le papier, mais sur qui serait désormais autorisé à poser des questions.

L’intelligence artificielle arrive à notre époque comme un miroir aussi vaste, rapide et troublant. Il rassemble des fragments de pensée humaine, les organise en langage et nous les restitue avec une facilité troublante. Et ainsi, la vieille peur revient, habillée de nouveaux termes : Et si cela induit une erreur ? Et s'il parle faussement ? Et si on lui faisait confiance là où seuls les érudits devraient parler ?

Ces préoccupations ne sont pas dénuées de sincérité. La vérité a toujours été fragile entre des mains négligentes. Pourtant, la sincérité à elle seule ne suffit pas à rendre un argument valable, et la prudence, lorsqu’elle dépasse la raison, devient sa propre forme d’injustice.

L’erreur réside dans une confusion tranquille : un outil a été confondu avec une autorité. L'intelligence artificielle ne prétend pas à la connaissance ; il ne revendique aucune piété, aucun lignage, aucun ijtihād. Il ne rend pas de verdict et ne jure pas non plus par Dieu. Il récupère, compare, synthétise et parle uniquement parce qu’on lui a demandé de parler. Le craindre en tant que muftī, c'est craindre un livre pour écrire des mots, ou une bibliothèque pour contenir plusieurs voix à la fois.

Les chercheurs classiques, dont la prudence est souvent invoquée à l’égard de l’IA, ont vécu dans des paysages de connaissances bien plus périlleux que le nôtre. Les manuscrits étaient copiés par des mains fatiguées, les textes étaient abrégés sans avertissement, les attributions changeaient de génération en génération et les fausses narrations voyageaient plus vite que les corrections. Pourtant, les savants n’ont pas brûlé les livres parce que certains étaient imparfaits. Ils ont plutôt formé les esprits, leur apprenant à peser, comparer, vérifier et douter de manière responsable.

Ils ont lu ce avec quoi ils n'étaient pas d'accord. Ils ont étudié ce qu'ils rejetaient. Ils aiguisèrent leur intellect contre l’erreur, non pas en la fuyant, mais en la reconnaissant.

Si la simple possibilité d’erreur était une cause suffisante d’interdiction, alors on ne pourrait faire confiance à aucune voix humaine. Les érudits se trompent, parfois innocemment, parfois tragiquement, parfois au service du pouvoir. L’histoire rapporte non seulement des fatwas erronées, mais aussi des fatwas cruelles, prononcées avec confiance et défendues avec éloquence. Pourtant, l’Islam n’a jamais réagi en réduisant au silence les érudits. Il a répondu en exigeant des preuves, des responsabilités et de la raison.

Alors, qu’est-ce qui est vraiment gardé lorsque l’IA est désignée comme dangereuse ?

Ce n'est pas une révélation. La Révélation a survécu aux tyrans, aux inquisitions et aux empires. Elle ne tremble pas devant les algorithmes. Ce qui tremble, c'est le vieux confort d'une autorité incontestée, la facilité de parler sans être interrogé, l'habitude de décourager la recherche en invoquant la peur.

Ironiquement, lorsqu’elle est utilisée avec discipline, l’IA peut révéler les distorsions qu’elle est accusée de propager. Il peut placer les interprétations côte à côte, révéler des désaccords là où des certitudes ont été faussement revendiquées et ramener des voix négligées dans la conversation. Il n’impose ni une école, ni une secte, ni un tempérament. Il reflète ce qui existe – et les miroirs, de par leur nature, mettent les gens mal à l’aise.

Le Coran n'a jamais eu peur des questions. Elle craignait l’arrogance, la négligence et le refus de penser. Encore et encore, il demande non pas une obéissance sans compréhension, mais une réflexion : Ne raisonneras-tu pas ? Ne considérerez-vous pas?

Il est sage de mettre en garde contre une dépendance aveugle à l’égard de toute source, y compris l’IA. Exiger une vérification est éthique. Mais décourager complètement l’engagement revient à confondre protection et paralysie. Le savoir n’a jamais été préservé en fermant les portes ; il a été préservé en apprenant aux gens à marcher prudemment dans les espaces ouverts.

L’Intelligence Artificielle n’est ni un guide, ni une gardienne de la vérité. Il s’agit d’une vision large, imparfaite et façonnée par ceux qui la regardent. La responsabilité reste donc là où elle a toujours été : avec la conscience humaine. Les outils ne corrompent pas la croyance. Un jugement non exercé le fait.

Ainsi, la tâche qui nous attend n’est pas de craindre de nouveaux miroirs, mais d’apprendre à nous-mêmes – ainsi qu’à nos communautés – comment les regarder sans perdre notre équilibre moral. L’avenir de la foi n’a jamais dépendu de moins de questions, mais de meilleures.

A lire également