Des chercheurs aux États-Unis voulaient trouver un moyen de mettre fin au totalitarisme nazi. On le sait, la bombe atomique est tombée sur deux villes japonaises. L’humanité a alors pu constater sa puissance dévastatrice. Malgré la course aux armements, elle n’a pas été utilisée depuis. Leó Szilárd, un des maîtres d’oeuvre de l’arme nucléaire, regretta plus tard sa participation à son invention et milita pour le désarmement. 

Il faut souligner ce décalage entre l’intention des inventeurs et l’intention des utilisateurs. Ce qui devait servir de moyen pour contrer la domination est devenu l’outil privilégié de quelques pays pour asseoir leur domination sur d’autres. Ainsi la Russie agite la menace nucléaire pour empêcher les pays occidentaux de s’immiscer dans sa guerre illégale contre l’Ukraine. 

Chat GPT est une intelligence artificielle de conversation. Lancé en 2022, ce programme robotisé est capable de répondre de différentes façons à plusieurs types de questions. Chat GPT n’a pas le pouvoir de tuer directement une masse d’êtres humains, comme peut le faire une bombe atomique. Mais il a le pouvoir de tuer un des aspects les plus essentiels à l’être humain : sa pensée critique. 

Comme la bombe, Chat GPT a été développé pour de bonnes intentions. OpenAI l’a conçu pour démocratiser le savoir. Comme Wikipédia, il empêche qu’une élite ne monopolise le savoir. Il permet à tout le monde de trouver des réponses à ses questions, sans passer par le complexe chemin de la recherche classique. De plus, dans notre monde démocratique où la parole individuelle est d’importance, ce logiciel permet de donner une voix aux personnes qui ont des difficultés à s’exprimer clairement. 

Sauf que l’outil apprend à répondre en fonction d’informations qui lui ont été fournies. Si bien qu’il colporte les mêmes lieux communs qui inondent déjà la communication humaine dominante. Un type de savoir unidimensionnel sera forcément renforcé. Les voix dissidentes ne seront pas entendues à leur juste valeur. 

Les réponses de Chat GPT sont uniformisantes. Elles performent d’ailleurs très bien dans des examens standardisés (aux États-Unis dans un essai récent, GPT-4 a obtenu 90 % à l ’examen du barreau). On peut facilement imaginer que des politiciens l’utiliseront à l’avenir pour flatter l’opinion majoritaire en atténuant de beaucoup les perspectives opposées. Le scénario de la bombe atomique pourrait bien se reproduire : un outil inventé pour contrer la domination pourrait servir à dominer. 

Un outil est en soi inerte, il n’a pas de responsabilité. C’est toujours l’humain qui doit assumer la responsabilité de ses inventions. Surtout si elles sont susceptibles de l’impacter au point de ne pouvoir assurer une continuité d’intention entre les créateurs et les utilisateurs. 

Il faut donc miser sur la pensée critique, que l’IA risque hélas d’émousser. La seule voie qui a fait ses preuves reste l’éducation. C’est-à-dire la transmission humaine d’un savoir, qui contient certes son lot d’incertitudes, mais qui demeure le meilleur garde-fou contre la manipulation.