Boni Kadio
« Quelle attitude a une intelligence artificielle qui essaie d’imiter au mieux possible la pensée et les actions de l’humain, la représentation de l’humain? Qu’est-ce que l’intelligence artificielle dira de moi, francophone en milieu minoritaire? » Francis Langevin, professeur agrégé au campus de l’Okanagan de l’Université de la Colombie-Britannique a soulevé ces questions lors d’un colloque sur les identités francophones tenu à l’Université Carleton à la fin mars.
Accompagné de Philippe Blouin, spécialiste en intégration technologique chez LGS, une société IBM, ils ont notamment discuté de l’agent conversationnel ChatGPT, de son impact sur les utilisateurs dans la francophonie nord-américaine et de son effet sur notre réalité.
Le fonctionnement de ChatGPT
« ChatGPT est construit à partir de sources directes comme Wikipédia, des bases de données de livres qui ont été utilisées », explique Philippe Blouin.
« Pour chaque phrase de texte, l’ordinateur va découper en morceaux les mots. Il va les nettoyer, donc on va enlever la ponctuation, toutes les conjonctions et tous les articles vont être retirés », poursuit-il.
Les données sont ensuite reliées par des jetons qui associent les éléments entre eux. « ChatGPT-4, la nouvelle version, en utilise 32 000 pour générer des contenus », ajoute le spécialiste.
Philippe Blouin a tenu à clarifier que ChatGPT a été créé initialement pour « automatiser les tâches quotidiennes et, un jour, voir se réaliser le vieux rêve de l’assistant virtuel, comme résumer un document ».
L’identité et la culture au regard de l’intelligence artificielle
Francis Langevin, qui enseigne le français, s’inquiète notamment de la proportion de documents francophones numérisés et indexés servant à alimenter les outils conversationnels. « Qui va numériser les documents historiques? Est-ce que ça va être disponible? »
Le système ChatGPT opère à la base en anglais, ce qui, selon lui, augmente le risque de diluer le sens initial des propos numérisés.
« Si les bases de données sont en anglais, ou ont été traduites vers l’anglais, donc on a une retraduction qui repasse par l’anglais, qui est refaite vers le français. Donc, il y a un risque de changer le degré de véracité. »
La même question se pose d’après lui pour le volume d’archives québécoises disponibles comparativement à celles de la francophonie canadienne.
« Le Québec a quand même une autorité en matière du nombre de documents disponibles, du nombre d’archives. Son système d’archives est beaucoup plus volumineux. » Il devient difficile, selon Francis Langevin, de savoir quelle importance le système accorde à un document plutôt qu’à un autre.
« La rareté, c’est très important, comme un manuscrit rare. On est juste dans le quantitatif. Si c’est réitéré 150 fois, c’est donc vrai? »
Le professeur souligne sans ambages que le « lien [intelligence artificielle] avec l’identité est très clair, en particulier dans la subjectivité de la représentation du récit qui sera faite des personnes et des collectivités ».
En tant que chercheur, « on fait des recherches sur l’identité, la culture, mais là, les chercheurs et les chercheuses, c’est l’ordinateur et les milliards de dollars du marché financier qui vont produire ces données. » Cela soulève, selon le panéliste, des interrogations pour les francophones.
Les erreurs et les risques de ChatGPT
Le spécialiste a pu détecter de grandes faiblesses dans les informations générées par ChatGPT-4. « On n’est pas capable de faire la vérification des faits. On n’est pas capable de détecter le vandalisme à l’intérieur des documents et la fausse information non plus », regrette-t-il.
ChatGPT pose aussi d’importants défis notamment en ce qui concerne la langue, met en garde Francis Langevin. « On connait les sources, les sources sont fixes de ChatGPT-3. Mais on ne connait pas l’étendue, ni la nature, ni la propriété des sources de GPT-4. Et les sources de GPT-3 ne sont pas multilingues. Les sources de GPT-3 sont en anglais. »
Toutefois, selon Philippe Blouin, il faut aller au-delà des défis réels posés par ChatGPT. « Il ne faut pas être craintif de l’intelligence artificielle. Le Canada est bien positionné avec ses projets de loi à l’heure actuelle pour encadrer, mais il faut rester vigilant ». Pour lui, «il y a une connaissance de la langue qui peut être enseignée via ces outils-là ».
Francis Langevin recommande qu’il « faut réadapter les outils d’apprentissage si on veut l’utiliser comme un robot de la classe. Le talent de l’humain sera de configurer l’appareil pour qu’il rende des réponses satisfaisantes, donc de connaitre l’architecture ». Enfin, «il faut traiter les sources comme celles générées par l’intelligence artificielle, non pas comme une source, mais un artéfact ».