Relevant du vaste domaine des préjudices en ligne – terme utilisé pour englober tout l’éventail des activités potentiellement dangereuses sur internet, du contenu illicite aux discours haineux – la propagation des fausses informations est un problème qui ne fait toujours pas l’objet de véritables mesures de protection.

Discussion avec Helen Hayes, directrice du développement et chercheuse principale au Centre for Media, Technology, and Democracy, sur la responsabilité des grandes entreprises technologiques.

Alors que les outils permettant de créer et de diffuser de la mésinformation et de la désinformation évoluent à une rapidité folle, une question indispensable se pose : qui devrait être responsable de mettre en œuvre des mesures de protection contre la propagation de fausses informations?

Selon les experts, tant le gouvernement que les grandes entreprises technologiques ont des responsabilités envers les consommateurs, mais pour des raisons différentes.

« À elles seules, les grandes entreprises technologiques ne sont pas incitées à mettre en place des mécanismes réglementaires », explique Helen Hayes, directrice du développement et chercheuse principale au Centre for Media, Technology and Democracy.

« Leur autorégulation est tempérée par la façon dont elles pensent que leurs marges de profit seront affectées par les différentes conceptions de systèmes. »

« Les gouvernements, quant à eux, ont tout intérêt à améliorer la démocratie, à préserver la santé de l’écosystème de l’information et à renforcer la confiance de leurs citoyens. »

Jusqu’à présent, malgré de nombreuses tentatives visant à légiférer sur l’industrie technologique, les lois canadiennes sur le sujet restent rares.

Après deux tentatives infructueuses visant à réglementer les préjudices en ligne, le gouvernement libéral n’a toujours pas réintroduit les projets de loi qu’il avait rédigés et qui ont été abandonnés lors des élections d’avril 2025.

Un court historique de la législation récente sur les préjudices en ligne

La question de la réglementation des préjudices en ligne au Canada prend réellement son essor fin 2020, lorsque les Canadiens commençaient à discuter de plus en plus de la nécessité de réglementer les géants de la technologie.

Des consultations publiques avaient alors été organisées et la Commission canadienne sur l’expression démocratique a été créée afin d’identifier et de répondre aux effets des plateformes technologiques sur la démocratie.

Les consultations publiques et les groupes d’experts organisés dans le cadre de cette commission ont permis de déterminer que les compagnies Big Tech devaient être réglementées en raison des préjudices en ligne auxquels les citoyens sont constamment exposés.

Ces réglementations s’inspireraient et tireraient les enseignements des législations mises en œuvre dans d’autres régions du monde.

Par exemple, les législateurs se sont penchés sur la NetzDG, loi allemande créée en 2017 pour lutter contre les fausses informations, les discours haineux et d’autres formes de contenus préjudiciables.

La loi imposait une lourde amende aux plateformes en ligne qui ne supprimaient pas les contenus préjudiciables dans les 24 heures suivant leur publication.

Une règle qui est devenue problématique lorsqu’on s’est aperçu que les plateformes supprimaient plus de contenus que nécessaire par crainte de devoir payer l’amende.

Au lieu d’opter pour une approche trop prudente qui risquait d’enfreindre la liberté d’expression de plusieurs internautes, les législateurs canadiens ont décidé de se concentrer sur une approche qui imposerait aux géants de la technologie ce que l’on appelle des « obligations de diligence ».

« Cela implique un devoir de responsabilité, un devoir de suppression des contenus illégaux et un devoir de protection des enfants. Ce sont là les trois principales obligations qu’ils recherchaient, qui ont évolué au fil du temps pour aboutir à la législation que nous connaissons sous le nom de projet de loi C-63, ou la Loi sur les préjudices en ligne. »

L’objectif du projet de loi était de réglementer certaines formes de contenu, principalement celles qui portaient atteinte aux enfants : les contenus liés à l’automutilation, à la cyberintimidation, aux abus sexuels, au terrorisme, devaient être supprimés, sous peine de lourdes amendes pour les plateformes.

« Ils devraient également prendre une série d’autres mesures, notamment publier des évaluations des risques liés à leurs propres plateformes, modifier la conception de leurs systèmes, etc. »

Bien que le projet de loi ait été généralement bien accueilli, la décision de Justin Trudeau de proroger la ses- sion parlementaire a mis fin aux travaux sur ce projet de loi, et par le fait même, au projet de loi C-27, qui aurait fourni une législation sur les systèmes d’IA.

La réglementation idéale des préjudices en ligne

Même si le Canada est revenu à la case départ, le travail accompli sur le projet de loi C-63 a permis d’identifier les éléments fondamentaux de la réglementation en ligne.

Il a défini des mécanismes de transparence, d’évaluation des risques et d’audit, qui constituent tous les fondements d’une bonne politique relative aux plate- formes en ligne.

Les mécanismes de transparence impliquent que les grandes entreprises technologiques devraient publier des informations sur la manière dont elles gèrent leurs systèmes, incluant le nombre de personnes qui signalent des contenus et la quantité de contenus supprimés.

Les modèles d’évaluation des risques sont quant à elles des prévisions concernant le niveau de risque lié à l’utilisation d’un certain système, ainsi que les mesures prises pour atténuer ces risques.

Enfin, l’audit serait la partie de la législation qui prévoirait qu’un acteur indépendant corrobore les évaluations de la plateforme et identifie les problèmes à résoudre de manière indépendante.

Les préjudices en ligne et le contexte de l’IA

Ces mêmes mécanismes réglementaires sont également nécessaires dans le domaine des systèmes d’intelligence artificielle (IA).

Par exemple, afin d’atténuer les risques potentiels liés à la diffusion de contenus générés par l’IA, un mécanisme de transparence pourrait ajouter un filigrane numérique ou une étiquette alertant les utilisateurs de la nature du contenu qu’ils consomment.

Selon Helen Hayes, ce niveau de transparence est particulièrement important dans le domaine de l’IA, car l’interaction des utilisateurs avec l’IA diffère d’une plateforme à l’autre.

Un utilisateur de réseaux sociaux qui tombe sur du contenu généré par l’IA dans son fil d’actualité ne s’y engage pas de manière aussi volontaire que quelqu’un qui discute avec ChatGPT.

« La question est de savoir si vous consentez et comprenez pleinement que vous interagissez avec un système d’IA générative. »

En outre, les entreprises technologiques devraient être réglementées afin d’être tenues responsables du contenu généré par l’IA et d’en limiter la diffusion, d’autant plus que les algorithmes peuvent très facilement sélectionner et proposer ce type de contenu aux utilisateurs.

« Comme il peut être généré très rapidement, il peut également être diffusé rapidement par des systèmes de robots. C’est pourquoi de plus en plus de personnes réclament que les dispositions relatives à l’IA soient intégrées dans la législation sur les préjudices en ligne plutôt que dans des projets de loi distincts. »

Les manquements des entreprises Big Tech

Présentement, les entreprises technologiques en font peu pour limiter la propagation des fausses informations en ligne.

Si certaines plateformes disposaient auparavant d’équipes dédiées à la vérification des faits, beaucoup d’entre elles ont remplacé ce système par un autre moins coûteux en main-d’œuvre.

Ce nouveau modèle, basé sur la vérification des faits « par la communauté », donne responsabilité aux utilisateurs eux-mêmes de corriger les informations erronées qu’ils rencontrent sur chaque plateforme.

« En ce moment, c’est la seule mesure de précaution, ce qui est scandaleux, dit Helen Hayes.

« Ce modèle open source pourrait en théorie être utile, mais en pratique, il présente une multitude de défis, notamment en matière d’expertise. Qui détermine quels faits sont corrects? D’où proviennent les recherches? »

Mais cette mesure régressive n’est pas le seul changement apporté par les entreprises technologiques qui a permis une plus grande propagation de fausses informations. En 2018, Facebook a été la première plateforme à modifier son fil d’actualité pour adopter un modèle basé sur un algorithme.

Avant ce moment, les seules publications qui apparaissaient dans le fil d’actualité d’un utilisateur provenaient de ses amis, des pages qu’il avait aimées et des groupes dont il faisait partie.

En bref, uniquement les choses qu’il avait choisi de voir.

Après le changement, la chronologie s’est transformée en ce que l’algorithme pense que chaque utilisateur aimerait voir en fonction de ses goûts, des groupes auxquels il appartient et du contenu qu’il a consulté.

« C’est pourquoi quelqu’un qui a regardé 10 vidéos de chiens en verra soudaine- ment cent. C’est un exemple tout à fait innocent, mais avec la désinformation et la mésinformation, si vous êtes susceptible de lire des plateformes ou des faux médias d’information qui publient des fausses nouvelles, davantage de contenus de ce type apparaîtront dans votre fil d’actualité. »

« Cela incite les gens à rester plus longtemps sur leurs écrans. Les entreprises n’ont aucun intérêt à réglementer la diffusion de ce contenu, car cela permet de fidéliser les utilisateurs à leur plateforme. »

Le contrôle que nous avons en tant qu’utilisateurs sur les recommandations que nous fournissent nos algorithmes est pour le moins limité.

Sur TikTok, par exemple, cela se traduit par la possibilité de supprimer son historique de navigation. Cette fonction ne réinitialise pas réellement l’algorithme, mais efface simplement ce que vous avez regardé afin que vous puis- siez mieux le redéfinir.

« L’année dernière, je travaillais sur un projet concernant les troubles alimentaires sur TikTok, et dans le cadre de ce projet, j’ai dû créer un compte. Cette expérience de recherche a été très traumatisante, et j’ai réinitialisé mon fil d’actualité après coup, mais le service continuait à me recommander les mêmes contenus qu’auparavant. »

Cette fonctionnalité, appelée « contrôle algorithmique », n’existe pas sur Facebook, X et Instagram.

Mais elle occupe une place de plus en plus importante dans les efforts de sensibilisation menés par divers groupes, notamment ceux qui luttent pour pour les droits des enfants, afin d’essayer de reprendre le contrôle de nos contenus.

« Il ne s’agit plus de choisir le type de contenu que vous souhaitez voir. Il s’agit désormais de devoir s’y désinscrire, ce qui est une structure de consentement complètement différente. »

Ce que les géants de la technologie devraient faire

Dans un monde idéal, les entreprises technologiques elles-mêmes « traiteraient les préjudices en ligne non pas comme des problèmes de contenu isolés, mais comme des problèmes de conception, de gouvernance et d’incitation », explique Helen Hayes.

Elle entend par là que des choix responsables devraient être intégrés aux plateformes elles-mêmes et développés en coordination avec des experts externes, dans le respect des normes de sécurité et après avoir subi des tests de performance.

Les algorithmes seraient transparents et ajustables, et les plateformes fourniraient des données standardisées en temps réel aux chercheurs et aux décideurs, ce qui faciliterait l’examen des pratiques de ciblage publicitaire et d’amplification de contenu.

« Au lieu de fils d’actualité opaques visant à maximiser l’engagement, les plateformes offriraient aux utilisateurs un contrôle significatif : options chronologiques, fils non personnalisés et possibilité de se désinscrire complètement du profilage. »

« Dans des contextes à haut risque, comme la santé publique ou en période d’élections, les plateformes rétrograderaient temporaire- ment les contenus non vérifiables, ralentiraient leur viralité et mettraient en avant les sources faisant autorité. »

Elle ajoute que les entreprises technologiques devraient agir de manière véritablement responsable plutôt que de se contenter de se conformer à la réglementation lorsqu’elle est mise en œuvre et appliquée.

« Si les plateformes accordaient autant d’importance à la sécurité, à la transparence et à la résilience démocratique qu’elles en accordent à l’engagement, les préjudices en ligne seraient considérablement réduits. »