
La série Adolescence, diffusée récemment sur Netflix, jette une lumière poignante sur la montée des discours masculinistes dans les espaces numériques. À travers le récit des dérives violentes de jeunes garçons influencés par la rhétorique sexiste partagée par le mouvement « masculiniste » en ligne, la série ne se contente pas de nous sensibiliser à cette réalité. Elle pose une question cruciale : comment ces contenus arrivent-ils dans les mains de jeunes adolescents ?
Une partie de la réponse peut tenir en deux (plutôt trois) mots : système de recommandation.
Selon la Brigade numérique, un système de recommandation est un système de filtrage de l’information visant à présenter les éléments d’information qui sont susceptibles d’intéresser l’utilisateur.
Propulsés par l’intelligence artificielle, ceux-ci ne sont pas de simples outils d’organisation du contenu sur vos plateformes numériques préférées. Ce sont des mécanismes puissants, optimisés pour retenir l’attention de l’utilisateur à tout prix. Et, la plupart du temps, ce prix c’est la vérité, la pluralité et l’équilibre démocratique.
Une architecture qui vise la rentabilité
Un système de recommandation, c’est un peu comme un conseiller personnel qui ne dort jamais. Il observe, enregistre et apprend nos préférences, parfois même avant que nous le sachions nous-mêmes. Ce surveillant omniprésent n’est pas impartial. Il trie, filtre et choisit ce que vous aurez la chance ou non de voir sur vos flux d’informations.
Des plateformes très populaires comme YouTube, Instagram ou même Spotify s’appuient sur ces systèmes pour suggérer les prochaines vidéos, chansons ou publications qui sauront vous plaire. Ce qu’elles proposent repose sur une logique d’engagement maximal et de rentabilité, plutôt que d’enrichissement intellectuel ou de diversité des idées.
À partir de notre historique, ces recommandations façonnent notre vision du monde. Elles confirment nos conceptions et, plutôt que de diversifier les points de vue, elles les radicalisent.
Biais cognitifs et amplification idéologique
Ce fonctionnement est loin d’être sans conséquence. En s’alignant sur nos préférences perçues, les algorithmes de recommandation exploitent nos biais cognitifs.
Il y a le biais de confirmation, qui nous pousse à chercher des preuves qui renforcent nos croyances, le biais émotionnel, qui fait que nous accordons plus d’importance aux contenus choquants ou émouvants, le biais de vérité illusoire, qui fait que nous finissons par croire à un propos après l’avoir entendu plusieurs fois, le biais de popularité, qui fait que plus une information est partagée, plus elle est perçue comme crédible, le biais de halo, qui fait que la crédibilité d’un message augmente en fonction de la notoriété de celui qui le porte, et finalement le biais d’intentionnalité, qui fait que nous percevons des complots là où il n’y a que des coïncidences.
Dans un contexte comme celui de la série Adolescence, ces biais sont le carburant des radicalisations lentes des jeunes garçons. Un adolescent qui interagit avec une seule vidéo d’un influenceur masculiniste verra ce type de contenu multiplié au sein de ses fils d’informations. L’intensité du discours augmentera elle aussi. Un des protagonistes de la série parle, entre autres du fait qu’il est tombé sur les discours d’Andrew Tate, alors qu’il cherchait simplement à regarder des vidéos d’entraînement physique.
Qu’on regarde la vidéo parce qu’elle suscite du dégoût ou de la fascination, une seule donnée est récoltée : vous vous êtes arrêté sur cette dernière et avez pris le temps de la regarder, au grand bonheur des algorithmes qui cherchent des modèles au sein de votre utilisation.
Ce n’est pas un hasard, c’est un parcours algorithmique où l’engagement des utilisateurs est la priorité.
L’invisibilisation algorithmique du contenu nuancé
Pendant que certains contenus sont amplifiés, d’autres sont relégués aux marges. C’est l’un des effets les plus dommageables de ces systèmes de recommandation, l’invisibilisation algorithmique. Les contenus nuancés deviennent en quelque sorte absents du contenu proposé en ligne parce qu’ils génèrent moins de clics.
Il s’agit ici d’une logique de marché où les algorithmes sont construits pour hiérarchiser les contenus selon leur performance plutôt que selon leur valeur sociale ou éducative.
Ainsi, un contenu informatif sur l’égalité des sexes, ou une vidéo qui tente de sensibiliser les jeunes aux violences perpétrées contre les femmes peuvent être noyés sous une avalanche de vidéos virales qui suscitent la polémique, comme les vidéos des influenceurs masculinistes par exemple. Les plateformes deviennent des arènes où seuls les contenus les plus accrocheurs survivent au détriment de la nuance et de l’éthique.
Modération automatisée et discrimination
Un autre enjeu concerne les systèmes de recommandation propulsés par l’IA, il s’agit de la modération automatisée. Ces mêmes systèmes qui dictent ce qui se retrouve dans votre fil numérique sont aussi utilisés afin de modérer les publications en ligne, notamment pour détecter les discours haineux ou la désinformation.
Des études ont montré que les systèmes de modération tendent à censurer plus rapidement le contenu de certains créateurs LGBTQ+ ou certains types de militantisme, renforçant des formes de discrimination algorithmique.
Ce qui se veut une solution devient ainsi une partie englobante du problème.
Vers une gouvernance éthique des systèmes de recommandation
Les systèmes de recommandation ne sont pas des entités intangibles sorties de nulle part. Ce sont des constructions humaines, alimentées par des données humaines, influencées par des intérêts économiques et politiques bien réels. Ils doivent faire faire l’objet d’une régulation, d’une transparence accrue, mais surtout d’une éducation critique auprès des citoyens, notamment auprès des jeunes.
Les chercheurs appellent de plus en plus à une recommandation équitable, qui viserait non seulement à répondre aux goûts de l’utilisateur, mais à garantir la diversité des points de vue tout en brisant les bulles de filtres.
L’importance de la formation
Les jeunes d’aujourd’hui grandissent dans un monde où TikTok fait office de moteur de recherche et YouTube de salle de classe. Ils doivent apprendre à naviguer dans un espace façonné non par des concepteurs humains, mais par des systèmes opaques. Ces systèmes peuvent, sans le vouloir, les mener du divertissement à la radicalisation.
Face à cette réalité, il est urgent d’enseigner non seulement à repérer la désinformation, mais aussi à comprendre comment elle arrive jusqu’à nous. Ce n’est pas seulement une question du contenu que l’on consomme, c’est une question d’architecture de l’information et de la santé de nos démocraties.
Bibliographie
Culture et communications du Québec. (2021). Thématiques : IA et mécanismes de recommandation web. Brigade numérique des Laurentides. https://www.brigade-numerique.ca/ia-et-mecanismes-de-recommandation-web.html
Elena Botella. (2019). TikTok admits it supressed videos by disabled, queer, and fat creators. SLATE, technologie. https://slate.com/technology/2019/12/tiktok-disabled-users-videos-suppressed.html
Gratton, C. et Gagnon-St-Pierre, E. (2020). Heuristiques et biais cognitifs. Dans Raccourcis : Guide pratique des biais cognitifs vol. 2. https://www.shortcogs.com/theorie
Jylhä, V., Hirvonen, N. et Haider, J. (2025). Algorithmic recommendations in the everyday life of young people : imaginaries of agency and resources. Dans Information, Communication and Society (p. 1-17). https://doi.org/10.1080/1369118X.2025.2470227
Kristina Davidson. (2021). Les algorithmes de recommandation pourraient contribuer aux inégalités. L’institut canadien de recherches avancées (CIFAR), IA et société. https://cifar.ca/fr/cifarnews/2021/06/03/les-algorithmes-de-recommandation-pourraient-contribuer-aux-inegalites/#topskipToContent
Léa Carrier. (2023, 19 novembre). Devenir fan d’Andrew Tate à 15 ans. La Presse, section contexte. https://www.lapresse.ca/contexte/le-discours-misogyne-entre-a-l-ecole/2023-11-19/devenir-fan-d-andrew-tate-a-15-ans.php
Susan Leavy. (2022) Inclusive Ethical Design for Recommender Systems. Dans Proceedings of (FaccTRec’22). ACM. https://arxiv.org/pdf/2209.13021
Nick Seaver. (2019). Captivating algorithms : Recommender systems as traps. Dans Journal of Material Culture (4e éd., vol. 24, p. 421-436). SAGE Publications. https://doi-org.proxy.bibliotheques.uqam.ca/10.1177/1359183518820366
Olivier Cimelière. (2024, 12 septembre). Algorithmes et bulles de filtre : peut-on échapper à l’enfermement informationnel ? In Cyber News, transformation numérique. https://incyber.org/article/algorithmes-bulles-filtre-peut-on-echapper-lenfermement-informationnel/
Organisation mondiale de la Santé. (2024, 25 septembre). Les adolescents, les écrans et la santé mentale : Selon un nouveau rapport de L’OMS, il faut que les adolescents adoptent des habitudes plus saines en ligne [Communiqué]. https://www.who.int/europe/fr/news/item/25-09-2024-teens–screens-and-mental-health
Thibault, G. et Julliard, V. (2021). Les enjeux de la modération automatisée sur les réseaux sociaux numériques : les mobilisations LGBT contre la loi Avia. Dans Communication, technologies et développement (vol. 10). https://doi.org/10.4000/ctd.6049