Conditions générales appliquées à la vérité, redéfinie par les algorithmes
Réduire au silence par dessein : comment les algorithmes effacent la réalité
Depuis quelque temps, mais surtout entre 2020 et 2025, nous assistons à une normalisation inquiétante de l’auto-censure collective.
Non pas au nom de la sécurité ou de la sensibilité, mais pour apaiser des systèmes algorithmiques opaques—des systèmes qui suppriment la visibilité ou des mots, non parce qu’ils font du mal, mais parce qu’ils provoquent de l’inconfort, de la controverse, ou des risques juridiques.
Survivant·es, militant·es, enseignant·es, créateur·ices : tou·tes ont été poussé·es à déformer le langage. Viol est devenu “r@pe”, agression sexuelle : “SA”, traite humaine : “tr@ff1cking” ou leurs équivalents en Français.
Non pour protéger le public, mais pour préserver la portée.
Résultat : une agora numérique aseptisée, où parler clairement de violences devient une prise de risque. L’indignation est édulcorée. Les témoignages fragmentés. La justice ralentie.
Et avec la montée en puissance de l’IA, les mêmes dynamiques s’appliquent. Des outils comme ChatGPT sont soumis à des politiques de modération et de sécurité censées prévenir les abus—utiles dans certains cas, mais révélatrices d’une tension plus vaste. Ces systèmes privilégient souvent l’évitement du risque et la conformité au détriment de la pleine intensité de l’expérience vécue.
Lorsqu’on les interroge sur des sujets comme les violences sexuelles ou les abus systémiques, le langage doit être adouci, détourné ou codé—non par choix, mais par obligation. Ces couches de modération, qui répliquent la logique des algorithmes des réseaux sociaux, peuvent obscurcir la clarté et atténuer la force de vérité des témoignages.
À moins d’édulcorer son témoignage, une survivante ne peut ni utiliser un outil numérique pour l’exprimer, ni compter sur les plateformes sociales commerciales pour amplifier sa voix—sans être amputée de sa propre réalité.
Ce n’est pas un cas isolé. C’est une tendance lourde—celle d’une culture numérique façonnée par des seuils invisibles, où la vérité doit être reformulée pour être autorisée.
Quelle société sommes-nous en train de bâtir ? Une société qui risque de préférer le confort à la confrontation, l’esthétique à l’urgence. Une société où l’indignation morale est filtrée par des algorithmes, et où la vérité n’est tolérée que si elle parle en code.
Ou si elle ne parle pas du tout.