La science de comment (et quand) nous décidons de nous exprimer – ou de nous autocensurer
La liberté d’expression est un principe fondamental des démocraties saines et donc une cible prioritaire pour les aspirants autoritaires, qui tentent généralement d’étouffer la dissidence. Il existe un point où la menace des autorités est suffisamment grave pour qu’une population s’autocensure plutôt que de risquer une punition. Les médias sociaux ont compliqué les choses, brouillant les frontières traditionnelles entre la parole publique et privée, tandis que de nouvelles technologies telles que la reconnaissance faciale et les algorithmes de modération donnent aux autoritaires de nouveaux outils puissants.
Des chercheurs ont exploré la dynamique nuancée de la façon dont les gens équilibrent leur désir de s’exprimer par rapport à leur peur de la punition dans un article publié dans les Proceedings of the National Academy of Sciences.
Les auteurs avaient précédemment travaillé ensemble sur un modèle de polarisation politique, un projet qui s’est terminé à peu près au moment où l’espace des médias sociaux connaissait des changements significatifs dans la façon dont différentes plateformes géraient la modération. Certaines ont adopté une approche décidément non interventionniste avec peu ou pas de modération. Weibo, en revanche, a commencé à divulguer les adresses IP des personnes qui publiaient des commentaires répréhensibles, en faisant essentiellement des cibles.
Nous voyions beaucoup d’expérimentation dans l’espace des médias sociaux, donc cette étude a commencé comme une question, a déclaré le co-auteur Joshua Daymude de l’Université d’État de l’Arizona. Pourquoi ces entreprises font-elles des choses si dramatiquement différentes, si ostensiblement elles sont toutes des entreprises de médias sociaux et qu’elles veulent toutes être rentables et ont des objectifs similaires? Pourquoi certaines vont-elles dans une direction et d’autres dans une autre?
Daymude et ses co-auteurs ont également remarqué des dynamiques similaires au niveau des États-nations en termes de surveillance, de contrôle et de modération. La Russie, pendant longtemps, était très légaliste: Énumérons chaque mauvaise chose à laquelle nous pouvons penser afin que si vous faites quoi que ce soit même vaguement proche, nous puissions vous attraper sur l’un de ces statuts que nous avons inventés, a déclaré Daymude. La Chine était le contraire. Ils refusaient de vous dire où était la ligne rouge. Ils disaient simplement: Comportez-vous bien ou sinon. Il y a un essai célèbre qui appelle cela L’Anaconda dans le Lustre: cette chose effrayante qui pourrait vous tomber dessus à tout moment, alors vous vous comportez bien.
Les États-Unis ont adopté une approche plus modérée, laissant essentiellement les entreprises privées décider ce qu’elles voulaient faire. Daymude et ses co-auteurs voulaient enquêter sur ces approches nettement différentes. Ils ont donc développé une simulation informatique basée sur des agents qui modélisait comment les individus naviguent entre le désir d’exprimer leur dissidence et la peur de la punition. Le modèle incorpore également comment une autorité ajuste sa surveillance et ses politiques pour minimiser la dissidence au coût d’application le plus bas possible.
Ce n’est pas une sorte de chose de théorie de l’apprentissage, a déclaré Daymude. Et ce n’est pas enraciné dans des statistiques empiriques. Nous ne sommes pas allés interroger 1000 personnes en demandant: Que feriez-vous face à cette situation? Dissideriez-vous ou vous autocensureriez-vous? puis intégré ces données dans le modèle. Notre modèle nous permet d’intégrer certaines hypothèses sur la façon dont nous pensons que les gens se comportent largement, mais nous laisse ensuite explorer les paramètres. Que se passe-t-il si vous êtes plus ou moins audacieux? Que se passe-t-il si les punitions sont plus ou moins sévères? Une autorité est plus ou moins tolérante? Et nous pouvons faire des prédictions basées sur nos hypothèses fondamentales sur ce qui va se passer.
Que cent fleurs s’épanouissent
Selon leur modèle, le cas le plus extrême est un gouvernement autoritaire qui adopte une stratégie de punition draconienne, qui réprime efficacement toute dissidence dans la population générale. Le meilleur choix stratégique de chacun est simplement de ne rien dire à ce stade, a déclaré Daymude. Alors pourquoi chaque gouvernement autoritaire de la planète ne fait-il pas simplement cela? Cela les a amenés à examiner plus attentivement la dynamique. Peut-être que les autoritaires commencent de manière quelque peu modérée, a-t-il dit. Peut-être que la seule façon dont ils sont autorisés à arriver à ce point final extrême est par de petits changements au fil du temps.
Daymude cite la Campagne des Cent Fleurs de la Chine dans les années 1950 comme un cas illustratif. Ici, le président Mao Zedong a initialement encouragé les critiques ouvertes de son gouvernement avant de réprimer brusquement et agressivement lorsque la dissidence est devenue incontrôlable. Le modèle a montré que dans un tel cas, l’autocensure des dissidents a progressivement augmenté, culminant en une conformité presque totale au fil du temps.
Mais il y a un piège. Le contraire des Cent Fleurs est que si la population est suffisamment audacieuse, cette stratégie ne fonctionne pas, a déclaré Daymude. L’autoritaire ne peut pas trouver le chemin pour devenir totalement draconien. Les gens continuent obstinément à exprimer leur dissidence. Donc, chaque fois qu’il essaie d’augmenter la sévérité, il en est responsable à chaque fois parce que les gens sont toujours là, ils expriment toujours leur dissidence. Ils disent: Attrapez-nous si vous osez.
La leçon: Soyez audacieux, a déclaré Daymude. C’est la chose qui ralentit la dérive autoritaire. Même si vous ne pouvez pas tenir éternellement, vous gagnez beaucoup plus de temps que vous ne le penseriez.
Cela dit, parfois un peu d’autocensure peut être un bénéfice net. Je pense que le moment et la situation dans lesquels cet article a été publié et nos principaux exemples gouvernementaux évoqueront une interprétation principalement politique de ce dont nous parlons ici, a déclaré Daymude. Mais nous avons essayé d’être clairs sur le fait que cela ne doit pas être un régime oppressif hostile contre des gens qui aiment la liberté. L’autocensure n’est pas toujours une mauvaise chose. C’est un modèle mathématique très général qui pourrait s’appliquer à beaucoup de situations différentes, y compris décourager les comportements indésirables.
Daymude fait une analogie avec les lois de circulation, notamment les limitations de vitesse. Leur modèle a examiné deux formes différentes de punition: uniforme et proportionnelle. Uniforme, c’est tout ce qui dépasse la ligne reçoit le même traitement, a déclaré Daymude. Peu importe si vous avez été un peu mauvais ou très mauvais, la punition est identique pour tout le monde. Avec l’approche proportionnelle, la punition correspond au crime. Vous avez roulé 10 miles à l’heure au-dessus de la limite, c’est une petite amende. Vous avez roulé 100 miles à l’heure au-dessus, c’est une mise en danger imprudente.
Ce qu’il a trouvé intrigant avec ses co-auteurs, c’est que différents sujets s’autocensurent plus fortement dans chacun de ces deux scénarios de punition. Pour une punition uniforme, ce sont les gens modérés qui voulaient seulement exprimer un peu de dissidence qui s’autocensurent parce que cela n’en vaut tout simplement pas la peine de se mouiller, a déclaré Daymude. Les dissidents très extrêmes se mouillent et disent: Peu importe. Vous pouvez me punir. Cela en vaut toujours la peine. Dans le régime proportionnel, cela s’inverse. Ce sont les modérés qui font ce qu’ils veulent. Et personne n’exprime de dissidence au-delà d’un certain montant. Oui, nous roulons tous un peu vite, mais nous avons cette norme: nous allons tous rouler modérément au-dessus de la limite, puis nous allons nous arrêter. Ce n’est pas sûr, ce n’est pas acceptable d’aller au-delà.
Daymude est conscient qu’il existe des limitations à cette approche basée sur des agents, mais insiste sur le fait qu’elle peut encore produire des informations utiles. Avec un modèle mécaniste comme celui-ci, vous pouvez vraiment lier les résultats aux explications, a déclaré Daymude. Dans le monde artificiel de mon modèle, quand la tolérance évolue comme ceci, la population change comme cela, et je peux vous dire que c’est à cause de ce changement et non à cause des centaines d’autres choses qui auraient pu se passer dans la tête de quelqu’un d’autre.
La prochaine étape serait de concevoir une étude empirique qui pourrait tester leur hypothèse de travail. Je ne suis sous aucune fiction que tout dans cet article est absolument vrai dans le monde réel, a déclaré Daymude. Mais cela rend très clair ce qui compte et ce qui ne compte pas, et quelles sont les phases du comportement. Il y a la conformité, puis l’autocensure, et la défiance, et cela se produit de cette façon. Ces phases peuvent disparaître si l’audace n’est pas suffisante. Donc je vois cela non pas en compétition avec, mais complémentaire aux autres types de recherche dans ce domaine.



