Dans un monde hyperconnecté, les réseaux sociaux façonnent l’espace public, mais leurs pratiques de modération soulèvent des questions brûlantes. Entre lutte contre la désinformation et censure arbitraire, la frontière est ténue. Bruno Haden, Secrétaire Général de l’ACAT Togo et expert en droits humains, interroge le pouvoir des plateformes numériques et plaide pour une régulation ancrée dans les principes des droits fondamentaux, afin de protéger la liberté d’expression, pilier essentiel de nos démocraties. Lecture.
Par Bruno HADEN
Secrétaire Général de l’ACAT TOGO, Expert, Consultant, Formateur en surveillance, documentation et rapportage des violations des droits humains
Dans un monde de plus en plus connecté, les réseaux sociaux sont devenus incontournables pour diffuser des idées, partager des informations et débattre en public. Les suspensions de comptes, les suppressions de contenus ou les bannissements temporaires sont devenus des pratiques courantes sans explications claires. En cause ? Les grandes plateformes numériques prennent des décisions de modération. Facebook, X (ex Twitter), Instagram ou TikTok exercent aujourd’hui un pouvoir considérable sur ce qui peut, ou non, être dit en ligne. Si ces pratiques peuvent répondre à des besoins légitimes – comme la lutte contre la haine ou la désinformation -, elles posent aussi un défi majeur : celui de la protection de la liberté d’expression, droit reconnu et garanti par les traités internationaux.
Ce pouvoir, qui semble de plus en plus être une forme de censure privée, pose une question fondamentale à nos démocraties. En raison de règles souvent opaques et d’algorithmes incontrôlables, ce sont des voix critiques, minoritaires ou engagées qui se retrouvent muselées. Face à cette dérive, une seule boussole doit guider nos actions : les droits humains.
Néanmoins, cette nouvelle ère de communication numérique soulève des interrogations cruciales sur la liberté d’expression et la façon dont les plateformes modèrent les contenus.
La frontière entre modération requise et censure arbitraire est souvent floue, et il est temps de se demander : Dans quelle mesure les politiques de modération des plateformes peuvent-elles être compatibles avec les standards internationaux relatifs à la liberté d’expression? Les réseaux sociaux protègent-ils vraiment la liberté d’expression ou la piétinent-ils ?
La liberté d’expression, un droit fondamental
La liberté d’expression est consacrée comme un pilier des sociétés démocratiques.
L’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) affirme que toute personne a droit à la liberté d’expression, incluant “la liberté de rechercher, de recevoir et de répandre des informations et des idées de toute espèce, sans considération de frontières”. La Charte africaine des droits de l’homme et des peuples (article 9), la Convention européenne des droits de l’homme (article 10) et la Convention américaine relative aux droits de l’homme (article 13) consacrent également ce droit. Ce droit ne disparaît pas lorsqu’on se connecte à un réseau social.
Grâce à cette liberté, les citoyens peuvent s’exprimer librement, critiquer les pouvoirs en place et prendre part activement à la vie démocratique.
Toutefois, cette liberté n’est pas absolue. Les traités reconnaissent qu’il peut être nécessaire d’établir certaines restrictions pour protéger la sécurité nationale, l’ordre public, la santé publique ou les droits d’autrui. Cependant, il est essentiel que ces limitations respectent trois critères fondamentaux : elles doivent être prévues par la loi, nécessaires dans une société démocratique, et proportionnées à l’objectif poursuivi.
Cependant, de nos jours, ce sont des algorithmes privés, et non des juges, qui prennent la décision concernant la légitimité d’un propos. Ce pouvoir est exercé sans transparence, sans contrepartie, sans règles claires.
Les réseaux sociaux : nouveaux espaces de débat public ou zones de non- droit ?
Les réseaux sociaux tels que Facebook, X (anciennement Twitter), Instagram, TikTok ou YouTube ne sont pas simplement des entreprises privées : ils sont devenus les nouveaux lieux du débat démocratique mondial. Leur pouvoir de régulation est toutefois problématique. D’une part, elles appliquent des politiques internes, telles que les règles de communauté et les conditions d’utilisation, qui ne sont pas toujours en accord avec les normes des droits humains. D’autre part, ces politiques sont souvent mises en œuvre de manière opaque, algorithmique et sans garanties procédurales (Gorwa, Binns & Katzenbach, 2020).
Cette situation met les utilisateurs en position de vulnérabilité face à des acteurs privés dont les logiques de fonctionnement échappent au contrôle public.
Le caractère privé de ces entreprises ne saurait les exonérer de leur responsabilité vis-à-vis des droits fondamentaux. La jurisprudence internationale reconnaît que les acteurs privés, dès lors qu’ils ont une influence significative sur l’exercice des droits humains, doivent respecter les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme (2011).
Modération ou censure ? Etudes de cas et enjeux
La modération est indispensable pour combattre les discours haineux, le harcèlement, les appels à la violence ou la désinformation massive. Les plateformes franchissent une ligne rouge en censurant des opinions légitimes sous de fallacieux prétextes.
Cependant, il est important de noter que cette dynamique ne se limite pas à un cadre légitime, mais qu’elle s’étend à une utilisation à des fins de contrôle idéologique.
Plusieurs cas illustrent les dérives potentielles des politiques de modération :
. Le cas du Covid-19 : Dans le contexte de la gestion de la pandémie, des scientifiques exprimant des réserves concernant les vaccins à ARN messager ont subi des bannissements sur Facebook et Twitter. Ces études, jugées prématurément discréditées, se sont par la suite avérées en partie fondées. La modération a-t-elle servi la science… ou un récit officiel ?
. En Afrique: Des journalistes d’investigation, des défenseurs des droits humains, des opposants politiques, des activistes dénonçant la répression politique ont vu leurs publications supprimées sous prétexte de « contenus sensibles » ou « incitatifs ».
. En Amérique latine : Des journalistes indépendants ont été temporairement suspendus pour avoir relayé des enquêtes sur la corruption ou les violences policières.
. L’affaire du Hunter Biden : Avant l’élection américaine de 2020, Twitter a bloqué le partage d’un article du journal New York Post consacré aux affaires du fils Biden, au motif de « piratage informatique ». Cette information s’est pourtant révélée vraie. Censure électorale ou modération justifiée ?
. L’exemple du bannissement du compte Twitter de Donald Trump en janvier 2021 est l’un des plus marquants des débats sur la modération et la liberté d’expression sur les réseaux sociaux.
Vers une régulation des réseaux sociaux fondée sur les droits humains
Pour garantir la liberté d’expression à l’ère numérique, il est impératif de mettre en œuvre une régulation fondée sur les droits humains. Trois axes stratégiques doivent être considérés :
Transparence et redevabilité :
Les plateformes doivent rendre publiques leurs politiques de modération, spécifier les critères d’intervention, et fournir des informations détaillées sur leurs décisions (type de contenu, motif de suppression, pays concerné). Le principe de redevabilité (“accountability”) doit s’appliquer à toutes les plateformes ayant une influence significative sur l’espace public.
Mécanismes de recours
Tout utilisateur a le droit de contester une décision de bannissement ou de suppression de contenu. Il est impératif de mobiliser des instances indépendantes, y compris des experts des droits humains ou Rapporteurs spéciaux des Nations Unies, en technologie et en éthique.
Régulation publique et co-régulation
Les États doivent mettre en place des cadres juridiques qui contraignent les plateformes à respecter les droits fondamentaux, tout en évitant toute forme de censure politique. Des mécanismes de co-régulation, associant la société civile, les régulateurs et le secteur privé, peuvent favoriser un équilibre entre modération et protection des droits.
La protection de la liberté d’expression nécessite une reconfiguration des rapports de pouvoir dans l’espace numérique. La modération en ligne doit se baser sur les droits humains, sans tenir compte des intérêts commerciaux ni des pressions politiques.
Si la modération des contenus est nécessaire pour prévenir certaines dérives, elle ne peut s’exercer en dehors de tout cadre normatif fondé sur les droits humains.
A l’heure où les réseaux sociaux exercent une influence significative sur les débats publics, les mobilisations citoyennes et les processus électoraux, il devient impératif de soumettre leurs pratiques à une exigence de transparence, de redevabilité et des libertés fondamentales.
La lutte pour un numérique libre et respectueux des droits humains est un enjeu démocratique majeur de notre époque.
Source: societecivilemedias.com