<
 
 
 
 
×
>
You are viewing an archived web page, collected at the request of United Nations Educational, Scientific and Cultural Organization (UNESCO) using Archive-It. This page was captured on 05:02:11 Jun 14, 2019, and is part of the UNESCO collection. The information on this web page may be out of date. See All versions of this archived page.
Loading media information hide

Construire la paix dans l’esprit
des hommes et des femmes

Grand angle

Aftenposten versus Facebook : une controverse éclairante

cou_02_2017_debate_02.jpg

Intervention de l’illustrateur norvégien Inge Grodum sur le cliché historique « The Terror of War », pour dénoncer la censure effectuée par Facebook pour « contenus inappropriés ».
Le cliché historique "The Terror of War", revu par l’illustrateur norvégien Inge Grodum
© Nick Ut / Sipa Press / Inge Grodum
Le rôle toujours croissant des médias sociaux dans la diffusion de l’information est préoccupante à plus d’un titre. Espen Egil Hansen du quotidien norvégien Aftenposten, et Richard Allan de Facebook, appartiennent à des univers différents, mais sont confrontés aux mêmes défis.

Par Marina Yaloyan 

C’est un symbole de la photographie de guerre : l’image en noir et blanc du corps nu d’une fillette de neuf ans, fuyant les bombes en hurlant, le visage tordu de douleur. Prise en 1972 par le photographe vietnamo-américain Nick Ut, lors de l’attaque au napalm d’un village vietnamien, ce cliché, baptisé « The Terror of War » (La Terreur de la guerre) et couronné du prix Pulitzer, a créé la polémique en 2016, lorsqu’il s’est vu exclu de Facebook pour « contenu inapproprié ».

« J’ai écrit à Mark Zuckerberg pour lui dire que je ne me soumettrais pas à ses exigences », se souvient Espen Egil Hansen, rédacteur en chef de l’Aftenposten, le plus gros quotidien norvégien, qui a partagé le post sur Facebook et s’est vu menacé d’une éviction définitive. Dans la réponse virulente qu’il a déployée à la Une de l’Aftenposten, Hansen accusait Facebook de créer des règles qui, et d’un, « ne font aucune différence entre la pornographie infantile et de célèbres photographies de guerre », et de deux, « ne laisse[nt] aucune place » à la discussion. Cette lettre, qui a reçu un soutien massif, a été le point de départ d’un ardent débat sur les règles complexes de la censure sur Facebook et le contrôle des contenus par ses algorithmes de triage de l’actualité.

Facebook, qui compte aujourd’hui 2 milliards d’utilisateurs mondiaux, et draine plus de trafic vers les sites de médias que Google, fait désormais figure d’acteur majeur de la diffusion de l’information, même s’il continue de se soustraire à cette responsabilité, se considérant comme une « plateforme technique ». On peut pourtant dire que Facebook est devenu le premier site de média mondial, ce qui fait de Mark Zuckerberg, comme l’écrit Hansen, « le rédacteur en chef le plus puissant du monde ».

« J’ai rappelé à Zuckerberg que ce titre implique des responsabilités. La société qu’il dirige n’est pas seulement technologique, c’est une entreprise médiatique. » Voilà pourquoi Egil Hansen estime que censurer une image emblématique du photojournalisme sous prétexte de nudité est une mauvaise décision éditoriale. « Les images qui dérangent peuvent déplaire, mais elles jouent un rôle essentiel de sensibilisation dans une société démocratique », rappelle-t-il.  

Des millions de personnes postent chaque jour du contenu sur Facebook, ce qui rend extrêmement ardu toute sélection au cas par cas. Richard Allan, vice-président des politiques publiques pour la zone Europe, Moyen-Orient et Afrique de Facebook, défend le règlement intérieur du réseau, qui prévoit le signalement et le retrait de toute image d’enfant de moins de 18 ans contenant de la nudité. Mais il reconnaît que dans le cas de « La Terreur de la guerre », cette politique a échoué.

Lors du colloque intitulé « Le Journalisme sous le feu de la critique », organisé par l’UNESCO en mars 2017, il a pris la défense de l’adaptabilité de Facebook : « Soyons clairs : nous nous remettons constamment en question. Lorsque nous nous trouvons face à une situation imprévue, nous réfléchissons aux solutions possibles, nous envisageons de changer nos règles. »

Pour assurer plus de flexibilité, Facebook a adopté une nouvelle approche qui exige de recruter un grand nombre de modérateurs [la société a annoncé en mai 2017 qu’elle allait en recruter 3 000 nouveaux pour renforcer les 4 500 de l’équipe actuelle]. Cette approche vise à permettre un traitement particulier des articles publiés dans les médias. Ils sont considérés comme une exception par rapport aux posts classiques sur Facebook. « L’intérêt public d’une photo d’un enfant nu et, le cas échéant, le consentement de la personne concernée l’emportent sur la politique en vigueur », précise Richard Allan.

L’algorithme, nouveau rédacteur en chef mondial

S’agissant de choix éditoriaux, la différence est mince entre Facebook et les espaces d’information traditionnels. « De même que le rédacteur en chef de Fox News est responsable du contenu éditorial de Fox News, Mark Zuckerberg est responsable du contenu éditorial de Facebook », martèle Egil Hansen.

La seule vraie différence entre les deux est la présence du très incompris et très controversé algorithme du fil d’actualité : rien de tel dans le journalisme classique.

« Facebook veut préserver sa spécificité. C’est vous qui êtes votre propre éditeur et c’est encore vous qui choisissez ce que vous voulez voir », insiste Richard Allan. Les algorithmes n’en continuent pas moins de façonner les habitudes de lecture de 1,28 milliard d’utilisateurs quotidiens actifs de Facebook (mars 2017), soit le cinquième de la population mondiale. Officiellement, la tâche du site consiste à scruter et analyser toutes les informations postées par un utilisateur ou une utilisatrice au cours de la semaine passée, en tenant compte de toutes les pages qu’il ou elle aura « likées », de tous les groupes auxquels il ou elle appartient et de toutes les personnes qu’il ou elle suit. Ensuite, selon une formule jalousement gardée et constamment renouvelée, l’algorithme range les posts dans l’ordre précis qu’il estime correspondre aux centres d’intérêts de l’utilisateur.

Or, de par sa nature même, l’algorithme peut devenir un outil problématique, voire même dangereux. « Les algorithmes peuvent créer ce qu’on appelle des “bulles de filtrage”, qui renforcent une tendance négative de notre époque, celle qui mène à des communautés plus polarisées », explique Egil Hansen. « Nous sommes de plus en plus nombreux à être enfermés dans ces bulles, où on n’obtient que l’information qu’on désire, et où on ne communique qu’avec des gens qui pensent comme nous. » Vu sous cet angle, les critères de sélection utilisés par l’algorithme pour hiérarchiser l’information deviennent tout simplement cruciaux.

De son côté, Richard Allan compare le fil d’actualité à un abonnement à des périodiques et nie imposer tout contenu aux lecteurs de Facebook. Selon lui, l’algorithme ne fait qu’assurer un classement des titres plus commode pour le lecteur. Le défi réside toutefois dans la grande quantité des flux disponibles. « Ce que nous voyons, c’est que les utilisateurs souscrivent à un millier de flux différents, alors qu’ils n’ont le temps d’en lire qu’une vingtaine, pas plus », note-t-il. « Les mille flux sont toujours là, mais cela induit clairement un processus de sélection, puisque nous prélevons ceux qui apparaissent au sommet de la pile. »

Favoriser les informations préférées des lecteurs peut engager sur une pente glissante. Si l’on en croit Egil Hansen, c’est une « stratégie qui a ses avantages lorsqu’on regarde Netflix [le service de films en continu basé aux États-Unis] » mais elle reste un « principe discutable en ce qui concerne la libre circulation de l’information au sein d’une société. »

Arbitres de la vérité

Sur une note plus positive, reconnaissons que les médias sociaux abattent des barrières et facilitent l’expression de tout un chacun. « Lorsque j’ai écrit à Mark Zuckerberg, ma lettre n’était qu’un petit article sorti dans un petit pays, mais son contenu s’est répandu partout en un éclair. Ironie du sort, c’est précisément à Facebook qu’il doit toute cette audience », observe le journaliste norvégien, dont le journal a, lui-même, 340 000 suiveurs sur Facebook. Mais il reconnaît vite que la possibilité donnée à chacun de publier de l’information est une épée à double tranchant qui peut conduire à la désinformation. « Il est clairement devenu plus facile aujourd’hui d’abuser des populations entières. Je me demande si, en tant que société, nous sommes réellement préparés aux lendemains inquiétants qui s’annoncent », s’alarme-t-il.

Dans le cadre d’une série de scandales d’informations truquées (fake news), qui a secoué Facebook en 2016, la société a été accusée de peser sur l’élection présidentielle américaine en répandant des informations mensongères et en créant des bulles de filtrage empêchant les électeurs d’accéder à des opinions non conformes aux leurs. Au total, selon une analyse, les informations truquées concernant la seule politique américaine ont absorbé 10,6 millions sur les 21,5 millions de partages, réactions et commentaires que ces articles en langue anglaise ont provoqué sur Facebook cette année-là. Un hoax (« canular » en français) concernant Barack Obama, l’ancien président des États-Unis, a généré plus de 2,1 millions de commentaires, réactions et partages sur Facebook en seulement deux mois.

Pas étonnant que pour faire taire les critiques, Facebook ait mis en place un programme de vérification des faits à visée corrective : à compter de mai 2017, les articles signalés par les usagers comme non fiables devraient être vérifiés par des experts et étiquetés « contenu contesté ». « Nous n’allons pas les supprimer », précise Richard Allan. « D’une part, nous ne voulons pas devenir des arbitres de la vérité et éditer les contenus. De l’autre, nous cherchons à bâtir une communauté informée parce que nous sommes responsables envers notre société. »

Egil Hansen accueille cette reconnaissance comme essentielle. Il se félicite des améliorations positives apportées par Facebook depuis la formidable audience recueillie par sa première lettre [publiée sur Aftenposten]. « Mark Zuckerberg a donné une interview au New York Times dans laquelle il indique que la polémique suscitée par cette lettre lui a ouvert les yeux, et lui a fait prendre conscience qu’il fallait changer le fonctionnement de Facebook. »

Une prise de conscience et des mesures qui s’annoncent cruciales, compte tenu de l’énorme impact des médias sociaux sur les médias traditionnels et de leur omniprésence toujours croissante dans nos vies quotidiennes.

 

Une lettre ouverte qui sert d’électrochoc

« (…) Écoute, Mark, c’est grave ! D’abord, tu crées des règles qui ne font aucune différence entre la pornographie infantile et de célèbres photographies de guerre. Ensuite, tu les appliques sans laisser aucune place à la réflexion. Et pour finir, tu n’hésites pas à censurer la critique et le débat concernant cette décision, et tu punis la personne qui ose s’élever contre (...).

Les médias libres et indépendants ont un rôle important dans la publication d’informations, y compris d’images, qui peuvent parfois être dérangeantes, et que l’élite dominante, et parfois même les simples citoyens, ne voudront pas voir ou entendre, mais qui peuvent justement être importantes pour cette raison (...).  

Les médias ont la responsabilité de réfléchir à ce qu’ils publient, au cas par cas. C’est parfois une lourde responsabilité. Chaque rédacteur doit peser le pour et le contre. Ce droit et ce devoir, que possèdent tous les journalistes du monde, ne devraient pas être sapés par des algorithmes codés dans ton bureau californien.

Facebook s’est officiellement donné pour mission de « rendre le monde plus ouvert et connecté ». En réalité, tu fais cela de manière totalement superficielle. Si tu ne veux faire aucune distinction entre la pornographie infantile et des photos documentaires prises lors d’un conflit, cela ne va qu’encourager la bêtise et ne contribuera nullement au rapprochement entre les êtres humains.

Prétendre qu’on peut créer des règles communes et universelles sur ce qui peut et ne peut pas être publié, c’est de la poudre aux yeux (...) ».