La désinformation est depuis la nuit des temps associée aux conflits armés. Ainsi, dans «l’Art de la guerre», du nom du traité chinois, compilé en l’an 1078 et dont la paternité est prêtée à Sun Tzu, la désinformation de l’ennemi figure déjà dans le chapitre intitulé «de la concorde et de la discorde».
Autant dire que les fake news et autres deep fakes qui agitent la toile dans le prolongement des tragiques événements israélo-palestiniens ne sont rien qu’une énième déclinaison de méthodes aussi vieilles que la guerre elle-même. Naturellement, l’ubiquité technologique des plateformes de notre temps permet l’éclosion d’une désinformation immédiate et à très large échelle, parfois rendue (encore plus) convaincante par l’utilisation fréquente de l’IA. Mais pas seulement: parfois, la seule réutilisation d’images d’autres conflits ou d’exercice militaires suffit à désinformer avec l’utilisation d’une légende erronée.
Fake news et déferlement de violence
C’est ainsi que l’on a vu des parapentistes présentés comme des membres du Hamas alors même qu’il s’agissait d’Egyptiens sautant en parachute au-dessus de l’Académie militaire égyptienne du Caire, de (fausses) vidéos siglées de la BBC laissant entendre que la vénérable chaine publique anglaise serait arrivée à la conclusion que le Hamas aurait été fourni en armes par l’Ukraine, ou encore des vidéos censées démontrer l’utilisation de bombe au phosphore blanc par Israël, alors même que ces prises de vues, datant du mois de mars, concernent en réalité l’usage par les forces russes de ces munitions incendiaires.
La célérité avec laquelle la situation s’est embrasée et l’intérêt médiatique mondial sont évidemment des terreaux de choix pour cette désinformation à large échelle, convoquant tant les erreurs légitimes que les manipulations grossières. A cette désinformation, que l’on pourrait qualifier de classique, s’ajoute un déferlement extraordinaire de violence montrée, certaines scènes librement disponibles sur les réseaux étant tout à fait insoutenables. Certaines d’entre elles tombent d’ailleurs assez clairement sous le coup de l’art. 135 du Code pénal suisse qui punit la représentation de la violence.
Malgré les efforts de modération que les plateformes disent avoir fait pour, d’un côté, protéger les utilisateurs de contenus violents ou haineux et, de l’autre, préserver la liberté d’expression, l’échec semble patent tant les vidéos horrifiques se sont multipliées sur la majorité des plateformes. Selon une analyse de Alexandra Klinnik, du MediaLab de l’Information de France Télévision, le niveau de violence et de désinformation est «sans précédent».
Vers une meilleure modération
C’est dans ce contexte que Thierry Breton, le Commissaire européen au numérique, a mis en demeure Elon Musk, patron de X, de s’acquitter de ses obligations de modération de contenu basées sur le tout nouveau Digital Service Act (DSA). Ce à quoi Elon Musk lui a suggéré, sans doute par bravade, «de lui dresser une liste complète des violations reprochées», affirmant «agir au nom de la transparence et vouloir que l’opinion publique sache ce qui lui est reproché». On peut imaginer, sans sombrer dans la futurologie la plus extrême, que la modération va demeurer pendant un temps certain un problème majeur des plateformes et, par extension, de nos sociétés tout à la fois hygiénistes et gloutonnes de violence.