Il n’est pas un jour sans que la presse ne bruisse d’informations, le plus souvent inquiétantes, sur les desseins, le plus souvent vus comme funestes, des GAFAM. Manipulation, risques en tout genre pour la santé mentale des jeunes et impact sur la démocratie, les brèves se suivent et se ressemblent. Depuis des années.
Très récemment, un parlementaire suisse a fait la une des journaux avec une annonce détonante: et si l’on rendait les plateformes responsables des contenus tiers qu’elles rendent disponibles? A première vue, l’idée est plutôt séduisante. Ces plateformes pétries de dollars n’ont qu’à assumer leur responsabilité et trier le bon grain de l’ivraie. Et toc! Mais quel bon grain? Et quelle ivraie? C’est là que l’affaire se corse.
Les précédentes chroniques
Consensus difficile sur les moyens de lutter contre les fake news
Car si les plateformes passent d’un statut d’hébergeur (comme actuellement) à un statut d’éditeur (comme des journaux), c’est évidemment la porte de dame censure que l’on ouvre grand pour prétendument fermer (vlan!) celle des fausses nouvelles, puisqu’éditer c’est finalement faire un choix, trier, éluder; en bref, conditionner non seulement l’accès à l’information mais aussi façonner cette dernière elle-même.
La lutte contre les fake news est un combat dont les principes sont éminemment louables. Qui diable voudrait donc laisser les fausses informations faire florès? Personne à part peut-être ceux à qui l’insidieuse influence profite, sans doute. Mais le débat, à la vérité, porte moins sur l’objectif, au sujet duquel un consensus n’est pas bien difficile à trouver (on trouvera également peu d’individus raisonnables opposés à la lutte contre la faim dans le monde ou à la diffusion la plus large du bonheur sur terre), que sur les moyens d’y parvenir, qui sont, familièrement parlant, une autre paire de manches.
La loi française est un naufrage
En France, la loi dite contre la manipulation de l’information, promulguée en 2018 suite à des soupçons d’ingérence russe dans les affaires politiques hexagonales, s’est révélée un discret — mais non moins excellent — fiasco à dires de spécialistes, lesquelles la jugent tout bonnement inapplicable, constat partagé par le soussigné qui, de longue date, se méfie de tous les ministères de la vérité qui surgissent ça et là.
Ainsi, pour François-Bernard Huyghe, directeur de recherches à l’Iris, interrogé par «20 Minutes», «cette loi a le double défaut de mettre en péril la liberté d’opinion et d’être difficilement applicable». En effet, comme le journal l’explique, pour obtenir la suspension d’une fausse nouvelle, le juge des référés (il s’agit d’une décision temporaire prise rapidement, soit l’équivalent de nos mesures provisionnelles) doit arriver à la conclusion que la diffusion est «délibérée, artificielle ou automatisée et massive» et que la sincérité du scrutin est atteinte de manière «manifeste».
Pour que ce soit le cas, il faut, en pratique, que la fausse nouvelle ait été diffusée par le biais de bots (il s’agit d’un agent logiciel automatique soit, en d’autres mots, d’une forme de robot) ou par le biais de contenus sponsorisés (payants). En un mot comme en mille, la loi s’est révélée être un modèle de naufrage, avec une jurisprudence au demeurant quasi inexistante. Comme dirait l’autre, l’enfer est pavé de bonnes intentions.
L'UE ménage le sacro-saint statut d'hébergeur
Dans un sujet connexe, l’Union européenne a, de son côté, lancé en 2020 ses travaux pour la mise sur pied d’un Digital Service Act (DSA), soit d’une réponse législative au déferlement de haine en ligne, notamment illustré par la mise au pilori, sur les réseaux sociaux, de Samuel Paty, l’enseignant dont la vie s’est ensuite terminée dans les circonstances que l’on sait. Le DSA a, ainsi et notamment, comme ambition d’imposer à toutes les plateformes un devoir de coopération visant à leur faire retirer les contenus vus comme illicites et dangereux (haine en ligne, terrorisme, etc.). Il vise aussi à encadrer plus largement les services, notamment en les contraignant à une forme de transparence de leurs algorithmes.
Mais il ménage leur sacro-saint statut d’hébergeur qui demeurera. Cela constitue un entre-deux subtil — un équilibrisme diront les esprits chagrins — entre le maintien d’un statu quo insatisfaisant et la mise en place d’un régime d’éditeur pour les plateformes, qui les fait frémir. Les amendements récents du DSA, qui ne font pas que des heureux, entendent même interdire aux plateformes de réguler les contenus publiés par des médias.
Les faits et les opinions se mélangent en ligne
Mais, au fond, l’idée générale d’une amélioration de la coopération avec les plateformes est bonne. En tous cas plus que celle consistant à vouloir traquer les fausses nouvelles sur la toile en mettant ce fardeau sur les épaules de nos géants numériques. Pas tant histoire de les ménager mais parce que la liberté d’expression n’a pas vocation à être privatisée, automatisée, algorithmisée.
Et bien malin qui pourra, dans un texte, séparer les faits (qui seuls peuvent être faux), des opinions (qui, elles et par définition, ne sont que des ressentis subjectifs, sans emprise du vrai ou du faux). Oui, l’immense majorité des textes accessibles sur Internet entrelacent subtilement les faits et les opinions. Or donner aux plateformes le droit, sinon l’obligation, de procéder à un tri éditorial revient non seulement à leur accorder une confiance excessive mais également à les placer devant des dilemmes indépassables, préfigurant une véritable catastrophe informationnelle.
Et si, pour lutter contre les dérives du «grossiste en gadgets digitaux» (comme Sylvain Tesson appelle Mark Zuckerberg), l’on remettait plutôt au centre du débat l’éducation aux médias et l’esprit critique ? L’idée est à mon sens aussi triviale que nécessaire.