La régulation sur les réseaux sociaux

Les plus anciens se rappellent, il y a presque 30 ans, cet ensemble de trois affiches d’une campagne publicitaire réalisée par l’agence CLM/BBDO pour l’afficheur Avenir, parues en France à la fin de l’été 1981. Elle a d’ailleurs eu un « Premier prix » décerné par la profession.
http://www.upe.fr/?rub=gpce-retrospective#palmares

Je ne sais plus à quelle occasion, j’ai utilisé les illustrations de cette campagne sur un post Facebook. Et j’ai été censuré pour « non respect de la nudité » pour avoir publié des photos vues, il y a 30 ans, par des dizaines de millions de personnes, affichées dans l’espace public.
Bien sûr, une réclamation n’a rien donné, sauf un « avertissement » de compte surveillé.

D’où ma question: « Est-il possible d’avoir une régulation efficace des publications sur les réseaux sociaux? »

Je ne rentrerai pas dans les raisons qui font qu’une autorité quelconque estime que telle ou telle publication est acceptable ou pas, c’est un autre débat…

A qui faut-il faire porter la responsabilité d’une publication?

Prenons un exemple. Monsieur Martin a investi dans la construction de box garages sur un petit terrain lui appartenant. Il loue ces box à des particuliers. Un box est loué à Monsieur Dupond, bail, état des lieux, dépôt de garantie, paiement d’avance tous les trois mois, aucun problème.

Mais un jour, la police trouve dans le box de Monsieur Dupond une cache d’armes, de munition, et d’explosifs.

Qui est responsable? Monsieur Dupond, qui utilise le box, bien sûr. Qui irait chercher la responsabilité du bailleur Monsieur Martin? Pourtant le box est à lui, il a choisi son locataire… Mais il ne peut pas aller voir tous les jours ce qu’il y a dans le box et, d’ailleurs, la loi le lui interdit. Certes, Monsieur Martin a mis une vidéo-surveillance des allées, pour sécuriser ses locataires, mais cette vidéo-surveillance, il n’en regarde jamais les images, il se contente de les tenir à disposition de la police et de la justice si nécessaire. Et puis, il n’est pas évident de voir que les sacs transportés contiennent des armes.

Qui dont irait chercher la responsabilité de Monsieur Martin?

Certes, vous pouvez me dire que c’est un box, privé, personne ne voyait les armes cachées, personne ne pouvait savoir.

Prenons un autre exemple. Monsieur Martin a également investi dans des emplacements de panneaux publicitaires, qu’il loue à des entreprises de la ville pour y faire les annonces, celles-ci se chargeant elles-même d’afficher ce qu’elles veulent, avec leurs propres moyens.

Un jour, sur un panneau, loué à un commerçant nouvellement installé, Monsieur Dubois, une affiche portant des propos insultants, haineux, ou des images de même acabit.

Monsieur Martin est-il responsable de ce que Monsieur Dubois a affiché? Personne n’irait le soutenir, je pense.

Maintenant, supposons que Monsieur Martin met ses emplacements à disposition d’une grosse société d’affichage, la société « 4par3 », qui gère des campagnes, ou des affichages ponctuels.

Même cas, une affiche portant des propos insultants, haineux, ou des images de même acabit.

Bon, Monsieur Martin est hors de cause, et sans doute on peut s’interroger sur la responsabilité de la société « 4par3 » dont un salarié a procédé à l’affichage.

Supposons maintenant que, au lieu d’un panneau de métal recevant une affiche papier, la société « 4par3 » commercialise des panneaux d’affichage à LED. Et que c’est le client, qui a payé la mise à disposition du panneau, qui, avec un interface informatique sécurisée, charge lui-même depuis son ordinateur l’image qui, instantanément, va être affichée sur la panneau qu’il paie.

Est-ce que la société « 4par3 » est responsable? Alors qu’elle n’est jamais intervenue dans le processus d’affichage?

Certes, elle a la possibilité, saisie par la justice, de couper l’affichage de l’image mise en cause, et de donner à ladite justice l’identité de son client.

Est-ce qu’il pèse sur la société « 4par3 » une obligation de validation, a priori, de ce que les clients veulent afficher? Est-il possible de faire une telle validation? Sans doute, oui, puisqu’il y a peu de clients, peu de panneaux, qu’un affichage ne se change pas toutes les 5 minutes, que le contrat peut prévoir une telle validation, et qu’il suffit qu’un employé de la société valide la demande du client avant la « mise en vue » sur l’espace public.

Finalement, un réseau social est, à une échelle bien plus grande, l’équivalent de la société « 4par3 ». Une mise en ligne techniquement immédiate d’un contenu choisi par le client… Mais des centaines de millions de clients, pouvant poster chaque jour des dizaines ou des centaines de publications. Et des clients dont l’identité n’est jamais vraiment vérifiée, et sur lesquels, par conséquence, le réseau social ne peut pas donner facilement des informations à la justice.

Quid, alors, de la validation et de l’invalidation d’une publication?

Et, du box garage de Monsieur Martin au réseau social, la responsabilité de l’hébergeur sur le contenu, insensiblement, pose des questions bien différentes.

In fine, le réseau social doit-il être tenu responsable des publications qu’il héberge, comme un organe de presse est responsable du contenu de ses publications? Ou le seul responsable est-il celui qu’il publie?

Je veux dire par là que la tendance qui consiste à étendre aux réseaux sociaux le droit de la presse n’est pas forcément la bonne solution juridique, et que c’est même, sans doute, la mauvaise.

Le réseau social peut-il réguler son contenu?

Je ne rentrerai pas dans le débat de savoir s’il doit le faire ou pas, mais seulement sur la possibilité technique de le faire.

Quelques chiffres, d’abord, sur Facebook, le réseau social que j’utilise depuis que, dans un moment de désoeuvrement, je m’y suis mis en 2010. Je tire ces chiffres des sites suivants:
https://blog.digimind.com/fr/agences/facebook-chiffres-essentiels
https://www.blogdumoderateur.com/chiffres-facebook/

Donc, pour rester à la France, 35 millions de comptes utilisateurs actifs, ce qui ne veut pas dire 35 millions de personnes physiques. Je n’ai pas trouvé de chiffres de « posts » en France, mais, à supposer que chaque compte actif fasse un « post » par mois, cela fait, environ, un million de « posts » par jour. Il est évident que, dans ce que j’appelle ici « post », il y a le « post » initial, et tous les commentaires qu’il engendre en réponse.

Comment réguler un million de « posts », et, je le rappelle, pour la France seulement. Mais regarder seulement la France est intéressant, parce que le français est utilisé essentiellement dans un seul pays (en quantité de locuteurs) ce qui n’est pas le cas de l’anglais ou de l’espagnol. Il faut donc une structure, humaine ou automatique, spécifique pour le français. Pas seulement pour la langue, mais aussi pour la culture, ce qui, pour les photos, est important.

Partons donc sur cette base, un millions de « posts » par jour, à réguler, a posteriori, mais rapidement, disons dans la journée.

Il y des photos, des textes, mais qui peuvent être accompagnés de liens vers d’autres sites, la question se posant de savoir si le régulateur (humain ou automatique) doit « poursuivre » le lien ou pas. Supposons qu’il n’a pas à le poursuivre, pour simplifier et raccourcir le raisonnement.

Dans l’hypothèse d’une régulation humaine, supposons qu’il faille, allez, quelques secondes pour analyser un post, disons, en moyenne, 10 secondes. Cela fait, environ, 2700 heures, et, disons, un peu moins de 400 personnes sur une durée « normale » de travail, dimanches et fériés compris. Avec les congés et les jours de repos, disons 500 personnes, un coût « chargé » de 1 Million d’Euros par mois, si le personnel, bien sûr, est en France, bien moins cher si le personnel francophone est ailleurs.

Je suis conscient que mes chiffres sont des approximations, des ordres de grandeur, ils pourraient être affinés. Mais l’ordre de grandeur est quand même porteur d’interrogations.

Il est à rapprocher du chiffre d’environ 5 millions d’Euros par mois de recette publicitaires en France. Après, chacun peut se demander si les choix de l’entreprise Facebook sont pertinents ou pas.

Mais il est possible d’alléger la régulation humaine avec une régulation automatique, tout au moins en première intention, la régulation humaine intervenant en appel.

Dégageons tout de suite les « appels » à l’humain en cas de contestation. Supposons un taux de 1 pour 1000, soit 1000 posts par jour. Supposons, aussi, que le temps d’examen soit plus long, une minute. Cela ne fait plus que 16 heures et quelques par jour, soit un peu plus de deux personnes, disons trois avec congés et repos, au lieu de 500. Cela semble tout à fait raisonnable.

Revenons à la régulation automatique, faite, donc, par le système d’information, avec des programmes de régulation (que l’on qualifiera tout simplement d’algorithmes, au sens premier du terme, ou de programmes relevant de l’Intelligence Artificielle, peu importe).

Est-ce que ce serait mieux?

Tout d’abord, un algorithme, ou un programme d’IA avec apprentissage, traduit des choix faits par des hommes. Il n’est donc, en aucun cas, objectif. Ni dans le choix de ce qu’il faut filtrer, mais je vous ai dit que je n’abordai pas la question, ni dans le détail de ce qui rentre dans ce choix ou pas.

Supposons qu’un réseau social veuille interdire, allez, disons, qu’on y parle de vélos.

Sur le plan du texte, il faut choisir quels mots filtrer. « Vélo », certes, « bicyclette », aussi, mais « bécane », « VTT », etc… Ce sont des choix humains.

Pour les images, il faut apprendre au logiciel à reconnaître les vélos, mais que faire des grands bis, des draisiennes, des célérifères?

Tout cela relève de choix humain, pour que le programme dise « oui » ou « non ».

Et il reste ensuite à régler finement le programme:

Sa sensibilité, d’abord, pour qu’il ne laisse pas passer la moindre référence au vélo.

Puis sa spécificité, pour qu’il n’arrête pas, en la prenant pour un vélo, une moto légère, par exemple, ou une trotinette.

Une fois ceci finement réglé, le programme peut tourner. Mais il sera toujours possible de détourner le texte, par exemple en écrivant « Vailot », ou l’image, en mettant des chiens devant le vélo, etc.

Côté « réseau social », les recours à l’arbitrage humain serviront à affiner le processus.

Ceux qui se sont vu censurer une moto réclameront, et la réclamation permettra d’améliorer la spécificité. La réclamation peut se faire que la publication ait été arrêtée a priori ou a posteriori. Ceux qui se sont choqués d’avoir vu un vélo réclameront, et la réclamation permettra d’améliorer la sensibilité. Mais, là, la réclamation ne peut pas se faire si, à tort, la publication a été arrêtée a priori.

Et toutes ces réclamations réclament, si j’ose dire, un constant travail d’amélioration du système, ce qui est un travail plus spécialisé, plus coûteux, que le simple examen des publications.

Bref, c’est l’éternelle lutte du projectile et de la cuirasse…

Il reste, bien sûr, la possibilité de bloquer le compte du publicateur impénitent. Mais il pourra en ouvrir un autre, même beaucoup d’autres, de manière automatisée, éventuellement, en récupérant les contacts du premier.

Donc, la fermeture du compte n’est pas une solution efficace.

Reste alors la solution de la vérification de l’identité préalable au compte, et nous revenons, alors, sur les moyens, humains ou automatiques, pour vérifier l’identité.

Ou la solution du compte payant, qui permet aux organisations ayant les moyens financier de diffuser ce qu’ils veulent, et qui, de plus, rapporte d’autant plus au gestionnaire du réseau social qu’il laisse de « trous dans le filet ».

En guise de conclusion

Je ne livre que quelques réflexions personnelles, mais si je devais conclure, j’aurais tendance à dire qu’un réseau social ne dépend pas de celui qui publie, mais de celui qui lit la publication. Et qu’il suffit que le lecteur soit attentif, critique, bref, intelligent, pour que, petit à petit, le réseau social s’épure des scories et devienne ce qu’était le rêve des concepteurs d’Internet: un espace de liberté pour la science et la vie publique.