Les entreprises de médias sociaux doivent communiquer leurs données à des chercheurs indépendants afin de mieux comprendre comment assurer la sécurité des utilisateurs.
Les plateformes de médias sociaux sont le lieu où des milliards de personnes à travers le monde se rendent pour entrer en contact avec d’autres personnes, obtenir des informations et donner un sens au monde. Les entreprises qui gèrent ces sites, notamment Facebook, Twitter, Instagram, Tiktok et Reddit, collectent de grandes quantités de données sur la base de chaque interaction qui a lieu sur leurs plateformes.
Et malgré le fait que les médias sociaux soient devenus l’un de nos plus importants forums publics d’expression, plusieurs des plateformes les plus importantes sont contrôlées par un petit nombre de personnes. Mark Zuckerberg contrôle 58 % des actions votantes de Meta, la société mère de Facebook et d’Instagram, ce qui lui donne le contrôle exclusif de deux des plus grandes plateformes sociales. Elon Musk a fait une offre de 44 milliards de dollars pour privatiser Twitter (même si un procès déterminera si l’accord sera conclu). Toutes ces entreprises ont l’habitude de partager avec les chercheurs de maigres portions des données relatives à leurs plateformes, ce qui nous empêche de comprendre l’impact des médias sociaux sur les individus et la société. Cette propriété singulière des trois plateformes de médias sociaux les plus puissantes nous fait craindre que ce verrouillage du partage des données ne se poursuive.
Après des décennies de faible réglementation, il est temps d’exiger plus de transparence de la part des entreprises de médias sociaux.
En 2020, les médias sociaux ont été un mécanisme important pour la diffusion d’affirmations fausses et trompeuses sur l’élection et pour la mobilisation des groupes qui ont participé à l’insurrection du 6 janvier 2021 au Capitole. Nous avons vu la désinformation sur le COVID se répandre largement en ligne pendant la pandémie. Et aujourd’hui, les entreprises de médias sociaux ne parviennent pas à supprimer la propagande russe sur la guerre en Ukraine qu’elles avaient promis d’interdire. Les médias sociaux sont devenus un vecteur majeur de diffusion de fausses informations sur tous les sujets de préoccupation de la société. Nous ne savons pas quelle sera la prochaine crise, mais nous savons que de fausses affirmations à son sujet circuleront sur ces plateformes.
Malheureusement, les entreprises de médias sociaux sont avares de données et de recherches, en particulier lorsque les résultats peuvent être mal accueillis (bien qu’il existe des exceptions notables). La seule façon de comprendre ce qui se passe sur les plateformes est que les législateurs et les régulateurs exigent des entreprises de médias sociaux qu’elles communiquent leurs données à des chercheurs indépendants. En particulier, nous devons avoir accès aux données sur les structures des médias sociaux, telles que les caractéristiques des plateformes et les algorithmes, afin de pouvoir mieux analyser comment elles façonnent la diffusion de l’information et affectent le comportement des utilisateurs.
Par exemple, les plateformes ont assuré aux législateurs qu’elles prenaient des mesures pour contrer la désinformation et la mésinformation en signalant les contenus et en insérant des vérifications des faits. Ces efforts sont-ils efficaces ? Là encore, il faudrait avoir accès aux données pour le savoir. Sans de meilleures données, nous ne pouvons pas avoir de discussion de fond sur les interventions les plus efficaces et les plus conformes à nos valeurs. Nous courons également le risque de créer de nouvelles lois et réglementations qui ne répondent pas de manière adéquate aux préjudices ou d’aggraver les problèmes par inadvertance.
Certains d’entre nous ont consulté des législateurs aux États-Unis et en Europe sur des réformes législatives potentielles allant dans ce sens. Le débat sur la transparence et la responsabilité des entreprises de médias sociaux est devenu plus profond et plus substantiel, passant de vagues généralités à des propositions spécifiques. Cependant, le débat manque toujours d’un contexte important. Les législateurs et les régulateurs nous demandent souvent de mieux expliquer pourquoi nous avons besoin d’accéder aux données, quelles recherches cela permettrait de mener, et comment ces recherches aideraient le public et éclaireraient la réglementation des plateformes de médias sociaux.
Pour répondre à ce besoin, nous avons créé cette liste de questions auxquelles nous pourrions répondre si les entreprises de médias sociaux commençaient à partager davantage de données qu’elles recueillent sur le fonctionnement de leurs services et la façon dont les utilisateurs interagissent avec leurs systèmes. Nous pensons qu’une telle recherche aiderait les plateformes à développer des systèmes plus performants et plus sûrs et informerait également les législateurs et les régulateurs qui cherchent à tenir les plateformes responsables des promesses qu’elles font au public.
La recherche suggère que la désinformation est souvent plus attrayante que d’autres types de contenu. Pourquoi en est-il ainsi ? Quelles sont les caractéristiques de la désinformation les plus associées à un engagement accru des utilisateurs et à la viralité ? Les chercheurs ont proposé que la nouveauté et l’émotivité soient des facteurs clés, mais nous avons besoin de plus de recherches pour savoir si cela est vrai. Une meilleure compréhension des raisons pour lesquelles les fausses informations sont si attrayantes aidera les plateformes à améliorer leurs algorithmes et à recommander moins souvent les fausses informations.
La recherche montre que les techniques d’optimisation de la diffusion utilisées par les entreprises pour maximiser leurs revenus, voire les algorithmes de diffusion des publicités eux-mêmes, peuvent être discriminatoires. Certains groupes d’utilisateurs sont-ils beaucoup plus susceptibles que d’autres de voir des publicités potentiellement dangereuses, telles que des arnaques à la consommation ? D’autres ont-ils moins de chances de voir des publicités utiles, comme des offres d’emploi ? Comment les réseaux publicitaires peuvent-ils améliorer la diffusion et l’optimisation pour être moins discriminatoires ?
Les entreprises de médias sociaux tentent de lutter contre la désinformation en étiquetant le contenu de provenance douteuse, dans l’espoir de pousser les utilisateurs vers des informations plus exactes. Les résultats d’enquêtes expérimentales montrent que les effets des étiquettes sur les croyances et les comportements sont mitigés. Nous devons en savoir plus sur l’efficacité des étiquettes lorsque les individus les rencontrent sur les plateformes. Les étiquettes réduisent-elles la diffusion de fausses informations ou attirent-elles l’attention sur des messages que les utilisateurs pourraient autrement ignorer ? Les utilisateurs commencent-ils à ignorer les étiquettes lorsqu’elles deviennent plus familières ?
Des études internes à Twitter montrent que les algorithmes de Twitter amplifient les politiciens et les sources d’informations politiques de droite plus que les comptes de gauche dans six des sept pays étudiés. Les autres algorithmes utilisés par les autres plateformes de médias sociaux présentent-ils également un biais politique systémique ?
En raison du rôle central qu’elles jouent désormais dans le discours public, les plateformes ont beaucoup de pouvoir sur qui peut s’exprimer. Les groupes minoritaires ont parfois le sentiment que leurs opinions sont réduites au silence en ligne en raison des décisions de modération des plateformes. Les décisions concernant le contenu autorisé sur une plateforme affectent-elles certains groupes de manière disproportionnée ? Les plateformes permettent-elles à certains utilisateurs d’en réduire d’autres au silence par une mauvaise utilisation des outils de modération ou par un harcèlement systémique visant à faire taire certains points de vue ?
Les entreprises de médias sociaux devraient accueillir l’aide de chercheurs indépendants afin de mieux mesurer le préjudice en ligne et d’élaborer des politiques. Certaines entreprises, comme Twitter et Reddit, ont été utiles, mais nous ne pouvons pas dépendre de la bonne volonté de quelques entreprises dont les politiques pourraient changer au gré des caprices d’un nouveau propriétaire. Nous espérons qu’un Twitter potentiellement dirigé par Musk sera aussi ouvert qu’avant, si ce n’est plus. Dans notre environnement d’information qui évolue rapidement, nous ne devrions pas réglementer et légiférer sur la base d’anecdotes. Nous avons besoin de législateurs pour garantir notre accès aux données dont nous avons besoin pour assurer la sécurité des utilisateurs.
–
SEO INSIDE est une agence Web SEO à Amiens (notamment…)
--
SEO Inside est une agence web et SEO - en savoir plus sur nous:
Agence web / Audit SEO / Conseil SEO / Création de site internet / Refonte de site internet optimisé pour le SEO / Référencement naturel / Référencement local /Netlinking / Formation SEO / E-Réputation et avis
Voici nos implantations :
Lille / Dunkerque / Amiens – ce sont nos 3 bureaux historiques.
Puis voici nos zones géographiques d’intervention :
Paris / Abbeville / Rouen / Compiègne / Reims / Metz / Caen / Evreux / Nancy / Colmar / Rennes / Le Mans / Orléans / Dijon / Besançon / Angers / Nantes / La Rochelle / Poitiers / Limoges /Clermont-Ferrand / Lyon / Annecy / Grenoble / Valence / Bordeaux / Montauban / Toulouse / Biarritz / Montpellier / Marseille / Cannes / Nice / Avignon / Monaco
SEO INSIDE est une agence web spécialiste en référencement naturel qui se veut proche de vous. Contactez-nous pour discuter de vos projets.