L’Europe va faire pression sur le secteur de la technologie publicitaire pour aider à lutter contre la désinformation en ligne – TechCrunch

L’Union européenne prévoit de renforcer sa réponse à la désinformation en ligne, la Commission déclarant aujourd’hui qu’elle intensifiera ses efforts pour lutter contre les contenus préjudiciables mais non illégaux – notamment en incitant les plus petits services numériques et les entreprises de technologie de pointe à adhérer à des règles volontaires visant à lutter la diffusion de ce type de contenus manipulateurs et souvent malveillants.

Les législateurs de l’UE ont souligné des risques tels que la menace pour la santé publique posée par la propagation de la désinformation nocive sur les vaccins COVID-19 comme motivant la nécessité d’une action plus dure.

Les préoccupations concernant les effets de la désinformation en ligne sur les processus démocratiques sont un autre moteur, ont-ils déclaré.

Un nouveau code de pratiques plus complet sur la désinformation est en cours de préparation – et sera, espère-t-il, finalisé en septembre, pour être prêt à être appliqué au début de l’année prochaine.

Son changement de vitesse est maintenant une acceptation assez publique du fait que le code de pratique volontaire de l’UE – une approche adoptée par Bruxelles depuis 2018 – n’a pas fonctionné comme espéré. Et, eh bien, nous les avons prévenus.

Un effort pour impliquer l’industrie adtech avec la désinformation virale démonétisante est certainement en retard.

Il est clair que le problème de la désinformation en ligne n’a pas disparu. Certains rapports suggèrent que les activités problématiques – comme la manipulation des électeurs sur les réseaux sociaux et la propagande informatique – ont empiré ces dernières années, plutôt que de s’améliorer.

Cependant, obtenir une visibilité sur l’ampleur réelle du problème de la désinformation reste un défi de taille étant donné que les mieux placés pour le savoir (les plates-formes publicitaires) n’ouvrent pas librement leurs systèmes aux chercheurs externes. Mais c’est quelque chose d’autre que la Commission aimerait changer.

Les signataires du code de pratique actuel de l’UE sur la désinformation sont:

Google, Facebook, Twitter, Microsoft, TikTok, Mozilla, DOT Europe (anciennement EDiMA), la Fédération mondiale des annonceurs (WFA) et son homologue belge, l’Union des annonceurs belges (UBA); l’Association européenne des agences de communication (EACA), et ses membres nationaux de France, Pologne et République tchèque – respectivement, Association des Agences Conseils en Communication (AACC), Stowarzyszenie Komunikacji Marketingowej / Ad Artis Art Foundation (SAR) et Asociace Komunikacnich Agentur (AKA); le Bureau de la publicité interactive (IAB Europe), Kreativitet & Kommunikation et Goldbach Audience (Suisse) AG.

Les législateurs européens ont déclaré vouloir élargir la participation en faisant adhérer des plateformes plus petites, ainsi qu’en recrutant tous les différents acteurs de l’espace adtech dont les outils fournissent les moyens de monétiser la désinformation en ligne.

Les commissaires ont déclaré aujourd’hui qu’ils souhaitaient voir le code couvrir «toute une gamme» d’acteurs de l’industrie de la publicité en ligne (c’est-à-dire plutôt que la poignée actuelle).

Dans son communiqué de presse, la Commission a également déclaré qu’elle souhaitait que les plateformes et les acteurs de l’adtech échangent des informations sur les publicités de désinformation qui ont été refusées par l’un d’entre eux – il y a donc une réponse plus coordonnée pour exclure les mauvais acteurs.

Quant à ceux qui sont déjà inscrits, le bilan de la Commission sur leurs performances est sombre.

S’exprimant lors d’une conférence de presse, le commissaire au marché intérieur, Thierry Breton, a déclaré que seule une des cinq plates-formes signataires du code avait «vraiment» tenu ses engagements – ce qui était vraisemblablement une référence aux cinq premiers géants de la technologie de la liste ci-dessus (aka : Google, Facebook, Twitter, Microsoft et TikTok).

Breton s’est opposé à faire un nom explicite et honte aux quatre autres – qui, selon lui, n’ont pas «du tout» fait ce que l’on attendait d’eux – en disant que ce n’est pas à la Commission de le faire.

Il a plutôt déclaré que les gens devraient décider entre eux lesquels des géants de la plate-forme qui ont souscrit au code n’ont pas respecté leurs engagements. (Les signataires depuis 2018 se sont engagés à prendre des mesures pour perturber les revenus publicitaires des comptes et des sites Web qui diffusent de la désinformation; pour améliorer la transparence autour des publicités politiques et basées sur des problèmes; lutter contre les faux comptes et les robots en ligne; pour permettre aux consommateurs de signaler la désinformation et d’accéder à différentes sources d’information. tout en améliorant la visibilité et la découvrabilité du contenu faisant autorité; et pour responsabiliser la communauté de recherche afin que des experts extérieurs puissent aider à surveiller la désinformation en ligne grâce à un accès conforme à la confidentialité aux données de la plateforme.)

Franchement, il est difficile d’imaginer lequel des cinq géants de la technologie de la liste ci-dessus pourrait réellement répondre à la barre de la Commission. (Microsoft peut-être, en raison de son activité sociale relativement modeste par rapport au reste.)

Sûr de dire, il y a eu beaucoup plus d’air chaud (sous la forme de relations publiques sélectives) sur le sujet chargé de la désinformation par rapport à la responsabilité stricte des principales plates-formes sociales au cours des trois dernières années.

Ce n’est donc peut-être pas un hasard si Facebook a choisi aujourd’hui de enfler ses efforts historiques pour lutter contre ce qu’il appelle des «opérations d’influence» – alias «efforts coordonnés pour manipuler ou corrompre le débat public pour un objectif stratégique» – en publiant ce qu’il présente comme un «rapport sur les menaces» détaillant ce qu’il a fait dans ce domaine entre 2017 et 2000.

Les opérations d’influence font référence à des activités en ligne qui peuvent être menées par des gouvernements étrangers hostiles ou par des agents malveillants cherchant, dans ce cas, à utiliser les outils publicitaires de Facebook comme un outil de manipulation de masse – peut-être pour essayer de fausser le résultat d’une élection ou d’influencer la forme de l’imminence. règlements. Et le «  rapport sur les menaces  » de Facebook indique que le géant de la technologie n’a arrêté et rapporté publiquement que 150 opérations de ce type au cours de la période considérée.

Pourtant, comme nous le savons de la dénonciatrice de Facebook, Sophie Zhang, l’ampleur du problème des activités de manipulation malveillante de masse sur la plate-forme Facebook est vaste et sa réponse est à la fois sous-financée et dirigée par les relations publiques. (Un mémo rédigé par l’ancien spécialiste des données de Facebook, couvert par BuzzFeed l’année dernière, a détaillé un manque de soutien institutionnel pour son travail et comment les opérations de retrait d’influence pourraient réapparaître presque immédiatement – sans que Facebook ne fasse quoi que ce soit.)

(NB: S’il s’agit de « l’application plus large de Facebook contre les tactiques trompeuses qui n’atteignent pas le niveau de [Coordinate Inauthentic Behavior]»Que vous recherchez, plutôt que des efforts contre les« opérations d’influence », il a un tout autre rapport pour cela – le rapport de comportement inauthentique! – parce que, bien sûr, Facebook arrive à marquer ses propres devoirs lorsqu’il s’agit de lutter contre les fausses activités et façonne son propre niveau de transparence exactement parce qu’il n’y a pas de règles de signalement juridiquement contraignantes sur la désinformation.)

Des règles juridiquement contraignantes sur le traitement de la désinformation en ligne ne sont pas non plus dans le pipeline de l’UE – mais les commissaires ont déclaré aujourd’hui qu’ils voulaient un code renforcé et «plus contraignant».

Ils ont certains leviers à tirer ici via un ensemble plus large de réformes numériques qui se frayent un chemin à travers le processus de co-législation de l’UE en ce moment (alias la loi sur les services numériques).

Le DSA introduira des règles juridiquement contraignantes sur la manière dont les plates-formes gèrent le contenu illégal. Et la Commission entend que son code de désinformation, plus strict, s’inscrive dans ce sens (sous la forme de ce qu’ils appellent un «backstop de corégulation»).

Cela ne sera toujours pas juridiquement contraignant, mais cela pourrait donner aux plates-formes consentantes une «  crédibilité  » supplémentaire en matière de conformité DSA. Il semble donc que les bras des épandeurs de fumier de désinformation sont sur le point d’être tordus dans un mouvement de réglementation en tenaille de la part de l’UE, s’assurant que ce truc est en boucle, en complément, à la réglementation juridiquement contraignante.

Dans le même temps, Bruxelles soutient qu’elle ne veut pas légiférer autour de la désinformation. Les risques d’adopter une approche centralisée peuvent sentir la censure – et il semble désireux d’éviter cette accusation à tout prix.

Les paquets de réglementation numérique que l’UE a proposés depuis que le collage de 2019 a pris son mandat visent généralement à accroître la transparence, la sécurité et la responsabilité en ligne, a déclaré aujourd’hui la commissaire aux valeurs et à la transparence, Vera Jourova.

Breton a également déclaré que le «bon moment» était maintenant pour approfondir les obligations en vertu du code de désinformation – avec l’arrivée du DSA – et aussi pour donner aux plates-formes le temps de s’adapter (et de s’impliquer dans les discussions sur l’élaboration d’obligations supplémentaires).

Dans une autre remarque intéressante, Breton a également évoqué la nécessité pour les régulateurs de «pouvoir auditer les plates-formes» – afin de pouvoir «vérifier ce qui se passe avec les algorithmes qui poussent ces pratiques».

Il reste à voir comment les pouvoirs d’audit peuvent être adaptés à un code volontaire et non juridiquement contraignant.

Discutant des domaines dans lesquels le code actuel a échoué, Jourova a souligné les incohérences d’application entre les différents États membres et langues de l’UE.

Elle a également déclaré que la Commission souhaitait que le code renforcé fasse davantage pour permettre aux utilisateurs d’agir lorsqu’ils voient quelque chose de douteux en ligne – par exemple en fournissant aux utilisateurs des outils pour signaler le contenu problématique. Les plates-formes devraient également fournir aux utilisateurs la possibilité de faire appel des suppressions de contenu de désinformation (pour éviter le risque de suppression incorrecte des opinions), a-t-elle déclaré.

L’objectif du code serait de s’attaquer aux faux «faits et non aux opinions», a-t-elle souligné, affirmant que la Commission souhaite que les plates-formes «intègrent la vérification des faits dans leurs systèmes» – et que le code travaille vers une «prise en charge décentralisée des faits».

Elle a poursuivi en disant que les signataires actuels du code n’ont pas fourni aux chercheurs externes le type d’accès aux données que la Commission aimerait voir – pour soutenir une plus grande transparence (et une plus grande responsabilité autour) du problème de la désinformation.

Le code nécessite des rapports mensuels (pour la désinformation COVID-19), six mois ou annuels des signataires (en fonction de la taille de l’entité). Mais ce qui a été fourni jusqu’à présent ne donne pas une image complète de l’activité de désinformation et de la réaction de la plateforme, a-t-elle déclaré.

Elle a également averti que les tactiques de manipulation en ligne évoluent rapidement et sont très innovantes – tout en disant que la Commission aimerait voir les signataires s’accorder sur un ensemble de «techniques problématiques» identifiables pour aider à accélérer les réponses.

Dans un mouvement distinct mais lié, les législateurs européens présenteront un plan spécifique pour lutter contre la transparence des publicités politiques en novembre, a-t-elle noté.

Ils travaillent également, en parallèle, sur la manière de répondre à la menace posée aux démocraties européennes par les cyber-opérations d’interférence étrangère – telles que les opérations d’influence susmentionnées qui se trouvent souvent en plein essor sur la plate-forme Facebook.

Les commissaires n’ont pas donné beaucoup de détails sur ces plans aujourd’hui, mais Jourova a déclaré qu’il était « grand temps d’imposer des coûts aux auteurs » – suggérant que certaines possibilités intéressantes pourraient être envisagées, telles que des sanctions commerciales pour les désops soutenus par l’État (bien que l’attribution en soit une défier).

Breton a déclaré que lutter contre l’influence étrangère sur «l’espace informationnel», comme il l’a appelé, est un travail important pour défendre les valeurs de la démocratie européenne.

Il a également déclaré que les efforts de lutte contre la désinformation de la Commission se concentreront sur le soutien à l’éducation pour aider à doter les citoyens de l’UE des capacités de réflexion critique nécessaires pour naviguer dans les énormes quantités (de qualité variable) d’informations qui les entourent désormais.

Ce rapport a été mis à jour avec une correction, car nous avions initialement indiqué à tort que l’IAB n’était pas signataire du code; en fait, il a rejoint en mai 2018

0 réponses

Laisser un commentaire

Rejoindre la discussion?
N'hésitez pas à contribuer !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *