google fight

Commment utiliser google fight?

Le week-end dernier, Google a publié un livre blanc détaillé sur la manière dont il lutte contre la diffusion de la désinformation.

Ces efforts, note Google dans le livre blanc, peuvent être définis comme des efforts coordonnés, “des efforts délibérés pour tromper et induire en erreur en utilisant la vitesse, l’échelle et les technologies du web ouvert”. Le web ouvert, dans ce cas, comprend des produits Google tels que la recherche, les actualités, les annonces et la plateforme vidéo YouTube, dont Google a fait l’acquisition en 2006.

Mais pour certains, le système que Google a mis en place pour lutter contre la diffusion de la désinformation n’est pas sans faille. Des contenus potentiellement problématiques contournent encore les règles et, dans certains cas signalés, des éditeurs apparemment anodins sont rejetés comme sources d’information avec peu ou pas d’explication.

Vous trouverez ci-dessous un examen plus approfondi de ces différentes pièces du puzzle de la désinformation, des “trois piliers fondamentaux” de Google pour la combattre, aux lacunes du système de lutte.

Comment Google dit-il lutter contre la désinformation


Comme indiqué ci-dessus, Google indique dans son livre blanc que sa lutte contre la diffusion coordonnée de la désinformation se concentre sur “trois piliers fondamentaux” :

Selon les termes de Google, cela signifie qu’il faut passer au crible ce qui ne peut être décrit que comme la quantité magnanime d’informations qui existent en ligne, et ne produire dans les résultats de recherche que le contenu le plus pertinent et faisant autorité parmi ces informations.

Ce contenu, si les produits et les algorithmes de Google fonctionnent correctement, “répond le mieux aux besoins des utilisateurs en leur fournissant des informations de qualité”.

Il est essentiel de fournir des recherches de haute qualité, mais cela devient particulièrement important, selon Google, lorsqu’il s’agit de contenu promotionnel (par exemple, des annonces) et d’actualité. Ces domaines sont plus susceptibles que d’autres d’être exploités pour la diffusion d’informations erronées, souvent sous la forme de publicité mensongère (qui existe depuis plus de dix ans) et du phénomène connu sous le nom de fausses nouvelles.

Cette dernière question est devenue particulièrement importante après qu’il a été révélé que le réseau de médias sociaux Facebook a été utilisé par des acteurs étrangers pour influencer l’élection présidentielle américaine de 2016, comme il a continué à l’être pour des campagnes de désinformation coordonnées depuis lors.

Retourner les meilleurs résultatsSource : Google

La lutte contre les contenus de moindre qualité à une époque – au début des années 2000, par exemple – a obligé Google à déclasser les résultats de recherche qui étaient potentiellement du spam ou à essayer de “jouer” l’algorithme de recherche.

Mais à mesure que les formes de désinformation sont devenues plus compliquées, plus risquées et plus sophistiquées, la lutte de Google contre ces formes de désinformation s’est faite à plusieurs niveaux. Par exemple, son produit News doit faire la part des choses entre l’actualité, la pertinence, les politiques régionales et la précision.

La façon dont Google aborde ces couches complexes dans la lutte contre la désinformation, dit-il, se résume essentiellement à rendre le produit aussi objectivement utile que possible pour les utilisateurs – “comme mesuré par les tests des utilisateurs, et non pas en favorisant les points de vue idéologiques des personnes qui les construisent ou les vérifient”.

Lutter contre les acteurs malveillants: Google fight


Une étape ultérieure dans la hiérarchisation des résultats de recherche de qualité consiste à contrer les acteurs qui s’emploient à diffuser des informations erronées – les “acteurs malveillants” qui se cachent derrière les efforts coordonnés visant à promouvoir les contenus non authentiques.

Mais aussi avancés que soient devenus les algorithmes de Google, l’entreprise affirme qu’ils ne sont toujours pas assez intelligents pour dire automatiquement si un article de presse, par exemple, est exact ou non, et si l’éditeur derrière cet article avait ou non une intention malveillante.

Cependant, en couplant différents signaux, Google affirme avoir amélioré sa capacité à détecter les activités malveillantes. En prenant l’exemple d’un titre d’actualité qui dit avoir été écrit depuis la France alors que, en fait, l’activité du compte le place dans le New Jersey, il envoie un signal indiquant que l’information sur cette page est peut-être moins authentique — ou transparente pour les utilisateurs.

Tests de qualité de rechercheSource : Google

Combiné à l’examen du contenu humain, Google affirme que ces signaux ont contribué à un système global qui “peut réduire les comportements “spammeurs” à l’échelle”.

Google, pour sa part, a mis en place des politiques visant à décourager les comportements malveillants, ce qui illustre la vaste portée de la diffusion délibérée d’informations erronées – activité qui comprend le mensonge sur son “objectif” en tant qu’annonceur ou éditeur sur Google News, ou la reproduction abusive de contenus provenant d’autres créateurs ou de chaînes sur YouTube.

Mais YouTube a récemment modifié certaines de ses propres politiques de contenu pour les rendre, aux yeux de certains, légèrement plus indulgentes. Alors qu’il existait auparavant une politique stricte de “trois fautes” pour les chaînes qui enfreignaient les conditions du site, les utilisateurs qui vont à l’encontre de ces règles recevront désormais un premier avertissement — qui sera suivi de trois fautes en cas de récidive.

YouTube est passé d’un système de trois coups à quatre coups, mais insiste pour l’appeler “trois coups et un avertissement” parce que le maintien des métaphores du baseball est plus important que la clarté ?

Rendre notre système de grève clair et cohérent


Nous sommes en train d’actualiser la façon dont nous donnons des coups de gâchette aux lignes directrices communautaires pour en faire un nouveau système plus simple. Nous avons travaillé avec les créateurs pour comprendre ce qui fonctionne…

Enfin, Google affirme que le troisième pilier de sa lutte contre la désinformation consiste à intégrer des méthodes permettant à l’utilisateur de savoir exactement quel type de contenu il voit, pourquoi il le voit – qu’il s’agisse d’un résultat de recherche, d’une annonce ou d’un article – et à mettre en place des possibilités de retour d’information sur ce qui apparaît.

Dans son livre blanc, Google présente les principaux outils qu’il a mis en place pour améliorer le contexte de l’utilisateur, qui consistent principalement en des étiquettes indiquant, par exemple, si un “contenu spécifique est un article de vérification des faits”, pourquoi un utilisateur voit une certaine annonce, ou plus d’informations sur les sources et les sujets d’actualité qui, selon l’entreprise, sont plus sujets à la désinformation (par exemple, l’histoire et la science).

Là où le système est potentiellement défaillant

Si la lutte de Google contre la désinformation a fait des progrès notables, elle reste insuffisante dans certains domaines, notamment sur YouTube.

En plus des changements susmentionnés à la politique des “trois fautes” de YouTube – une politique qui, selon certains, impose une attribution disproportionnée de la punition qui, par exemple. Selon The Verge, par exemple, les nouvelles politiques de violation de la communauté assignent la même sanction à quelqu’un qui “se fait passer pour quelqu’un qui poste des discours de haine violents ou des menaces”.

L’approche apparemment plus indulgente de YouTube en matière de violations de lignes directrices n’incite pas à croire qu’il est de plus en plus capable de combattre la propagation virale des vidéos sur la théorie du complot.

Ce problème particulier est le phénomène des créateurs populaires de YouTube qui utilisent la plateforme, comme le décrit Kevin Roose du New York Times, pour promouvoir des “hypothèses farfelues” qui ne sont pas fondées dans les faits – comme la suggestion d’une star de YouTube selon laquelle la National Aeronautics and Space Administration (NASA) a fabriqué le tout premier alunissage d’Apollo.

Le fait que YouTube – et par procuration, sa société mère Google – ait été confronté à des défis importants dans la lutte contre ce type particulier d’informations non authentiques est révélateur de la question plus large de la modération des contenus. Déterminer quel contenu est bon, mauvais, contraire aux règles ou offensant est loin d’être une tâche objective, et c’est une tâche que de nombreuses entreprises technologiques ont eu du mal à définir.

Facebook, par exemple, a récemment été à nouveau sous les feux de la rampe pour les “règles” de modération de contenu extrêmement ambiguës et souvent contradictoires qui placent l’entreprise – et ceux qui sont chargés de surveiller ce qui est partagé sur son réseau – à une intersection délicate, parfois dangereuse, entre l’autorité légale et les médias sociaux.

Aucune entité, et surtout pas une entreprise à but lucratif comme Facebook, ne devrait avoir ce genre de pouvoir pour influencer le débat public et la politique.

  • Jasmin Mujanovic, politologue et auteur, a déclaré au New York Times

Mais pour sa part, Google a reconnu qu’il lui reste des progrès à faire – notant que certains de ses programmes, comme ceux conçus pour lutter contre la désinformation liée aux élections, sont encore en cours de “déploiement” – et qu’il travaille constamment à améliorer son produit Search, par exemple, pour à la fois produire les résultats les plus fiables et renforcer la confiance des utilisateurs.

“La désinformation est un problème qui se pose sur trois fronts : l’opportunité, un algorithme puissant qui peut lutter contre des campagnes coordonnées pour diffuser des informations qui divisent et, parfois, l’intervention du gouvernement”, déclare Victor Pan, directeur principal du marketing SEO de HubSpot. “Google a mûri en tant que société de recherche, mais trouver l’équilibre entre les informations exactes qui peuvent être affichées aux utilisateurs, et celles qui ne le peuvent pas pour des raisons juridiques ou autres, signifie que toute innovation dans ce domaine sera lente et délibérée”.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *