du département de désinformation-va-retour-en ligne

Cette série d’études de cas est publiée en partenariat avec la Trust & Safety Foundation pour examiner les choix difficiles et les compromis impliqués dans la modération du contenu. En savoir plus & raquo

Résumé: La première innovation de Google en matière de recherche a été d’utiliser des liens entrants comme outil pour déterminer la popularité d’un site Web, et donc sa pertinence pour une recherche particulière. Cette fonctionnalité, cependant, a créé certains effets secondaires qui ont soulevé des inquiétudes quant à la façon dont les résultats de la recherche peuvent conduire à des informations erronées ou à la manière dont le moteur de recherche peut être utilisé.

L’un des premiers exemples de cela a été la découverte en 2004 que le premier résultat d’une recherche sur le mot «juif» pointait vers un site Web antisémite flagrant, Jewwatch. Il a été largement théorisé que la raison en était que le nom singulier « juif » était plus susceptible d’être utilisé par ceux qui poussaient des arguments antisémites, plutôt que l’adjectif plus courant « juif » ou l’expression « juif wo / homme » etc. De plus, le site Jewwatch existe depuis de nombreuses années et contient de nombreux liens entrants provenant d’autres sources.

Certains croyaient également que les personnes derrière Jewwatch avaient utilisé une technique d’optimisation des moteurs de recherche précoce connue sous le nom de «Googlebombing» pour jouer délibérément les résultats – en créant un lien délibéré avec Jewwatch à partir d’autres sites et en utilisant le mot «jew» comme texte du lien.

Comme ce résultat a attiré l’attention, Google a subi une pression énorme pour modifier le résultat de la recherche, car les gens accusaient la société d’antisémitisme ou pointaient délibérément le site Jewwatch dans les résultats de recherche. La Ligue anti-diffamation a envoyé une lettre à Google lui demandant d’explorer si son système de classement devait ou non être modifié (bien que l’ADL ait également publié un article sur son propre site disant aux gens qu’il était clair que le résultat n’était pas intentionnel, ou fait pour des raisons néfastes). Certains politiciens, dont le sénateur Chuck Schumer, se sont également impliqués pour faire pression sur Google pour qu’il modifie ses résultats.

Décisions à prendre par Google:

  • Les résultats de recherche supérieurs doivent-ils être modifiés manuellement lorsqu’il est découvert qu’ils conduisent à des informations erronées et à la haine?
  • Faut-il modifier l’algorithme pour essayer d’éviter ces résultats?
  • L’entreprise ne devrait-elle rien faire et dire que l’algorithme décide des résultats, point final?
  • Une décision devrait-elle créer un précédent pour les décisions futures et, dans l’affirmative, quelles politiques et lignes directrices doivent être mises en place pour traiter les cas futurs?
  • Y a-t-il d’autres façons de réagir à cette situation?
  • Comment Google devrait-il gérer les tentatives de recherche de jeux via des choses comme Googlebombing?

Questions et implications politiques à considérer:

  • Si des modifications sont apportées, est-ce que beaucoup d’autres s’attendent à ce que des modifications similaires soient également apportées?
  • Les modifications entraîneront-elles des questions concernant la crédibilité des résultats de recherche et l’algorithme de Google?
  • Quels types de politiques et de processus doivent être en place pour traiter ce type de demandes?
  • Des changements auront-ils également d’autres conséquences imprévues?
  • Les techniques d’optimisation des moteurs de recherche sont-elles néfastes? Peuvent-ils l’être? Si oui, comment distinguez-vous les bonnes intentions des mauvaises intentions?
  • Si vous bloquez certaines techniques, telles que Googlebombing, cela arrêtera-t-il la pratique lorsqu’elle est utilisée à de bonnes fins également?

Résolution: Google a répondu en déclarant clairement qu’il n’avait aucune intention directe de modifier son algorithme. Cependant, il a décidé de fournir plus d’informations, en utilisant l’espace publicitaire au-dessus du résultat supérieur pour encourager les gens à cliquer pour plus d’informations sur la façon dont les résultats ont été obtenus:

L’entreprise a également déclaré qu’elle «explorerait d’autres moyens de résoudre» des problèmes comme celui-ci «à l’avenir».

Cependant, ce qui est peut-être plus intéressant, c’est que les utilisateurs de Google ont pris les choses en main et se sont rendu compte que si Jewwatch était Google Bombing, ils pouvaient utiliser les mêmes outils pour diminuer le résultat. Une campagne a été rapidement organisée en ligne, avec de nombreuses personnes reliant le mot «juif» à la page de Wikipédia sur le judaïsme, et en effet, cela a fonctionné pour obtenir ce résultat en haut du classement.

Au fil du temps, les algorithmes de Google ont été ajustés à l’échelle mondiale pour essayer de diminuer la puissance de Googlebombing pour une raison quelconque (bonne ou mauvaise). En 2007, la société a annoncé qu’elle pensait que son algorithme filtrerait les tentatives de bombardement de Google. Dans cette discussion, les employés qui ont aidé à arrêter l’efficacité de Googlebombing ont expliqué pourquoi ils l’avaient fait et comment ils pensaient qu’il valait mieux adopter une approche holistique (qui était plus évolutive) que de répondre aux «mauvais» résultats individuels:

Les gens ont demandé ce que nous pensons de Googlebombs, et nous en avons parlé dans le passé. Parce que ces farces sont normalement pour des phrases qui sont bien hors des sentiers battus, elles n’ont pas été une priorité très élevée pour nous. Mais au fil du temps, nous avons vu plus de gens supposer qu’ils étaient l’opinion de Google ou que Google avait codé à la main les résultats de ces requêtes Googlebombed. Ce n’est pas vrai, et il semblait que cela valait la peine d’essayer de corriger cette perception erronée. Donc, certains d’entre nous qui travaillent ici se sont réunis et ont trouvé un algorithme qui minimise l’impact de nombreuses bombes Google.

La prochaine question naturelle à poser est « Pourquoi Google ne modifie-t-il pas ces résultats de recherche à la main? » Pour répondre à cela, vous devez en savoir un peu plus sur le fonctionnement de Google. Lorsque nous sommes confrontés à un mauvais résultat de recherche ou à un problème de pertinence, notre premier réflexe est de rechercher un moyen automatique de résoudre le problème au lieu d’essayer de résoudre manuellement une recherche particulière. Les algorithmes sont excellents car ils évoluent bien: les ordinateurs peuvent traiter beaucoup de données très rapidement et les algorithmes robustes fonctionnent souvent bien dans de nombreuses langues différentes. C’est ce que nous avons fait dans ce cas, et l’effort supplémentaire pour trouver un bon algorithme permet de détecter Googlebombs dans de nombreuses langues différentes. Nous ne prétendrions pas que ce changement gère chaque farce que quelqu’un a tenté. Mais si vous connaissez d’autres bombes Google potentielles, nous sommes heureux d’entendre des commentaires dans notre groupe d’aide Google Web Search.

Filed Under: étude de cas, modération de contenu, désinformation, recherche