16/07/2020 | 15 h 51 HAE

Bots de médias sociaux et publicité trompeuse

Commission fédérale du commerce

Rapport au Congrès

  1. Présentation du rapport

En décembre 2019, le Congrès a ordonné à la Federal Trade Commission (« FTC » ou « Commission ») de faire rapport au Comité sénatorial des États-Unis sur les crédits sur les « réseaux sociaux et la publicité trompeuse » .1 Le Comité a déclaré que le rapport devrait décrire « la croissance marché des robots de médias sociaux ainsi que l’utilisation de robots de médias sociaux dans la publicité en ligne, « y compris » une discussion sur la façon dont leur utilisation pourrait constituer une pratique trompeuse. « 2 La Commission soumet ce rapport en réponse à cette orientation du Congrès.

  1. Contexte

Selon une estimation souvent citée, plus de 37% de tout le trafic Internet n’est pas humain et est plutôt le travail de robots conçus à des fins bonnes ou mauvaises.3 Les robots sont des logiciels informatiques automatisés qui effectuent des tâches le long d’un ensemble d’algorithmes, 4 et ils le sont au travail partout sur Internet à différents niveaux de sophistication.5 Leurs utilisations légitimes varient: les robots d’exploration collectent des données pour l’optimisation des moteurs de recherche ou l’analyse du marché; les robots de surveillance analysent la santé du site Web et du système; les robots agrégateurs rassemblent des informations et des nouvelles de différentes sources; et les chatbots simulent la conversation humaine pour fournir un support client automatisé. 6

Les bots de médias sociaux sont simplement des bots qui fonctionnent sur des plateformes de médias sociaux, où ils sont courants et ont une grande variété d’utilisations, tout comme les bots fonctionnant ailleurs. Souvent abrégés en «bots sociaux», ils sont généralement décrits en termes de leur capacité à émuler et à influencer les humains. Le Department of Homeland Security («DHS») les décrit comme des programmes qui «peuvent être utilisés sur les plateformes de médias sociaux pour effectuer diverses tâches utiles et malveillantes tout en simulant le comportement humain» .7 Ces programmes utilisent l’intelligence artificielle et l’analyse des mégadonnées pour imiter les légitimes.

  1. S. Rept.116-111, 116thCongress, 1stSess. à 70-71 (19 septembre 2019); voir165 Cong. Rec. S7206 (19 décembre 2019).

  2. Id.

  3. Imperva, 2020 Bad Bot Report: Bad Bots Strike Back, à 9 (2020), disponible sur http://www.imperva.com/resources/resource-library/reports/2020-Bad-Bot-Report/.

  4. Agence suédoise des contingences civiles et Université de Lund, Countering Information Influence Activities: The State of the Art, à 56-57 (2018) disponible sur https://portal.research.lu.se/portal/en/publications/countering-information- activités d’influence (825192b8-9274-4371-b33d-2b11baa5d5ae) .html[hereinafter Lund]; voir aussi Cal. Autobus. & Code prof. § 17940 (2018) (définissant un « bot » comme « un compte en ligne automatisé où toutes ou pratiquement toutes les actions ou publications de ce compte ne sont pas le résultat d’une personne »); Robert Gorwa & Douglas Guilbeault, Unpacking the Social Media Bot: A Typology to Guide Research and Policy, Policy & Internet (Fall 2018) (discutant des problèmes de définition et de l’histoire du terme « bot »), disponible sur https: // arxiv. org / pdf / 1801.06863.pdf.

  5. Lund, supranote 4, 56-57 (« Les bots les plus simples sont basés sur un script avec des possibilités prédéterminées, tandis que les bots plus sophistiqués peuvent utiliser l’apprentissage automatique et l’intelligence artificielle pour traiter des requêtes complexes. »).

  6. SeeLund, supranote 4; Gorwa, supranote 4; Paris Martineau, What Is a Bot?, WIRED, 16 novembre 2018, disponible sur https://www.wired.com/story/the-know-it-alls-what-is-a-bot/.

  7. United States Department of Homeland Security, Social Media Bots Overview (mai 2018), sur https: //niccs.us- cert.gov/sites/default/files/documents/pdf/ncsam_socialmediabotsoverview_508.pdf?trackDocs=ncsam_socialmedia

les utilisateurs publiant du contenu; Le DHS conclut qu’ils «deviennent de plus en plus répandus et meilleurs pour imiter le comportement humain», de sorte que leurs «utilisations potentielles, à des fins bonnes et malveillantes, sont en constante expansion.» 8Par exemple, de «bons» robots de médias sociaux – qui ne le font généralement pas faire semblant d’être de vraies personnes – peut donner un avis sur les dernières nouvelles, alerter les gens sur les urgences locales ou encourager l’engagement civique (comme les opportunités de bénévolat) .9 Les malveillants peuvent être utilisés pour le harcèlement ou le discours de haine10 ou pour distribuer des logiciels malveillants. détourner des comptes légitimes ou utiliser les informations personnelles de personnes réelles.12

Une récente expérience du Centre d’excellence des communications stratégiques de l’OTAN (« NATO StratCom COE ») a conclu que plus de 90% des robots de médias sociaux sont utilisés à des fins commerciales.13 Ces objectifs commerciaux peuvent être bénins, comme les chatbots qui facilitent la société à client. Mais d’autres finalités commerciales pour les bots sont illicites, par exemple lorsque les influenceurs les utilisent pour augmenter leur popularité supposée (qui est en corrélation avec le montant d’argent qu’ils peuvent commander auprès des annonceurs) ou lorsque les éditeurs en ligne les utilisent pour augmenter le nombre de clics qu’une annonce reçoit (ce qui leur permet de gagner plus de commissions auprès des annonceurs) .15 De tels abus génèrent des revenus publicitaires importants.16 De « mauvais » robots de médias sociaux peuvent également être utilisés pour distribuer

botsoverview_508.pdf; voir aussiEmilio Ferrara, et al., The Rise of Social Bots, Communications of the ACM, Vol 59 No.7 (juillet 2016) (« Un bot social est un algorithme informatique qui produit automatiquement du contenu et interagit avec les humains sur les médias sociaux, essayant d’émuler et éventuellement de modifier leur comportement. « ), disponible sur https://cacm.acm.org/magazines/2016/7/204021-the-rise-of-social-bots/fulltext;Digital Forensic Research Lab, #BotSpot: Twelve Ways to Spot a Bot, 28 août 2017, disponible sur https://medium.com/dfrlab/botspot-twelve-ways-to-spot-a-bot-aedc7d9c110c (les bots des médias sociaux sont « comptes de médias sociaux automatisés qui se présentent comme de vraies personnes »).

  1. Homeland Security, supranote 7; voir également Matt Chessen, The MADCOM Future (2017), 7-9, disponible à https://www.atlanticcouncil.org/in-depth-research-reports/report/the-madcom-future/(predicting that chatbots using artificiel l’intelligence sera presque indiscernable de parler à des êtres humains et sera si nombreux qu’elle étouffera efficacement la conversation humaine en ligne); Ferrara, supranote 7 (« L’avenir des écosystèmes des médias sociaux pourrait déjà pointer vers des environnements où l’interaction machine-machine est la norme, et les humains naviguent dans un monde peuplé principalement de bots. »).

  2. Homeland Security, supranote 7; Ferrara, supranote 7.

  3. Id. La généralisation de la désinformation et l’utilisation de robots de réseaux sociaux à des fins non publicitaires n’entrent pas dans le cadre de ce rapport.

  4. Lund, supranote 4, à 57; Gorwa, supranote 4; Malwarebytes Labs, Social Media Bots, 9 juin 2016, disponible sur https://blog.malwarebytes.com/threats/social-media-bots/.

  5. VoirNATO StratCom COE, The Black Market for Social Media Manipulation, 7 (novembre 2018), disponible sur https://www.stratcomcoe.org/black-market-social-media-manipulation; Nicholas Confessore, Gabriel JX Dance, Richard Harris & Mark Hansen, The Follower Factory, NY Times, 27 janvier 2018, disponible sur https://www.nytimes.com/interactive/2018/01/27/technology/social-media-bots.html.

  6. VoirNATO StratCom COE, Falling Behind: How Social Media Companies Are Fail to Combat Inauthentic Behavior Online, à 3 (nov.2019), disponible sur http://www.stratcomcoe.org/how-social-media-companies-are-failing- combat-inauthentic-behavior-online (contrastant l’étendue de leur utilisation à des fins politiques).

  7. SeeHomeland Security, supranote 7; Digital Marketing Institute, Grow Your Business with Social Bots (non daté), disponible sur https://digitalmarketinginstitute.com/en-us/blog/grow-your-business-with-social-bots(discussing customer service chatbots and other benign commercial commercial utilisations de robots de réseaux sociaux tels que l’envoi de notifications de compte ou de commande, de rappels et de contenu personnalisé).

  8. VoirNATO StratCom COE, Falling Behind, supranote 13, p. 5, 29-30.

  9. SeeCHEQ, Ad Fraud 2019: The Economic Cost of Bad Actors on the Internet (2019) (analyse comment les clics, les impressions et les conversions sont gonflés pour générer des revenus), disponible à l’adresse http://www.cheq.ai/adfraudcost; Global Disinformation Index , La question du quart de milliard de dollars: Comment est la technologie publicitaire de la désinformation sur les jeux? (Sept. 2019) (analyse de la publicité programmatique sur des domaines qui cherchent à se désinformer), disponible sur http://disinformationindex.org/research/#gaming-ad-tech; Confessore, supra note 12 (notant les statistiques qui montrent que les influenceurs avec plus de followers font plus d’argent).

Page 2 de 5

spam commercial contenant des liens promotionnels17 et facilitant la diffusion de faux avis de produits en ligne ou trompeurs.18

Le COE StratCom de l’OTAN a analysé le marché noir des bots de réseaux sociaux, constatant qu’il « croît d’année en année » sans « aucun signe qu’il devienne beaucoup plus cher ou plus difficile d’effectuer une manipulation généralisée des médias sociaux ». dynamique « , le marché ne se limite pas au soi-disant dark web, mais fonctionne en fait via des vendeurs et des revendeurs facilement accessibles qui annoncent ouvertement leurs services sur les moteurs de recherche et ailleurs20. Il est donc » bon marché et facile à manipuler les médias sociaux « , et les bots sont restés attractifs pour ces raisons et parce qu’ils sont encore difficiles à détecter pour les plateformes, sont disponibles à différents niveaux de fonctionnalité et de sophistication, et sont financièrement gratifiants pour les acheteurs et les vendeurs.21

L’utilisation de bots sociaux pour générer des likes, des commentaires ou des abonnés contredirait généralement les conditions de service de nombreuses plateformes de médias sociaux22.Les grandes entreprises de médias sociaux se sont engagées – codifiées dans le code de bonnes pratiques de l’UE sur la désinformation – à mieux protéger leurs plateformes et réseaux contre manipulations, y compris l’utilisation abusive de robots automatisés.23Ces entreprises ont depuis rendu compte de leurs actions pour supprimer ou désactiver des milliards de comptes inauthentiques.24 L’industrie de la publicité en ligne a également pris des mesures pour lutter contre la fraude par les robots et les influenceurs, étant donné les dommages considérables qu’elle cause aux annonceurs légitimes. .25 Pendant ce temps, la communauté informatique conçoit des méthodes sophistiquées de détection des bots sociaux.26 Néanmoins, comme décrit ci-dessus, l’utilisation malveillante des bots des réseaux sociaux reste un problème sérieux.27

  1. SeeLund, supranote 4, à 57; Gorwa, supranote 4. Malwarebytes Labs, supranote 11.

  2. SeeNicole Nguyen, Amazon Sellers Are Use Facebook Chatbots to Cheat Their Way to Good Reviews, Buzzfeed News, 14 octobre 2019, disponible sur http://www.buzzfeednews.com/amphtml/nicolenguyen/amazon-sellers-facebook-chatbots-fake -Commentaires.

  3. NATO StratCom COE, Falling Behind, supranote 13, à 4.

  4. NATO StratCom COE, Black Market, supranote 12, 16-17 (constatant également que « les fournisseurs de services russes semblent dominer le marché de la manipulation des médias sociaux »).

  5. Id.au 5-7,16-17; voir aussiFerrara, supranote 7; Gorwa, supranote 4; Digital Forensic Research Lab, Influence for Sale: Bot Shopping on the Darknet, 19 juin 2017 (montrant les faibles coûts d’achat de likes et de partages sur Twitter, Facebook et YouTube), disponible sur https://medium.com/dfrlab/ influence-for-sale-bot-shopping-on-the-darknet-1c9ddfb3d8e6.

  6. NATO StratCom COE, Black Market, supranote 12, p. 5.

  7. Commission européenne, Code of Practice on Disinformation, 26 septembre 2018, disponible sur https://ec.europa.eu/digital-single-market/en/news/code-practice-disinformation.

  8. Commission européenne, Plan d’action contre la désinformation, juin 2019, disponible sur https://ec.europa.eu/commission/sites/beta-political/files/factsheet_disinfo_elex_140619_final.pdf.Mais voirSimone Stolzoff, The Problem with Social Media Has Never Been About About Des bots. It’s Always Been About Business Models, Quartz, 16 novembre 2018 (décrivant les incitations financières des plateformes de médias sociaux pour augmenter le nombre d’utilisateurs et le trafic), disponible sur https://qz.com/1449402/how-to-solve-social- medias-bot-problem /.

  9. Voir, par exemple, Trustworthy Accountability Group, Principles for Fighting Influencer Fraud, 9 janvier 2019, disponible sur https://www.tagtoday.net/news/principles-fighting-influencer-fraud; voir aussiWhite Ops et Association of National Advertisers , 2018-2019Bot Baseline: Fraud in Digital Advertising (mai 2019) (discutant des efforts de détection et de prévention de la fraude bot en dehors du contexte des médias sociaux), disponible sur https://www.whiteops.com/botbaseline2019.

  10. SeeFerrara, supranote 7 (« Alors que nous construisons de meilleurs systèmes de détection, nous nous attendons à une course aux armements similaire à celle observée pour le spam dans le passé … La course ne sera terminée que lorsque l’efficacité d’une détection précoce augmentera suffisamment le coût de la tromperie. » ).

  11. Voir, par exemple, Tess Owen, Nearly 50% of Twitter Accounts Talking about Coronavirus Might Be Bots, VICE, 23 avril 2020 (discutant de la recherche informatique non publiée de l’Université Carnegie Mellon), disponible sur http://www.vice.com/ en_us / article / dygnwz / si-vous-parlez-de-coronavirus-sur-twitter-vous-êtes-probablement-un bot;

Page 3 de 5

  1. Action et autorité de la FTC impliquant des robots de réseaux sociaux

En octobre 2019, la Commission a annoncé une action coercitive contre Devumi, une entreprise qui a vendu de faux abonnés, abonnés, vues et likes à des personnes essayant de gonfler artificiellement leur présence sur les réseaux sociaux.28 Selon la plainte de la FTC, Devumi a exploité des sites Web sur lesquels des gens ont acheté ces faux indicateurs d’influence pour leurs comptes de médias sociaux. Devumi a rempli plus de 58 000 commandes de faux abonnés Twitter d’acheteurs qui comprenaient des acteurs, des athlètes, des conférenciers motivateurs, des partenaires de cabinets d’avocats et des professionnels de l’investissement. La société a vendu plus de 4000 abonnés faux aux opérateurs de chaînes YouTube et plus de 32000 fausses vues pour les personnes qui ont posté des vidéos individuelles – comme des musiciens essayant de gonfler la popularité de leurs chansons. Devumi a également vendu plus de 800 commandes de faux abonnés LinkedIn à des sociétés de marketing et de relations publiques, des services financiers et des sociétés d’investissement, ainsi qu’à d’autres dans le monde des affaires.

La plainte de la FTC indique que les abonnés, les abonnés et d’autres indicateurs de l’influence des médias sociaux « sont des mesures importantes que les entreprises et les particuliers utilisent pour prendre des décisions d’embauche, d’investissement, d’achat, d’écoute et de visualisation ». En termes plus simples, lorsqu’il envisage d’acheter quelque chose ou d’utiliser un service, un consommateur peut consulter les médias sociaux d’une personne ou d’une entreprise. Un suivi plus important pourrait avoir une incidence sur la façon dont le consommateur perçoit sa légitimité ou la qualité de ce produit ou service. Comme l’explique également la plainte, truquer ces mesures « pourrait inciter les consommateurs à faire des choix moins privilégiés » et « saper l’économie des influenceurs et la confiance des consommateurs dans les informations fournies par les influenceurs ». De plus, lorsqu’une entreprise utilise des robots de médias sociaux pour tromper le public de cette manière, cela pourrait également nuire à des concurrents honnêtes.

La Commission a allégué que Devumi avait violé la loi FTC en fournissant à ses clients les « moyens et les instruments » pour commettre des actes ou des pratiques trompeuses. C’est-à-dire que la vente et la distribution de faux indicateurs par l’entreprise ont permis à ces clients « d’exagérer et de dénaturer leur influence sur les réseaux sociaux », leur permettant ainsi de tromper les clients potentiels, les investisseurs, les partenaires, les employés, les téléspectateurs et les acheteurs de musique, entre autres. Devumi a donc violé la loi FTC même si elle-même n’a pas fait de fausses déclarations directement aux consommateurs.

Le règlement de cette action interdit à Devumi et à son propriétaire de vendre ou d’aider d’autres personnes à vendre l’influence des médias sociaux. Il leur interdit également de déformer ou d’aider les autres à déformer, l’influence des médias sociaux de toute personne ou entité ou dans toute revue ou approbation. L’ordonnance impose un jugement de 2,5 millions de dollars à son propriétaire – le montant qui lui aurait été payé par Devumi ou sa société mère29.

La Devumicase n’est pas la première fois que la FTC prend des mesures contre l’utilisation abusive commerciale de robots ou de comptes en ligne non authentiques. En effet, de telles actions, tout en impliquant auparavant des questions hors du contexte des médias sociaux, se déroulent depuis plus d’une décennie. Par exemple, la Commission a porté plainte contre Match.com, Ashley Madison et JDI Dating

Edgar Alvarez, What the Hell Is Going on in Instagram Comments, INPUT, 20 mars 2020 (décrivant le problème actuel des robots de spam publiant des commentaires), disponible sur https://www.inputmag.com/features/instagram-comments-bots -porn-scams-célébrités.

  1. Voirhttps: //www.ftc.gov/news-events/press-releases/2019/10/devumi-owner-ceo-settle-ftc-charges-they-sold-fake-indicators.

  2. L’ordonnance précise que, sur paiement de 250 000 $, le reste du jugement sera suspendu. S’il s’avère qu’il a déformé sa situation financière, la FTC peut demander au tribunal d’imposer le montant total.

Page 4 de 5

  • impliquant l’utilisation de robots ou de faux profils sur des sites de rencontres.30 Dans les trois cas, la FTC a allégué en partie que les entreprises ou des tiers dénaturaient que les communications provenaient de personnes réelles alors qu’en fait elles provenaient de faux profils. En outre, en 2009, la FTC a pris des mesures contre un fournisseur de services Internet voyous qui hébergeait des réseaux de zombies malveillants31.

Toutes ces mesures d’application appliquent le mandat clair mais flexible de la FTC, en tant qu’agence nationale de protection des consommateurs, pour protéger les personnes contre les pratiques trompeuses et déloyales sur le marché. Les affaires démontrent également la capacité de la FTC Act à s’adapter à l’évolution du comportement des entreprises et des consommateurs ainsi qu’aux nouvelles formes de publicité32.

Bien que la technologie et les modèles commerciaux continuent de changer, les principes qui sous-tendent les priorités et les cas d’application de la FTC restent constants. Un de ces principes réside dans le pouvoir de tromperie de l’agence. En vertu de la FTC Act, une allégation est trompeuse si elle est susceptible d’induire en erreur les consommateurs agissant raisonnablement dans les circonstances, à leur détriment.33 Une pratique est déloyale si elle cause ou est susceptible de causer un préjudice substantiel aux consommateurs que les consommateurs ne peuvent raisonnablement éviter et qui n’est pas contrebalancé par les avantages pour les consommateurs ou la concurrence34.

Le pouvoir juridique de la Commission de contrer la propagation de «mauvais» robots de médias sociaux est donc alimenté mais également limité par la loi FTC, en vertu de laquelle nous devons démontrer dans tous les cas que l’utilisation de ces robots constitue une pratique trompeuse ou déloyale. dans ou affectant le commerce. Bien que les faits dans Devumifit soient une analyse traditionnelle des « moyens et instruments » de la FTC, chaque modèle de fait doit être analysé au cas par cas. Le personnel du Conseil continuera de surveiller les possibilités d’application de la loi en matière de publicité sur les réseaux sociaux ainsi que l’activité commerciale des robots sur ces plateformes.

  1. Voirhttps: //www.ftc.gov/news-events/press-releases/2019/09/09/ftc-sues-owner-online-dating-service-matchcom-using-fake-love (Match.com); https: / /www.ftc.gov/news-events/press-releases/2016/12/operators-ashleymadisoncom-settle-ftc-state-charges-resulting(Ashley Madison); ethttps: //www.ftc.gov/news-events/press-releases/2014/10/online-dating-service-agrees-stop-deceptive-use-fake-profiles (JDI Dating). Le litige contre Match.com est en cours.

  2. Voirhttps: //www.ftc.gov/news-events/press-releases/2009/06/ftc-shuts-down-notorious-rogue-internet-service-provider-3fn.

  3. Ces nouvelles formes incluent l’utilisation croissante par les marketeurs d’influenceurs pour vanter les biens et services sur les plateformes de médias sociaux. Outre TheDevumicase, la Commission a introduit au moins sept affaires de marketing d’influence depuis 2015. Voir, par exemple, https://www.ftc.gov/news-events/press-releases/2020/03/tea-marketer-misled-consumers -n’a pas divulgué de manière adéquate les paiements (Teami); https://www.ftc.gov/news-events/press-releases/2015/09/xbox-one-promoter-settles-ftc-charges-it-deceived-consumers(Machinima). La FTC a également publié un guide de divulgation en langage clair et des vidéos pour les influenceurs. Voirhttps: //www.ftc.gov/influencers.

  4. Voir, par exemple, FTC c.Stefanchik, 559 F.3d 924, 928 (9th Cir.2009); Telebrands Corp., 140 F.T.C. 278, 290 (2005), conf., 457 F.3d 354 (4e cir. 2006); voir également la Federal Trade Commission Policy Statement on Deception, annexée à Cliffdale Assocs., Inc., 103 F.T.C. 110, 174-83 (1984).

  5. 15 U.S.C. § 45 (n); voir également l’Énoncé de politique de la Federal Trade Commission sur l’injustice, annexé à Int’l. Harvester Co., 104 F.T.C. 949, 1070-76 (1984).

  6. Voir, par exemple, Waltham Watch Co. v.FTC, 318 F.2d 28, 32 (7th Cir.1963) (cité dans FTC v.Cin Five-Star Auto Club, 97 F. Supp. 2d 502, 530 (SDNY 2000) ); Regina Corp. c.FTC, 322 F.2d 765, 768 (3d Cir.1963); Litton Indus., Inc.,

  1. F.T.C. 1, 48 (1981), confirmé, 676 F.2d 364 (9th Cir. 1982).

Page 5 de 5

Avertissement

Commission fédérale du commerce a publié ce contenu sur 16 juillet 2020 et est seul responsable des informations qui y sont contenues. Distribué par Public, non édité et inchangé, sur 16 juillet 2020 19:50:03 UTC