À propos de ce blog

Thèmes Populaires

4 raisons pour lesquelles Twitter a des difficultés à neutraliser les Bots

Guillaume Ortega

03.11.17 4 min de lecture

Twitter a bel et bien admis avoir un problème.

Le quatrième plus grand réseau social au monde a annoncé qu’il ne vendrait plus de publicité aux médias russes Russia Today (RT) et Spoutnik, cette décision prenant effet « immédiatement ». Le site web explique qu’une enquête interne est en cours pour déterminer le rôle qu’ont pu jouer ces deux organisations dans l’élection présidentielle américaine de 2016, via Twitter. Elles auraient en effet « tenté d’interférer avec l’élection, pour le compte du gouvernement russe ». Twitter a donc décidé de bannir leurs publicités de sa plateforme, afin de « protéger l’intégrité de l’expérience utilisateur sur Twitter ».

Selon Maya Kosoff, de Vanity Fair, il s’agit avant tout de « limiter les dégâts » avant la comparution des dirigeants de Twitter devant le comité sénatorial du renseignement. Maya Kosoff a comparé cette mesure à « un pansement sur une tumeur cérébrale », dans la mesure où les effets de ces publicités n’ont joué, d’après elle, qu’un rôle mineur, comparé aux comptes troll et aux bots : en effet, selon une étude, ces derniers auraient représenté 1 tweet électoral sur 5.

L’utilisation de robots pour influencer les électeurs n’est pas limitée aux États-Unis. D’après les chercheurs, 13 000 bots auraient tenté d’inciter les électeurs britanniques à voter en faveur du Brexit.

Pour Twitter, il est techniquement facile d’intervenir sur la publicité, et l’interdiction de deux acheteurs ne devrait pas affecter ses résultats financiers outre mesure. Toutefois la publicité sur Twitter est loin d’être aussi omniprésente ou efficace que sur Facebook. Cet autre réseau social, dont le rôle dans l’élection de 2016 est également examiné avec attention, absorbe bien davantage de fonds publicitaires que Twitter.

Toujours pour lutter contre la propagande, Twitter ferme les comptes de trolls individuels et s’y emploie plus ardemment encore depuis l’élection. Le réseau social semble toutefois dans l’incapacité de s’attaquer aux robots, qui constituent pourtant le véritable problème.

Il y a quelques semaines, Andy Patel, du Laboratoire F-Secure, avait commencé à « jouer » avec l’API Twitter et à étudier les robots interagissant avec le compte @realDonaldTrump. Par la suite, il a mené plusieurs recherches concernant les activités Twitter liées aux récentes élections en France, au Royaume-Uni et en Allemagne. Ses conclusions ont été les suivantes : Twitter ne mène « aucune action automatique contre les robots ». Nous lui en avons demandé les raisons.

« Twitter a accès à toutes les données brutes issues des bases de données, y compris à des champs que nous, nous ne voyons même pas », m’a-t-il expliqué. « Twitter dispose aussi probablement d’outils puissants permettant d’examiner les relations entre les comptes, les comportements suspects, etc. Pourtant, même avec tous ces outils, je pense que débusquer les groupes d’utilisateurs malveillants et dotés d’un objectif politique précis reste difficile. Et cela prend beaucoup de temps. »

Il a ensuite évoqué quatre raisons pour lesquelles il est si difficile de neutraliser ces robots :

  1. Faire la différence entre propagande et publicité est difficile.
    « Si Twitter se trompe et désactive des comptes légitimes, cela peut mener à des allégations de censure. Toute méthode permettant de distinguer discours politique valable et censure doit donc être efficace à 100% », écrit Andy. « Twitter tente de séparer les comptes robots des comptes réels. »
  2. L’avalanche permanente de Tweets joue en faveur des bots
    « Pour trouver des comptes suspects, il faut d’abord identifier les termes à surveiller, et cibler certains comptes suspects. Un problème se pose, toutefois : les propriétaires de comptes malveillants et de réseaux de robots changent souvent de tactiques pour éviter d’être détectés à partir de simples techniques d’analyse. »
  3. Les bots peuvent être automatisés mais leur détection requiert des moyens humains
    « Tout système automatisé conçu pour détecter les comportements malveillants sur Twitter doit être configuré avec les bons paramètres, déterminés à partir d’une enquête préliminaire (et donc manuellement). Ce système doit ensuite être constamment reconfiguré pour tenir compte de l’évolution du contexte. Des employés doivent, en permanence, être attentifs au discours politique, aux comptes-utilisateurs et aux tactiques utilisées par les individus malveillants. Les résultats doivent ensuite être contrôlés par des êtres humains, capables de repérer les anomalies. Toutes ces étapes manuelles peuvent être sujettes à des erreurs. »
  4. Comment suivre la cadence ?
    « L’exploitation de données plus anciennes pour identifier des schémas récurrents diffère sensiblement de la détection d’activités malveillantes en temps réel. Les données archivées peuvent fournir aux chercheurs des indices sur le comportement général des comptes malveillants, mais utiliser de telles analyses pour filtrer un flux de données en temps réel s’avère, en pratique, assez compliqué. Les agendas politiques évoluent en permanence (certaines priorités apparaissent, d’autres sont abandonnées) : les réseaux sociaux auront probablement toujours des difficultés à suivre de près chaque évolution. »

Andy précise que « Twitter surveille et ferme activement les comptes des djihadistes ». « Il est envisageable pour Twitter de créer des processus d’identification et de neutralisation similaires pour d’autres types de discours indésirables. » Toutefois, le principal défi reste d’être capable de réaliser ce travail en temps réel.

Image © Andread Eldh

Guillaume Ortega

03.11.17 4 min de lecture

Article mis en avant

Publications connexes

Newsletter modal

Merci de votre intérêt pour F-Secure. Vous recevrez bientôt un email pour confirmer votre abonnement à la newsletter.

Gated Content modal

Félicitations – Vous pouvez maintenant accéder à votre contenu en cliquant sur le bouton ci-dessous.