Pouvoir algorithmique de désinformation
28 novembre 2016 - Image par Mahaut Engérant
Facebook néglige sa responsabilité de vérité.

La révolution du Web a permis une explosion de potentialités et d’interactions, notamment grâce aux nouvelles plateformes médiatiques. Facebook, créé en 2004 par Mark Zuckerberg, en est le parfait exemple. Avec plus de 900 millions d’utilisateurs quotidiens, rassemblant près du quart de la population adulte mondiale, il ne serait pas utopiste de penser que le portail Facebook aurait le devoir, de la façon la plus factuelle qui soit, de transmettre de l’information. Toutefois, tel n’est manifestement pas le cas puisque force est de constater que Facebook s’applique plutôt à jouer un rôle de gatekeeper (portier, ndlr): l’information disponible est filtrée et l’entreprise décide, de façon unilatérale, ce qui sera transmis vers le fil d’actualité. Pour y parvenir, Facebook n’hésite pas à avoir recours à des procédés controversés: ils utilisent en effet un algorithme qui prend en compte des données nous concernant telles que nos intérêts, nos goûts, et opinions — données déguisées sous forme de pages auxquelles l’individu a attribué la mention «J’aime». Le fil d’actualités a une puissance telle, qu’en connaissant, par exemple, nos opinions politiques, il peut nous partager des informations susceptibles de nous intéresser.

Un environnement personnalisé

Notre vie numérique quotidienne est pleine de contenu généré de façon algorithmique: ces derniers filtrent, classent et mettent en avant seulement certaines informations. En se basant sur des critères présupposés tenant compte des goûts de l’utilisateur, Facebook s’arroge donc le droit de penser pour lui grâce à sa collection de métadonnées. Facebook modifie, cache et altère l’information, et ne remplit plus son devoir de vérité. En effet, les métadonnées obtenues par le site lui donnent une puissance sans égale. À qui sert donc cette collecte d’informations relevant de la sphère privée et dans quel contexte? Dans le cas présent, à l’instar des entités étatiques et gouvernementales, le secteur commercial porte grand intérêt à nos données. Nous faisons donc l’objet d’un certain profilage: nos préférences sont ciblées et sont combinées aux publicités. Ainsi, nos données sont récupérées et propagées afin de pouvoir influencer notre comportement de consommateur, nourrissant les besoins du capitalisme.

Le pouvoir de désinformation

Les nouvelles technologies, notamment les réseaux sociaux comme Facebook, de par leurs algorithmes, sont de véritables dangers nuisibles à l’intimité. Une simple plateforme de communication comme Facebook, qui semble agréable d’utilisation, n’est en fait qu’un simple moyen de surveillance omniprésente. Avec les données transmises, ce genre de site anticipe nos achats et nos modes de vies. Facebook devient aussi un relai pour renforcer les opinions que les utilisateurs ont déjà. Le site a tendance à devenir un lieu de réconfort, où les préjugées sont confirmés. Inconsciemment, les utilisateurs voient leurs biais renforcés sans cesse, car leurs opinions sont caressées dans le sens du poil. Également, Facebook peut nous partager des fausses nouvelles produites par des sites frauduleux. Le fait que nos informations soient triées et filtrées fait de Facebook, qui est censé être un simple outil de communication, de partage d’opinions et d’intérêts, devient un acteur social.

Le cas de l’élection 2016

Craig Silverman de Buzzfeed Canada révélait que des adolescents dans les Balkans se sont amusés, ayant des visées qui semblent être lucratives, à créer de fausses pages de nouvelles. Cette désinformation pose problème car, prise au sérieux, elle renforce ou influence l’opinion politique.
Pendant l’élection 2016, le danger s’est avéré être bel et bien réel, puisque l’audience des fausses nouvelles dépassaient souvent celle des vraies. Par exemple, une fausse nouvelle prétendant que le pape a donné son appui à Trump a eu une portée d’environ 960 000 personnes, alors qu’un article du New York Times révélant les impôts impayés du candidat milliardaire a reçu beaucoup moins d’attention. Ceci n’est pas un cas unique. Dans certains cas, les fausses nouvelles sont facilement identifiables, (par exemple «Trump est né au Pakistan»), d’autres sont moins visibles et peuvent influencer les électeurs les moins renseignés.
Par exemple, le fameux meme partagé plus de 500 000 fois sur Facebook, où Trump aurait déclaré, en 1998, au journal People pouvoir devenir «facilement président en étant un candidat républicain, parce qu’il s’agit du parti le plus idiot» n’était en vérité qu’une fausse information, ces propos n’ayant jamais été tenus par le désormais président-désigné. L’ensemble de fausses nouvelles ait eu une portée de 8,7 millions de vues, tandis que la véritable actualité plus d’un million de moins, à savoir 7,3 millions. De plus en terme d’audience, le top 20 des fausses nouvelles combinées a atteint plus de personnes que le top 20 des nouvelles véridiques mises ensemble.

Comment y échapper ?

Peut-on déjouer l’algorithme de Facebook et ainsi rendre la plateforme plus démocratique? Voilà une question à laquelle tous tentent de répondre. Alors que certains proposent de nouvelles applications ou algorithmes, tel FeedVis, pour contourner celui du géant de la toile, d’autres demeurent plus sceptiques en admettant qu’il faut simplement accepter cette éthique de transparence. Pour remédier à ce contrôle de données de la part de l’application, il faudrait sensibiliser la population sur l’existence de tels outils de contrôle, car nombreux sont ceux qui l’ignorent. Il faudrait également que Facebook partage le contrôle de données qu’elle exerce avec ses abonnés, leur laissant le pouvoir de décider eux-mêmes ce qu’ils veulent voir, ou pas, comme la récente mise à jour du logiciel commence timidement à permettre. De plus, les utilisateurs peuvent aller «aimer» des pages qui présentent un contenu qui défie leurs opinions. Pendant l’élection, il était très intéressant de se «promener» à la fois sur les pages pro-Trump et pro-Clinton. Cet exercice déjoue non seulement l’algorithme qui collecte des informations contradictoires, mais c’est intellectuellement sain d’affronter ses propres opinions avec ceux des groupes adverses.

 
Sur le même sujet: