Facebook a modifié en 2018 son algorithme. Ce dernier n’a fait que le contraire en termes de recommandation. Les équipes se sont rendues compte que les recommandations de l’algo étaient un mélange de contenus toxiques et de désinformation. Ces informations sont dévoilées grâce aux dernières publications du Wall Street Journal.
Les équipes de Mark Zuckerberg voulaient accentuer « les interactions sociales qui ont du sens », c’est-à-dire entre amis, familles et proches. D’où la modification en question. Selon les rapports dont s’est procuré le Wall Street Journal, un groupe de chercheurs au sein de l’entreprise américaine a démontré que l’algorithme se comportait différemment. Plutôt que de préserver l’utilisateur, celui-ci met en avant des contenus jugés violents, toxiques ou alors des fakenews.
Facebook compte mieux faire
« La désinformation, la toxicité et les contenus violents sont anormalement prévalents dans les contenus repartagés », renseigne le quotidien américain. « Notre approche a eu des effets collatéraux malsains sur d’importantes parties des contenus, notamment en politique et en actualité. Notre responsabilité est grandissante », ajoutent les chercheurs.
Les recherches ont aussi montré qu’Instagram a une influence négative sur les jeunes filles. Pendant dix-huit mois, des chercheurs au sein de Facebook ont effectué « une recherche en profondeur sur l’état mental des adolescentes ». Ces dernières étaient plus orientées vers une comparaison constante entre elles et les autres jeunes filles. L’entreprise a réagi en rassurant travailler « de plus en plus sur les comparaisons [de son corps avec celui des autres] et l’image négative du corps ».
Ainsi va le monde des réseaux sociaux.
Lire aussi : Date de naissance : Instagram menace de bloquer des comptes