• Technologie
  • Équipement électrique
  • Industrie des matériaux
  • La vie numérique
  • politique de confidentialité
  • Ô nom
Emplacement: Accueil / Technologie / Comment les algorithmes de médias sociaux addictifs pourraient enfin faire face à un calcul en 2022

Comment les algorithmes de médias sociaux addictifs pourraient enfin faire face à un calcul en 2022

Plateforme de services à guichet unique |
2230

Face aux affirmations selon lesquelles ils privilégient les bénéfices sur les personnes, Facebook et Instagram sont sous la pression croissante pour réformer les façons dont leurs plateformes sont conçues pour être addictive pour les utilisateurs.Les experts affirment qu'un contrôle accru pourrait signaler que le modèle commercial actuel de l'industrie des médias sociaux est dû à une perturbation importante.

Souvent par rapport au grand tabac pour la manière dont leurs produits sont addictifs et rentables, mais finalement malsains pour les utilisateurs, les plus grands acteurs des médias sociaux sont confrontés à des appels croissants à la fois à la responsabilité et à l'action réglementaire.Afin de gagner de l'argent, les algorithmes de ces plateformes fonctionnent efficacement pour garder les utilisateurs engagés et faire défiler le contenu, et par extension des publicités, aussi longtemps que possible.

«[Ces entreprises] ne sont tenues responsables de leurs pratiques commerciales», explique Sherry Fowler, professeur de pratique en technologie de l'information et analyse commerciale à la North Carolina State University.«Je pense que nous sommes au même point [avec Big Tech] que nous étions lorsque Big Tobacco a été contraint de partager la recherche sur la façon dont ses produits nuisent aux individus.Il devait y avoir cette campagne de masse pour informer le public parce qu'à ce moment-là, beaucoup de gens ne savaient même pas que le tabac était addictif.Ici, nous avons quelque chose qui est tout aussi addictif et nous avons permis aux entreprises de ne pas avoir à répondre à personne.Certaines industries ne peuvent pas être rampantes sans aucune règle appliquée."

Avec un consensus bipartite qui a augmenté que davantage doit être fait pour lutter contre la façon dont les principales plateformes des médias sociaux stimulent l'engagement en utilisant des outils algorithmiques qui sont destructeurs pour le bien-être individuel et sociétal, l'intervention gouvernementale semble plus inévitable - et imminent - que jamais l'année à venir.

Bipartisan lawmakers have already introduced a House bill dubbed the Filter Bubble Transparency Act that would require platforms to offer a version of their services where content is not selected by “opaque algorithms" that draw on personal user data to generate recommendations.

En tant que représentant républicain.Ken Buck, l'un des représentants parrainant la législation, a déclaré à Axios: «Les consommateurs devraient avoir la possibilité de s'engager avec les plateformes Internet sans être manipulées par des algorithmes secrets pilotés par des données spécifiques à l'utilisateur." But the question remains: Is real change possible?

Le côté obscur des algorithmes addictifs

While concerns over addictive algorithms extend beyond the two platforms owned by Meta, the company formerly known as Facebook, internal documents—sometimes referred to as the “Facebook Papers"—leaked in recent months by Facebook product manager turned whistleblower Frances Haugen have shone a spotlight on the harmful effects that Facebook and Instagram specifically can have on users, and especially young users.

In her October testimony to a Senate Commerce subcommittee, Haugen said that Facebook’s use of “engagement-based ranking"—an algorithmic system that rewards posts that generate the most likes, comments and shares—and heavy weighting of “meaningful social interactions"—content that generates strong reactions—has resulted in a system that’s amplified divisive content on the platform, fostered hate speech and misinformation, and incited violence.

Lire la suite: Pourquoi Frances Haugen est «super effrayée» sur Metaverse de Facebook

How Addictive Social Media Algorithms Could Finally Face a Reckoning in 2022

Sur Instagram, ces mécanismes poussent les enfants et les adolescents à un contenu nocif qui peut entraîner des problèmes d'image corporelle, des crises en santé mentale et de l'intimidation.La recherche interne divulguée par Haugen a montré que certaines des fonctionnalités qui jouent un rôle clé dans le succès d'Instagram et la nature addictive, comme la page Explore, qui sert des publications organisées par les utilisateurs en fonction de leurs intérêts, sont parmi les plus nocifs pour les jeunes. “Aspects of Instagram exacerbate each other to create a perfect storm," one report read.

Meta n'a pas immédiatement répondu à la demande de commentaires de Time sur les changements algorithmiques potentiels.

Des plateformes vidéo populaires comme Tiktok et YouTube ont également été critiquées pour utiliser des systèmes de recommandation algorithmiques qui peuvent conduire les téléspectateurs dangereux et addictifs - des trous de labbit, le New York Times rapportant en décembre qu'une copie d'un document interne détaillant les quatre objectifs principauxde l'algorithme de Tiktok a été divulgué par une source qui a été «dérangée par la poussée de l'application vers un contenu« triste »qui pourrait induire l'automutilation."

En réponse à une demande de commentaires, un porte-parole de Tiktok a pointé du temps vers un décor.16 Articles de rédaction sur le travail que fait la plate-forme pour sauvegarder et diversifier ses recommandations pour vous alimenter.

“As we continue to develop new strategies to interrupt repetitive patterns, we’re looking at how our system can better vary the kinds of content that may be recommended in a sequence," the post read.«C'est pourquoi nous testons des moyens d'éviter de recommander une série de contenus similaires - tels que autour d'un régime ou d'une forme physique, de tristesse ou de ruptures extrêmes - pour protéger contre la visualisation d'une catégorie de contenu qui peut être bien en tant que vidéo unique mais problématiqueSi vu en grappes."

Manque de transparence continu

Pourtant, l'un des principaux défis posés par la régulation de ces plateformes est le manque continu de transparence entourant leur fonctionnement interne.

“We don’t know a ton about just how bad these networks are, in part, because it’s so hard to research them," says Ethan Zuckerman, an associate professor of public policy, communication and information at the University of Massachusetts Amherst."Nous comptons sur les fuites de Frances Haugen plutôt que de faire des recherches [indépendantes] parce que, dans la plupart des cas, nous ne pouvons pas obtenir les données qui racontent réellement l'histoire."

En ce qui concerne le discours de haine, l'extrémisme et la désinformation, Zuckerman dit que l'algorithme pourrait même ne pas être la partie la plus dangereuse du problème.

“I tend to think the algorithm part of the story is overhyped," he says.«Il y a une quantité décente de recherches sur YouTube - ce qui est beaucoup plus facile à étudier que Facebook, par exemple - cela suggère que l'algorithme n'est vraiment qu'une petite partie de l'équation et le vrai problème est que les gens qui recherchent haineux oudiscours extrême sur la plate-forme et le trouver.De même, lorsque vous regardez une partie de ce qui s'est passé autour de la désinformation et de la désinformation, il y a de très bonnes preuves que ce n'est pas nécessairement nourri algorithmique aux gens, mais que les gens choisissent de rejoindre des groupes dans lesquels c'est la monnaie du jour."

Mais sans la capacité d'obtenir plus de données, des chercheurs comme Zuckerman ne sont pas en mesure d'atteindre pleinement la racine de ces problèmes croissants.

“The very little bits of information that have been made available by companies like Facebook are intriguing, but they’re sort of just hints of what’s actually going on," he says."Dans certains cas, c'est plus que la simple plateforme devrait nous donner plus de données.C'est que nous aurions réellement besoin de la capacité d'entrer et d'auditer ces plateformes de manière significative."

Le référence au tristement célèbre scandale de Cambridge Analytica - où la société de conseil politique a récolté les données d'au moins 87 millions d'utilisateurs de Facebook afin d'aider à élire Donald Trump en tant que président - Zuckerman a déclaré que Facebook et d'autres sociétés comptent sur la confidentialité des utilisateurs pour ne pas partager davantage davantageinformations.

“These companies claim that they can’t be more transparent without violating user privacy," he says.«Facebook invoque la vie privée comme un moyen d'empêcher la recherche [tierce] de se dérouler.Ainsi, la barrière à [évaluer comment l'algorithme fonctionne réellement] est Facebook utilisera la confidentialité comme excuse pour expliquer pourquoi une enquête significative sur la plate-forme ne peut pas avoir lieu."

Cependant, si le Congrès intervient et adopte de nouvelles lois sur ces questions, Zuckerman dit que cela pourrait être un catalyseur pour un véritable changement.

“The place where we have the best chance at progress is legislating a certain amount of transparency," he says.«Si nous croyons en tant que société que ces outils sont vraiment puissants et nous endommagent, il est parfaitement logique que nous essayions de les auditer afin que nous puissions comprendre quels dommages pourraient être."

Un besoin d'intervention du Congrès

Lors de la toute première apparition du PDG d'Instagram, Adam Mosseri, avant le Congrès sur Dec. 8, several members of the Senate Subcommittee on Consumer Protection, Product Safety, and Data Security took the stance that Instagram’s recent efforts to make the platform safer for young users are “too little, too late" and that the time for self-policing without congressional intervention is over.

Ces remarques semblaient signaler que la législation réglementaire conçue pour régner sur Facebook, Instagram et d'autres plateformes pourrait être à l'horizon au cours de l'année à venir.Du point de vue de Fowler, c'est la seule façon dont les menaces posées par des algorithmes addictifs, ainsi que d'autres aspects du modèle commercial Big Tech, commenceront à être atténués.

“I’m very doubtful that unless they are compelled by law to do something that they will self-correct," she says.«Nous n'allons pas pouvoir faire quoi que ce soit sans le congrès.Nous avons eu tellement d'audiences maintenant et il est assez évident que les entreprises ne vont pas se faire contrôler elles-mêmes.Il n'y a pas de grands acteurs technologiques qui peuvent réglementer l'industrie parce qu'ils sont tous là ensemble et ils fonctionnent tous exactement de la même manière.Nous devons donc mettre en œuvre des lois."

La loi sur les algorithmes de justice contre malveillance, un projet de loi présenté par les démocrates de la Chambre en octobre, créerait un amendement à l'article 230 - une partie de la loi sur la décence des communications qui protège les entreprises de la responsabilité légale du contenu publié sur leurs plateformes - qui tiendrait une entreprise responsableLorsqu'il «utilise sciemment ou imprudemment un algorithme ou une autre technologie pour recommander un contenu qui contribue matériellement aux blessures émotionnelles physiques ou graves."

Cependant, les divisions du parti combinées au fait qu'il s'agit d'une année électorale du Congrès donne à Fowler une pause sur la probabilité de savoir s'il y aura des progrès tangibles réalisés en 2022.

“My suggestion is that [politicians] move forward on what they agree on with regard to this topic—specifically in the area of how social media impacts minors," she says, “and not focus on why they agree, because they have different reasons for coming to a similar conclusion."

Il reste à voir si les grands géants de la technologie pourront atteindre un point où ils donnent vraiment la priorité aux personnes sur les profits, mais Zuckerman note que des entreprises comme Facebook n'ont pas de bons antécédents à cet égard.

«Facebook est une entreprise phénoménale rentable.S'ils se soucient de protéger les utilisateurs contre la désinformation, ils ont d'énormes sommes d'argent pour y investir.Quelque chose qui est devenu très clair des journaux Facebook, c'est que leurs systèmes ne sont tout simplement pas très bons et n'ont probablement pas été très investis dans.Et c'est le problème qui revient encore et encore avec eux."

Au lieu de cela, Zuckerman suggère qu'une manière différente de regarder les dommages sociétaux causés par les médias sociaux peut être plus approprié: «À un certain moment, nous devons commencer à nous poser la question: voulons-nous notre sphère publique numérique, l'espace dans lequel nousParler de la politique et des nouvelles et de l'avenir, à gérer par des entreprises à but lucratif?Et les entreprises à but lucratif très légèrement réglementées à cela."

More Must-Read Stories From TIME

Écrivez à Megan McCluskey chez Megan.McCluskey @ time.com.

SHARE THIS STORY