Fin 2016, les dictionnaires d'Oxford ont choisi "post-vérité" comme mot de l'année, le définissant comme "se rapportant à ou désignant des circonstances dans lesquelles des faits objectifs ont moins d'influence sur la formation de l'opinion publique". opinion que de faire appel à l'émotion et à la croyance personnelle.
Le vote sur le Brexit de 2016 au Royaume-Uni et l'élection présidentielle tumultueuse aux États-Unis ont mis en évidence l'impact de l'ère numérique sur l'actualité et les récits culturels. Les nouvelles plateformes d'information alimentent l'ancien instinct des gens pour trouver des informations qui correspondent à leurs points de vue : une étude de 2016 qui a analysé les interactions de 376 millions d'utilisateurs de Facebook avec plus de 900 organes de presse a révélé que les gens ont tendance à rechercher des informations qui correspondent à leurs points de vue.
Cela rend de nombreuses personnes susceptibles d'accepter et d'agir en fonction de la désinformation. Par exemple, après que de fausses nouvelles en juin 2017 ont rapporté que le fondateur d'Ethereum, Vitalik Buterin, était décédé dans un accident de voiture, sa valeur marchande aurait chuté de 4 milliards de dollars.
La désinformation n'est pas comme un problème de plomberie que vous résolvez. C'est une condition sociale, comme le crime, à laquelle vous devez constamment surveiller et vous adapter.
Lorsque BBC Future Now a interrogé un panel de 50 experts début 2017 sur les "grands défis auxquels nous sommes confrontés au 21e siècle", nombre d'entre eux ont évoqué la rupture des sources d'informations fiables. "Le nouveau défi majeur dans le reportage de l'actualité est la nouvelle forme de vérité", a déclaré Kevin Kelly, co-fondateur du magazine Wired. « La vérité n'est plus dictée par les autorités, mais mise en réseau par les pairs. Pour chaque fait, il y a un contre-fait et tous ces contre-faits et faits semblent identiques en ligne, ce qui est déroutant pour la plupart des gens.
Les Américains s'en inquiètent : une étude du Pew Research Center menée juste après les élections de 2016 a révélé que 64 % des adultes pensent que les fausses nouvelles causent beaucoup de confusion et 23 % ont déclaré qu'ils avaient eux-mêmes partagé des histoires politiques fabriquées - parfois par erreur et parfois intentionnellement.
La question se pose alors : qu'adviendra-t-il de l'environnement de l'information en ligne dans la décennie à venir ? Au cours de l’été 2017, le Pew Research Center et le Imagining the Internet Center de l’Elon University ont mené une vaste enquête auprès de technologues, d’universitaires, de praticiens, de penseurs stratégiques et autres, leur demandant de réagir à ce cadrage du problème :
La montée en puissance des "fake news" et la prolifération de récits trafiqués diffusés par des humains et des robots en ligne mettent les éditeurs et les plates-formes au défi. Ceux qui tentent d'arrêter la diffusion de fausses informations s'efforcent de concevoir des systèmes techniques et humains capables de les éliminer et de minimiser la manière dont les bots et autres stratagèmes propagent des mensonges et des informations erronées.
La question : Au cours des 10 prochaines années, des méthodes fiables émergeront-elles pour bloquer les faux récits et permettre aux informations les plus précises de prévaloir dans l'écosystème global de l'information ? Ou la qualité et la véracité des informations en ligne vont-elles se détériorer en raison de la diffusion d'idées peu fiables, parfois même dangereuses, socialement déstabilisantes ?
Les répondants devaient ensuite choisir l'une des options de réponse suivantes :
L'environnement de l'information s'améliorera - Au cours des 10 prochaines années, dans l'ensemble, l'environnement de l'information sera AMÉLIORÉ par des changements qui réduisent la diffusion de mensonges et d'autres informations erronées en ligne.
L'environnement de l'information ne s'améliorera PAS - Au cours des 10 prochaines années, dans l'ensemble, l'environnement de l'information ne SERA PAS amélioré par des changements visant à réduire la diffusion de mensonges et d'autres informations erronées en ligne.
Quelque 1 116 personnes ont répondu à cette sollicitation non scientifique : 51 % ont choisi l'option selon laquelle l'environnement de l'information ne s'améliorera pas, et 49 % ont déclaré que l'environnement de l'information s'améliorera. (Voir « À propos de cette sollicitation d'experts » pour plus de détails sur cet échantillon.) Les participants ont ensuite été invités à expliquer leurs réponses. Ce rapport se concentre sur ces réponses de suivi.
Leur raisonnement a révélé un large éventail d'opinions sur la nature de ces menaces et les solutions les plus probables nécessaires pour les résoudre. Mais les thèmes généraux et concurrents étaient clairs : ceux qui ne pensent pas que les choses vont s'améliorer ont estimé que les humains façonnent principalement les avancées technologiques à leurs propres fins, pas tout à fait nobles, et que les mauvais acteurs avec de mauvaises motivations contrecarreront les meilleurs efforts des innovateurs technologiques pour remédier aux problèmes d'aujourd'hui.
Et ceux qui ont le plus d'espoir pensaient que des correctifs technologiques pouvaient être mis en œuvre pour faire ressortir les meilleurs anges guidant la nature humaine.
Plus précisément, les 51 % de ces experts qui s'attendent à ce que les choses ne s'améliorent pas ont généralement cité deux raisons :
L'écosystème des fausses nouvelles s'attaque à certains de nos instincts humains les plus profonds : les personnes interrogées ont déclaré que la quête primordiale des humains pour le succès et le pouvoir (leur instinct de « survie ») continuera de dégrader l'environnement de l'information en ligne dans le monde. décennie prochaine. Ils ont prédit que les acteurs manipulateurs utiliseront de nouveaux outils numériques pour tirer parti de la préférence innée des humains pour le confort et la commodité et de leur soif de réponses qu'ils trouvent dans le renforcement des chambres d'écho.
Nos cerveaux ne sont pas câblés pour faire face au rythme des changements technologiques : ces répondants ont déclaré que la vitesse, la portée et l'efficacité croissantes d'Internet et des applications en ligne émergentes amplifieront ces tendances humaines et que la technologie- les solutions basées sur les solutions ne pourront pas les surmonter. Ils ont prédit un futur paysage de l'information dans lequel les fausses informations évincent les informations fiables. Certains ont même prévu un monde dans lequel les escroqueries à l'information généralisées et la manipulation de masse amèneraient de larges pans du public à renoncer tout simplement à être des participants informés à la vie civique.
Les 49 % de ces experts qui s'attendent à ce que les choses s'améliorent ont généralement inversé ce raisonnement :
La technologie peut aider à résoudre ces problèmes : ces experts plus optimistes ont déclaré que la vitesse, la portée et l'efficacité croissantes d'Internet, des applications et des plates-formes peuvent être exploitées pour freiner les fausses informations et les campagnes de désinformation. Certaines meilleures méthodes prévues apparaîtront pour créer et promouvoir des sources d'information fiables et factuelles.
C'est aussi dans la nature humaine de se rassembler et de résoudre les problèmes : les experts pleins d'espoir de cette prospection ont estimé que les gens se sont toujours adaptés au changement et que cette vague actuelle de défis sera également surmontée. Ils ont noté que la désinformation et les mauvais acteurs ont toujours existé mais ont finalement été marginalisés par des personnes et des processus intelligents. Ils s'attendent à ce que des acteurs bien intentionnés travaillent ensemble pour trouver des moyens d'améliorer l'environnement de l'information. Ils croient également qu'une meilleure maîtrise de l'information parmi les citoyens permettra aux gens de juger de la véracité du contenu matériel et éventuellement d'élever le ton du discours.
La majorité des participants à cette prospection ont écrit des explications détaillées sur leurs points de vue. Certains ont choisi d'avoir leurs noms liés à leurs réponses; d'autres ont choisi de répondre de manière anonyme. Ces résultats ne représentent pas tous les points de vue possibles, mais ils révèlent un large éventail d'observations frappantes.
Les répondants ont collectivement articulé plusieurs thèmes majeurs liés à ces idées et expliqués dans les sections sous le graphique suivant. Plusieurs ensembles de réponses supplémentaires plus longs liés à ces thèmes suivent ce résumé.
La section suivante présente un aperçu des thèmes trouvés parmi les réponses écrites, y compris une petite sélection de citations représentatives soutenant chaque point. Certains commentaires sont légèrement modifiés pour le style ou la longueur.
Thème 1 : L'environnement de l'information ne s'améliorera pas : le problème est la nature humaine
La plupart des répondants qui s'attendent à ce que l'environnement se détériore déclarent que la nature humaine est en faute. Par exemple, Christian H. Huitema, ancien président de l'Internet Architecture Board, a déclaré : « La qualité de l'information ne s'améliorera pas dans les années à venir, car la technologie ne peut pas tant améliorer la nature humaine. ”
Ces experts ont prédit que le problème de la désinformation sera amplifié parce que le pire côté de la nature humaine est amplifié par de mauvais acteurs utilisant des outils en ligne avancés à la vitesse d'Internet à grande échelle.
La qualité de l'information ne s'améliorera pas dans les années à venir, car la technologie ne peut pas tant améliorer la nature humaine.
Tom Rosenstiel, auteur, directeur de l'American Press Institute et chercheur principal à la Brookings Institution, a déclaré : "Quels que soient les changements apportés par les sociétés de plate-forme et les innovations mises en place par les vérificateurs de faits et autres journalistes, ceux qui veulent tromper s'y adapteront. La désinformation n'est pas comme un problème de plomberie que vous résolvez. C'est une condition sociale, comme le crime, à laquelle vous devez constamment surveiller et vous adapter. Depuis aussi loin que l'ère de la radio et avant, comme l'a dit Winston Churchill, "Un mensonge peut faire le tour du monde avant que la vérité ne se fasse entendre".
Michael J. Oghia, auteur, éditeur et journaliste basé en Europe, a déclaré qu'il s'attend à une aggravation de l'environnement de l'information en raison de cinq éléments : « 1) La propagation de la désinformation et de la haine ; 2) Inflammation, conflit socioculturel et violence ; 3) La répartition des connaissances socialement acceptées/convenues et ce qui constitue un "fait". la recherche scientifique et la pensée critique. 5) Des divisions supplémentaires entre les communautés, de sorte qu'à mesure que nous sommes plus connectés, nous sommes plus éloignés. Et plein d'autres."
Leah Lievrouw, professeure au département d'études de l'information de l'Université de Californie à Los Angeles, a observé : " Tant d'acteurs et d'intérêts considèrent l'information en ligne comme un outil particulièrement puissant pour l'action individuelle et publique. opinion d'une manière qui sert leurs intérêts économiques ou politiques (marketing, politique, éducation, controverses scientifiques, identité et solidarité communautaires, « coup de coude » comportemental, etc.). Ces acteurs très divers s'opposeraient probablement (ou tenteraient de subvertir) les interventions technologiques ou politiques ou d'autres tentatives pour assurer la qualité, et surtout le désintéressement, de l'information.
Sous-thème : Plus de personnes = plus de problèmes. La croissance continue d'Internet et l'accélération de l'innovation permettent à davantage de personnes et à l'intelligence artificielle (IA) de créer et de diffuser instantanément des récits manipulateurs
Alors que la propagande et la manipulation du public via des mensonges sont une tactique aussi ancienne que la race humaine, bon nombre de ces experts ont prédit que la vitesse, la portée et le faible coût des communications en ligne, ainsi que les innovations en constante émergence augmenteront considérablement le niveau de menace. Un professeur d'une université de la région de Washington, D.C. a déclaré : "Il est presque impossible de mettre en œuvre des solutions à grande échelle - la surface d'attaque est trop grande pour être défendue avec succès."
Jerry Michalski, futurologue et fondateur de REX, a répondu : "La fiabilité de notre environnement informatique diminuera au cours de la prochaine décennie car : 1) il est peu coûteux et facile pour les mauvais acteurs d'agir mal ; 2) Les solutions techniques potentielles basées sur une identification forte et le vote public (par exemple) ne résoudront pas tout à fait le problème ; et 3) les solutions réelles basées sur des relations de confiance réelles prendront du temps à évoluer - probablement plus d'une décennie.
Il est presque impossible de mettre en œuvre des solutions à grande échelle : la surface d'attaque est trop grande pour être défendue avec succès.
Undirecteur d'institut et professeur d'université a déclaré : "Internet est la menace du 21e siècle d'un "hiver nucléaire", et il n'existe pas de cadre international équivalent pour la non-prolifération ou le désarmement. Le public peut saisir le pouvoir destructeur des armes nucléaires d'une manière qu'il ne comprendra jamais le pouvoir totalement corrosif d'Internet pour la société civilisée, lorsqu'il n'existe aucun mécanisme fiable pour trier ce que les gens peuvent croire être vrai ou faux.
Bob Frankston, pionnier de l'Internet et innovateur en matière de logiciels, a déclaré : "J'ai toujours pensé qu'il était possible de contrer "Mein Kampf" avec suffisamment d'informations. Maintenant, j'ai l'impression que les gens auront tendance à rechercher la confirmation de leurs préjugés et la transparence radicale ne fera pas briller une lumière nettoyante.
David Harries, directeur exécutif associé de Foresight Canada, a répondu : "De plus en plus, l'histoire est écrite, réécrite et corrigée, car de plus en plus de personnes ont les moyens de le faire. Il y a donc de plus en plus d'informations qui se disputent l'attention, la crédibilité et l'influence. La compétition va compliquer et intensifier la recherche de véracité. Bien sûr, beaucoup sont moins intéressés par la véracité que par la victoire au concours. »
Glenn Edens, directeur technique de la réserve technologique chez PARC, une société Xerox, a déclaré : "La désinformation est une voie à double sens. Les producteurs disposent d'une plate-forme de publication facile pour atteindre un large public et ces publics affluent vers les sources. Les publics recherchent généralement des informations qui correspondent à leurs systèmes de croyances, c'est donc un problème vraiment difficile.
Sous-thème : Les humains sont par nature égoïstes, tribaux et crédules à la recherche de commodités qui accordent le plus de confiance à ce qui leur semble familier
Les personnes interrogées qui ont soutenu ce point de vue ont noté que les actions des gens - consciemment malveillantes et puissantes- chercher des comportements à des actes apparemment plus bénins entrepris pour le confort ou la commodité - contribuera à saper un environnement d'information sain.
Les utilisateurs de systèmes tels que Facebook se transforment de plus en plus en "chambres d'écho" de ceux qui pensent de la même manière. Ils continueront à éliminer ceux qui ne le sont pas et à transmettre des rumeurs et de fausses nouvelles qui concordent avec leur point de vue.
Un consultant exécutif basé en Amérique du Nord a écrit : "Tout dépend de la motivation : il n'y a pas de marché pour la vérité. Le public n'est pas motivé à rechercher des informations vérifiées et approuvées. Ils sont heureux d'entendre ce qui confirme leur point de vue. Et les gens peuvent gagner plus en créant de fausses informations (à la fois monétaires et en notoriété) qu'ils ne peuvent l'empêcher de se produire.
Serge Marelli, un professionnel de l'informatique qui travaille sur et avec le Net, a écrit : "En tant que groupe, les humains sont 'stupides'. C'est 'l'esprit de groupe' ou un 'phénomène de groupe' ou , comme l'a dit George Carlin, "Ne sous-estimez jamais le pouvoir des gens stupides dans les grands groupes." Ensuite, vous avez Kierkegaard, qui a dit, "Les gens exigent la liberté d'expression en compensation de la liberté de pensée qu'ils utilisent rarement." Et enfin , Euripide a dit: "Parlez sensé à un imbécile et il vous traitera d'insensé."
Starr Roxanne Hiltz, éminente professeure de systèmes d'information et co-auteure du livre visionnaire des années 1970 "The Network Nation", a répondu : "Les utilisateurs de systèmes tels que Facebook se transforment de plus en plus en "chambres d'écho". de ceux qui pensent pareillement. Ils continueront à éliminer ceux qui ne le sont pas et à transmettre des rumeurs et de fausses nouvelles qui concordent avec leur point de vue. Lorsque le président des États-Unis attaque fréquemment les médias traditionnels et quiconque n'est pas d'accord avec ses "faits alternatifs", ce n'est pas une bonne nouvelle pour une augmentation des faits fiables et dignes de confiance circulant dans les médias sociaux.
Nigel Cameron, rédacteur en chef de la technologie et de l'avenir et président du Center for Policy on Emerging Technologies, a déclaré : "La nature humaine ne changera JAMAIS (bien qu'elle puisse, bien sûr, être manipulée ). Et l'environnement politique est mauvais.
Ian O'Byrne, professeur adjoint au College of Charleston, a répondu : "La nature humaine prendra le dessus car le salace est souvent plus sexy que les faits. Il existe de multiples flux d'informations, publics et privés, qui diffusent ces informations en ligne. Nous ne pouvons pas non plus faire confiance aux entreprises et aux industries qui développent et facilitent ces textes et outils numériques pour apporter des changements qui amélioreront considérablement la situation.
Greg Swanson, consultant média chez ITZonTarget, a déclaré : "Le tri des informations fiables par rapport aux fausses informations nécessite un arbitre de confiance. Il semble peu probable que le gouvernement puisse jouer un rôle significatif en tant qu'arbitre. Nous sommes trop polarisés. Et nous en sommes venus à voir les équipes de nouvelles télévisées comme représentant des points de vue divergents, et, selon votre politique, le réseau qui ne représente pas vos opinions est coupable de "fake news". Il est difficile d'imaginer un arbitre équitable qui être universellement digne de confiance.
Richard Lachmann, professeur de sociologie à l'Université d'État de New York à Albany, a répondu : "Même si des systèmes [qui] signalent des informations non fiables peuvent et seront développés, les internautes doivent être prêts profiter de ces avertissements. Trop d'Américains vivront dans des sous-cultures politiques et sociales qui défendront les fausses informations et encourageront l'utilisation de sites qui présentent de telles fausses informations.
Certains de ces répondants experts ont également déclaré que les inégalités, perçues et réelles, sont à l'origine d'une grande partie de la désinformation produite.
Un professeur au MIT a observé : "Je vois cela comme un problème avec un remède socio-économique : une plus grande équité et une plus grande justice permettront d'accomplir bien plus qu'une guerre des robots sur les faits. Le contrôle du « bruit » est moins un problème technologique qu'un problème humain, un problème de croyance, d'idéologie. Des niveaux profonds de croyances non fondées sur des choses à la fois sacrées et profanes existaient avant la marque des «fausses nouvelles». Les systèmes de croyance - et non les «vérités» - aident à cimenter les identités, à forger des relations, à expliquer l'inexplicable.
Julian Sefton-Green, professeur d'éducation aux nouveaux médias à l'Université Deakin en Australie, a déclaré : "L'environnement de l'information est une extension des tensions sociales et politiques. Il est impossible de faire de l'environnement informationnel un espace rationnel et désintéressé ; il sera toujours sensible à la pression.
Une personne interrogée affiliée au Berkman Klein Center for Internet & ; Society a écrit : « La démocratisation de la publication et de la consommation que représente la sphère en réseau est trop expansive pour qu'il y ait une amélioration significative possible en termes de contrôle ou d'étiquetage de l'information. Les gens continueront à choyer leurs propres biais cognitifs.
Sous-thème : Dans les systèmes économiques, politiques et sociaux existants, les puissants dirigeants d'entreprise et de gouvernement les plus à même d'améliorer l'environnement de l'information profitent le plus lorsqu'il est en ébullition
Un grand nombre de répondants ont déclaré que les intérêts des les acteurs les plus motivés, y compris ceux du monde des affaires et de la politique, ne sont généralement pas motivés pour «réparer» la prolifération de la désinformation. Ces acteurs seront un facteur clé de la détérioration de l'environnement de l'information dans les années à venir et/ou de l'absence de tentatives sérieuses pour atténuer efficacement le problème.
Scott Shamp, doyen de l'université d'État de Floride, a déclaré : "Trop de groupes acquièrent du pouvoir grâce à la prolifération d'informations inexactes ou trompeuses. Quand il y a de la valeur dans la désinformation, elle régnera.
De grands acteurs politiques viennent d'apprendre à jouer à ce jeu. Je ne pense pas qu'ils feront beaucoup d'efforts pour l'éliminer.
Alex "Sandy" Pentland, membre de la National Academy of Engineering des États-Unis et du Forum économique mondial, a déclaré : "Nous savons comment améliorer considérablement la situation, sur la base d'études de prévisions politiques et similaires. . Ce que nous ne savons pas, c'est comment en faire une entreprise prospère. Les modèles [d'information] actuels sont pilotés par le clickbait, et ce n'est pas le fondement d'un modèle économique durable.
Stephen Downes, chercheur au Conseil national de recherches du Canada, a écrit : "Les choses ne s'amélioreront pas. Il y a trop d'incitations à répandre la désinformation, les fausses nouvelles, les logiciels malveillants et le reste. Les gouvernements et les organisations sont des acteurs majeurs dans cet espace.
Un répondant anonyme a déclaré : "Les acteurs peuvent bénéficier socialement, économiquement et politiquement en manipulant l'environnement de l'information. Tant que ces incitations existeront, les acteurs trouveront un moyen de les exploiter. Ces avantages ne se prêtent pas à une résolution technologique car ils sont de nature sociale, politique et culturelle. Résoudre ce problème nécessitera des changements plus importants dans la société.
Un certain nombre de répondants ont mentionné le capitalisme de marché comme principal obstacle à l'amélioration de l'environnement de l'information. Un professeur basé en Amérique du Nord a déclaré : "[C'est] un système capitaliste. Les informations qui seront diffusées seront biaisées, basées sur des intérêts monétaires.
Seth Finkelstein, programmeur consultant et lauréat du prix Pioneer de l'Electronic Freedom Foundation, a déclaré : "Pratiquement toutes les incitations structurelles à diffuser des informations erronées semblent s'aggraver".
Un scientifique des données basé en Europe a écrit : "L'environnement de l'information est construit au-dessus des infrastructures et des services de télécommunication développés selon l'idéologie du marché libre, où la 'vérité' ou les 'faits' ne sont que utiles tant qu'ils peuvent être marchandisés en tant que produits marchands.
Zbigniew Łukasiak, un chef d'entreprise basé en Europe, a écrit : "Les grands acteurs politiques viennent d'apprendre à jouer à ce jeu. Je ne pense pas qu'ils feront beaucoup d'efforts pour l'éliminer.
Un vice-président chargé des politiques publiques dans l'une des plus grandes sociétés de divertissement et de médias au monde a déclaré : "Le petit nombre de plates-formes en ligne dominantes n'ont pas les compétences ou le centre éthique en place pour construire des systèmes responsables. , technique ou procédurale. Ils évitent de rendre compte de l'impact de leurs inventions sur la société et n'ont développé aucun des principes ou des pratiques qui peuvent traiter les problèmes complexes. Ils sont comme des entreprises de technologie biomédicale ou nucléaire dépourvues de règles d'éthique, de formation ou de philosophie en matière d'éthique. Pire encore, leur philosophie active est que l'évaluation et la réponse aux impacts négatifs probables ou potentiels de leurs inventions ne leur appartiennent pas et ne devraient même pas être faites.
Patricia Aufderheide, professeure de communication et fondatrice du Center for Media and Social Impact de l'American University, a déclaré : "Les principaux intérêts ne sont pas suffisamment investis dans la fiabilité pour créer de nouveaux modèles commerciaux et politiques et réglementaires. normes nécessaires au changement. … Dans l'ensemble, il existe des forces puissantes, y compris l'investissement des entreprises dans des modèles commerciaux basés sur la surveillance, qui créent de nombreuses incitations au manque de fiabilité, des accords de « poignée de main invisible » avec les gouvernements qui militent contre l'évolution des modèles de surveillance, l'espionnage international au niveau gouvernemental et des entreprises en conjonction avec une médiocrité la cryptographie et la mauvaise utilisation des pirates informatiques, les normes d'éducation médiocres dans les principaux pays industriels tels que les États-Unis et les faiblesses fondamentales du système politique/électoral américain qui encouragent l'exploitation du manque de fiabilité. Ce serait merveilleux de croire le contraire, et j'espère que d'autres commentateurs pourront me convaincre du contraire.
James Schlaffer, professeur adjoint d'économie, a déclaré : "L'information est organisée par des personnes qui se sont éloignées de l'objectivité qui était le mot d'ordre du journalisme. Le conflit se vend, en particulier au parti d'opposition, par conséquent l'agence de presse de l'opposition sera incitée à promouvoir un récit et un programme. Toutes les garanties apparaîtront comme un moyen de contrôler davantage le récit et de faire de la propagande auprès de la population. »
Sous-thème : Les tendances humaines et la surabondance d'informations séparent les gens et les empêchent de s'entendre sur des "connaissances communes". Cela rend difficile un débat sain et déstabilise la confiance. La disparition des médias d'information contribue au problème
De nombreux répondants ont exprimé des inquiétudes quant à la façon dont les difficultés des gens à trouver et à appliquer des informations exactes contribuent à un problème social et politique plus vaste : il y a un déficit croissant de faits communément acceptés ou certains une sorte de « terrain d'entente » culturel. Pourquoi est-ce arrivé? Ils citent plusieurs raisons :
Ils ont déclaré que ces facteurs et d'autres rendaient difficile pour de nombreuses personnes à l'ère numérique de créer et de partager le type de "connaissance commune" qui sous-tend une politique publique meilleure et plus réactive. Une partie des répondants ont déclaré que le manque de connaissances partagées en commun conduit de nombreux membres de la société à douter de la fiabilité de tout, les obligeant à abandonner tout simplement la participation civique, réduisant ainsi le nombre de citoyens actifs et informés.
Jamais Cascio, membre émérite de l'Institute for the Future, a déclaré : "La puissance et la diversité des technologies à très faible coût permettant aux utilisateurs non avertis de créer des " faits alternatifs" crédibles augmentent rapidement. Il est important de noter que le but de ces outils n'est pas nécessairement de créer des faits alternatifs cohérents et crédibles, mais de créer des niveaux plausibles de doute dans les faits réels. La crise à laquelle nous sommes confrontés à propos de la «vérité» et des faits fiables repose moins sur la capacité d'amener les gens à croire la *fausse* chose que sur la capacité à amener les gens à *douter* de la bonne chose. Le succès de Donald Trump sera un signal flamboyant que cette stratégie fonctionne, parallèlement à la variété de technologies actuellement en développement (et en déploiement précoce) qui peuvent exacerber ce problème. Bref, c'est une stratégie réussie, simplifiée par des technologies de l'information plus puissantes.
Philip J. Nickel, maître de conférences à l'Université de technologie d'Eindhoven aux Pays-Bas, a déclaré : "Le déclin des médias d'information traditionnels et la persistance des réseaux sociaux fermés ne changeront pas au cours des 10 prochaines années. Ce sont les principales causes de la détérioration d'un domaine public de faits partagés comme base du discours et du débat politique.
Kenneth Sherrill, professeur émérite de sciences politiques au Hunter College, City University of New York, a prédit : "La diffusion de fausses rumeurs et de faux rapports deviendra plus facile. La prolifération des sources augmentera le nombre de personnes qui ne savent pas à qui ou à quoi elles font confiance. Ces personnes abandonneront le flux normal d'informations. La participation diminuera à mesure que de plus en plus de citoyens ne voudront pas/ne seront pas en mesure de déterminer quelles sources d'information sont fiables. »
La crise à laquelle nous sommes confrontés à propos de la "vérité" et des faits fiables repose moins sur la capacité à amener les gens à croire la *fausse* chose qu'à la capacité à amener les gens à *douter* de la bonne chose.
Qu'est-ce que la vérité ? Qu'est-ce qu'un fait ? Qui décide ? Et la plupart des gens peuvent-ils accepter de faire confiance à quoi que ce soit comme « connaissance commune » ? Un certain nombre de répondants ont contesté l'idée que tout individu, groupe ou système technologique puisse ou doive « évaluer » l'information comme étant crédible, factuelle, vraie ou non.
Un répondant anonyme a observé : "Tout ce qui est conçu ne sera pas considéré comme impartial ; certaines choses ne sont pas noires ou blanches; pour d'autres situations, les faits évoqués pour arriver à une conclusion sont différents des autres faits utilisés par d'autres dans une situation. Chacun peut avoir des faits réels, mais ce sont les faits qui sont rassemblés qui importent pour arriver à une conclusion ; qui déterminera quels faits seront pris en considération ou ce qui est même considéré comme un fait.
Un assistant de recherche au MIT a fait remarquer : " " Faux " et " vrai " ne sont pas aussi binaires que nous le souhaiterions et, combinés à une société numérique de plus en plus connectée et complexe, il est difficile de gérer la complexité des médias sociaux sans prescrire un récit comme « vérité ». »
Un pionnier de l'Internet et dirigeant de longue date de l'ICANN a déclaré : "Il y a peu de chances qu'un facteur contraignant émerge et améliore la "véracité" des informations sur Internet."
Un vice-président pour l'engagement des parties prenantes a déclaré : "Les réseaux de confiance sont mieux établis avec une interaction, une discussion et une observation physiques et non structurées. La technologie réduit les possibilités de telles interactions et perturbe le discours humain, tout en donnant le « sentiment » que nous communiquons plus que jamais. »
Sous-thème : Un petit segment de la société trouvera, utilisera et paiera peut-être plus pour des informations provenant de sources fiables. En dehors de ce groupe, "le chaos régnera" et une fracture numérique se creusera
Certains répondants ont prédit qu'une fracture numérique plus importante se formera. Ceux qui recherchent des informations plus précises et s'appuient sur des sources mieux informées se sépareront de ceux qui ne sont pas assez sélectifs ou qui n'investissent ni le temps ni l'argent pour le faire.
Il y aura une sorte d'ensemble de sources "étalon-or", et il y aura la frange.
Alejandro Pisanty, professeur à l'UNAM, l'Université nationale du Mexique, et leader de longue date de la politique Internet, a observé : "Dans l'ensemble, au moins une partie de la société accordera de l'importance aux informations fiables et trouvera des moyens de conserver un ensemble de ressources d'information organisées et de qualité. Cela fera appel à une combinaison d'outils organisationnels et technologiques mais nécessitera surtout un sens aigu du jugement et un accès à des sources diverses, voire rivales. En dehors de cela, le chaos régnera.
Alexander Halavais, professeur agrégé de technologies sociales à l'université d'État de l'Arizona, a déclaré : "Comme des informations précises ont de la valeur, la disponibilité de ces informations continuera de croître. Cependant, lorsque les consommateurs ne paient pas directement pour une telle précision, cela signifiera certainement un plus grand degré de désinformation dans la sphère publique. Cela signifie la bifurcation continue des nantis et des démunis, lorsqu'il s'agit de nouvelles et d'informations fiables.
Un rédacteur et éditeur anonyme a commenté : "Malheureusement, de nombreux Américains ne prêteront attention à AUCUN contenu provenant de sources existantes ou en évolution. Ce sera l'abrutissement continu des masses, bien que les cadres "supérieurs" (éduqués/réfléchis) liront/verront/sauront et continueront à se battre.
Un répondant anonyme a déclaré : "Il y aura une sorte d'ensemble de sources "étalon-or", et il y aura la frange."
Thème 2 : L'environnement de l'information ne s'améliorera pas car la technologie créera de nouveaux défis qui ne pourront pas ou ne seront pas relevés efficacement et à grande échelle
Beaucoup de personnes voient peu d'espoir d'amélioration de l'environnement de l'information ladite technologie ne sauvera pas la société des distorsions, des demi-vérités, des mensonges et des récits militarisés. Un chef d'entreprise anonyme a déclaré : "Il est trop facile de créer de faux faits, trop laborieux à vérifier et trop facile de tromper les algorithmes de vérification." Et cette réponse d'un chercheur scientifique anonyme basé en Amérique du Nord a fait écho à l'avis de nombreux participants à ce démarchage : "Nous développerons des technologies pour aider à identifier les informations fausses et déformées, MAIS elles ne seront pas assez bonnes."
Dans la course aux armements entre ceux qui veulent falsifier les informations et ceux qui veulent produire des informations exactes, les premiers auront toujours un avantage.
Paul N. Edwards, chercheur Perry en sécurité internationale à l'université de Stanford, a déclaré : "De nombreuses méthodes excellentes seront développées pour améliorer l'environnement de l'information, mais l'histoire des systèmes en ligne montre que les acteurs malveillants peuvent et trouveront toujours des moyens de les contourner.
Vian Bakir, professeur de communication politique et de journalisme à l'université de Bangor au Pays de Galles, a commenté : "Cela ne s'améliorera pas à cause 1) de la nature évolutive de la technologie : les médias émergents rattrapent toujours ceux qui souhaitent le contrôler, au moins dans la phase initiale d'émergence ; 2) les modèles commerciaux des médias sociaux et des moteurs de recherche en ligne favorisent la propagation de la désinformation ; 3) des propagandistes bien nantis exploitent ce mélange.
Beaucoup de ceux qui s'attendent à ce que les choses ne s'améliorent pas au cours de la prochaine décennie ont déclaré que les efforts des "chapeaux blancs" ne suivront jamais les avancées des "chapeaux noirs" dans les guerres de l'information. Un concepteur d'expérience utilisateur et d'interaction a déclaré : "À mesure que les canaux existants deviennent plus réglementés, de nouveaux canaux non réglementés continueront d'émerger."
Sous-thème : Ceux qui agissent généralement pour eux-mêmes et non pour le bien public ont l'avantage, et ils sont susceptibles de rester en tête dans les guerres de l'information
Beaucoup de ceux qui n'attendent aucune amélioration de l'environnement de l'information ont déclaré que ceux-ci qui souhaitent répandre la désinformation sont très motivés pour utiliser des astuces innovantes pour garder une longueur d'avance sur les méthodes destinées à les arrêter. Ils ont déclaré que certains acteurs du gouvernement, des entreprises et d'autres individus ayant des programmes de propagande sont fortement déterminés à faire fonctionner la technologie en leur faveur dans la propagation de la désinformation, et ils continueront d'être plus nombreux.
Il y a beaucoup de personnes riches et sans éthique, de politiciens, d'acteurs non étatiques et d'acteurs étatiques qui sont fortement incités à diffuser de fausses informations pour servir leurs objectifs égoïstes.
Un certain nombre de personnes interrogées ont qualifié cette situation de "course aux armements". David Sarokin de Sarokin Consulting et auteur de "Missed Information", a déclaré : "Il y aura une course aux armements entre les informations fiables et non fiables." Et David Conrad, directeur de la technologie, a répondu : "Dans la course aux armements entre ceux qui veulent falsifier les informations et ceux qui veulent produire des informations exactes, les premiers auront toujours un avantage."
Jim Hendler, professeur de sciences informatiques à l'Institut polytechnique de Rensselaer, a déclaré : "L'environnement de l'information continuera de changer, mais les pressions de la politique, de la publicité et du capitalisme basé sur les rendements boursiers récompensent ceux qui trouvent manières de manipuler le système, ce sera donc une bataille constante entre ceux qui visent «l'objectivité» et ceux qui essaient de manipuler le système.
John Markoff, journaliste à la retraite et ancien journaliste technologique du New York Times, a déclaré : "Je suis extrêmement sceptique quant aux améliorations liées à la vérification sans solution au défi de l'anonymat sur Internet. Je ne crois pas non plus qu'il y aura une solution au problème de l'anonymat dans un avenir proche.
Scott Spangler, scientifique principal des données chez IBM Watson Health, a déclaré que des technologies existent désormais qui rendent les fausses informations presque impossibles à discerner et à signaler, filtrer ou bloquer. Il a écrit : « L'apprentissage automatique et des techniques statistiques sophistiquées seront utilisés pour simuler avec précision le contenu réel de l'information et rendre les fausses informations presque indiscernables de la réalité.
Jason Hong, professeur associé à la School of Computer Science de l'Université Carnegie Mellon, a déclaré : "Certaines fausses informations seront détectables et bloquables, mais la grande majorité ne le sera pas. Le problème est qu'il est *encore* très difficile pour les systèmes informatiques d'analyser le texte, de trouver les affirmations faites dans le texte et de les recouper. Il y a aussi la question des nuances subtiles ou des différences d'opinion ou d'interprétation. Enfin, les incitations sont toutes fausses. Il y a beaucoup de gens riches et sans éthique, de politiciens, d'acteurs non étatiques et d'acteurs étatiques qui sont fortement incités à diffuser de fausses informations pour servir leurs objectifs égoïstes.
Un professeur chercheur en robotique à l'université Carnegie Mellon a observé : "L'innovation défensive est toujours derrière l'innovation offensive. Ceux qui veulent diffuser de la désinformation pourront toujours trouver des moyens de contourner les contrôles mis en place. »
Un chercheur scientifique du Laboratoire d'informatique et d'intelligence artificielle du MIT a déclaré : "Les problèmes s'aggravent plus vite que les solutions ne peuvent les résoudre, mais cela signifie seulement que les solutions sont plus nécessaires que jamais."
Sous-thème : Les récits militarisés et autres faux contenus seront amplifiés par les médias sociaux, les bulles de filtrage en ligne et l'IA
Certains répondants s'attendent à une augmentation spectaculaire de la manipulation de l'environnement de l'information par les États-nations, par les individus acteurs politiques et par des groupes souhaitant faire de la propagande. Leur but est de susciter des peurs qui servent leurs agendas, de créer ou d'approfondir des silos et des chambres d'écho, de diviser les gens et de les opposer les uns aux autres, et de paralyser ou de confondre la compréhension publique du paysage politique, social et économique.
Nous vivons à une époque où la plupart des gens obtiennent leurs "nouvelles" via les réseaux sociaux et il est très facile de diffuser de fausses nouvelles. … Étant donné qu'il existe une liberté d'expression, je me demande comment la situation pourra jamais s'améliorer.
Cela a été qualifié de militarisation des récits publics. Les plates-formes de médias sociaux telles que Facebook, Reddit et Twitter semblent être les principaux champs de bataille. Les robots sont souvent utilisés et l'IA devrait être largement mise en œuvre dans les guerres de l'information pour amplifier la vitesse et l'impact de la messagerie.
Un pionnier de l'Internet qui a travaillé avec la FCC, l'Union internationale des télécommunications (UIT) de l'ONU, la General Electric Co. (GE) et d'autres organisations technologiques majeures a commenté : ""Internet- le paradigme « en tant qu'arme » a émergé.
Dean Willis, consultant pour Softarmor Systems, a déclaré : "Les gouvernements et les groupes politiques ont maintenant découvert le pouvoir de la désinformation ciblée associée à une compréhension personnalisée des cibles. Les messages peuvent désormais être personnalisés avec une précision dévastatrice. Nous sommes condamnés à vivre dans des bulles d'information ciblées.
Un participant anonyme à l'enquête a noté : "La désinformation jouera un rôle majeur dans les conflits entre les nations et au sein des parties concurrentes au sein des États-nations".
danah boyd, chercheuse principale chez Microsoft Research et fondatrice de Data & ; Society, a écrit : « Ce qui est en jeu actuellement autour de l'information est de nature épistémologique. De plus, l'information est une source de pouvoir et donc une source de guerre contemporaine.
Peter Lunenfeld, professeur à l'UCLA, a déclaré : "Dans un avenir prévisible, l'économie des réseaux et les réseaux de l'économie vont privilégier la diffusion d'informations non contrôlées, non vérifiées et souvent militarisées. Lorsqu'il existe une incitation capitaliste à fournir du contenu aux consommateurs, et que ces réseaux de distribution trouvent leur origine dans une grande variété d'économies et de systèmes politiques transnationaux et même extranationaux, la capacité de « contrôler » la véracité sera largement dépassée par la capacité et la volonté pour fournir tout type de contenu à tout type d'utilisateur.
Ces experts ont noté que le public s'est tourné vers les médias sociaux - en particulier Facebook - pour obtenir ses "nouvelles". Ils ont déclaré que la soif du public pour les lectures rapides et le sensationnalisme de style tabloïd est ce qui fait des médias sociaux le domaine de prédilection pour les récits manipulateurs, qui sont souvent présentés pour apparaître comme des gros titres. Ils notent que l'abandon par le public des organes d'information grand public plus traditionnels, qui avaient certaines normes éthiques, pour la consommation de flux d'actualités sociales a affaibli les organisations de médias grand public, en faisant d'eux des opérations à petit budget qui ont été forcées de rivaliser pour attirer l'attention en offrant des pièges à clics. titres qui leur sont propres.
Un professeur émérite de communication pour une université américaine de l'Ivy League a déclaré : "Nous avons perdu une fonction sociale importante dans la presse. Il est remplacé par les médias sociaux, où il y a peu ou pas de directives ou de contraintes morales ou éthiques sur l'exécution des rôles d'information.
Un chef de projet pour un institut scientifique a commenté : "Nous vivons à une époque où la plupart des gens obtiennent leurs "nouvelles" via les réseaux sociaux et il est très facile de diffuser de fausses nouvelles. L'existence de sites de clickbait facilite la propagation rapide des théories du complot par des personnes qui ne prennent pas la peine de lire des articles entiers ni de rechercher des sources fiables. Étant donné qu'il y a liberté d'expression, je me demande comment la situation pourra jamais s'améliorer. La plupart des utilisateurs lisent simplement le titre, commentent et partagent sans digérer l'intégralité de l'article ni réfléchir de manière critique à son contenu (s'ils le lisent du tout).
Sous-thème : Les solutions technologiques les plus efficaces contre la désinformation mettront en danger la diminution des options de confidentialité des personnes, et elles sont susceptibles de limiter la liberté d'expression et de supprimer la possibilité pour les personnes d'être anonymes en ligne
L'essor de nouveaux et des voix très variées avec des agendas et des motivations différents peuvent généralement être considérées comme une bonne chose. Mais certains de ces experts ont déclaré que les récents succès majeurs des manipulateurs de désinformation ont créé un environnement menaçant dans lequel de nombreux membres du public encouragent les fournisseurs de plateformes et les gouvernements à étendre la surveillance. Parmi les solutions technologiques pour « nettoyer » l'environnement de l'information, il y a celles qui permettent d'identifier clairement les entités opérant en ligne et utilisent des algorithmes pour détecter la désinformation. Certains de ces experts s'attendent à ce que ces systèmes agissent pour identifier les comportements répréhensibles perçus et étiqueter, bloquer, filtrer ou supprimer certains contenus en ligne et même interdire la publication de certaines affiches.
La censure accrue et la surveillance de masse auront tendance à créer des "vérités" officielles dans diverses parties du monde.
Un éducateur a commenté : "La création d'un "système de vérification fiable, fiable et inviolable" produirait un système de filtrage et donc de structuration du contenu. Cela finira par être une réalité de l'information censurée.
Un spécialiste du eLearning a observé : "Tout système qui se considère capable de "juger" des informations comme valides ou invalides est intrinsèquement biaisé." Et un professeur et chercheur a noté : "Dans une société ouverte, il n'y a pas de détermination préalable des informations authentiques ou fausses".
En fait, une partie des personnes interrogées ont prédit que l'environnement de l'information en ligne ne s'améliorera pas au cours de la prochaine décennie, car toute exigence d'identités authentifiées priverait le public des droits de liberté d'expression très appréciés et permettrait aux grandes puissances de contrôler l'environnement de l'information. .
Un éminent professeur émérite de sciences politiques dans une université américaine a écrit : "La désinformation continuera de prospérer en raison de la longue (et précieuse) tradition de la liberté d'expression. La censure sera rejetée. Un répondant anonyme a écrit : "Il y a toujours un combat entre la" vérité" et la liberté d'expression. Mais comme Internet ne peut pas être réglementé, la liberté d'expression continuera de dominer, ce qui signifie que l'environnement de l'information ne s'améliorera pas.
Mais une autre proportion de personnes interrogées a déclaré que c'est précisément la raison pour laquelle les identités authentifiées - qui fonctionnent déjà dans certains endroits, dont la Chine - vont devenir une partie plus importante des systèmes d'information. Un professeur d'une grande université américaine a répondu : "Les technologies de surveillance et les incitations financières généreront une plus grande surveillance." Un professeur d'université à la retraite a prédit : "Une censure et une surveillance de masse accrues auront tendance à créer des "vérités" officielles dans diverses parties du monde. Aux États-Unis, le filtrage des informations par les entreprises imposera les vues de l'élite économique.
Le directeur exécutif d'une importante organisation mondiale de défense de la vie privée a soutenu que la suppression des libertés civiles afin de mettre fin à la désinformation ne serait pas efficace, affirmant que "les acteurs "problématiques" pourront jouer avec les systèmes conçus tout en d'autres seront sur-réglementés.
Plusieurs autres répondants ont également cité cela comme un défaut majeur de ce remède potentiel. Ils s'y sont opposés pour plusieurs raisons, notamment le fait qu'il permet une surveillance et un contrôle encore plus larges du gouvernement et des entreprises sur une plus grande partie du public.
Emmanuel Edet, responsable des services juridiques à l'Agence nationale de développement des technologies de l'information du Nigéria, a observé : "L'environnement de l'information s'améliorera, mais au détriment de la confidentialité."
Bill Woodcock, directeur exécutif de la Packet Clearing House, a écrit : "Il existe un conflit fondamental entre l'anonymat et le contrôle de la parole publique, et les pays qui ne valorisent pas la parole anonyme au niveau national sont toujours libres pour le militariser au niveau international, alors que les pays qui valorisent le discours anonyme doivent le rendre accessible à tous, [ou] sinon ne respectent pas leur propre principe.
James LaRue, directeur de l'Office for Intellectual Freedom de l'American Library Association, a déclaré : "Les systèmes d'information incitent à attirer l'attention. Le mensonge est un moyen puissant de le faire. Pour arrêter cela, il faut une surveillance élevée – ce qui signifie une surveillance gouvernementale qui a ses propres incitations à ne pas dire la vérité.
Tom Valovic, contributeur au magazine The Technoskeptic et auteur de "Digital Mythologies", a déclaré qu'encourager les plates-formes à exercer des contrôles algorithmiques n'est pas optimal. Il a écrit : « L'intelligence artificielle qui supplantera le jugement humain est poursuivie de manière agressive par des entités de la Silicon Valley et d'ailleurs. Les solutions algorithmiques pour remplacer le jugement humain sont sujettes à des préjugés cachés et échoueront finalement à atteindre cet objectif. Ils ne feront que poursuivre la centralisation du pouvoir dans un petit nombre d'entreprises qui contrôlent le flux d'informations.
Thème 3 : L'environnement de l'information s'améliorera parce que la technologie aidera à étiqueter, filtrer ou interdire la désinformation et ainsi améliorer la capacité du public à juger de la qualité et de la véracité du contenu
La plupart des répondants qui ont donné des réponses pleines d'espoir sur l'avenir de la vérité en ligne ont déclaré qu'ils pensaient que la technologie serait mise en œuvre pour améliorer l'environnement de l'information. Ils ont noté que leur foi était fondée sur l'histoire, affirmant que les humains ont toujours trouvé des moyens d'innover pour surmonter les problèmes. La plupart de ces experts ne s'attendent pas à ce qu'il y ait un système parfait, mais ils s'attendent à des progrès. Un certain nombre d'entre eux ont déclaré que les sociétés de plateformes d'information telles que Google et Facebook commenceront à contrôler efficacement l'environnement pour intégrer la pensée morale et éthique dans la structure de leurs plateformes. Ils espèrent que cela permettra simultanément le filtrage du contenu tout en protégeant des droits tels que la liberté d'expression.
S'il y a une forte pression de la part de l'industrie pour résoudre ce problème (ce qui existe), alors des méthodologies seront développées et des progrès seront réalisés... En d'autres termes, s'il y a une volonté, il y a moyen.
Larry Diamond, chercheur principal à la Hoover Institution et au Freeman Spogli Institute (FSI) de l'Université de Stanford, a déclaré : "J'espère que les principales plateformes d'information numérique prendront des initiatives créatives pour privilégier davantage sources fiables et crédibles et d'interpeller et de rétrograder les sources d'information qui semblent être des moteurs de propagande et de manipulation, qu'elles soient humaines ou robotiques. En fait, les entreprises commencent déjà à prendre des mesures dans ce sens.
Un professeur associé dans une université américaine a écrit : "Je ne nous vois pas abandonner la recherche de la vérité". Et un chercheur basé en Europe a déclaré : "Des technologies apparaîtront qui résoudront les problèmes de confiance et la logique de récompense."
Adam Lella, analyste principal chargé des informations marketing chez comScore Inc., a répondu : "Il y a eu de nombreux autres problèmes liés à l'industrie dans le passé (par exemple, la visibilité, la détection de trafic invalide, la multiplateforme mesure) apparemment impossibles à résoudre, et pourtant des progrès importants ont été réalisés ces dernières années. S'il y a une forte pression de la part de l'industrie pour résoudre ce problème (ce qui est le cas), des méthodologies seront développées et des progrès seront réalisés pour aider à atténuer ce problème à long terme. En d'autres termes, s'il y a une volonté, il y a moyen.
Sous-thème : Les solutions technologiques probables incluent des ajustements des filtres algorithmiques, des navigateurs, des applications et des plug-ins et la mise en œuvre de "cotes de confiance"
De nombreux répondants qui espèrent une amélioration de l'environnement de l'information ont mentionné des moyens dans lequel de nouvelles solutions technologiques pourraient être mises en œuvre.
Bart Knijnenburg, chercheur sur les systèmes de prise de décision et de recommandation et professeur adjoint d'informatique à l'université de Clemson, a déclaré : "Deux développements contribueront à améliorer l'environnement de l'information : 1) Les actualités passeront à un le modèle d'abonnement (comme la musique, les films, etc.) et les fournisseurs d'abonnement auront tout intérêt à éliminer les faux récits ; 2) Les algorithmes qui filtrent les actualités apprendront à discerner la qualité d'un article d'actualité et pas seulement à s'adapter à la « viralité » ou à l'orientation politique. »
Afin de réduire la propagation des fausses informations, nous devons les démotiver financièrement.
Laurel Felt, chargée de cours à l'Université de Californie du Sud, "Il y aura des mécanismes pour signaler les contenus et les fournisseurs suspects, puis des applications et des plug-ins permettant aux utilisateurs de voir la "cote de confiance" d'un élément de contenu, une prise ou même une adresse IP. Peut-être que les gens peuvent même installer des filtres pour que, lorsqu'ils effectuent des recherches, les résultats qui n'atteignent pas un certain seuil de confiance n'apparaissent pas sur la liste.
Un chercheur et administrateur de longue date du gouvernement américain en sciences de la communication et de la technologie a déclaré : "Les services de renseignement, de défense et les agences américaines associées travaillent très activement sur ce problème et les résultats sont prometteurs".
Amber Case, chercheur au Berkman Klein Center for Internet & Society, a suggéré de retenir les revenus publicitaires jusqu'à ce que la véracité ait été établie. Elle a écrit: «En ce moment, il y a une incitation à diffuser de fausses nouvelles. Il est rentable de le faire, profit réalisé en créant un article qui provoque suffisamment d'indignation pour que l'argent publicitaire suive. … Afin de réduire la propagation des fausses nouvelles, nous devons les démotiver financièrement. Si un article fait irruption dans la conscience collective et s'avère par la suite faux, les sites qui contrôlent ou hébergent ce contenu pourraient refuser de distribuer des revenus publicitaires à l'entité qui l'a créé ou publié. Cela nécessiterait un système de distribution différée des revenus publicitaires dans lequel les fonds publicitaires sont conservés jusqu'à ce que l'article soit prouvé comme exact ou non. Beaucoup de fausses nouvelles sont créées par quelques personnes, et la suppression de leur incitation pourrait arrêter une grande partie des publications d'informations.
Andrea Matwyshyn, professeur de droit à la Northeastern University qui étudie l'innovation et le droit, en particulier la sécurité de l'information, a observé : "Le droit de la responsabilité logicielle va enfin commencer à évoluer. Les teneurs de marché intégreront de plus en plus la qualité des titres en tant que facteur pertinent pour l'évaluation des entreprises. Le climat juridique de la recherche sur la sécurité continuera de s'améliorer, à mesure que son lien avec la sécurité nationale deviendra de plus en plus évident. Ces changements entraîneront des améliorations significatives de la sécurité des entreprises et du secteur public au cours de la prochaine décennie.
Larry Keeley, fondateur du cabinet de conseil en innovation Doblin, a prédit que la technologie sera améliorée mais que les gens resteront les mêmes, écrivant : "Les capacités adaptées à la fois à l'analyse bibliométrique et aux bonnes pratiques d'audit en feront un problème résoluble . Cependant, des informations non certifiées, convaincantes mais fausses proliféreront également. Ainsi, le nouveau fossé sera entre les personnes qui veulent que leurs informations soient réelles et celles qui veulent simplement qu'elles se sentent importantes. Rappelez-vous cette citation de Roger Ailes : "Les gens ne veulent pas ÊTRE informés, ils veulent se SENTIR informés." Soupir. »
Les participants anonymes à l'enquête ont également répondu :
Sous-thème : Les solutions réglementaires pourraient inclure la loi sur la responsabilité des logiciels, les identités requises, le dégroupage des réseaux sociaux comme Facebook
Un certain nombre de personnes interrogées pensent qu'il y aura des solutions politiques qui iront au-delà des innovations techniques émergeant au cours de la prochaine décennie . Ils ont proposé une gamme de suggestions, allant des réformes réglementaires appliquées aux plateformes qui aident les marchands de désinformation aux sanctions légales appliquées aux malfaiteurs. Certains pensent que la menace d'une réforme réglementaire via des agences gouvernementales pourrait forcer la question des identités requises et l'abolition des protections de l'anonymat pour les utilisateurs de la plateforme.
Sonia Livingstone, professeur de psychologie sociale à la London School of Economics and Political Science, a répondu : "L'état de l'"ouest sauvage" d'Internet ne sera pas autorisé à perdurer par ceux qui détiennent le pouvoir, comme nous le constatons déjà avec une pression nationale accrue sur les fournisseurs/entreprises par une gamme de moyens allant de la loi et de la réglementation aux pressions morales et des consommateurs.
Willie Currie, un expert de longue date de la diffusion des communications mondiales, a écrit : "Le succès apparent des fausses nouvelles sur des plateformes comme Facebook devra être traité sur une base réglementaire car il est clair que techniquement les gens intelligents ne chercheront que des solutions techniques et peuvent être incités à ne pas chercher très fort, de sorte que l'autorégulation a peu de chances de réussir. L'excuse selon laquelle l'ampleur des publications sur les plateformes de médias sociaux rend l'intervention humaine impossible ne sera pas une défense. Les options réglementaires peuvent inclure le dégroupage des réseaux sociaux comme Facebook en entités plus petites. Les options juridiques incluent l'inversion de la notion selon laquelle les fournisseurs de services de contenu sur Internet ne sont que de simples conduits sans responsabilité pour le contenu. Ces options réglementaires et juridiques ne sont peut-être pas politiquement possibles aux États-Unis, mais elles sont certainement possibles en Europe et ailleurs, surtout s'il est démontré que les fausses nouvelles ont un impact sur les élections européennes.
Sally Wentworth, vice-présidente du développement des politiques mondiales à l'Internet Society, a mis en garde contre une trop grande dépendance vis-à-vis des fournisseurs de plateformes d'information dans l'élaboration de solutions pour améliorer l'environnement de l'information. Elle a écrit : « Il est encourageant de voir certaines des grandes plateformes commencer à déployer des solutions Internet à certains des problèmes liés à l'extrémisme en ligne, à la violence et aux fausses nouvelles. Et pourtant, on a l'impression qu'en tant que société, nous externalisons cette fonction à des entités privées qui existent, en fin de compte, pour faire du profit et pas nécessairement pour un bien social. Quel pouvoir leur cédons-nous pour gouverner notre discours social ? Sait-on où cela pourrait éventuellement mener ? D'une part, c'est bien que les grands acteurs se mobilisent enfin et prennent leurs responsabilités. Mais les gouvernements, les utilisateurs et la société sont trop prompts à rejeter toute la responsabilité sur les plateformes Internet. Qui les tient responsables des décisions qu'ils prennent en notre nom à tous ? Savons-nous même quelles sont ces décisions ? »
Un professeur et directeur d'un département de théorie, politique et administration de l'éducation a déclaré : "Une partie de ce travail peut être effectuée sur des marchés privés. Être banni des réseaux sociaux est une évidence. En termes de droit pénal, je pense que l'important est que les sanctions/réglementations soient spécifiques à un domaine. La parole peut être réglementée dans certains lieux, mais évidemment pas dans tous. Des directives fédérales (et peut-être même internationales) seraient utiles. Sans cadre de régulation, je ne peux pas imaginer des sanctions.
Thème 4 : L'environnement de l'information s'améliorera, car les gens s'adapteront et amélioreront les choses
Beaucoup de ceux qui s'attendent à ce que l'environnement de l'information s'améliore prévoient que la formation à la maîtrise de l'information et d'autres formes d'assistance aideront les gens devenir des consommateurs plus avertis. Ils s'attendent à ce que les utilisateurs se tournent vers des informations plus fiables – et que les fournisseurs de connaissances répondent en conséquence.
Lorsque la télévision est devenue populaire, les gens croyaient aussi que tout était vrai à la télévision. C'est la façon dont les gens choisissent de réagir et d'accéder aux informations et aux nouvelles qui est importante, pas les mécanismes qui les diffusent.
Frank Kaufmann, fondateur et directeur de plusieurs projets internationaux pour l'activisme pacifiste, les médias et l'information, a déclaré : "La qualité des informations s'améliorera, car les choses s'améliorent toujours." Et Barry Wellman, expert en communautés virtuelles et codirecteur du réseau NetLab, a déclaré : "Les logiciels et les personnes deviennent de plus en plus sophistiqués".
Un répondant plein d'espoir a déclaré qu'un changement dans les incitations économiques peut apporter le changement souhaité. Tom Wolzien, président de The Video Call Center et de Wolzien LLC, a déclaré : "Le marché ne nettoiera pas le mauvais matériel, mais déplacera l'attention et les récompenses économiques vers le fiable. Les consommateurs d'informations, fatigués des faux récits, se tourneront de plus en plus vers des sources plus fiables, ce qui entraînera un flux de revenus vers ces sources plus fiables et loin des déchets. Cela ne signifie pas que tout le monde souscrira à la méthode scientifique ou journalistique (ou aux deux), mais ils graviteront vers les sources et les institutions qu'ils jugent dignes de confiance, et ces institutions exigeront elles-mêmes des méthodes de vérification au-delà de celles qu'elles utilisent aujourd'hui. .”
Un fonctionnaire à la retraite et pionnier d'Internet a prédit : "1) L'éducation à la véracité deviendra un élément indispensable de l'école secondaire. 2) Les fournisseurs d'informations deviendront légalement responsables de leur contenu. 3) Quelques sources fiables continueront de dominer Internet.
Irene Wu, professeur auxiliaire de communications, de culture et de technologie à l'université de Georgetown, a déclaré : "L'information s'améliorera parce que les gens apprendront mieux à gérer des masses d'informations numériques. En ce moment, beaucoup de gens croient naïvement ce qu'ils lisent sur les réseaux sociaux. Lorsque la télévision est devenue populaire, les gens croyaient aussi que tout à la télévision était vrai. C'est la façon dont les gens choisissent de réagir et d'accéder à l'information et aux nouvelles qui est importante, pas les mécanismes qui les distribuent.
Charlie Firestone, directeur exécutif du programme Communications and Society de l'Aspen Institute, a déclaré : "À l'avenir, le marquage, l'étiquetage, les recommandations des pairs, les nouvelles connaissances (médias, numériques) et les méthodes similaires permettront les gens à passer au crible les informations pour mieux trouver et s'appuyer sur des informations factuelles. De plus, il y aura une réaction à la prévalence de fausses informations afin que les gens soient plus disposés à agir pour s'assurer que leurs informations seront exactes.
Howard Rheingold, chercheur pionnier des communautés virtuelles, professeur de longue date et auteur de "Net Smart : How to Thrive Online", a noté : "Comme je l'ai écrit dans "Net Smart" en 2012, une combinaison des systèmes éducatifs, algorithmiques et sociaux peuvent aider à améliorer le rapport signal/bruit en ligne - avec la mise en garde que la mésinformation/désinformation par rapport aux informations vérifiées est susceptible d'être une course aux armements continue. En 2012, Facebook, Google et d'autres n'avaient aucune incitation à prêter attention au problème. Après les élections de 2016, la question des fausses informations a été mise en lumière.
Sous-thème : La désinformation a toujours existé et les gens ont trouvé des moyens d'atténuer son impact. Les problèmes deviendront plus gérables à mesure que les gens deviendront plus aptes à trier les documents
De nombreux répondants conviennent que la désinformation persistera à mesure que le domaine en ligne se développera et que de plus en plus de personnes seront connectées de différentes manières. Pourtant, les plus optimistes parmi ces experts affirment que le progrès est inévitable à mesure que les personnes et les organisations trouvent des mécanismes d'adaptation. Ils disent que l'histoire le confirme. En outre, ils ont déclaré que les technologues joueront un rôle important en aidant à filtrer la désinformation et à modéliser de nouvelles pratiques d'alphabétisation numérique pour les utilisateurs.
Nous étions dans cette position auparavant, lorsque les presses à imprimer ont brisé le système existant de gestion de l'information. Un nouveau système a émergé et je crois que nous avons la motivation et la capacité de le refaire.
Mark Bunting, universitaire invité à l'Oxford Internet Institute, conseiller principal en stratégie numérique et politique publique avec 16 ans d'expérience à la BBC et en tant que consultant numérique, a écrit : "Notre environnement d'information a été infiniment amélioré par la démocratisation des moyens de publication depuis la création du web il y a près de 25 ans. Nous voyons maintenant les inconvénients de cette transformation, avec de mauvais acteurs manipulant les nouvelles libertés à des fins antisociales, mais les techniques de gestion et d'atténuation de ces préjudices s'amélioreront, créant un potentiel pour des environnements d'information plus libres, mais bien gouvernés, dans les années 2020. »
Jonathan Grudin, chercheur principal en conception chez Microsoft, a déclaré : "Nous étions déjà dans cette position, lorsque les presses à imprimer ont brisé le système existant de gestion de l'information. Un nouveau système a émergé et je crois que nous avons la motivation et la capacité de le refaire. Il s'agira à nouveau de canaliser l'information plus que de supprimer la désinformation ; des affirmations contradictoires ont toujours existé dans la presse, mais ont été gérables et souvent saines.
Judith Donath, membre du Berkman Klein Center for Internet & Society et fondateur du Sociable Media Group au MIT Media Lab, a écrit : « Les ‘fake news’ ne sont pas nouvelles. Le Weekly World News avait un tirage de plus d'un million pour ses reportages pour la plupart fictifs qui sont imprimés et vendus dans un format ressemblant étroitement à un journal. De nombreux lecteurs l'ont reconnu comme un divertissement, mais pas tous. Plus subtilement, sa présence en kiosque rappelait à tous que tout peut être imprimé.
Joshua Hatch, président de l'Online News Association, a déclaré : "Je suis légèrement optimiste car il y a plus de gens qui se soucient de faire ce qu'il faut que de gens qui essaient de ruiner le système. Les choses s'amélioreront parce que les gens – individuellement et collectivement – le feront ainsi.
Beaucoup de ces répondants ont déclaré que les dirigeants et les ingénieurs des principales sociétés de plateformes d'information joueront un rôle important. Certains ont dit s'attendre à ce que d'autres changements systématiques et sociaux modifient les choses.
John Wilbanks, directeur des biens communs chez Sage Bionetworks, a répondu : "Je suis un optimiste, alors prenez cela avec un grain de sel, mais je pense que les personnes nées à l'ère d'Internet évoluent vers postes d'autorité, ils seront mieux à même de distiller et de discerner les fausses nouvelles que ceux d'entre nous qui se souviennent d'une époque de gardiens de confiance. Ils feront partie du système immunitaire. Ce n'est pas que l'environnement s'améliorera, c'est que les plus jeunes seront mieux équipés pour y survivre.
Danny Rogers, fondateur et PDG de Terbium Labs, a répondu : "Les choses s'améliorent toujours. Pas de manière monotone, et non sans effort, mais fondamentalement, je crois toujours que les efforts pour améliorer l'environnement de l'information l'emporteront finalement sur les efforts pour le déléguer.
Bryan Alexander, futuriste et président de Bryan Alexander Consulting, a répondu : "Le développement de la culture numérique et l'utilisation de systèmes automatisés feront pencher la balance vers un meilleur environnement d'information."
Un certain nombre de ces répondants ont déclaré que les sociétés de plateformes d'information telles que Google et Facebook commenceront à contrôler efficacement l'environnement grâce à diverses améliorations technologiques. Ils ont exprimé leur confiance dans l'inventivité de ces organisations et ont suggéré que les employés de ces entreprises mettront en œuvre la technologie pour intégrer la pensée morale et éthique dans la structure et les pratiques commerciales de leurs plateformes, permettant le filtrage du contenu tout en protégeant des droits tels que la liberté d'expression.
Patrick Lambe, consultant principal chez Straits Knowledge, a déclaré : "Tous les systèmes humains à grande échelle sont adaptatifs. Face à de nouveaux phénomènes prédateurs, des contre-forces émergent pour les contrebalancer ou les vaincre. Nous sommes au début d'un impact négatif à grande échelle de l'affaiblissement d'un sens social de faits fiables. Des contre-forces émergent déjà. La présence de « propriétaires » à grande échelle contrôlant des pans importants de l'écosystème (par exemple, Google, Facebook) contribue à cette contre-réponse. »
Un professeur en droit de la technologie dans une université américaine basée sur la côte ouest a déclaré : "Des intermédiaires tels que Facebook et Google développeront des systèmes plus robustes pour récompenser les producteurs légitimes et punir les fournisseurs de fausses nouvelles. ”
Un directeur de longue date de Google a commenté : "Des entreprises comme Google et Facebook investissent massivement dans la recherche de solutions utilisables. Comme le spam par e-mail, ce problème ne peut jamais être entièrement éliminé, mais il peut être géré. »
Sandro Hawke, membre du personnel technique du World Wide Web Consortium, a prédit : "Les choses vont empirer avant de s'améliorer, mais les humains disposent des outils de base pour résoudre ce problème, il y a donc de fortes chances bien que nous le ferons. Le plus grand risque, comme pour beaucoup de choses, est que l'intérêt personnel étroit empêche les gens de collaborer efficacement.
Des répondants anonymes ont partagé ces remarques :
Sous-thème : Le crowdsourcing s'efforcera de mettre en évidence des faits vérifiés et de bloquer ceux qui propagent des mensonges et de la propagande. Certains ont également des espoirs pour les registres distribués (blockchain)
Un certain nombre de ces experts ont déclaré que des solutions telles que le marquage, le marquage ou tout autre étiquetage de contenu douteux continueront à se développer et seront encore plus utiles à l'avenir pour lutter contre le propagation de fausses informations
L'avenir accordera de la crédibilité à la source de toute information. Plus une source donnée est attribuée à de "fausses nouvelles", plus elle se situera bas dans l'arbre de crédibilité.
J. Nathan Matias, chercheur postdoctoral à l'Université de Princeton et ancien chercheur invité au Center for Civic Media du MIT, a écrit : "Grâce à l'ethnographie et aux expériences sociales à grande échelle, j'ai été encouragé à voir des communautés de bénévoles comptant des dizaines de millions de personnes travailler ensemble pour gérer avec succès les risques liés à des informations inexactes.
Un chercheur sur le harcèlement en ligne travaillant pour une grande plate-forme d'information sur Internet a commenté : "S'il existe des organisations à but non lucratif qui maintiennent la technologie en ligne, comme une initiative ACLU-esque, pour surveiller la désinformation et ensuite s'associer avec des espaces comme Facebook pour faire face à ce type de spam d'actualités, alors oui, l'environnement de l'information s'améliorera. Nous devons également nous éloigner des articles de type clickbaity, et ne pas compter de manière algorithmique sur la popularité mais sur l'information.
Un ingénieur basé en Amérique du Nord a répondu : "L'avenir accordera de la crédibilité à la source de toute information. Plus une source donnée est attribuée à de « fake news », plus elle se situera bas dans l'arbre de crédibilité. »
Micah Altman, directeur de recherche pour le programme sur les sciences de l'information au MIT, a déclaré : "Les progrès technologiques créent des forces qui tirent dans deux directions : il est de plus en plus facile de créer de fausses informations d'apparence réelle ; et il est de plus en plus facile d'externaliser la collecte et la vérification des informations. À plus long terme, je suis optimiste sur le fait que la deuxième force dominera - car la réduction des coûts de transaction semble être relativement en faveur des foules par rapport aux institutions concentrées.
Un ancien président d'un important groupe de réflexion scientifique américain et ancien PDG a répondu : "[L'environnement de l'information] devrait s'améliorer, car de nombreuses techniques peuvent être utilisées à la fois par l'homme, telles que comme l'intelligence collective via le vote et la notation des utilisateurs - et les réponses technologiques qui sont soit très tôt dans leur évolution, soit pas ou pas déployées du tout. Voyez le spam comme un analogue. »
Certains ont prédit que les technologies de registre numérique distribué, connues sous le nom de blockchain, pourraient apporter des réponses. Un rédacteur technologique et chroniqueur de longue date basé en Europe, a commenté : "L'approche blockchain utilisée pour Bitcoin, etc., pourrait être utilisée pour distribuer du contenu. DECENT en est un des premiers exemples. Et un répondant anonyme du Berkman Klein Center for Internet & La société a déclaré : "Ils seront vérifiés par cryptographie, avec des concepts."
Mais d'autres étaient moins convaincus que la blockchain fonctionnera. Un chercheur de premier plan étudiant la propagation de la désinformation a observé : "Je sais que des systèmes comme la blockchain sont un début, mais à certains égards, les systèmes analogiques (par exemple, les bulletins de vote numérisés) peuvent être plus résistants aux influences extérieures que les solutions numériques. comme un cryptage accru. Il y a toujours des compromis potentiels lorsque nos réseaux de communication sont basés sur une technologie et du matériel codés par l'homme ; cela [est] moins le cas avec les systèmes analogiques d'abord, numériques ensuite.
Un professeur de médias et de communication basé en Europe a déclaré : "À l'heure actuelle, des systèmes de vérification fiables et dignes de confiance ne sont pas encore disponibles ; ils pourraient devenir techniquement disponibles à l'avenir, mais la course aux armements entre les entreprises et les pirates est sans fin. La technologie de la blockchain peut être une option, mais chaque système technologique doit être fondé sur la confiance, et tant qu'il n'y aura pas de système de confiance gouverné à l'échelle mondiale qui soit ouvert et transparent, il n'y aura pas de systèmes de vérification fiables.
Thème 5 : La technologie ne peut pas gagner la bataille. Le public doit financer et soutenir la production d'informations objectives et exactes. Il doit également élever la maîtrise de l'information au rang d'objectif principal de l'éducation
De nombreux répondants s'accordent à dire qu'ils s'attendent à voir des améliorations dans l'environnement de l'information au cours de la prochaine décennie ou non - que le problème de désinformation nécessite une attention particulière. Une partie de ces répondants ont appelé à l'action dans deux domaines : un renforcement de la presse publique et un effort étendu, complet et continu d'éducation à la maîtrise de l'information pour les personnes de tous âges.
Nous ne pouvons pas apprendre par machine à sortir de cette catastrophe, qui est en fait une tempête parfaite de mauvaises connaissances civiques et d'une faible maîtrise de l'information.
Un sociologue effectuant des recherches sur la technologie et l'engagement civique au MIT a déclaré : "Bien qu'ils soient susceptibles de s'aggraver avant de s'améliorer, les problèmes de l'écosystème de l'information de 2016-2017 représentent un moment décisif et un appel à l'action pour citoyens, décideurs politiques, journalistes, designers et philanthropes qui doivent travailler ensemble pour résoudre les problèmes au cœur de la désinformation.
Michael Zimmer, professeur associé et spécialiste de la confidentialité et de l'éthique de l'information à l'Université du Wisconsin, Milwaukee, a déclaré : "Il s'agit d'un problème social qui ne peut être résolu par la technologie."
Sous-thème : Le financement et le soutien doivent être dirigés vers la restauration d'une presse publique bien renforcée, éthique et digne de confiance
De nombreux répondants ont noté que si l'ère numérique a amplifié d'innombrables sources d'information, elle a nui à leur portée et l'influence des médias traditionnels. Ce sont les institutions de base sur lesquelles une grande partie du public s'est appuyée pour obtenir des informations objectives, vérifiées et fiables - des informations étayées par des normes éthiques et un objectif général de servir le bien commun. Ces répondants ont déclaré que l'environnement de l'information ne peut être amélioré sans davantage d'organisations de presse indépendantes, bien dotées en personnel et financièrement stables. Ils croient que le matériel peut dépasser la désinformation et créer une base de « connaissances communes » que le public peut partager et agir.
Il s'agit d'un signal d'alarme pour l'industrie de l'information, les décideurs politiques et les journalistes afin d'affiner le système de production d'informations.
Susan Hares, pionnière du National Science Foundation Network (NSFNET) et stratège de longue date en ingénierie Internet, aujourd'hui consultante, a déclaré : "La société doit simplement décider que la 'presse' ne fournit plus informations impartiales, et il doit payer pour des informations impartiales et vérifiées.
Christopher Jencks, professeur émérite à l'Université de Harvard, a déclaré : "La réduction des "fake news" nécessite une profession dont les membres partagent l'engagement de bien faire les choses. Cela, à son tour, nécessite une source d'argent pour payer ces journalistes professionnels. La publicité avait l'habitude de fournir aux journaux de l'argent pour payer ces personnes. Cet argent se tarit et il semble peu probable qu'il soit remplacé au cours de la prochaine décennie.
Rich Ling, professeur de technologie des médias à l'École de communication et d'information de l'Université technologique de Nanyang, a déclaré : "Nous avons vu les conséquences des fausses informations lors de l'élection présidentielle américaine et du Brexit. Il s'agit d'un signal d'alarme pour l'industrie de l'information, les décideurs politiques et les journalistes afin d'affiner le système de production de l'information. »
Maja Vujovic, rédactrice principale pour le groupe Comtrade, a prédit : "L'environnement de l'information sera de plus en plus perçu comme un bien public, faisant de sa fiabilité un besoin universel. Les progrès technologiques et les efforts de sensibilisation civile donneront diverses façons d'en purger en permanence la désinformation, afin de la maintenir raisonnablement fiable.
Un auteur et journaliste basé en Amérique du Nord a déclaré : "Je pense que cette ère pourrait en engendrer une nouvelle : une fuite vers la qualité dans laquelle les citoyens en manque de temps accordent une grande valeur aux sources d'information vérifiées."
Un professeur de droit dans une grande université d'État des États-Unis a déclaré : "Les choses ne s'amélioreront pas tant que nous ne réaliserons pas que des nouvelles et des informations exactes sont un bien public qui nécessite un leadership et une organisation à but non lucratif. subvention publique ».
Marc Rotenberg, président de l'Electronic Privacy Information Center, a écrit : "Le problème avec les actualités en ligne est structurel : il y a trop peu de contrôleurs d'accès et le modèle commercial d'Internet ne soutient pas un journalisme de qualité. La raison en est simplement que les revenus publicitaires n'ont pas été liés à la production de nouvelles.
Avec un financement précaire et une audience en baisse, un journalisme sain qui sert le bien commun perd de sa voix. Siva Vaidhyanathan, professeur d'études sur les médias et directeur du Center for Media and Citizenship de l'Université de Virginie, a écrit : "Il n'existe aucune solution technologique qui corrige la domination de Facebook et de Google dans nos vies. Ces opérateurs historiques sont enfermés dans un pouvoir monopolistique sur notre écosystème de l'information et, en drainant l'argent publicitaire de tous les autres médias commerciaux à bas prix, ils appauvrissent la sphère publique.
Sous-thème : Améliorer la maîtrise de l'information : elle doit devenir un objectif primordial à tous les niveaux d'enseignement
Beaucoup de ces experts ont déclaré que les défauts de la nature humaine et les normes encore sous-développées à l'ère numérique sont les principaux problèmes qui rendent les utilisateurs sensibles aux récits en ligne faux, trompeurs et manipulateurs. L'un des remèdes potentiels suggérés par ces répondants est une croisade obligatoire massive pour éduquer tout le monde à la maîtrise de l'information à l'ère numérique. Un tel effort, ont dit certains, pourrait préparer plus de gens à être sages dans ce qu'ils voient / lisent / croient et peut-être même servir à améliorer les normes sociales globales de partage d'informations.
Les informations sont aussi fiables que les personnes qui les reçoivent.
Karen Mossberger, professeure et directrice de l'École des affaires publiques de l'université d'État de l'Arizona, a écrit : "La diffusion de fausses nouvelles n'est pas seulement un problème de bots, mais fait partie d'un problème plus vaste de si les gens exercent ou non des compétences de pensée critique et de maîtrise de l'information. Peut-être que la vague de fausses nouvelles dans un passé récent servira de signal d'alarme pour aborder ces aspects des compétences en ligne dans les médias et pour les aborder comme des compétences éducatives fondamentales dans notre système éducatif. L'information en ligne a plus généralement une diversité quasi illimitée de sources, avec une crédibilité variée. La technologie est à l'origine de ce problème, mais la solution n'est pas uniquement technique.
Mike DeVito, chercheur diplômé à la Northwestern University, a écrit : "Ce ne sont pas des problèmes techniques ; ce sont des problèmes humains que la technologie a simplement contribué à étendre, mais nous continuons à essayer des solutions purement technologiques. Nous ne pouvons pas apprendre par machine à sortir de cette catastrophe, qui est en fait une tempête parfaite de mauvaises connaissances civiques et d'une faible maîtrise de l'information.
Miguel Alcaine, représentant régional de l'Union internationale des télécommunications pour l'Amérique centrale, a déclaré : "Les frontières entre en ligne et hors ligne continueront de s'estomper. Nous comprenons qu'en ligne et hors ligne sont des modalités différentes de la vie réelle. Il existe et existera un marché (fournisseurs publics et privés) pour des informations fiables. Il y a et il y aura de la place pour la désinformation. L'action la plus importante que les sociétés puissent entreprendre pour protéger les personnes est l'éducation, l'information et la formation.
Un développeur Internet et consultant en sécurité de la première heure a commenté : "Les fausses nouvelles ne sont pas le produit d'une faille dans le canal de communication et ne peuvent pas être corrigées par un correctif du canal. Elle est due à une faille chez les consommateurs humains d'informations et ne peut être réparée que par l'éducation de ces consommateurs.
Un répondant anonyme du Berkman Klein Center de l'Université de Harvardpour Internet & ; La société a noté : « Les fausses informations - intentionnellement ou par inadvertance - ne sont ni nouvelles ni le résultat de nouvelles technologies. Il est peut-être maintenant plus facile de se propager plus rapidement à plus de personnes, mais la responsabilité de distinguer les faits de la fiction a toujours appartenu à la personne recevant cette information et le sera toujours.
Un pionnier de l'Internet et militant des droits basé dans la région Asie/Pacifique a déclaré : "En tant que société, nous n'investissons pas suffisamment dans l'éducation dans le monde. L'environnement ne s'améliorera que si les deux côtés du canal de communication sont responsables. Le lecteur et le producteur de contenu ont tous deux des responsabilités.
Deirdre Williams, militante Internet à la retraite, a répondu : "Les êtres humains perdent leur capacité à remettre en question et à refuser. Les jeunes grandissent dans un monde où ces compétences ne sont pas enseignées.
Julia Koller, développeur principal de solutions d'apprentissage, a répondu : "L'information n'est aussi fiable que les personnes qui la reçoivent. Si les lecteurs ne changent pas ou n'améliorent pas leur capacité à rechercher et à identifier des sources d'information fiables, l'environnement de l'information ne s'améliorera pas.
Ella Taylor-Smith, chercheuse principale à la School of Computing de l'Université Napier d'Édimbourg, a déclaré : "À mesure que de plus en plus de personnes deviennent plus instruites, en particulier à mesure que la culture numérique devient une compétence populaire et respectée, les gens favorisera (et même produira) une information de meilleure qualité.
Constance Kampf, chercheuse en informatique et en mathématiques, a déclaré : "La réponse dépend de la conception sociotechnique : ces tendances de désinformation par rapport aux informations vérifiables étaient déjà présentes avant Internet, et elles sont actuellement amplifié. L'état et les tendances de l'éducation et la place de la pensée critique dans les programmes d'études à travers le monde seront l'endroit à regarder pour voir si l'environnement de l'information s'améliorera ou non - la cyberalphabétisation repose sur la maîtrise de l'information de base, la littératie sociale et la littératie technologique. Pour que l'environnement s'améliore, nous avons besoin d'améliorations substantielles des systèmes éducatifs à travers le monde en ce qui concerne la pensée critique, la littératie sociale, la maîtrise de l'information et la cyberlittératie (voir le livre de Laura Gurak "Cyberliteracy").
Su Sonia Herring, rédactrice et traductrice, a déclaré : "La désinformation et les fausses nouvelles existeront aussi longtemps que les humains existeront ; elles existent depuis l'invention du langage. S'appuyer sur des algorithmes et des mesures automatisées entraînera diverses conséquences indésirables. À moins que nous ne donnions aux gens une éducation aux médias et des compétences de pensée critique, la propagation de la désinformation prévaudra.
Réponses d'autres experts clés concernant l'avenir de l'environnement de l'information
Cette section présente les réponses de plusieurs des meilleurs analystes qui ont participé à cette prospection. À la suite de ce large éventail de commentaires, on trouve un ensemble beaucoup plus étendu de citations directement liées aux cinq thèmes principaux identifiés dans ce rapport.
L'ignorance engendre la frustration et "une fraction croissante de la population n'a ni les compétences ni l'intelligence native pour maîtriser la complexité croissante"
Mike Roberts, pionnier de l'ICANN et d'Internet membre du Temple de la renommée, a répondu: «Il existe des forces complexes qui travaillent à la fois pour améliorer la qualité de l'information sur le net et pour la corrompre. Je crois que l'indignation résultant des événements récents conduira, dans l'ensemble, à une amélioration nette, mais avec le recul, l'amélioration peut être considérée comme insuffisante. Le revers de la médaille de la complexité est l'ignorance. L'homme ou la femme moyen en Amérique aujourd'hui a moins de connaissances sur les fondements de sa vie quotidienne qu'il y a 50 ou 100 ans. Il y a eu une formidable insertion de systèmes complexes dans de nombreux aspects de notre mode de vie au cours des décennies qui ont suivi la Seconde Guerre mondiale, alimentée par une formidable croissance des connaissances en général. Même parmi les personnes très intelligentes, il y a une croissance significative de la spécialisation personnelle afin de réduire les limites de l'expertise attendue à des niveaux gérables. Parmi les personnes instruites, nous avons appris des mécanismes pour faire face à la complexité. Nous utilisons ce que nous savons des statistiques et des probabilités pour compartimenter l'incertitude. Nous adoptons des scénarios « les plus probables » pour des événements dont nous n'avons pas une connaissance détaillée, et ainsi de suite. Une fraction croissante de la population n'a ni les compétences ni l'intelligence native pour maîtriser la complexité croissante, et dans un environnement social compétitif, les obligations d'aider nos semblables ne sont pas satisfaites. Instruit ou non, personne ne veut être un mannequin - toutes les mauvaises connotations. Ainsi l'ignorance engendre la frustration, qui engendre le passage à l'acte, qui engendre des comportements antisociaux et pathologiques, comme la désinformation, qui a fait l'objet de l'enquête, et bien d'autres effets indésirables de second ordre. Les questions d'informations fiables sont certainement importantes, d'autant plus que l'intelligentsia technologique commande un certain nombre d'outils pour lutter contre les informations non fiables. Mais la pathologie sous-jacente ne sera pas maîtrisée uniquement par la technologie. Nous devons remplacer l'ignorance et la frustration par de meilleures opportunités de vie qui rétablissent la confiance - une tâche difficile et un programme difficile. Existe-t-il un lien immédiat entre l'ignorance généralisée et les sources d'information corrompues ? Oui bien sûr. En fait, il existe un cercle vertueux où l'acquisition d'informations fiables réduit l'ignorance, ce qui conduit à une meilleure utilisation d'une meilleure information, etc.
La vérité des nouvelles est trouble et multiforme
Judith Donath, membre du Berkman Klein Center for Internet & Society et fondateur du Sociable Media Group au MIT Media Lab, a écrit: «Oui, des méthodes fiables émergeront pour bloquer les faux récits et permettre à des informations précises de prévaloir, et, oui, la qualité et la véracité des informations en ligne se détérioreront en raison de la propagation d'idées peu fiables, parfois même dangereuses, socialement déstabilisatrices. Bien sûr, la définition de "vrai" est parfois floue. Les scientifiques expérimentaux ont mis en place de nombreux protocoles minutieux pour assurer la véracité de leur travail, et les questions qu'ils posent ont des réponses bien définies - et il peut toujours y avoir une controverse sur ce qui est vrai, quel travail était libre de toute influence extérieure. La vérité des reportages est beaucoup plus obscure et multiforme. Une histoire peut être déformée, disproportionnée, destinée à induire en erreur – et toujours, à proprement parler, factuellement exacte. … Mais un mal pernicieux des fausses nouvelles est le doute qu'elles sèment sur la fiabilité de toutes les nouvelles. Les diffamations répétées de Donald Trump sur les « fausses nouvelles » du New York Times, du Washington Post, etc., font partie de ses non-vérités les plus destructrices. »
"Les algorithmes militarisent la rhétorique", influençant à grande échelle
Susan Etlinger, analyste du secteur chez Altimeter Research, a déclaré : "Il y a deux dynamiques principales en jeu : la première est la sophistication et la disponibilité croissantes des algorithmes d'apprentissage automatique et l'autre est la nature humaine. Nous savons depuis les anciens Grecs et Romains que les gens sont facilement persuadés par la rhétorique ; cela n'a pas beaucoup changé en deux mille ans. Les algorithmes militarisent la rhétorique, facilitant et accélérant l'influence des gens à grande échelle. De nombreuses personnes travaillent sur les moyens de protéger l'intégrité et la fiabilité des informations, tout comme il existe des experts en cybersécurité qui sont dans une course aux armements constante avec les cybercriminels, mais mettre autant l'accent sur l'"information" (un bien public) que sur les "données ' (un atout personnel) nécessitera un changement culturel assez important. Je soupçonne que cela se déroulera différemment dans différentes parties du monde. »
Il n'y a pas de solution technique au fait que les 'actualités' sont un marché social
Clay Shirky, vice-recteur aux technologies éducatives à l'université de New York, a répondu : "'Actualités ' n'est pas une catégorie stable, c'est un marché social. Il n'y a pas de solution technique pour concevoir un système qui empêche les gens d'affirmer qu'Obama est musulman mais leur permet d'affirmer que Jésus vous aime.
"Des forces économiques fortes encouragent la création et la diffusion de fausses informations"
Amy Webb, auteur et fondatrice du Future Today Institute, a écrit : "À une époque de médias sociaux, démocratisés, nous avons adopté une attitude étrange. Nous sommes à la fois sceptiques et vrais croyants. Si un reportage réaffirme ce que nous croyons déjà, il est crédible - mais s'il s'insurge contre nos croyances, il est faux. Nous appliquons la même logique aux experts et aux sources citées dans les articles. Avec nos systèmes limbiques continuellement engagés, nous sommes plus susceptibles de prêter attention aux histoires qui nous donnent envie de nous battre, de prendre la fuite ou de remplir nos comptes de réseaux sociaux de liens. En conséquence, de fortes forces économiques incitent à la création et à la diffusion de fausses nouvelles. Dans le domaine numérique, l'attention est monnaie courante. C'est bon pour la démocratie d'arrêter la propagation de la désinformation, mais c'est mauvais pour les affaires. À moins que des mesures importantes ne soient prises dans le présent - et à moins que toutes les entreprises de notre écosystème de l'information numérique n'utilisent la prospective stratégique pour tracer l'avenir - je ne vois pas comment les fausses nouvelles pourraient éventuellement être réduites d'ici 2027. »
Les propagandistes exploitent tous les canaux de communication disponibles
Ian Peter, pionnier d'Internet, historien et militant, a observé : "Ce n'est dans l'intérêt ni des médias ni d'Internet géants qui propagent l'information, ni des gouvernements, pour créer un climat dans lequel l'information ne peut être manipulée à des fins politiques, sociales ou économiques. La propagande et le désir de déformer la vérité à des fins politiques et autres ont toujours été avec nous et s'adapteront à toute forme de nouveaux médias permettant une communication ouverte et des flux d'informations.
L'expansion des points d'information réduit les opportunités d'un "récit commun"
Kenneth R. Fleischmann, professeur associé à la School of Information de l'Université du Texas à Austin, a écrit : "Au fil du temps, la tendance générale est qu'une prolifération des technologies de l'information et des communications (TIC) a conduit à une prolifération d'opportunités pour différents points de vue et perspectives, ce qui a érodé la mesure dans laquelle il existe un récit commun - en fait, à certains égards , cela correspond à une tendance à s'éloigner de la monarchie vers des sociétés plus démocratiques qui accueillent une diversité de perspectives - je prévois donc que l'éventail des perspectives augmentera, plutôt que diminuer, et que ces perspectives incluront non seulement des opinions mais aussi des faits, qui sont par nature réductionnistes et peut facilement être manipulé pour s'adapter au point de vue de l'auteur, suivant le vieil aphorisme sur les statistiques que Mark Twain attribuait à Benjamin Disraeli ['Il y a trois types de mensonges : les mensonges, les mensonges damnés et les statistiques.'], qui se référait à l'origine aux experts plus en général."
"Aussi brisé qu'il soit, Internet est toujours capable de contourner les dommages"
Paul Saffo, prévisionniste technologique de longue date basé dans la Silicon Valley, a déclaré : "Le la crise de l'information s'est produite dans l'ombre. Maintenant que le problème est visible comme un danger clair et urgent, les militants et les personnes qui y voient une opportunité commerciale commenceront à se concentrer dessus. Aussi brisé qu'il soit, Internet est toujours capable de contourner les dommages.
Il sera impossible de faire la distinction entre les faux et les vrais vidéo, audio, photos
Marina Gorbis, directrice exécutive de l'Institute for the Future, a prédit : "Ça ne va pas être meilleur ou pire mais très différent. Nous développons déjà des technologies qui rendent impossible la distinction entre fausses et vraies vidéos, fausses et vraies photographies, etc. Nous devrons faire évoluer de nouveaux outils d'authentification et de vérification. Nous devrons probablement faire évoluer à la fois de nouvelles normes sociales et des mécanismes de réglementation si nous voulons maintenir l'environnement en ligne comme source d'informations sur laquelle de nombreuses personnes peuvent compter.
Une « explosion cambrienne » de techniques surviendra pour surveiller les sources Web et non Web
Stowe Boyd, futuriste, éditeur et rédacteur en chef de Work Futures , a déclaré: "L'essor rapide de l'IA conduira à une explosion cambrienne de techniques pour surveiller les sources de médias Web et non Web et les réseaux sociaux et identifier et marquer rapidement les contenus faux et trompeurs."
Eh bien, il y a de bonnes et de mauvaises nouvelles concernant l'avenir de l'information…
Jeff Jarvis, professeur à la Graduate School of Journalism de la City University of New York, a commenté : "Les raisons pour l'espoir : Une grande attention est portée à la manipulation et à la désinformation ; les plateformes peuvent commencer à reconnaître et à privilégier la qualité ; et nous n'en sommes encore qu'au début de la négociation des normes et des mœurs autour d'une conversation civile responsable. Raisons du pessimisme : implose de la confiance dans les institutions ; des institutions qui ne reconnaissent pas la nécessité de changer radicalement pour regagner la confiance ; et des modèles commerciaux qui privilégient le volume à la valeur.
La peur de l'imposition d'une censure généralisée
Jim Warren, un pionnier de l'Internet et un défenseur du gouvernement ouvert/des archives ouvertes/des réunions ouvertes, a déclaré : "Faux et l'information trompeuse a toujours fait partie de toutes les cultures (commérages, tabloïds, etc.). Enseigner le jugement a toujours été la solution, et le sera toujours. Je fais (toujours) confiance au principe de longue date de la liberté d'expression : le meilleur remède contre le discours « offensant » est PLUS de discours. La seule grande crainte que j'ai, c'est que des conglomérats de communication massifs imposent une censure omniprésente.
Les gens doivent assumer la responsabilité de trouver des sources fiables
Steven Miller, vice-recteur à la recherche à l'Université de gestion de Singapour, a écrit : "Même maintenant, si l'on veut trouver des sources fiables sources, on n'a aucun problème à le faire, donc nous ne manquons pas de sources d'information fiables aujourd'hui. C'est qu'il y a toutes ces autres options, et les gens peuvent choisir de vivre dans des mondes où ils ignorent les sources soi-disant fiables, ou ignorent une multiplicité de sources qui peuvent être comparées, et se concentrent sur ce qu'ils veulent croire. Ce genre de situation va perdurer. Dans cinq ou 10 ans, je m'attends à ce qu'il y ait encore de nombreuses sources d'information fiables et une multiplicité de sources. Ceux qui veulent rechercher des sources fiables n'auront aucun problème à le faire. Ceux qui veulent s'assurer qu'ils obtiennent une multiplicité de sources pour voir la gamme d'entrées et trier les différents types d'entrées pourront le faire, mais je m'attends également à ce que ceux qui veulent être dans le jeu de influencer les perceptions de la réalité et changer les perceptions de la réalité auront également amplement les moyens de le faire. La responsabilité incombe donc à la personne qui cherche les nouvelles et essaie d'obtenir des informations sur ce qui se passe. Nous avons besoin de plus de personnes qui prennent la responsabilité d'obtenir des sources fiables.