Tous les articles par Damien Belvèze

Compte rendu de l’atelier : Comment aborder l’évaluation de l’information et le problème des fake news en bibliothèque ? (17 mai 2018)

Etaient présent·e·s : formateurs et formatrices des SCD de Rennes 2, Rennes 1, de la bibliothèque de l’INSA Rennes, stagiaires de ces bibliothèques, formatrice de la bibliothèque de l’EHESP et de la bibliothèque d’Agrocampus et diverses autres personnes en lien avec les bibliothèques.

Lieu : BU Droit Eco Gestion, SCD Rennes 1 (Place Hoche) 14h-16h

Evaluer des informations, c’est convenir de la valeur de certaines sources

L’introduction d’un nouvel outil pour mesurer les participants à une manifestation publique permettra t-elle de mettre fin à l’habituelle guerre de chiffres qui semblait convenir à tout le monde (à l’exception des journalistes qui devaient citer deux chiffres dont ils savaient qu’ils étaient faux) ?

Il en va de même pour les sources : afin qu’un débat démocratique puisse se construire, il faut que les parties conviennent que certaines sources publient des faits relativement fiables. Cela suppose aussi que les débatteurs quittent provisoirement chacun·e leur bulle, leur idios kosmos pour débattre dans le cadre d’un monde de références communes (koinos kosmos). On a vu comment les bulles de filtre suscitées par l’économie de l’attention, qui est depuis le début celle des réseaux socio-numériques, mettait à mal cette notion de monde commun.

Il est bien entendu qu’aucune source n’est à 100% fiable, que Le Monde n’est plus un « journal de référence » mais un journal avec une certaine ligne éditoriale relevant d’une certaine idéologie. il est établi que CNN peut parfois véhiculer de fausses informations dont les conséquences peuvent être graves… pour autant la position du relativisme informationnel est également intenable. Le fait que CNN soit faillible à certains moments ne permet pas de dire que la fiabilité de cette chaîne serait équivalente à celle de sa rivale Fox News ou encore à celles des chaînes d' »information » russes RT ou Spoutnik. En matière d’information, tous les canaux ne se valent pas si on garde un peu de considération pour la réalité des faits. La réputation des sites peut augmenter ou baisser, notre esprit critique peut se montrer plus acerbe en direction d’un camp ou de l’autre, et il peut arriver à des sites de désinformation de propager parfois quelques nouvelles avérées, à un certain moment on doit néanmoins convenir ensemble de ce qui est recevable en tant que source et de ce qui ne l’est pas.

Wikipedia : une référence commune ou bien un terrain de choix pour la désinformation ?

La hiérarchisation des sources, comme l’a rappelé lors de cet atelier Nicolas Vigneron, administrateur de Wikipedia, est le problème quotidien du wikipédien. Avec ses dix-sept ans d’existence, Wikipedia a su rallier à elle un grand nombre de bibliothécaires, qui d’ailleurs contribuent chaque année à sourcer les pages de l’encyclopédie (cela se passe pendant les ateliers 1Lib1Ref ; on en a parlé ici-même). Toutefois le modèle de cette ressource qui assoit sa légitimité non sur l’autorité des « sachants » mais sur l’autorité des sources semble progresser plus lentement parmi les enseignants-chercheurs avec lesquels ces bibliothécaires organisent leurs formations.

Wikipedia vise à la neutralité, c’est un de ses cinq principes fondateurs. Pour autant, les wikipédiens savent bien que la neutralité absolue n’existe pas, que des biais se cachent jusque dans le langage, comme lorsque, par exemple, l’encyclopédie francophone parle de la « Vente de la Louisiane« , tandis que son équivalent anglophone comporte un article intitulé Louisiana Purchase. (achat de la Louisiane)

On observe aussi des biais culturels à l’oeuvre en comparant un même article dans deux langues. Par exemple, la part dévolue à la psychanalyse dans l’article autisme de la Wikipedia francophone est sans commune mesure avec celle qu’elle est occupe dans son équivalent en anglophone.

Les wikipédiens font cependant le pari que l’intelligence collective et les veilleurs de l’encyclopédie permettront de rédiger des articles plus crédibles et mieux sourcés que s’ils étaient signés par des personnes singulières, fussent-elles reconnues comme spécialistes du domaine. Bien entendu, dans la mesure où il suffit d’avoir une IP pour modifier un article, les tentatives de redocumentarisation à des fins partisanes sont monnaie courante. Au pire, lorsque les modifications contradictoires se multiplient dans un temps très court et à la demande de l’un des contributeurs, un administrateur (Nicolas Vigneron est l’un d’entre eux, il en existe 200 pour l’encyclopédie francophone) peut être amené à fermer l’article en édition, tandis que controverse autour de l’article reste ouverte sur la page discussion de l’article. Ce gel temporaire (quelques jours en général) permet aux esprits de refroidir. Wikipedia comporte ainsi en moyenne 5000 articles bloqués sur 2 millions d’articles rédigés en français.

Faire entrer l’évaluation d’un site web dans une séance consacrée à la recherche documentaire

Le temps dont dispose les bibliothécaires pour sensibiliser les étudiants au problème de la désinformation est souvent très contraint. Il existe dans le cadre de ces formations qui ne dépassent guère le format de deux heures une tendance générale à mettre en avant le catalogue et les produits auxquels la bibliothèque a souscrit un abonnement. Pourtant, pour utiles qu’ils soient pendant sa scolarité, l’étudiant n’aura plus accès à ces produits après avoir quitté l’université. En revanche, la prise de conscience du problème et les techniques de base qui permettent d’y trouver une parade forment durablement le citoyen et le consommateur d’informations.

Le recours au Quizz est une possibilité intéressante. Ainsi, les formatrices de la bibliothèque de l’INSA Rennes consacrent trente minutes des deux heures de TD dont elles disposent auprès des élèves-ingénieurs de première année à faire passer un quizz sur Socrative à leurs étudiants et à en discuter les conclusions. Pour certains étudiants étrangers, le rôle joué par un site comme le Gorafi pour s’avérer tout à fait nouveau et sans équivalent dans leur pays d’origine. Pour tous, on insiste sur le point de vue situé et plus ou moins informé du rédacteur de l’information. Peut-on lire de manière éclairée tel article qui présente l’agriculture bio sous un jour peu favorable sans savoir que l’auteur est un ingénieur agronome fondateur et administrateur d’un lobby pro-OGM ?

Toutefois, l’analyse intrinsèque d’un site n’est pas toujours suffisante. Le point de vue situé n’apparaît pas toujours aussi clairement dans la bio de l’auteur ou la page about du site. De nombreux sites d’information, qui se révèlent à la lecture être des faux-nez de collectifs anti-IVG ou d’extrême droite ne se présentent pas comme tel dans les mentions légales. Il faut dans ce cas avoir recours à une recherche hypertextuelle ou « périphérique » (ma traduction de l’anglais lateral reading) pour mesurer la réputation de ce site sur la Toile et se faire une idée plus précise du crédit qu’on peut lui accorder. Une étude publiée par des chercheurs de l’université de Stanford et relayée par Aaron Tay (et en France par Sylvain Mâchefer qui a traduit le compte rendu de Tay) montre que les méthodes traditionnelles d’évaluation des sites ont le défaut de ne pas faire ce détour par la Toile. Une requête excluant les pages du site questionné dans un moteur de recherche qui supprime la bulle de filtre permet ainsi d’obtenir des informations utiles sur sa réputation. Il peut être aussi intéressant de limiter cette recherche à des sites spécialisés dans le fact-checking comme Snopes ou le Decodex.

A la lecture périphérique, il convient d’ajouter la remontée à la source (Going upstream). Cette vérification indispensable au journaliste peut être effectuée par n’importe qui et de manière assez simple en usant  de la recherche inverse d’images de Google. Si le temps manque, on peut se limiter à cela, en prenant quelques détournements d’image dont les réseaux sociaux sont friands. Si l’on dispose d’un peu plus de temps, on peut mentionner les exifs, les métadonnées embarquées dans l’image (qui apparaissent d’ailleurs dans les tests de positionnement de la plateforme Pix), le rôle de la compression dans l’authentification des images et bien d’autres choses encore.

Toutefois, l’erreur serait de traiter la question de la lutte contre la désinformation auprès des étudiants uniquement comme un ensemble de techniques à acquérir. Le problème a un aspect pyschologique et social important. Il interroge également l’éthique du chercheur et à ce titre un bibliothécaire peut se sentir mal placé pour intervenir, comme il l’a été dit plusieurs fois au cours de cet atelier.

Sortir le bibliothécaire de sa posture techniciste

Une autre difficulté réside dans le peu d’heures consacrées aux compétences informationnelles des étudiants de Licence. Ces heures ne sont pas souvent présentes dans les maquettes d’enseignement en tant que telles. Faute d’une approche par compétences, comme l’a indiqué l’une des personnes présentes  à l’atelier ces compétences sont assez peu recensées dans les enseignements disciplinaires et peut-être n’y sont-elles guère enseignées. Mon expérience personnelle m’amène à penser qu’il y a encore dans certains établissements des dynamiques contradictoires qui jouent en défaveur de l’acquisition de ces « soft skills ». J’ai entendu des enseignants-chercheurs déplorer que les enseignements transversaux confiés à mes collègues prennent une place exagérée dans le cursus de l’étudiant au détriment des cours directement liés à la discipline. Les mêmes vont regretter ensuite que le moteur de recherche le plus utilisé par leurs étudiants pour leurs recherches soit Youtube. Qui leur a dit qu’ils pouvaient utiliser d’autres moteurs, dont certains qui plus est leur garantirait de sortir des tunnels de vidéos similaires de Youtube ou des algorithmes dans lesquels ils se laissent si souvent enfermer ?

Lorsque le bibliothécaire se voit effectivement attribuer quelques heures de travaux dirigés auprès de ces étudiants, un autre problème se pose à lui : il doit répondre à une demande enseignante qui est souvent réduite à ce que les enseignants savent. Or certaines des choses que les enseignants savent, ils les ont a apprises il y a fort longtemps ; en un temps où la documentation que l’on pouvait trouver en bibliothèque était réputée fiable car choisie titre à titre selon certains critères parmi lesquels la recommandation enseignante occupait une place prépondérante. A l’ère des big deals, de la malscience et des éditeurs prédateurs en open access, il est légitime de faire adopter aux étudiants la même posture critique à l’égard de l’ensemble de l’information qui est à leur disposition, qu’elle provienne de Google, de Youtube ou de l’outil de découverte promu par la bibliothèque.

Le bibliothécaire  est souvent perçu de manière restrictive par les enseignants-chercheurs comme un professionnel capable d’interroger de manière optimale des bases de données documentaires. Il n’est pas anormal qu’il soit sollicité surtout pour transmettre ce savoir-faire aux étudiants. Ainsi les bibliothécaires qui interviennent en bibliothèque de Santé sont invités.e.s par les enseignants en charge du module dans lequel ils interviennent à concentrer tous leurs efforts pédagogiques sur l’usage de Pubmed. Cela laisse à penser aux étudiants en Santé qu’il n’existe aucune documentation valide qui ne soit référencé par ce moteur de recherche, et cela renforce aussi l’idée que tout ce qui se trouve dans Pubmed est au-dessus de tout soupçon, ce qui est loin d’être le cas à en juger par le nombre de rétractations d’articles référencées dans MEDLINE. Au moins garde t-on accès à Pubmed au-delà de ses années d’étude. Par ailleurs la base fournit un moyen d’aborder la question des conflits d’intérêt.

Mais imaginons le scénario suivant : un étudiant nous demande au bureau de référence de l’aider à compiler tous les articles de Pubmed qui font état de la nocivité des adjuvants de vaccins afin d’apporter une caution scientifique à un manfeste anti-vaccination. Techniquement, la requête ne devrait pas nous poser de problème. Nous arriverons assez vite à un résultat si nous avons l’expérience de la base et la maîtrise du thésaurus sous-jacent. Certains mettent en avant ces compétences qui nous sont largement reconnues pour faire du bibliothécaire l’équivalent d’un moteur de recherche humain capable de trouver ce que Google lui-même n’arrive pas à trouver. Une fois ces quelques références sélectionnées, aurions-nous vraiment rempli notre rôle ? Ce dernier ne consisterait-il pas plutôt à rappeler que la méthode scientifique impose de partir d’une hypothèse et non d’une certitude et de prendre en compte toute la littérature médicale sur un sujet et pas seulement celle qui sert nos objectifs ? On pourra soutenir que l’enseignant-chercheur est mieux placé, en tout cas plus légitime, pour enseigner cette méthode qui est loin d’être évidente, y compris chez les étudiants de master. Toutefois, le bibliothécaire ne doit-il pas prendre sa part dans cet enseignement quand l’occasion lui en est donnée ?

Quelle place faut-il faire aux théories du complot dans un TD consacré à l’évaluation de l’information ?

Supposons qu’un bibliothécaire dispose d’une à deux heures de TD (un cours en amphi lui est parfois proposé pour des raisons d’économie de moyens, mais ce cadre est peu propice à un enseignement de qualité sur le sujet), comment doit-il s’y prendre et quelle place faire aux théories dites complotistes ?

Nous partons d’un constat généralement partagé au cours de cet atelier ou la partie du TD dévolue à l’évaluation de l’information ne mentionne pas les théories du complot en tant que telles, mais il y a un consensus pour qu’il en soit autrement dans les prochaines années afin de suivre à notre niveau le mouvement amorcé par les universités.

Un premier écueil réside dans la définition des termes : fake news, alt-facts et post-truth sont à la mode, mais n’ont aucune rigueur scientifique. Il s’agit plutôt d’une rhétorique utilisée par le monde politique pour disqualifier des médias réputés ou bien faire accepter au plus grand nombre de nouvelles formes de censure. Certaines théories complotistes se révèlent être vraies après une investigation fouillée. A l’issue du cambriolage du Watergate, la réputation du Washington Post et la qualité du travail de deux de ses reporters ont permis de convertir une théorie du complot en scandale avéré. On peine à voir dans ce contexte, les éléments nouveaux depuis le Faux Henry et l’explosion du Maine. La nouveauté tient sans doute à la viralité accrue des fausses nouvelles sur les réseaux sociaux (rapportée à la circulation des nouvelles avérées), ce qu’a permis de mesurer un article récemment paru dans la revue Science.

Une deuxième difficulté réside dans le paradoxe suivant : déconstruire une théorie du complot, c’est contribuer à assurer sa pérennité. Comme l’a indiqué récemment Sylvain Delouvée, maître de conférence à Rennes 2 devant un public de bibliothécaires, ces théories profitent aussi de l’écho – même défavorable- que nous leur faisons dans nos formations. Il y a plusieurs nuances de croyances et les théories conspirationnistes vivent d’être rapportées, même comme élément constitutif d’une culture scientifique, et pas seulement d’être crues.

Une troisième difficulté qui ne s’est pas encore présentée à nous pourrait surgir du crédit que certains de nos étudiant·e·s pourraient accorder aux théories que nous souhaiterions leur faire étudier pour les déconstruire. Dans ce cas, toute tentative de notre part de dénoncer, sources à l’appui, une théorie conspirationniste auprès d’un.e étudiant.e qui y adhère ne ferait à ses yeux que renforcer l’enfumage du système destiné à cacher la vérité au plus grand nombre. Michel Wieviorka dans un article de la revue Socio décrit très bien cet effet boomerang :

« plus vous démontrez qu’une idée est fausse, plus c’est la preuve, comme l’a expliqué depuis longtemps Léon Poliakov (1980), que vous êtes très fort, que votre malignité est diabolique. Le recours à la raison, à lui seul, est vite inopérant, et éventuellement contre-productif. »

Au cours de ce TD, faut-il donc choisir des sujets « chauds » qui susciteront l’intérêt et le désir d’argumentation chez les apprenants ou bien au contraire des sujets froids ou fondés sur des théories qui ne recueilleront qu’une très faible adhésion auprès de notre public afin de favoriser la prise de distance ? Au SCD de Rennes 1, nous pencherions plutôt pour la deuxième option en nous focalisant sur certains mythes scientifiques peu connus mais qui font habituellement partie de la culture scientifique des chercheurs. A la BPI, on a plutôt opté pour la seconde afin d’être accessible à un public plus jeune (collègiens) : il y est par exemple question de contrevérités relatives aux vaccins et aux réfugiés Syriens. Le recours à un tuteur-bibliothécaire dans ce contexte peut se comprendre, mais à l’Université, il faudrait sans doute compter davantage sur une discussion entre pairs à partir de critères ou de méthodes fournies par le bibliothécaire pour ne pas donner prise à l’argument de l’institution qui défend son propre mensonge.

Une tribune signée par plusieurs chercheurs en psychologie sociale et parue dans Le Monde en juin 2016 mentionnait l’absence de travaux suffisants sur les dispositifs éducatifs destinés à préserver la jeunesse de la désinformation et des fake news. Force est de constater que de notre point de vue aussi on improvise sans réelle visibilité sur le bien-fondé de nos dispositifs.

Mais la bonne nouvelle, c’est que l’Université se mobilise contre les fake news et que les bibliothécaires sont associés à cette réflexion soit localement par les enseignants chargés de cours en Licence, soit au niveau national à la faveur d’une  journée d’étude sur le sujet. Il est temps de faire une place plus grande à la lutte contre la désinformation dans nos formations et de nouer des partenariats avec les enseignants-volontaires ou spécialistes dans le domaine des croyances collectives pour tester le bien fondé de ces nouveaux dispositifs.

 

 

 

 

 

 

Publicité

26 juin (19h-21h) aux Champs Libres : atelier de découverte et de contribution à Wikidata

wikidata
L’événement est organisé par les Champs Libres dans le cadre des Rendez-vous 4C.
Ce rendez-vous aura lieu à l’Espace Magenta : accessible le lundi par le boulevard Magenta. Un événement similaire avait eu lieu le 5 octobre 2016 au même endroit
Plusieurs « Wikidatiens » dont Envel et Nicolas Vigneron seront présents pour présenter le fonctionnement de ce projet de base de connaissances collaborative, ouverte et multilingue
Au programme : introduction et présentation de Wikidata, échange, débat et
contributions.

 

Les intervenants essaieront d’adapter leur présentation aux envies et aux besoins de chacun afin de l’aider à s’approprier cet outil très puissant, que l’on soit simple ré-utilisateur ou -pourquoi pas- contributeur.


Image : durée des batailles de la deuxième guerre mondiale , graphique réalisé à partir des données de Wikidata

Compte rendu de l’atelier : Les bibliothécaires et la guerre du Faux (17 mai 2017)

11 personnes étaient présentes ce soir-là dans la salle de formation de la BU Droit Eco Gestion, des étudiants, une professionnelle de la communication, des bibliothécaires – dont les organisateurs de l’atelier Fanny Ozeray et moi-même – et un journaliste, Julien Joly, chroniqueur au Mensuel de Rennes.
Le sketchnote de Fanny donne déjà une image très complète et en même temps très synthétique de ce qu’on a vu au cours de cette soirée. J’y ajoute mon propre compte rendu, forcément beaucoup plus linéaire (je ne sais pas sketchnoter) et les les liens utiles partagés à cette occasion.

Chaque participant a été invité à expliquer ce qui l’avait fait venir, à quel titre il s’intéresse à la désinformation (sur le plan personnel ou professionnel) et à présenter s’il le souhaitait un outil ou une méthode qui lui sert à valider l’information, notamment celle qu’il consulte en ligne ou reçoit via les réseaux sociaux.
Les situations sont diverses mais nous sommes tous, au moins en tant que citoyens, confrontés quotidiennement à l’avalanche d’informations fausses ou controuvées, particulièrement dans les périodes électorales comme celles qui vient de s’achever. On a évoqué aussi certains cas particuliers, comme le cas d’ados qui s’entraînent au basket en regardant des tutos mensongers au risque de se blesser à force de répéter des gestes déconseillés par leur coach. L’empire du faux est vaste, et il est d’ailleurs toujours difficile de donner un nom à ces intox, le mot « fake news » étant réducteur ou imprécis (cela évoque tout un spectre de manipulations depuis l’image qu’on sort de son contexte à l’invention pure et simple d’un document).

Fanny a présenté Hoaxbuster, un site qui depuis longtemps déjà débusque les arnaques et les canulars en tout genre qui circulent sur la Toile (son activité dépasse le champ des fausses nouvelles colportées par les webzines et relayées par les réseaux sociaux). Julien Joly a présenté un outil proche, paru également au début des années 2000 et lancé par des universitaires, l’Observatoire Zététique dont le but initial était de dégonfler les rumeurs sur les événements paranormaux et autres visiteurs extra-terrestres.

Comment repérer et combattre les sites qui diffusent de fausse informations

J’ai présenté le Decodex que plusieurs personnes utilisaient ou du moins connaissaient dans la salle. Le Decodex, lancé en 2014, c’est aujourd’hui un organe du Monde incluant douze journalistes dont un certain nombre font du fact-checking depuis 2009. Les « Décodeurs » maintiennent une base de connaissance des sites qui diffusent de l’information douteuse et sont très présents sur twitter. Le Decodex existe sous la forme d’une extension pour Chrome et Firefox (version > 58) qui permet chaque fois qu’on visite un site de recevoir sous la forme d’un pop-up un avis quand le site présente les caractéristiques d’un site qui prend des libertés avec les faits… (essayer l’extension avec des sites parodiques comme le Gorafi, des sites d’extrême droite ou ultra-catholiques comme Fdesouche, BreizhInfo, ivg.net Nord Presse ou encore certains organes de presse financés par des puissances étrangères : Spoutnik ou Russia Today.) Les Decodeurs travaillent en partenariat avec Facebook (en même temps que d’autres agences de presse qui œuvrent sur ce terrain)  pour aider la firme californienne à déréférencer les news toxiques qui passent sur son réseau social.

Une difficulté conceptuelle du fact-checking a été soulevée : un fait lui-même ne dit rien et n’est rien sans l’interprétation qu’on en fait. L’ampleur du fact-checking réalisé par  certains organes de presse (comme Le Monde) peut donner l’impression dans ces mêmes journaux d’un discours dés-idéologisé (si on part du principe que l’objectivité n’est pas de ce monde) or il n’en est rien et l’idéologie peut se retrouver dans le non-dit, dans ce qu’un journal décide de traiter ou pas. A ce sujet, la polémique lancée par Frédéric Lordon dans le Monde Diplomatique et les réactions qu’elle suscite est intéressante à suivre. On peut aussi considérer, comme le fait Julien Joly, que le fact-checking est une réaction des canaux traditionnels d’information dont le crédit est entamé auprès des citoyens, une réaction qui vise à lutter contre la multitude des sites qui s’ouvrent pour servir à chacun l’information qui convient à ses vues.

Une manière de s’attaquer aux médias en ligne qui diffusent de fausses informations est de les priver de leurs annonceurs en faisant comprendre à ces derniers que le fait d’associer leur marque à des sites notoirement colporteurs de mensonges et autres faits alternatifs peut nuire à leur image. C’est ce à quoi s’attachent les Sleeping Giants. Des campagnes régulières conduites par des citoyens visent ainsi à utiliser Twitter pour convaincre les annonceurs de déserter ces sites. Ces campagnes remportent un succès et une notoriété grandissantes. Tout le monde peut s’y associer (voir notamment ce qui se passe sur le compte twitter des « Géants endormis » français.

Comment évaluer la fiabilité des images

Julien Joly a ensuite présenté la manière dont on pouvait évaluer la fiabilité des images. Parfois il suffit simplement de retarder le réflexe du partage de la photo choquante de quelques secondes et de concentrer son attention sur la photo pour s’apercevoir que celle-ci est sortie de son contexte : un panneau en langue cyrillique au fond, ou bien un képi inconnu sur la tête d’un policier nous indiquent par exemple que la photo n’a certainement pas été prise en France comme on veut nous le faire croire (cf. ce cas récent). Il faut aussi prendre conscience des scénarios très hasardeux que notre cerveau peut engendrer à la vue d’une légende ou un commentaire plaqué sur une image ou bien d’une succession d’images sans réel lien entre elles (effet Koulechov). Voir à ce sujet l’exemple de l’accident prétendument provoqué par les forces de police à Rennes dernièrement lors des manifestations.

Le contexte de la photo (commentaires, filigrane de l’agence de presse qui est à l’origine de la photo, qualité du texte et de son orthographe, en disent aussi long sur le crédit à accorder au document, un peu comme la page discussion d’un article de Wikipédia). On peut aussi tenter d’évaluer l’authenticité des photos en provenance de l’étranger en capturant des textes visibles sur la photo, en les océrisant et en les faisant traduire par Google Translate.

La recherche d’image proches de notre photo avec Google Images nous permet aussi de connaître les sites qui mentionnent cette photo et parmi eux, s’il y en a, de repérer les articles qui mettent en doute l’authenticité de la photo. C’est une manipulation très simple à faire, à la portée de tous. On peut aussi citer le moteur de recherche inversée d’images d’Amnesty International (Youtube Data Viewer) qui lui est complémentaire (mais ne gère que les vidéos parues sur Youtube) ou  le moteur de recherche Tineye qui permet également de retrouver les occurrences d’une image (URL ou fichier) sur la Toile et d’en identifier le contexte (tutoriel). Des produits plus complexes sont sur le marché pour aider l’internaute à visualiser les retouches d’image, comme Tungstène mais ils sont payants et coûteux. Les algorithmes de Tungstène permettent de visualiser les retouches qui ont été ajoutées à une image comme dans le cas de cette photo célèbre.

Beaucoup de falsificateurs omettent de modifier les métadonnées attachées à la photo. Ces métadonnées sont très riches à la base et comportent notamment le type d’appareil avec lequel la photo a été prise, la date et des éléments de géolocalisation, toutes indications qui permettent d’authentifier une photo (ou parfois de confirmer qu’il s’agit d’un faux) mais qui peuvent aussi dans certains contextes mettre en danger le photographe.

Des outils existent qui permettent d’afficher les métadonnées de ces photos (exifs), par exemple exif.regex.info, d’autres qui permettent de les supprimer avant de les envoyer sur le net comme MAT, un logiciel de la distribution Linux Tails qui est présenté régulièrement lors des cryptoparties rennaises.

Que peut-on faire en tant que bibliothécaire ?

Nous avons tous convenu que fournir de la presse légitime dans nos bibliothèques (Europresse sur les PC ou Kiosque sur les tablettes par exemple), ou dans nos salles de classe n’était pas suffisant. Encore faut-il faire apprendre aux jeunes l’usage critique de cette presse et le goût de la lire. Les compétences informationnelles ne sont pas encore présentes dans les cursus à la mesure de ce que nécessiterait aujourd’hui l’expansion de la manipulation de l’information. On ne peut pas dire pour autant que la problématique soit tout à fait nouvelle. Les enseignants d’Histoire par exemple montrent depuis longtemps à leurs élèves comment la propagande a toujours su manipuler les images pour arriver à ses fins. A l’Université des pistes se dégagent : convaincre un enseignant par exemple de nous laisser prendre un peu de temps pour parler à ses étudiants de l’évaluation des informations sur les réseaux sociaux dans le cours dévolu à la recherche d’information (habituellement on se limite à Wikipédia). On peut aussi organiser des ateliers sur ce thème à la bibliothèque. L’évaluation de l’information véhiculée sur les réseaux sociaux, peu à peu, trouve sa place parmi les « soft skills »(*) que sont ces savoirs-faire qu’on ne prend souvent pas le temps d’enseigner parce qu’on estime à tort qu’ils s’acquièrent « sur le tas », dans les cours disciplinaires.

D.B

*(comme d’habitude, il faut donner un nom anglais à un vieux thème pour l’acclimater à une vieille institution)

 

 

 

 

 

 

Les bibliothécaires et la guerre du faux : Comment peut-on lutter contre la désinformation ?

  • Venez améliorer vos techniques d’évaluation de l’information
  • Venez présenter vos trucs pour vérifier les informations qu’on vous adresse sur les réseaux sociaux
  • Venez parler du rôle des bibliothèques dans la lutte contre la désinformation du public par les fake news et autres informations controuvées, falsifiées, taillées sur mesure, etc.

Doc@Rennes propose un atelier sur ce thème le mercredi 17 mai de 19h30 à 21h30 en salle de formation de la Bibliothèque Universitaire de Droit Eco Gestion (Place Hoche, entrée par les Salles La Borderie)

Julien Joly, journaliste et rédacteur du Mensuel de Rennes sera là pour montrer comment détecter les images falsifiées.

A vous de venir avec vos propres astuces et méthodes, si vous en avez. Il n’est pas nécessaire d’avoir quelque chose à présenter, c’est ouvert à tous mais il est conseillé de s’inscrire en ligne

Comment_réperer_de_«_fake_news_»_(How_To_Spot_Fake_News)

How to stop fake news (french translation), by IFLA

Compte rendu du premier café Vie privée de Doc@Rennes

sr7kr6r2

Animateur : Benoît Vallauri (MDIV)

Compte rendu : Damien Belvèze (INSA Rennes)

Le principe du café Vie privée est d’offrir un temps d’échange autour des pratiques de chacun en matière de protection de sa vie privée numérique lorsqu’il en a besoin, quel qu’en soit les raisons. Pour le citoyen, l’usager, le chercheur, le militant, l’amant, l’ado, on a tous le droit de choisir les limites de notre vie privée.

« Ne pas se soucier de la protection de la vie privée sous prétexte que l’on a rien à cacher, c’est comme ne pas se soucier de la liberté d’expression sous prétexte que l’on a rien à dire » (Edward Snowden).

De manière générale, n’avoir rien à cacher est un argument facile pour abdiquer sont droit naturel à la vie privée. Au contraire, on devrait tous partir du principe qu’il est normal qu’on ait quelque chose à cacher, car la vie privée est précieuse. Elle est indispensable à la liberté d’expression. Cela dit, quand on s’achète une pochette anti-ondes pour son portable, on est certes à l’abri des IMSI catchers… mais aussi des appels. Il faut d’abord bien évaluer de quel type de protection on a besoin en fonction de ses activités présentes et adapter ce besoin à chacune de nos activités.

Ensuite les cafés vie privée donnent l’occasion d’échanger quelques bonnes pratiques dans leur usage quotidien d’internet.

A l’heure où on greffe des puces NFC sous la peau d’humains, il faut se demander s’il n’y a pas d’une certaine manière une continuité entre se choisir un mot de passe complexe aujourd’hui, connaître les possibilité de dérives des technologies, et avoir les clefs politiques et philosophiques par exemple sur la notion de transhumanisme. Les choix citoyens de demain dépendent de nos possibilités d’informer aujourd’hui. L’avenir de cette liberté qu’est la vie privée se décide aussi aujourd’hui.

En tant que professionnels de l’information, et médiateurs auprès des publics, les bibliothécaires et médiateurs numériques doivent être en première ligne dans la nécessaire information des publics sur ces questions, qui sont aujourd’hui des enjeux de citoyenneté et de choix de société.

Lire la suite