L’OSINT, ou comment le citoyen peut aider à lutter contre la désinformation

La guerre en Ukraine apporte un flux quasi ininterrompu d’images et de vidéos postées sur le web et les réseaux sociaux. Cette nouvelle dynamique a donné naissance à une véritable communauté du renseignement participatif composée de spécialistes, de journalistes ou d’amateurs éclairés se réunissant derrière l’appellation “OSINT” pour “Open Source Intelligence”.

Une des spécificités de la guerre en Ukraine, c’est sa grande visibilité sur le web. Or, l’OSINT combine fact-checking (vérification des faits) et analyse de données. L’OSINT comme “Open Source Intelligence” (“renseignements qui proviennent de sources ouvertes” en français) désigne ainsi la capacité de produire des faits vérifiés sur la base d’informations disponibles en ligne.

C’est grâce à ce nouvel outil que l’avancée des troupes russes en Ukraine a pu être observée. Et c’est également grâce au travail des “osinteurs”, comme on appelle les spécialistes de l’OSINT, que les images satellitaires sur la ville de Boutcha ont pu livrer leurs secrets, démontrant que le massacre qui y a eu lieu n’était pas une “mise en scène”, comme le prétend Moscou.

L’OSINT permet ainsi de géolocaliser, de recontextualiser et d’authentifier par exemple une vidéo ou une photo issue du web, ce qui est essentiel dans un contexte de propagande de part et d’autre. Une fois vérifiées, ces images permettent par exemple de comprendre soit la logique des mouvements de troupes de soldats, soit l’endroit exact où se déroulent des frappes aériennes. Les “osinteurs” savent que les réseaux sociaux sont devenus un endroit où on collecte des preuves qui peuvent influencer l’issue d’une guerre.

Cette technique existe depuis quelques années déjà, mais elle a pris plus d’ampleur avec le conflit en Ukraine, comme l’explique dans La Matinale Olivier Le Deuff, maître de conférence en sciences de l’information et de la communication à l’Université Bordeaux Montaigne. “L’OSINT est une technologie déjà assez ancienne. Ça avait déjà commencé lors du conflit syrien. Cela vient du monde du renseignement et petit à petit on a vu une expansion de cet outil dans le domaine du journalisme et parmi les amateurs.”

Concrètement, à Boutcha, l’objectif a été de “resituer les exactions dans une temporalité”, comme le détaille le chercheur. “Le New York Times et son équipe de spécialistes ont pu démontrer qu’il y avait des traces de cadavres qui étaient faciles à remonter avec l’image satellitaire.”

Source et article complet : RTS

Deepfakes challenge to trust and truth – EPFL Research

Will deepfakes become the most powerful tool of misinformation ever seen? Can we mitigate, or govern, against the coming onslaught of synthetic media?

Our research focuses on the risks that deepfakes create. We highlight risks at three levels: the individual, the organizational and the societal. In each case, knowing how to respond means investigating to better understand the risks of what and to whom. And it’s important to note that these risks don’t necessarily involve malicious intent. Typically, if an individual or an organization faces a deepfake risk, it’s because they’ve been targeted in some way – for example, non-consensual pornography at the individual level, or fraud against an organization. But on the societal level, one of the things our research highlights is that the potential harm from deepfakes is not necessarily intentional: the growing prevalence of synthetic media can stoke concerns about fundamental social values like trust and truth.

Source & Full article : EPFL

Do we live in online bubbles ? EPFL Research

[…] Scientists from EPFL’s Data Science Lab (dlab) in the School of Computer and Communication Sciences, with colleagues from MIT and the Mozilla Foundation have analyzed the browsing and reading habits of tens of thousands of people using a plugin used with the Firefox browser, for the first time gaining a glimpse at polarization from a content consumption perspective. 

Echo chambers are not a new thing but the real replication of these memes happens online. Until now, a lot of polarization research has been around content production because this is what we can easily measure. This population of Firefox users consented to share their data – it’s like some people donate blood for the common good, here people donated their data for the common good,” said Head of the Data Science Lab, Assistant Professor Robert West, and the study’s lead author.

Whilst there have been previous, smaller studies that measured engagement in different ways, uniquely this new study was conducted in vivo, with users going about their normal daily lives, meaning that researchers were able to follow people in their natural habitat. With access to browsing history, unlike earlier studies, this research measured the time that users spent on particular websites, and reading particular articles, rather than whether a user had visited a site or not. 

This additional data provided new evidence of a greater extent of polarization than observed in prior literature, showing that people engaged much more deeply with articles matching their political persuasion, spending more time on news sources matching their partisan beliefs than other information sources. […]

Source and full article : EPFL