Un moteur de recherche sécurisé et décentralisé pour les journalistes

Afin de garantir un échange d’informations sans risque de fuites entre les journalistes d’investigation, un Laboratoire de l’EPFL a mis au point un moteur de recherche décentralisé et une messagerie sécurisée permettant de préserver leur anonymat. Un article scientifique à ce sujet sera présenté durant la conférence Usenix Security Symposium qui se tiendra en ligne du 12 au 14 août.

L’anonymat constitue le point central du dispositif. Tant la recherche que l’échange d’informations peuvent se faire sans divulguer son identité ou le contenu des requêtes, ni aux collègues, ni à l’organisation. Cette dernière est garante du bon fonctionnement du système mais n’a pas connaissance des échanges. Elle émet des jetons virtuels que les journalistes apposent à leurs messages et à leurs documents afin de garantir aux autres leur appartenance au Consortium. Un système de gestion centralisé serait une cible trop évidente pour les hackers. L’organisation ne possédant pas de serveurs décentralisés dans diverses juridictions, les documents restent donc sur les serveurs ou ordinateurs des membres. Les utilisateurs enregistrent dans le système seulement quelques informations permettant aux autres de faire le lien avec leur enquête.

L’utilisateur qui cherche une information tape quelques mots clefs dans le moteur de recherche. Si sa requête aboutit, il peut contacter ses collègues – dont il ne connaît toujours pas l’identité- possédant des documents potentiellement intéressants via un système de « bulletin » qui lui permet de diffuser son message à tous. Les recherches sont envoyées cryptées à tous les utilisateurs. Si des informations concordent, le demandeur reçoit une alerte et décide s’il souhaite entrer en communication et éventuellement échanger des informations. « Étant donné les différents fuseaux horaires et le fait que certains membres n’ont accès à internet que quelques heures par jour, il était important que la recherche et les réponses puissent se faire de manière non synchronisée », souligne Carmela Troncoso, directrice du SPRING. Un autre système de messagerie également sécurisé et anonyme permet ensuite des échanges bilatéraux.

Article complet et source : EPFL

LAUSANNE EVENT 01.10.20 – Veille technologique, scientifique et technique : étude de cas et démonstrations @EPFL

Swissintell Veille EPFL

Become a member now and discover all membership benefits
such as free access to all our events in Zurich and Geneva !

INSCRIPTIONS SUR WEEZEVENT

Evénement exclusif réservé aux membres de Swissintell, aux employé-es de la Confédération, aux collaborateurs de l’EPFL et résidents de l’EPFL Innovation Park ! Une justification peut être demandée.

! Attention le nombre de places est limité !

Conférence avec la participation de

Programme :

  • 18h00 – Accueil des participants et mot de bienvenue
  • 18h10 – Démonstration de l’outil Technology Market Monitoring (TMM) par Alain Mermoud
  • 18h30 – Analyse des besoins en veille technologique par Kilian Cuche
  • 18h45 – Présentation des méthodes de forecasting technologiques par Dimitri Percia David
  • 19h00 – Présentation du programme DEFTECH par Quentin Ladetto
  • 19h30 – Tour de table, questions et réponses
  • 20h00 – Cocktail et réseautage

INSCRIPTIONS SUR WEEZEVENT

Adresse

METRO M1 arrêt EPFL

Fondation EPFL Innovation Park
Bâtiment I, 3ème étage
CH-1015 Lausanne

532681, 152043
46.51629, 6.56142

Des chercheurs suisses chassent les «deepfakes»

Les vidéos truquées à l’aide de l’intelligence artificielle deviennent toujours plus sophistiquées. Des experts en Suisse romande réévaluent les risques que leur utilisation malveillante fait courir à la société, tout en mettant au point des outils innovants pour arrêter leurs auteurs.

Cela en développant un logiciel, en collaboration avec la société de cybersécurité Quantum Integrity (QI), qui peut détecter les images truquées, y compris les deepfakes. Grâce au «machine learning» (apprentissage statistique), le même procédé que pour les deepfakes, le logiciel apprend à faire la différence entre le vrai et le faux. «Avec beaucoup d’entraînement, ce programme peut aider à détecter les faux comme le ferait un humain», détaille M. Ebrahimi. «Plus on l’utilise, meilleurs sont ses résultats.»

Les «deepfakes» les plus diffusés ont un caractère parodique, impliquant des individus très en vue, comme des célébrités et des personnalités politiques, selon l’International Risk Governance Center (IRGC), qui souligne que «tous les deepfakes ne sont pas créés dans un but malveillant». Hollywood a également mis au point des technologies pour permettre le retour au cinéma d’acteurs décédés depuis longtemps. Antony Ebrahimi, de l’EPFL, affirme que, si tout se passe comme prévu, un sous-produit du projet EPFL/QI pourrait être l’utilisation éventuelle de cette même technologie pour créer des effets spéciaux de film. Selon l’IRGC, d’autres utilisations positives des techniques de contrefaçon sont la synthèse vocale à des fins médicales et la médecine légale numérique dans les enquêtes criminelles.

Source et article complet : swissinfo