The Society & Technology project from DEFTECH – Your opinion matters !

The aim of this project is to evaluate the limits of social acceptance of technologies and their civilian and military applications in a social environment that is as heterogeneous as possible. In order to achieve it, we need you help and support!

Find the questionnaire here

The Project

Our time is characterized by technologies that develop very quickly. These developments allow for applications that were still considered pure science fiction a few years ago. A successful market launch of such products depends largely on their social acceptance. This applies to both the civil and military sectors. In democratic states, an army cannot avoid considering the social acceptance of technologies and their applications in its planning processes.

The aim of this project is to evaluate the limits of social acceptance of technologies and their applications in a social environment that is as heterogeneous as possible. We need your help to achieve this. Express your opinion. It is up to you to decide on which technologies you wish to express an opinion.

The first phase is to gather as many ideas as possible about what applications a technology could have and whether you consider them to be acceptable or unacceptable. In a second stage we will visualize these ideas and subject them to further evaluation. If you leave us your email address when filling out the forms, we will make the survey results available to you on our platform.

We are curious about your answers!

Find the questionnaire here

This gathering of opinions takes place until: May 31st 2020

Source : DEFTECH

Des chercheurs suisses chassent les «deepfakes»

Les vidéos truquées à l’aide de l’intelligence artificielle deviennent toujours plus sophistiquées. Des experts en Suisse romande réévaluent les risques que leur utilisation malveillante fait courir à la société, tout en mettant au point des outils innovants pour arrêter leurs auteurs.

Cela en développant un logiciel, en collaboration avec la société de cybersécurité Quantum Integrity (QI), qui peut détecter les images truquées, y compris les deepfakes. Grâce au «machine learning» (apprentissage statistique), le même procédé que pour les deepfakes, le logiciel apprend à faire la différence entre le vrai et le faux. «Avec beaucoup d’entraînement, ce programme peut aider à détecter les faux comme le ferait un humain», détaille M. Ebrahimi. «Plus on l’utilise, meilleurs sont ses résultats.»

Les «deepfakes» les plus diffusés ont un caractère parodique, impliquant des individus très en vue, comme des célébrités et des personnalités politiques, selon l’International Risk Governance Center (IRGC), qui souligne que «tous les deepfakes ne sont pas créés dans un but malveillant». Hollywood a également mis au point des technologies pour permettre le retour au cinéma d’acteurs décédés depuis longtemps. Antony Ebrahimi, de l’EPFL, affirme que, si tout se passe comme prévu, un sous-produit du projet EPFL/QI pourrait être l’utilisation éventuelle de cette même technologie pour créer des effets spéciaux de film. Selon l’IRGC, d’autres utilisations positives des techniques de contrefaçon sont la synthèse vocale à des fins médicales et la médecine légale numérique dans les enquêtes criminelles.

Source et article complet : swissinfo

Wie sich die Schweizer Armee gegen Cyber-Angriffe wappnet

Der Cyber-Defence Campus (CYD) antizipiert Cyber-Entwicklungen und ist Bindeglied zwischen VBS, der Industrie und der Wissenschaft in allen cyber-relevanten Themen. So entwickelte er beispielsweise ein Verfahren für eine effizientere Abwehr von Cyber-Attacken auf der Basis von maschinellem Lernen. Ziel dieses CYD Campus-Projekts ist es, dass die Armee in Zukunft globale Angriffsversuche zuverlässig und in Echtzeit aufspüren kann.

CYD_Campus_DE