Webinar du 22.04.20 – Abakus SIGN & IBM i2 Analyst Notebook investigation graphique

Webinar en partenariat entre Satom IT & Learning Solutions et Swissintell.

Présentation du connecteur Abakus SIGN sur une base Graph des Panama Papers pour présentation de relations cachées des résultats Investigation graphique à l’AI.

Des chercheurs suisses chassent les «deepfakes»

Les vidéos truquées à l’aide de l’intelligence artificielle deviennent toujours plus sophistiquées. Des experts en Suisse romande réévaluent les risques que leur utilisation malveillante fait courir à la société, tout en mettant au point des outils innovants pour arrêter leurs auteurs.

Cela en développant un logiciel, en collaboration avec la société de cybersécurité Quantum Integrity (QI), qui peut détecter les images truquées, y compris les deepfakes. Grâce au «machine learning» (apprentissage statistique), le même procédé que pour les deepfakes, le logiciel apprend à faire la différence entre le vrai et le faux. «Avec beaucoup d’entraînement, ce programme peut aider à détecter les faux comme le ferait un humain», détaille M. Ebrahimi. «Plus on l’utilise, meilleurs sont ses résultats.»

Les «deepfakes» les plus diffusés ont un caractère parodique, impliquant des individus très en vue, comme des célébrités et des personnalités politiques, selon l’International Risk Governance Center (IRGC), qui souligne que «tous les deepfakes ne sont pas créés dans un but malveillant». Hollywood a également mis au point des technologies pour permettre le retour au cinéma d’acteurs décédés depuis longtemps. Antony Ebrahimi, de l’EPFL, affirme que, si tout se passe comme prévu, un sous-produit du projet EPFL/QI pourrait être l’utilisation éventuelle de cette même technologie pour créer des effets spéciaux de film. Selon l’IRGC, d’autres utilisations positives des techniques de contrefaçon sont la synthèse vocale à des fins médicales et la médecine légale numérique dans les enquêtes criminelles.

Source et article complet : swissinfo

Facial Recognition: A Privacy Crisis

Your face is what makes you unique. It’s what gives you your distinct appearance, allows you to express your mood, emotions, and reactions, and enables you to communicate. Over the past decades, your face has become a tool for doing a whole lot more. It can unlock your phone, allow you to board a plane, cross borders, and pay for coffee. All of this is due to the rise of facial recognition technology (FRT), a type of artificial intelligence that utilizes deep learning to quantify the unique identifiers of individual faces, which are then analyzed and compared to databases of photos. While FRT has distinct advantages – such as crime and fraud prevention, efficiency, and convenience – the risks that accompany its widespread use signal the end of privacy as we know it. Yet governments around the world have been slow to initiate public debate and enact regulation pertaining to its use. All the while, FRT has proliferated both in the public and private sectors, resulting in the normalization of constant, immutable surveillance that is set to become the default for our future: one in which – without urgent government action – our ability to move through life unmonitored will cease to exist.

Source : The Privacy Issue