Künstliche Intelligenz für die Cybersicherheit

Künstliche Intelligenz (KI) wird die Cybersicherheit in den kommenden Jahren voraussichtlich verändern. KI wird sowohl Angriff als auch Verteidigung im Cyberraum weiterentwickeln und die Landschaft von Cyberbedrohungen mitprägen. Der Umgang mit diesen Veränderungen fordert vor allem staatsnahe Akteure heraus, die einen angemessenen politischen und normativen Rahmen schaffen müssen.

Durch das Training mit einem grossen Datensatz, der als Goodware oder Malware gekennzeichnete Dateien beinhaltet, kann ein neuronales Netzwerk in annehmbarem Umfang lernen, eine neue Datei ohne Rückgriff auf manuell aktualisierte Listen als bösartig einzustufen. Das wird wohl dazu beitragen, die Erkennung moderner, neuer Malware zu verbessern, die automatisch neue Varianten generieren kann, um die traditionellen regelbasierten Ansätze zur Identifizierung zu umgehen. Diese Varianten können mithilfe von KI-gestützter Malware-Erkennung der richtigen Malware-Gruppe zugeordnet werden. Gleichzeitig ist diese binäre Klassifizierung keineswegs einfach. In der Masse all dieser Dateien ist die Häufigkeit von Malware sehr gering, weshalb die Klassifizierung oft falsch positive Resultate ergibt und ausführbare Dateien seriöser Softwareprodukte blockiert. Einige Unternehmen haben als Übergangslösung eine «weisse Liste» für gefahrlose Dateigruppen angelegt, jedoch zeigt Forschung, dass eine Malware dann einfach um Dateien von weissen Listen erweitert werden kann und so unentdeckt bleibt. Daher ist in absehbarer Zukunft die KI-gestützte Erkennung von Malware kein Ersatz für traditionelle Methoden, sondern eine ergänzende Massnahme dazu.

Quelle und kompletter Artikel : CSS

Webinar du 22.04.20 – Abakus SIGN & IBM i2 Analyst Notebook investigation graphique

Webinar en partenariat entre Satom IT & Learning Solutions et Swissintell.

Présentation du connecteur Abakus SIGN sur une base Graph des Panama Papers pour présentation de relations cachées des résultats Investigation graphique à l’AI.

Des chercheurs suisses chassent les «deepfakes»

Les vidéos truquées à l’aide de l’intelligence artificielle deviennent toujours plus sophistiquées. Des experts en Suisse romande réévaluent les risques que leur utilisation malveillante fait courir à la société, tout en mettant au point des outils innovants pour arrêter leurs auteurs.

Cela en développant un logiciel, en collaboration avec la société de cybersécurité Quantum Integrity (QI), qui peut détecter les images truquées, y compris les deepfakes. Grâce au «machine learning» (apprentissage statistique), le même procédé que pour les deepfakes, le logiciel apprend à faire la différence entre le vrai et le faux. «Avec beaucoup d’entraînement, ce programme peut aider à détecter les faux comme le ferait un humain», détaille M. Ebrahimi. «Plus on l’utilise, meilleurs sont ses résultats.»

Les «deepfakes» les plus diffusés ont un caractère parodique, impliquant des individus très en vue, comme des célébrités et des personnalités politiques, selon l’International Risk Governance Center (IRGC), qui souligne que «tous les deepfakes ne sont pas créés dans un but malveillant». Hollywood a également mis au point des technologies pour permettre le retour au cinéma d’acteurs décédés depuis longtemps. Antony Ebrahimi, de l’EPFL, affirme que, si tout se passe comme prévu, un sous-produit du projet EPFL/QI pourrait être l’utilisation éventuelle de cette même technologie pour créer des effets spéciaux de film. Selon l’IRGC, d’autres utilisations positives des techniques de contrefaçon sont la synthèse vocale à des fins médicales et la médecine légale numérique dans les enquêtes criminelles.

Source et article complet : swissinfo