Usages de l’IA en cybersécurité

Intelligence artificielle et cybersécurité

La cybersécurité recouvre l’ensemble des « mesures prises pour protéger un ordinateur ou un système informatique contre un accès non autorisé ou une attaque » (ISO 8102-20:2022). L’intelligence artificielle est aujourd’hui un outil indispensable à la protection des systèmes comme à leur agression.

Quels usages ?

Nous examinerons successivement dans cet article les usages de l’IA en défense et en attaque : comment, d’un côté, l’IA contribue à la cybersécurité ? Et, comment par ailleurs, elle fournit aux hackers des moyens de pirater les systèmes ?

Carte euristique présentant les usages de l'IA en cybersécurité

Carte euristique présentant les usages de l’IA en cybersécurité

 

Côté défense

Contributions de l’IA à la cybersécurité

Les moyens sont multiples :

  • détection des anomalies et des comportements suspects ;
  • analyse des menaces et automatisation de la réponse aux menaces, par exemple par la mise en quarantaine d’un ordinateur infecté ou la fermeture d’une connexion réseau suspecte ;
  • prévision des menaces ;
  • analyse et automatisation de la conformité aux réglementations et normes de sécurité en vigueur.

Ces différents moyens de protection sont en particulier utilisés par les antivirus.

Des algorithmes d’apprentissage automatique permettent de détecter les malwares, d’analyser les menaces et d’automatiser les réponses.

Les comportements anormaux ou suspects d’un système d’information peuvent indiquer une menace potentielle. Citons en vrac des connexions réseau inhabituelles, l’utilisation anormale des ressources mémoire ou processeur, des modifications de fichiers de configuration effectuées sans autorisation, l’utilisation de privilèges anormaux, des tentatives de connexion répétées. Ces comportements anormaux peuvent être détectés en temps réel.

La surveillance et l’analyse permanente de l’activité sur l’ensemble des systèmes dont les réseaux, bases de données, sites Web, applications est facilitée par l’intégration d’IA à tous les niveaux de surveillance : antivirus, firewalls, sondes réseaux…

Les tests d’intrusion mêlent techniques classiques et intelligence artificielle. Automatiser des tâches simples permet de gagner du temps pour réaliser des tests plus complexes où des actions manuelles restent indispensables.

En analysant les masses de données disponibles sur les attaques passées, l’IA peut dégager des tendances et prédire de futures menaces. Ces renseignements permettent aux équipes sécurité d’agir plus rapidement de façon préventive.

Références :

Côté attaque

Comment l’IA facilite les attaques ?

Comme on peut s’y attendre, l’IA fournit de même aux hackers des moyens puissants pour pirater les systèmes.  Les attaques imitent des comportements normaux et échappent ainsi aux défenses de sécurité mises en place.

Citons, entre autres :

  • le contournement des mécanismes d’authentification par reconnaissance vocale et faciale ;
  • l’automatisation du phishing en créant des textes plus crédibles ;
  • l’identification des cibles les plus vulnérables pour automatiser les attaques par rançongiciel ;
  • l’identification des vulnérabilités des systèmes et réseaux ;
  • la création de réseaux de bots pour lancer des attaques DDOS, voler des informations ou diffuser des malwares.

Des malwares intelligents, appelés malwares évolutifs ou malwares avancés, utilisent l’IA pour échapper à la détection et à la suppression. Les techniques d’apprentissage automatique leur permettent de s’adapter aux défenses de sécurité et d’éviter les détections.

Au-delà du monde strictement numérique, l’IA permet aux pirates de prendre le contrôle de machines et équipements du mode réel, tels que drones, voitures autonomes, objets connectés.

Le piratage des drones est rendu possible par différentes techniques :

  • brouillage radio ;
  • interception des communications entre le drone et le contrôleur ;
  • exploitation de vulnérabilités logicielles pour prendre le contrôle du drone.

De même, les voitures connectées peuvent être piratées. Leur utilisation des technologies telles que le Bluetooth, le Wifi et le GPS pour se connecter à Internet et à d’autres appareils les rend vulnérables. Les pirates peuvent, par exemple, altérer les systèmes de navigation en envoyant de fausses informations aux conducteurs. L’altération des systèmes de contrôle des moteurs peut causer des erreurs de fonctionnement, voire des accidents. Les systèmes de sécurité peuvent également être altérés et les données du véhicule volées.

Du fait de leur connectivité, les objets connectés tels que thermostats, caméras de sécurité ou assistants vocaux sont ainsi des cibles potentielles des IA. Interception des communications, exploitation des vulnérabilités logicielles sont là encore les moyens utilisés pour prendre le contrôle des appareils et en perturber le fonctionnement.

L’IA elle-même est un composant du système d’information, susceptible d’être attaqué par une autre IA. L’escalade est sans fin.

On parle d’Adversarial machine learning (apprentissage automatique adversaire). Il s’agit d’une méthode d’apprentissage automatique qui vise à tromper les modèles d’apprentissage automatique en leur fournissant des données trompeuses. Elle comprend donc, en même temps, la génération et la détection d’exemples contradictoires, qui sont des données spécialement créées pour tromper les classificateurs. Cela s’applique en particulier dans le domaine de la reconnaissance d’images, où des modifications sont apportées aux images afin de permettre à un classificateur de produire des prédictions incorrectes.

Citons enfin l’infiltration des réseaux sociaux par l’IA. Les bots de réseaux sociaux représenteraient un pourcentage important de tous les comptes sur les réseaux sociaux et permettent diverses manipulations, plus ou moins repérables :

  • amplifier la popularité d’une personne ou d’un mouvement (bots followers) ;
  • influencer les élections (voir élection présidentielle américaine de 2016) ;
  • manipuler les marchés financiers ;
  • amplifier les attaques d’hameçonnage ;
  • diffuser du spam.

L’escalade continue entre attaque et défense est inévitable. Elle alimente la recherche dans le domaine de l’IA, en ignorant les principes éthiques que certains souhaiteraient lui voir appliquer.


Références

Print Friendly, PDF & Email
Partager cette page
Publié dans Intelligence artificielle & collective et marqué , , .

Présidente d'honneur d'ADELI
Membre du comité
Responsable du GT Métiers