REVUE UAB Magazine September 2024
59 Magazine de l ’ Union Des Banques Arabes Articles émergentes ou évolutives. Les IDS améliorés par l’IA utilisent des algorithmes d’apprentissage automatique pour analyser le trafic réseau en temps réel, identifiant les comportements suspects sur base de modèles hors norme. Des techniques telles que les réseaux de neurones convolutifs (CNN) et les réseaux de neurones récurrents (RNN) ont été employées pour classifier les charges utiles réseau, améliorant considérablement la détection des cyberattaques. Une autre application critique de l’IA en cybersécurité est la détection du phishing . Les systèmes pilotés par l’IA utilisent des modèles d’apprentissage profond qui analysent le contenu des courriels, les URL et les métadonnées, identifiant des indices subtils indiquant des tentatives d’hameçonnage. L’apprentissage profond peut améliorer considérablement la précision de la détection du phishing, réduisant les faux positifs et renforçant la sécurité. La sécurité des objets connectés (IoT) est un autre domaine où l’IA s’est avérée inestimable. Les appareils IoT, souvent dépourvus de mesures de sécurité robustes en raison de leur faible puissance de traitement, sont particulièrement vulnérables aux attaques. Les systèmes de détection d’intrusion basés sur l’IA surveillent le trafic réseau au sein des environnements IoT, et identifient toutes anomalies pouvant indiquer une activité malveillante. Les Vulnérabilités de l’IA en Cybersécurité Bien que l’IA offre des avantages significatifs dans la défense contre les menaces informatiques, elle introduit également de nouvelles vulnérabilités. L’unedespluspréoccupantesseraitlasusceptibilité aux attaques adversariales. Ces attaques consistent à manipuler les données d’entrée de manière subtile, afin de tromper les modèles d’IA, entraînant des décisions incorrectes. En effet, des recherches ont montré que certaines modifications des données d’entrée - même mineures - pourraient avoir un impact significatif sur les performances des modèles d’IA. L’ empoisonnement des données est une autre menace majeure. Des adversaires injectent ainsi des données malveillantes dans le jeu de données d’entraînement utilisé par un modèle d’IA. Ces données corrompues peuvent fausser le processus d’apprentissage du modèle, conduisant à des prédictions ou des classifications inexactes. Ainsi, l’empoisonnement des données pourrait amener un système d’IA à mal identifier les menaces ou à ne pas détecter certaines attaques. La montée des cyberattaques pilotées par l’IA constitue également un risque important
Made with FlippingBook
RkJQdWJsaXNoZXIy MTMxNjY0Ng==