Menaces email et utilisation de l’IA à des fins malveillantes

Dans le monde de la cybersécurité, l’intelligence artificielle (IA) a longtemps permis d’équilibrer les forces en présence. Les hackers possèdent en effet un avantage intrinsèque, car ce sont eux qui décident contre qui déployer des cyberattaques, à quel moment et par quel canal. Mais avec l’IA, les organisations ont pu adopter une stratégie de cybersécurité proactive pour éviter les menaces email  et autres formes de cyberattaques, les détecter et y répondre. Ainsi, rien de surprenant à ce que les analystes prédisent que le marché mondial de la cybersécurité basée sur l’IA se chiffrera à 133,8 milliards de dollars en 2030.  

Mais alors que les promesses des outils basés sur l’IA continuent de faire les gros titres, une réalité bien moins positive pourrait se faire jour. En effet, les outils qui protègent les organisations des cyber-menaces permettent aussi aux hackers de lancer des attaques plus fréquentes, ambitieuses et sophistiquées. Sans même tenir compte de l’IA, le Forum économique mondial prévoit que la cybercriminalité figurera parmi les 10 principaux défis que le monde devra relever dans les 2 à 10 ans, avec les catastrophes naturelles et autres événements climatiques extrêmes.

Dans cet article, nous allons voir comment les hackers utilisent l’IA pour déployer des menaces email, ainsi que les quatre fonctions dont votre solution de cybersécurité basée sur l’IA doit disposer pour offrir une protection efficace.

L’émergence des menaces email créées par l’IA

Au 4e trimestre 2022, les chercheurs de Vade ont remarqué que ChatGPT, un chatbot mis au point par le spécialiste de l’IA OpenAI, était capable de créer des kits de phishing sophistiqués. Quelques commandes très simples et une poignée de secondes suffisent pour générer des modèles de phishing et du code malveillant.

Menaces email - Exemples d’emails de phishing produits par ChatGPT

Exemples d’emails de phishing produits par ChatGPT

On voit ici que l’IA peut devenir une arme essentielle pour les hackers. En effet, les opérateurs de réseaux de phishing-as-a-service (PhaaS) peuvent utiliser ces outils à des fins malveillantes en créant de nouveaux produits très efficacement. Ils pourront ainsi accélérer la production et servir davantage de clients, bref monter en puissance.

D’autre part, l’IA facilite aussi l’entrée sur le marché du PhaaS en limitant les connaissances et compétences nécessaires. Davantage de réseaux, de kits de phishing et de cybercriminels en général vont ainsi voir le jour. Enfin, cet exemple n’en est qu’un parmi d’autres : l’IA est génératrice de valeur pour les hackers par de nombreux aspects.

Click me

Cet exemple explique peut-être pourquoi, alors que les menaces email deviennent toujours plus sophistiquées, le nombre d’emails de phishing et contenant des malwares ne cesse d’augmenter. Une analyse des emails de phishing et malwares détectés par Vade sur les sept dernières années confirme cette tendance. Entre 2016 et 2022, Vade a constaté une forte hausse des volumes de phishing. Plus de 1 milliard de ces emails ont été détectés au cours des deux dernières années (1,2 milliard en 2021 et 1,1 milliard en 2022) contre seulement 283 millions en 2020, 310 millions en 2019, 867 millions en 2018, 125 millions en 2017 et 58 millions en 2016.

Menaces email - Volumes annuels de phishing depuis 2016

Volumes annuels de phishing depuis 2016

Cette tendance n’est pas spécifique au phishing. Vade a également détecté une hausse significative des malwares envoyés par email depuis 2019. 103 millions ont été envoyés en 2019, 150 millions en 2020, 160 millions en 2021 et 236 millions en 2022.

Menaces email - Nombre annuel de malwares depuis 2016

Nombre annuel de malwares depuis 2016

Clairement, l’IA peut aider les hackers en leur permettant de créer et déployer des cybermenaces plus rapidement. Mais cela va plus loin. D’autres études ont montré que les hackers peuvent aussi utiliser l’IA pour repérer les failles de sécurité informatique, imaginer de nouvelles techniques de contournement des outils de sécurité pour leurs malwares, et bien plus encore.

Menaces par email : comment les organisations peuvent se protéger des IA malveillantes

L’utilisation de l’IA à des fins malveillantes impose clairement aux organisations de renforcer leur stratégie de sécurité. Les fournisseurs de services gérés (MSP) et petites et moyennes entreprises (PME) sont particulièrement concernés. L’IA constitue certes un outil majeur de cybersécurité, mais son efficacité dépend de nombreux critères auxquels de nombreuses solutions de cybersécurité prétendument « basées sur l’IA » ne répondent pas.

Les organisations devront éviter ces solutions pour leur préférer des produits réunissant les conditions nécessaires à l’exploitation du plein potentiel de l’IA. Voici les quatre facteurs permettant à l’IA d’offrir une protection optimale contre les menaces email d’aujourd’hui et de demain.

1. Algorithmes d’IA polyvalents

Pour se protéger de tous les types de menaces véhiculés par les emails, votre entreprise doit disposer d’un ensemble d’algorithmes centraux. Ainsi, le machine learning est nécessaire pour analyser différentes caractéristiques des emails, liens et pièces jointes. La computer vision permet d’analyser les images des emails et pages Web afin d’y repérer des anomalies. Le Natural language processing facilite quant à lui la détection de subtils choix grammaticaux et stylistiques dans le texte afin de repérer de potentielles attaques business email compromise (BEC).

Ensemble, ces algorithmes peuvent offrir une protection à plusieurs niveaux contre l’ensemble des formes de phishing, malware et spear phishing. Néanmoins, leur efficacité dépend de trois autres facteurs.

2. Intelligence humaine

L’IA peut traiter des informations à une vitesse et une échelle bien supérieures à nos capacités, mais aussi repérer des éléments tout simplement invisibles pour l’être humain. Malgré tout, son efficacité dépend des contributions réalisées par des experts. Ces experts, ce sont les data scientists qui créent les algorithmes dont nous venons de parler. Ce sont aussi les analystes des menaces, qui distinguent les éléments dangereux de ceux qui ne le sont pas et contrôlent la qualité des données utilisées pour l’apprentissage de l’IA. L’efficacité de l’IA en matière de cybersécurité dépend de ces deux catégories d’acteurs, mais ils ne sont pourtant généralement pas pris en compte lors de l’évaluation de produits de cybersécurité.

3. Intelligence et expérience humaines

L’IA a besoin de data scientists et d’analystes des menaces. Mais elle a aussi besoin des contributions des utilisateurs. En effet, les utilisateurs interagissent avec les emails au quotidien et constituent donc une source importante d’informations sur les nouvelles menaces. Ils doivent pouvoir signaler les interactions suspectes et les menaces potentielles pour que les analystes puissent les étudier et les data scientists les utiliser. Les utilisateurs participent ainsi à l’amélioration de la précision des algorithmes d’IA dans le filtrage des nouvelles menaces véhiculées par les emails.

4. Données

L’IA a besoin de données pour apprendre. Elle a besoin de beaucoup de données, et de données de qualité. Plus l’ensemble de données utilisé pour l’entraînement est volumineux, représentatif et actualisé, plus l’IA sera précise et efficace.

Protégez votre entreprise des emails malveillants créés par l’IA

L’IA est indispensable à toute solution de cybersécurité qui se respecte, mais elle n’offre pas une protection efficace à elle seule. Cette efficacité dépend en réalité de quatre facteurs que les organisations doivent prendre en compte lors de leur évaluation de solutions de cybersécurité.

Vade for M365 est une solution low-touch intégrée pour Microsoft 365, alimentée par l’IA et améliorée par l’humain. Elle assure une cybersécurité de pointe basée sur l’IA et intégrant machine learning, computer vision et NLP, des informations sur les menaces issues de plus de 1,4 milliard de boîtes aux lettres protégées dans le monde, des millions de signalements quotidiens d’utilisateurs et les contributions de data scientists et d’analystes des menaces.

Click me