Pourquoi il est urgent de repenser l’IA dans le domaine de la cybersécurité
Les cybermenaces ne se contentent pas d’augmenter en volume — elles deviennent aussi plus intelligentes, furtives et imprévisibles. On a souvent l’impression de jouer à un jeu du chat et de la souris à haut risque, où les attaquants trouvent sans cesse de nouveaux moyens de déjouer nos défenses.
Les outils de cybersécurité actuels, dont beaucoup reposent sur de puissants algorithmes d’apprentissage automatique, sont très efficaces — mais seulement lorsque la menace est déjà connue. Face à une menace totalement nouvelle — une attaque dite zero-day — même les modèles les plus avancés peuvent échouer sans avertissement.
Imaginez consulter un médecin pour des symptômes inhabituels. L’un vous donne rapidement un diagnostic avec assurance, même s’il n’a jamais vu de cas comme le vôtre. Un autre vous dit : « Cela pourrait être X, mais je n’ai jamais rencontré cette combinaison auparavant — je préfère faire des examens complémentaires. »
Ce deuxième médecin exprime une incertitude — et c’est précisément ce qui manque aux modèles traditionnels d’intelligence artificielle. Ils sont comme le premier médecin : contraints de donner une réponse catégorique, même dans des situations inédites, sans pouvoir indiquer le degré de fiabilité de leur décision. Dans des domaines critiques comme la cybersécurité, ce type d’excès de confiance peut être dangereux.
Chez CATIE, nous explorons comment le Deep Bayesian Learning (DBL) peut transformer la détection des menaces en permettant aux systèmes d’IA d’exprimer leur incertitude et de mieux gérer l’inconnu.
Qu’est-ce qui rend les attaques zero-day si dangereuses ?
Une attaque zero-day cible les vulnérabilités logicielles qui sont totalement inconnues des développeurs et des défenseurs, ce qui signifie qu'il n'y a pas de temps pour les corriger avant qu'elles ne soient exploitées.
Les modèles d'IA traditionnels en cybersécurité sont entraînés sur des données passées, ce qui fonctionne bien pour détecter les menaces connues. Mais lorsque la menace est nouvelle et invisible, ces modèles sont essentiellement aveugles. Pire encore, ils peuvent toujours offrir une prédiction fiable, même s'ils se trompent.
Le risque caché de l’IA traditionnelle : l’excès de confiance
La plupart des systèmes d'apprentissage automatique utilisés aujourd'hui dans le domaine de la cybersécurité sont déterministes : ils donnent une réponse « oui » ou « non » : c'est malveillant ou c'est sûr. Mais face à l'incertitude, ces modèles peuvent toujours renvoyer des prédictions fiables, masquant le fait qu'ils ne font que deviner.
Cet excès de confiance est dangereux. Cela donne un faux sentiment de sécurité tout en laissant les systèmes vulnérables à des attaques nouvelles ou déguisées.
Apprentissage profond bayésien : une IA qui sait quand elle n’est pas sûre
L'apprentissage profond bayésien comble le fossé entre la reconnaissance puissante des formes et l'estimation de l'incertitude. Il combine les capacités de traitement des données de l'apprentissage profond avec l'inférence bayésienne, ce qui permet aux modèles de représenter des degrés de croyance plutôt que des classifications rigides.
Au lieu de dire « Il s'agit d'une menace », un système basé sur le DBL peut dire : « Il y a 92 % de chances qu'il s'agisse d'une menace, mais je n'en suis pas tout à fait sûr – il possède des fonctionnalités que je n'ai jamais vues auparavant. »
Cette conscience de soi intégrée change la donne. Voici pourquoi.
Pourquoi la prise de conscience de l’incertitude change la donne
• Repérer l'inconnu : Lorsqu'un modèle DBL rencontre une entrée vraiment nouvelle, il est plus susceptible de signaler la prédiction comme incertaine. Il s'agit d'un système d'alerte précoce intégré pour les menaces potentielles de type « zero-day », ce qui incite les analystes humains à enquêter.
• Hiérarchisation plus intelligente : Les niveaux de confiance aident les équipes de sécurité à trier. Les alertes à haut niveau de confiance peuvent déclencher une action immédiate, tandis que les cas incertains peuvent être réservés à une analyse contextuelle plus approfondie, ce qui optimise l'allocation des ressources.
• Construire la confiance humaine : Les analystes sont plus susceptibles de faire confiance à l'IA lorsqu'elle communique ouvertement son incertitude. Au lieu de prendre des décisions à l'aveuglette, le DBL favorise un environnement de prise de décision collaboratif et explicable.
• Robustesse aux attaques adverses : Parce que les modèles DBL sont moins enclins à l'excès de confiance, ils sont plus résistants aux exemples adverses – des entrées délibérément conçues pour tromper les modèles d'IA traditionnels dans une mauvaise classification.
Ce que nous bâtissons chez CATIE
Nos recherches actuelles à CATIE explorent comment l'apprentissage profond bayésien peut améliorer la détection des menaces et l'estimation de l'incertitude en cybersécurité. Nous travaillons avec des données opérationnelles pour évaluer dans quelle mesure DBL peut :
• Détecter les menaces connues et inconnues
• Quantifier l'incertitude prédictive
• Améliorer la résilience face à la manipulation adverse
En fin de compte, notre mission est de rendre la cybersécurité alimentée par l'IA plus robuste, plus fiable et plus adaptable face à un paysage de menaces en évolution rapide.
Rejoignez-nous dans l’aventure
À mesure que nous repoussons les limites de l'IA consciente de l'incertitude, nous partagerons des idées, des percées et des enseignements pratiques tirés de notre travail. Restez à l'affût des mises à jour et participez à la conversation sur la façon dont nous pouvons bâtir un avenir numérique plus intelligent et plus sûr.
Hola Adrakey, PhD