l’intelligence artificielle est beaucoup plus efficace contre les cyberattaques.
3 raisons pour lesquelles l’intelligence artificielle est beaucoup plus efficace contre les cyberattaques
Le mérite de l’intelligence artificielle en cybersécurité est de détecter les cyberattaques que les autres systèmes de protection ne voient pas. Cela comprend, bien entendu, les cyber-attaques inédites qui exploitent une faille dont personne n’avait connaissance jusqu’alors et que l’on appelle « zero-day ». Mais sur le terrain, nous observons que l’intelligence artificielle neutralise la plupart du temps des menaces qui existent en réalité depuis plus d’un an et contre lesquelles aucune contre-mesure n’a été déployée. Les failles les plus fréquentes ne sont en effet pas celles qui tardent à être découvertes, mais celles qui demeurent. Soit par négligence, soit parce qu’elles existent sur des machines que l’on n’ose pas toucher, de peur qu’elles ne fonctionnent plus correctement après une mise à jour.
A la décharge de nombreuses entreprises, les systèmes qui nécessitent des patches de sécurité sont souvent des configurations orphelines, dont le fournisseur a disparu. Nous dénombrons ainsi une quantité inquiétante de machines-outils chez les industriels qui sont pilotées par de vieux Windows que plus personne ne supporte.
L’intelligence artificielle n’a pas vocation à patcher ces systèmes, ni même à s’installer dessus pour les protéger, car il n’y a rien de plus facilement contournable qu’un antivirus qui fonctionne depuis une machine ciblée par des pirates. Au contraire, une bonne protection par intelligence artificielle opère depuis un point central du réseau pour analyser les flux qui passent et tirer le signal d’alarme quand elle repère un comportement malveillant contre une cible.
Il convient néanmoins de préciser que le défi technique ici est de discerner une attaque véritable parmi une quantité colossale d’informations. Il existe ainsi des outils qui s’avèrent inefficaces car ils analysent les comportements des utilisateurs sans pour autant reposer sur un moteur de Deep Learning. A l’épreuve, ces outils sont désinstallés au bout d’un certain temps car ils produisent trop de faux positifs qui mobilisent les équipes de sécurité en vain. Le machine Learning consiste à simplement apprendre les schémas comportementaux d’une attaque, tandis que les Deep Learning va plus loin en pondérant les observations avec des éléments de connaissance extérieurs.
La force d’une solution reposant sur l’IA et sécurisant le SI avec du Deep Learning, est que les entreprises protégées acceptent la plupart du temps de partager leurs informations pour enrichir les algorithmes. Grâce à ce modèle « collaboratif » une simple particularité chez quelqu’un permettrait de résoudre des problèmes chez nombre d’autres clients quand elle était partout prise en compte. A l’inverse, cette base de connaissance supplémentaire permet de mieux entraîner l’intelligence artificielle pour qu’elle sache éliminer toute seule les faux positifs.
Bien entendu, la télémétrie issue des clients n’est possible que moyennant un accord de partenariat. Même si les données prélevées sont anonymisées, leur usage est encadré par des dispositions légales. Mais la pratique ne pose aucun risque et elle est de plus en plus courante.