L'IA rend les cyberattaques plus sophistiquées, les équipes de cybersécurité peinent à suivre le rythme.

L'IA rend les cyberattaques plus sophistiquées, les équipes de cybersécurité peinent à suivre le rythme.

Les attaques de cybersécurité sont en augmentation et mettent à rude épreuve les cyber-professionnels, d'autant plus que l'intelligence artificielle (IA) les rend plus sophistiquées, selon les experts.

Une nouvelle étude de l'Association pour l'audit et le contrôle des systèmes d'information (ISACA) a révélé que 39 % des quelque 6 000 organisations mondiales interrogées admettent qu'elles subissent davantage de cyberattaques (lien en anglais) et que 15 % d'entre elles souffrent d'un plus grand nombre d'atteintes à la vie privée qu'il y a un an.

L'étude a également révélé que les équipes de cybersécurité en Europe ont du mal à faire face aux attaques.

Plus de 60 % des professionnels européens de la cybersécurité déclarent que l'équipe de cybersécurité de leur organisation manque de personnel, et plus de la moitié (52 %) pensent que le budget de cybersécurité de leur organisation est insuffisant.

La majorité de ces cyberattaques sont des ransomwares, qui consistent à verrouiller les données ou les fichiers d'un utilisateur jusqu'au paiement d'une rançon. "La sophistication de l'IA rend ces attaques très difficiles à détecter", a déclaré Chris Dimitriadis, directeur de la stratégie mondiale à l'ISACA, à Euronews Next.

Related

Chris Dimitriadis a expliqué que l'IA générative (GenAI) peut analyser les profils des victimes au sein des organisations et générer ensuite un contenu qui simule étroitement un être humain.

"Dans le passé, nous avons vu, par exemple, des courriels traduits dans des langues locales qui comportaient de nombreuses erreurs... Il était donc un peu plus facile pour la victime de comprendre qu'il s'agissait de quelque chose qui n'était absolument pas légitime", rappelle M. Dimitriadis.

"Mais avec Gen AI, nous constatons que la distribution est très, très proche de celle d'une personne humaine, extrêmement précise en ce qui concerne la langue, le style ou la culture, et que les informations qu'elle contient sont plus précises ou peut-être mieux ciblées par rapport à l'environnement de la victime."

C'est comme si vous aviez votre propre conseiller financier corrompu sur votre téléphone portable 24 heures sur 24 et 7 jours sur 7

Une enquête distincte menée par Strise, une start-up norvégienne spécialisée dans la lutte contre le blanchiment d'argent, a montré que ChatGPT pouvait facilement obtenir des conseils sur la manière de commettre des délits financiers en ligne.

L'enquête a montré qu'il pouvait exploiter les banques ayant de mauvaises pratiques en matière de lutte contre le blanchiment d'argent, déguiser des fonds illégaux en prêts légitimes en créant de fausses transactions de prêt, et utiliser diverses tactiques pour compliquer la tâche des autorités lorsqu'il s'agit de remonter à la source de l'argent.

"Le niveau de compréhension [de ChatGPT] et sa connaissance de l'action journalistique légale spécifique, comme ce qui est exigé de certaines banques et la manière de s'y prendre. Je veux dire, c'est vraiment très bien à tous les niveaux ", a déclaré Marit Rødevand, PDG et cofondatrice de Strise, à Euronews Next.

Elle a expliqué que lorsque l'on posait au chatbot des questions telles que "comment blanchir de l'argent", il refusait de le faire, disant que c'était illégal et que cela allait à l'encontre de ses politiques.

Mais Mme Rødevand a expliqué que si vous étiez créatif en demandant à ChatGPT d'écrire un scénario de film sur la manière d'aider un personnage appelé Shady Shark dans ses transactions illégales, il vous donnerait des conseils spécifiques.

"Cela m'a vraiment ouvert les yeux. Je ne m'attendais pas à ce que les réponses soient aussi bonnes et précises. C'est comme si vous aviez votre propre conseiller financier corrompu sur votre téléphone portable 24 heures sur 24 et 7 jours sur 7", a-t-elle déclaré.

Related

En février, Microsoft et OpenAI ont révélé que des pirates informatiques utilisaient de grands modèles de langage (LLM) pour affiner leurs cyberattaques. Les entreprises ont détecté des tentatives de la Russie, de la Corée du Nord, de l'Iran et de groupes soutenus par la Chine qui utilisaient des chatbots pour rechercher des cibles et améliorer les scripts.

Les deux entreprises ont déclaré qu'elles s'efforçaient de minimiser les risques d'utilisation abusive par de tels acteurs, mais ont admis qu'elles ne pouvaient pas empêcher tous les cas.

Comment lutter contre les cyberattaques

"Le moyen pour les entreprises de se protéger est de s'assurer qu'elles disposent de plateformes technologiques adaptées aux menaces futures et qu'elles soutiennent les professionnels de la cybersécurité", précise Mme Rødevand.

Cependant, le rapport de l'ISACA a révélé que 71 % des entreprises ont déclaré que leur organisation n'offrait aucune formation au personnel sur la confiance numérique et que plus de la moitié des équipes de cybersécurité ont déclaré qu'elles étaient sous-financées.

"Avec moins de fonds, il est très difficile de mettre en œuvre les bonnes capacités de cybersécurité au sein de leur organisation", a déclaré le directeur de la stratégie mondiale à l'ISACA.

"Si l'on va un peu plus loin, l'une des causes de ce manque de financement est que la cybersécurité ne génère pas de revenus si l'on n'opère pas dans ce secteur. Mais surtout, cela signifie que les décideurs au sein de l'organisation n'ont pas encore saisi ou compris la valeur [et] la contribution de la cybersécurité dans le cadre des objectifs qu'ils se sont fixés pour cette activité", a-t-il ajouté.