top of page

Former les experts à protéger l’IA : un nouveau défi pour la cybersécurité

  • Photo du rédacteur: Caroline Haïat
    Caroline Haïat
  • 7 oct.
  • 3 min de lecture
Kaspersky
Kaspersky

L’intelligence artificielle générative bouleverse à grande vitesse les infrastructures numériques. Des modèles de langage capables d’écrire, coder ou analyser sont désormais intégrés dans les outils de travail, les services clients ou les systèmes de décision. Mais cette révolution ouvre aussi une faille majeure : l’IA elle-même devient une cible. Face à ces nouveaux risques, une formation inédite, Large Language Models Security, vient d’être lancée pour doter les professionnels de la cybersécurité des compétences nécessaires à la défense des systèmes d’intelligence artificielle.

Au cœur de cette initiative, le Kaspersky AI Technology Research Center mise sur une approche à la fois scientifique et opérationnelle. L’objectif : apprendre à comprendre, évaluer et neutraliser les vulnérabilités propres aux modèles de langage à grande échelle, ces LLM (Large Language Models) qui sont aujourd’hui au centre de la révolution de l’IA.


Selon une étude menée par Kaspersky, plus de 50 % des entreprises avaient déjà intégré des solutions d’IA et d’Internet des objets (IoT) à leur infrastructure dès 2024. Cette adoption rapide favorise la performance, mais accroît aussi la complexité des systèmes et donc leur exposition aux attaques. Les méthodes classiques de défense ne suffisent plus : il faut désormais protéger les modèles eux-mêmes, leurs prompts, leurs données et leurs interactions.


Le programme, dirigé par Vladislav Tushkanov, Research Development Group Manager au sein du centre de recherche, s’appuie sur des cas pratiques et des laboratoires interactifs. Les participants apprennent à repérer les attaques typiques contre les modèles de langage, comme les “prompt injections”, qui manipulent leurs instructions, les “jailbreaks”, qui contournent leurs limites, ou le “token smuggling”, qui permet de détourner des données internes. Ces exercices, inspirés de situations réelles, visent à renforcer la capacité des experts à anticiper les menaces avant qu’elles ne compromettent des systèmes critiques.

"L’essor des modèles de langage a ouvert un champ d’innovation immense, mais il a aussi fait émerger une surface d’attaque totalement nouvelle", explique Vladislav Tushkanov. "Pour les experts en cybersécurité, apprendre à repérer, exploiter et protéger ces systèmes n’est plus une spécialisation, c’est devenu un savoir-faire indispensable."

L’intérêt de cette formation va bien au-delà du perfectionnement technique. Elle traduit une mutation profonde du paysage cyber, où la menace ne vise plus seulement les réseaux et les bases de données, mais les comportements mêmes des algorithmes. Dans les prochaines années, la sécurité des IA génératives pourrait devenir un secteur à part entière, avec ses métiers, ses certifications et ses technologies spécifiques.


Cette évolution résonne particulièrement en Israël, où la cybersécurité est depuis longtemps un pilier de l’innovation nationale. Dans les laboratoires du Technion, de l’Université Ben-Gourion ou au sein du hub CyberSpark de Beer Sheva, plusieurs équipes travaillent déjà sur des outils capables d’auditer la robustesse des modèles d’IA face à des attaques sémantiques ou à des manipulations de données.


Les spécialistes israéliens y voient le nouveau front de la sécurité numérique : après les réseaux et les données, c’est l’intelligence elle-même qu’il faut apprendre à défendre.

La mise en place d’un programme structuré dédié à la sécurité des modèles de langage marque donc une étape clé.


Elle témoigne d’une prise de conscience mondiale : l’intelligence artificielle, moteur de progrès et d’efficacité, doit être protégée avec la même rigueur que les infrastructures critiques. Comprendre ses vulnérabilités, c’est aussi préserver la confiance dans les systèmes qui façonnent déjà notre quotidien.


Caroline Haïat


 
 
 

Commentaires


bottom of page