Le projet Pentest.LLM a pour objectif d’améliorer les performances et l’efficacité des activités de tests d’intrusion à travers des outils assistés par intelligence artificielle.
Le projet Pentest.LLM vise à explorer et appliquer les potentiels des Large Language Models (LLM) pour augmenter les capacités des pentesters (« testeurs d’intrusion »). Il s’appuiera notamment sur une démarche exploratoire d’OSINT et devra permettre d’aider à comprendre les potentiels chemins d’attaque et à générer des charges utiles pour les tester.
Lauréat France 2030
Nous sommes très fiers de faire partie des 12 nouveaux lauréats 'France 2030' retenus pour renforcer l’offre industrielle en matière de cybersécurité. Le projet PentestLLM s’appuie sur la puissance de l’IA générative et des grands modèles de langage (LLMs) pour protéger nos infrastructures numériques.
Fort d'une collaboration avec Haryon, le Laboratoire Bordelais de Recherche en Informatique (LaBRI) ainsi que le CATIE, nous sommes entourés d'acteurs d'exceptions combinants recherche, développement et expertise cyber.

Travaux de recherches
Notre savoir-faire en osint et surfacing permet d'enrichir ce modèle d'LLM souverain. L'objectif est d'augmenter les capacités des auditeurs dans l’exploitation de nouvelles vulnérabilités à travers la génération automatique de scripts d’exploitation (payloads). Ce projet, financé par l'État français permet l’accélération de l’innovation pour les produits et services de cybersécurité permettant de mettre en œuvre de façon efficace et rapide les 2 nouvelles règlementations NIS2 et DORA.
Le projet propose une innovation technologique apportant une rupture dans les usages actuels des tests d’intrusion : en effet la génération de payloads est aujourd’hui effectuée complètement manuellement, car considérée comme trop complexe, et trop sensible.
L’utilisation des LLM sur ce sujet est tout à fait originale, et amène un certain nombre de défis techniques et technologiques que le projet Pentest.LLM se propose d’adresser, en particulier liés à la qualité et la prédictibilité des données issues des modèles d’intelligence artificielle génératives, et à la dépendance de ces modèles à la disponibilité d’un grand volume de données. Par ailleurs, il s’agira de créer un modèle permettant de garantir la sécurité des données sensibles lors des tests d’intrusion.