Dans une déclaration commune publiée le mercredi 14 février, les géants de la technologie OpenAI et Microsoft ont tiré la sonnette d’alarme sur l’utilisation abusive potentielle de l’intelligence artificielle, en particulier de ChatGPT, dans les opérations de cyberattaque.
Si l’utilisation de ce chatbot par des cybercriminels pour des activités telles que des attaques de phishing et des vols d’identité n’est pas nouvelle, les entreprises mettent en garde contre des menaces plus importantes, en particulier celles associées à des entités parrainées par des États.
ChatGPT au service des malveillants
Les groupes affiliés à des États, armés de technologies avancées, de ressources financières substantielles et de personnel qualifié, posent des risques uniques pour les écosystèmes numériques et le bien-être humain, comme le souligne le billet de blog d’OpenAI.
La dépendance croissante de ces acteurs de la menace à l’égard de l’IA, y compris les grands modèles de langage (LLM), renforce les inquiétudes quant au potentiel de cyberattaques sophistiquées.
Microsoft insiste sur la nécessité d’une vigilance constante, soulignant que les cyberattaquants adaptent leurs méthodes en fonction des avancées technologiques. Ils tirent parti de l’IA, notamment de modèles de langage complexes, pour améliorer leur productivité et exploiter des plateformes accessibles afin de faire progresser leurs objectifs et leurs techniques d’attaque.
Les acteurs malveillants qui abusent de ChatGPT
La collaboration entre OpenAI et Microsoft a permis d’identifier plusieurs acteurs malveillants affiliés à des États, chacun ayant son propre programme et ses propres cibles :
Charcoal Typhoon (Chine): A utilisé les services d’OpenAI pour rechercher des entreprises, des outils de cybersécurité et mener des campagnes d’hameçonnage.
Typhon saumon (Chine): Il a ciblé des entreprises de défense et des agences gouvernementales américaines, ainsi que des secteurs de la technologie cryptographique. Leurs recherches suggèrent une exploration de l’efficacité des grands modèles de langage dans l’obtention d’informations sensibles.
Crimson Sandstorm (Iran) : Affilié au corps paramilitaire des gardiens de la révolution islamique, ce groupe a ciblé des secteurs tels que la défense, le transport maritime, la santé et la technologie. Il s’est appuyé sur de grands modèles de langage pour l’ingénierie sociale et pour échapper à la détection.
Emerald Sleet (Corée du Nord) : Ils se sont fait passer pour des institutions universitaires ou des ONG afin de recueillir des informations sur la Corée du Nord auprès d’éminentes personnalités. Ils ont utilisé de grands modèles de langage pour la tromperie.
Forest Blizzard (Russie) : Soutenant la politique étrangère et les objectifs militaires de la Russie, Forest Blizzard a recherché des technologies satellitaires et radar liées aux opérations militaires en Ukraine en utilisant de grands modèles de langage.
En réponse à ces conclusions, OpenAI a fermé les comptes associés à ces organisations afin d’empêcher toute nouvelle utilisation abusive de leurs services.