OPEN AI

ChatGPT est utilisé par des cyberattaquants : OpenAI et Microsoft alertent OpenAI et Microsoft alertent sur l’usage de ChatGPT dans le cadre d’opérations de cyberattaques. On fait le point !

 

 

 

Un certain nombre d'organisations liées à des États ont utilisé ChatGPT à des fins malveillantes. © Ascannio - stock.adobe.com/

ChatGPT utilisé pour des cyberattaques

Ce mercredi 14 février, Microsoft et OpenAI ont alerté, par deux communiqués distincts, sur l’utilisation de l’intelligence artificielle à des fins malveillantes. Si l’usage de ChatGPT par les cybercriminels a déjà été pointé du doigt, en particulier pour des attaques de phishing ou d’usurpation d’identité, les entreprises partenaires évoquent des menaces bien plus importantes, liées notamment à la sécurité d’État.

Parmi ces acteurs malveillants, des groupes affiliés à des États – qui peuvent avoir accès à des technologies avancées, à d’importantes ressources financières et à du personnel qualifié – peuvent présenter des risques uniques pour l’écosystème numérique et le bien-être humain, écrit OpenAI dans sa note de blog.

De son côté, Microsoft insiste sur la nécessité d’une vigilance constante, en rappelant que les cyberattaquants s’adaptent aux évolutions technologiques dans l’élaboration de leurs méthodes d’attaque : « Les acteurs de la menace suivent les tendances technologiques parallèlement à leurs homologues de la défense. Ils s’intéressent à l’IA, y compris aux grands modèles de langage (LLM), pour améliorer leur productivité et tirer parti de plateformes accessibles qui pourraient faire progresser leurs objectifs et leurs techniques d’attaque. »

Certaines organisations identifiées

Le partage d’informations entre les deux firmes a permis d’identifier certains acteurs malveillants affiliés à des États. Ces derniers cherchaient notamment à utiliser les services d’OpenAI pour diverses opérations de cyberattaques. Les acteurs suivants sont cités :

  • Charcoal Typhoon : affiliée à la Chine, cette organisation a utilisé les services d’OpenAI pour effectuer des recherches sur des entreprises et des outils de cybersécurité, ainsi que pour mener des campagnes d’hameçonnage.
  • Salmon Typhoon : également affilié à la Chine, cet acteur a déjà ciblé des entreprises de défense américaines, des agences gouvernementales et des structures du secteur des technologies cryptographiques. Microsoft indique que les recherches de Salmon Typhoon « semblent exploratoires et suggèrent que cet acteur de la menace évalue l’efficacité des LLM dans l’obtention d’informations sur des sujets potentiellement sensibles ».
  • Crimson Sandstorm : affilié à l’organisation paramilitaire du Corps des gardiens de la révolution islamique (Iran), cet acteur a déjà attaqué des structures de divers secteurs : défense, transport maritime, santé et technologique. L’organisation a utilisé les grands modèles de langage pour des demandes d’assistance en matière d’ingénierie sociale et pour échapper à la détection lorsqu’elle se trouve sur une machine compromise.
  • Emerald Sleet : affiliée à la Corée du Nord, cette organisation a utilisé les LLM pour obtenir des informations auprès « d’éminentes personnalités expertes sur la Corée du Nord ». Elle se fait passer pour des institutions académiques ou des ONG pour tromper ses cibles.
  • Forest Blizzard : Microsoft estime que cette structure « joue un rôle important dans le soutien de la politique étrangère et des objectifs militaires de la Russie ». Forest Blizzard a utilisé les LLM pour réaliser « des recherches sur diverses technologies satellitaires et radar qui peuvent être liées aux opérations militaires conventionnelles en Ukraine », précise Microsoft.

Les comptes OpenAI de ces différentes organisations ont été fermés.

Comment OpenAI et Microsoft agissent contre les menaces

Pour contrer ces différentes menaces, OpenAI et Microsoft souhaitent adopter une approche multidimensionnelle, articulée autour de quelques initiatives :

  • Surveiller les acteurs affiliés aux États : OpenAI indique vouloir investir dans la technologie pour enquêter sur ces acteurs et analyser la manière dont ils interagissent avec les plateformes.
  • Travailler avec l’écosystème IA : Microsoft précise que cette collaboration implique « d’échanger régulièrement des informations sur l’utilisation de l’IA par les acteurs de la menace détectés ».
  • Améliorer la sécurité : OpenAI et Microsoft s’engagent à limiter les risques associés à l’utilisation de leurs outils par des attaquants.
  • Faire preuve de transparence : OpenAI affirme vouloir « informer le public et les parties prenantes de la nature et de l’étendue de l’utilisation de l’IA par des acteurs malveillants affiliés à un État et détectés dans les systèmes ».

Si l’entreprise créée par Sam Altman estime qu’il est nécessaire de garder une longueur d’avance sur les différents acteurs identifiés, le communiqué se veut rassurant en précisant que les capacités des modèles d’IA pour les tâches malveillantes demeurent limitées. Pour sa part, Microsoft indique également que les recherches communes « n’ont pas permis d’identifier d’attaques significatives utilisant les LLM ».

 Publié par José Billon le 15 février 2024. Source Le blog du modérateur.