Les cybercriminels exploitent l’IA pour des attaques plus efficaces et crédibles
Table of Contents
Les cybercriminels sont de plus en plus nombreux à utiliser l’intelligence artificielle (IA) pour mener leurs attaques de manière plus efficace et crédible. Ils exploitent notamment l’IA générative, popularisée par le robot conversationnel ChatGPT, pour divers types d’attaques, tels que le phishing, les rançongiciels, les escroqueries et les arnaques au président. Selon Jean-Jacques Latour, directeur de l’expertise en cybersécurité de Cybermalveillance.gouv.fr, l’IA se démocratise chez les cybercriminels, ce qui les rend plus efficaces et crédibles. Bien que les méthodes utilisées par ces criminels ne changent pas, le volume des attaques et leur force de persuasion augmentent considérablement.
Des techniques de phishing de plus en plus sophistiquées
Le phishing, qui consiste à envoyer des e-mails frauduleux promettant des cadeaux gratuits ou des réductions, devient de plus en plus sophistiqué. Les cybercriminels évitent désormais les erreurs grossières de syntaxe ou d’orthographe pour rendre leurs messages plus crédibles. Ils adaptent également leur langage et utilisent des contextes appropriés pour convaincre les utilisateurs de cliquer sur des liens ou des sites douteux.
Des logiciels malveillants personnalisés grâce à l’IA générative
L’IA générative peut être détournée pour créer des logiciels malveillants personnalisés en exploitant des vulnérabilités connues des programmes informatiques. Des programmes tels que ThreatGPT, WormGPT et FraudGPT se développent sur le Darknet et gagnent en popularité auprès des cybercriminels. Cela leur permet de mettre au point des attaques plus ciblées et efficaces.
L’exploitation de données après une intrusion grâce à l’IA
Les hackers utilisent également l’IA pour trier et exploiter une masse de données après avoir infiltré un système informatique. Cela leur permet d’optimiser leurs profits en ciblant les informations les plus pertinentes et en les utilisant à des fins malveillantes.
L’arnaque au président perfectionnée grâce à l’IA
L’IA est également utilisée dans le cadre de l’arnaque au président, où les hackers collectent des informations sur les dirigeants d’entreprises pour autoriser des virements frauduleux. Grâce aux générateurs d’audio « deepfake », ils peuvent imiter parfaitement la voix des dirigeants et donner des ordres de virement sans éveiller les soupçons.
Les rançongiciels et le vishing également concernés par l’IA
Les entreprises et les hôpitaux sont également confrontés aux rançongiciels qui utilisent déjà l’IA pour modifier leur code et échapper à la détection des outils de sécurité. De plus, la technique du vishing, où un faux banquier demande un transfert d’argent, pourrait également être améliorée grâce à l’IA.
Les autorités alertent sur les dangers de l’IA dans la cybercriminalité
La police britannique a déjà signalé des cas où des contenus synthétiques générés par l’IA ont été utilisés pour tromper, harceler ou extorquer des victimes. Bien que les premiers cas en France n’aient pas été officiellement recensés, des doutes subsistent quant à l’utilisation de l’IA par les cybercriminels.
La nécessité d’appliquer la règle du « zero trust » en matière de cybersécurité
Face à ces nouvelles menaces, il est primordial d’adopter la règle du « zero trust » en matière de cybersécurité et d’IA. Cela signifie qu’il ne faut faire confiance à aucun élément a priori et mettre en place des mesures de protection appropriées pour contrer ces attaques. Les cybercriminels les plus actifs sont généralement des réseaux bien organisés d’Europe de l’Est, mais il ne faut pas négliger les pirates étatiques d’autres pays.
Conclusion
La cybercriminalité exploitant l’IA représente une menace croissante. Les cybercriminels utilisent de plus en plus l’IA pour améliorer leurs techniques et mener des attaques plus crédibles. Il est essentiel de rester vigilant et de mettre en place des mesures de protection appropriées pour contrer ces menaces.