For over a year now, artificial intelligence (AI) has been at the center of all discussions. Thanks to the rise of ChatGPT and generative AI, it has become accessible to the general public. Now we can all generate voices, texts and images of astonishing quality and consistency, for better… or for worse. This article explores how fraudsters have been able to invest in the field of generative AI.

ChatGPT: the new Swiss army knife for fraudsters?
As fraud continues to rise, ChatGPT opens the door to new forms of fraud, including making it easier to create sophisticated phishing emails.
Le phishing n’est pas une pratique nouvelle. Nous avons tous été confrontés à cette technique de fraude bien connue, qui vise à nous tromper par le biais de communications afin d’obtenir des informations sensibles ou de nous faire cliquer sur des liens malveillants. Que ce soit dans la sphère personnelle ou professionnelle, comme dans le cas de la fraude au président, nous avons souvent la chance de pouvoir repérer ces e-mails frauduleux grâce à leur manque de contexte ou à leurs fautes d’orthographe.
Malheureusement, l’avènement de ChatGPT a le potentiel de transformer cette pratique, la rendant plus accessible et plus redoutable. À tel point que les renseignements britanniques (NCSC) se sont récemment prononcés pour nous alerter :
“By 2025, generative AI and LLM (Large Language Models) will make it difficult for everyone, regardless of their level of understanding of cybersecurity, to assess whether an email or password reset request is authentic, or to identify phishing, spoofing or social engineering attempts.”