Passe au contenu principal

L’IA au service de la cybercriminalité :
la prochaine frontière?

Après une année charnière pour l’Intelligence Artificielle (IA) en 2023, la technologie est aujourd'hui mobilisée par les groupes cybercriminels pour à être plus audacieux qu’auparavant dans leurs tactiques d'attaque.

  • Le lundi 29 janvier 2024, un employé local d'une société d'ingénierie a signalé aux autorités de Hong Kong qu'il avait participé à une vidéoconférence et qu'il avait été amené à verser 200 millions de dollars HK (23 millions d’euros) à un escroc³. Peu après l'ouverture de l'enquête par la police de Hong Kong, le commissaire principal Baron Chan s'est rendu compte que cette entreprise avait été victime de l'un des vols les plus audacieux utilisant l'IA à ce jour.

    Une semaine plus tard, M. Chan a envoyé un avertissement au monde entier, en informant les médias qu'il s'agissait d'une attaque de type "deepfake" contre l'entreprise.⁴ Il a déclaré : "Je pense que le fraudeur a téléchargé des vidéos à l'avance et qu'il a ensuite utilisé l'IA pour ajouter et utiliser de fausses voix dans la vidéoconférence".⁵

  • Il a ensuite été révélé que cet employé travaillait pour la multinationale britannique Arup, qui emploie 18 500 personnes dans 40 pays. Si l'incident survenu chez Arup est désormais connu sous le nom de "Zoom of Doom", l'entreprise n'est pas la seule à être confrontée à la menace des deepfake. La plus grande société de publicité au monde, WPP, a été exposée à une attaque de deepfake lorsque le PDG Mark Read a vu sa voix clonée par des escrocs et l’ont utilisé sur WhatsApp pour essayer de tromper leurs collègues et leur soutirer de l'argent et des détails personnels.⁶ De même, en avril, un employeur de LastPass a déjoué une cyberattaque menée par des criminels utilisant une fausse voix pour usurper l'identité de son PDG, Karim Toubba.⁷

    Si l'IA a suscité de l'enthousiasme dans un premier temps, ces exemples montrent que cette technologie est aujourd'hui utilisée par des cybercriminels organisés pour tromper les employés et voler des millions aux entreprises vulnérables. Les employés ne peuvent plus croire ce qu'ils voient et entendent, et des techniques d'authentification plus sophistiquées sont nécessaires pour empêcher ce type d'attaques.

  • " La question de l'authenticité va constituer un défi majeur pour les chefs d'entreprise et les tribunaux dans les années à venir. Comment vérifier des informations et des données telles que des voix et des images dans un monde où l'IA trompe facilement les gens ? Les problèmes de « deepfake » se manifesteront par des piratages, des transferts d'argent et des « fake news » qui proliféreront dans les années à venir ".

    Melissa Collins
    responsable du groupe de réflexion sur les sinistres, Cyber et technologie, sinistres aux tiers, chez Beazley 

³ https://www.theguardian.com/world/2024/feb/05/hong-kong-company-deepfake-video-conference-call-scam
https://www.theguardian.com/technology/article/2024/may/17/uk-engineering-arup-deepfake-scam-hong-kong-ai-video
https://www.theguardian.com/world/2024/feb/05/hong-kong-company-deepfake-video-conference-call-scam
https://www.ft.com/content/308c42af-2bf8-47e4-a360-517d5391b0b0
https://www.scmagazine.com/news/lastpass-thwarts-attempt-to-deceive-employee-with-deepfake-audio

Les informations contenues dans cette communication sont destinées à la gestion générale des risques. Il est entendu que Beazley ne fournit pas de services ou de conseils juridiques. Elles ne doivent pas être interprétées ou considérées comme des conseils juridiques et ne doivent pas se substituer à la consultation d'un avocat. Bien qu'un soin raisonnable ait été apporté à la préparation des informations présentées dans cette communication, Beazley décline toute responsabilité pour les erreurs qu'elle pourrait contenir et les pertes prétendument attribuables à ces informations. Les produits et services ne sont pas des produits d’assurance et sont fournis par des sociétés affiliées à Beazley ainsi que des société tierces, qui ne sont pas des compagnies d'assurance. Des conditions différentes peuvent s'appliquer.