Ces outils permettent en effet aux arnaqueurs de se masquer derrière une image vidéo créée avec une fausse voix, leur permettant de répondre à des appels vidéo et ainsi se faire passer pour ce qu’ils ne sont pas.
Le responsable des menaces mondiales chez Meta, David Agranovich, a ainsi cité, durant une conférence de presse, l’exemple d’un groupe de cybercriminels établi au Cambodge et ciblant particulièrement des personnes parlant japonais ou chinois.
– PUBLICITE –
Selon des chercheurs d’OpenAI, le créateur de ChatGPT, ce groupe aurait employé le logiciel de la start-up pour créer et traduire du contenu, a indiqué Meta.
Sans surprise, l’objectif premier des arnaqueurs est de réussir à soutirer de l’argent à leurs victimes et ils prennent le temps nécessaire pour créer des relations de confiance avec ces dernières, trouvant peu à peu la manière d’obtenir l’argent ou les données personnelles qu’ils souhaitent récupérer.
Pour y parvenir, ils utilisent l’ensemble des réseaux sociaux, Meta étant en capacité de ne repérer qu’une partie de cette activité, a insisté M. Agranovich.
Afin d’identifier les escroqueries, le groupe numérique se base sur des schémas de comportement et des signaux techniques plutôt que sur l’analyse d’images, a-t-il précisé, « cela rend notre détection plus solide face à l’IA générative ».
Meta rappelle à ses utilisateurs de faire preuve de prudence, alors que l’isolement et le coup de blues qui accompagnent souvent la période hivernale, ainsi que l’approche de la Saint-Valentin, en font un moment particulièrement propice pour les arnaqueurs.
Rachel Tobac, également responsable au sein de Meta, invite à être « poliment paranoïaque » lorsqu’une rencontre en ligne appelle au rapprochement sentimental, en particulier si cela conduit à des demandes d’argent pour une supposée urgence ou opportunité professionnelle.
L’IA générative est largement répandue depuis environ un an, mais son usage pour des tentatives d’arnaque a accéléré ces derniers mois, les outils disponibles, le plus souvent gratuitement, leur permettant de créer un personnage virtuel convaincant.
« Ils peuvent même utiliser les bots (des logiciels automatiques ou semi-automatiques capables d’échanger avec un humain, NDLR) générés à l’IA afin de créer une personne ou passer des appels avec une fausse voix sans même avoir besoin d’intervention humaine », a décrit Mme Tobac.



