Technologie et réseaux sociaux
Exemples d’usage à des fins frauduleuses de l’IA
Le post
Voir sur
🤖 L’IA offensive : 3 exemples où l’IA est utilisée ... pas vraiment “for the greater good”.
La technologie est neutre.
Son “éthique” dépend avant tout de l’intention dans l’utilisation qui en est faite et des resources qu’elle consomme.
La créativité humaine est connue pour n’avoir pas de limite, surtout quand il s’agit de faire des conneries.
💰 Un deepfake à 26 millions de $
Un salarié reçoit un mail à propos d’une transaction secrète.
Il soupçonne un truc louche.
Mais heureusement, une visio est organisée.
Il y retrouve son directeur, basé en Angleterre et auteur de l’email, qui confirme la transaction.
Réassuré, il effectue les opérations.
Bilan : arnaque de 26 millions de $
L’IA aide à construire des messages réalistes.
🇨🇳 Désinformation chinoise
Selon des responsables américains et de nouvelles recherches de Microsoft, des acteurs en ligne liés au gouvernement chinois utilisent de plus en plus l’IA pour cibler les électeurs aux États-Unis, à Taïwan et ailleurs avec de la désinformation.
En janvier, un extrait audio d’un candidat à la présidentielle critique et discrédite un autre candidat.
Sauf que l’extrait a été créé par une IA générative.
Tout comme les campagnes de piratage augmentent, celles de désinformation suivent le même rythme, l’A rendant cela plus facile.
💣 AI pour cibler dans le conflit Israël - Hamas
Lavender.
C’est le nom de l’IA qui sélectionne les cibles dans Gaza pour Israël. Jusque 37000 au début du conflit. Toutes en lien de près ou de loin avec le Hamas.
Lavender recherche des relations dans une immense base de données pour identifier des personnes en relation avec le Hamas.
D’après les lois internationales, une personne identifiée comme membre d’une organisation armée ou qui participe directement aux actes est une cible légale.
Il existe d’autres systèmes pour la reconnaissance faciale ou des constructions utilisées par le Hamas.
Mais tout va bien si c’est légal.
🤨 La technologie, c’est la bouteille à moitié vide ou à moitié pleine. Ça dépend d’où on la regarde et avec quelle tournure d’esprit.
L’IA pose beaucoup de questions.
Entre les dataset et l’utilisation, la créativité sera la clé.
Et il y aura toujours des gens créatifs avec des idées extrêmes. 😰
Au-delà du phishing et de l’automatisation, je me demande bien quels usages offensifs nous verrons en cyber.
Des idées ou des envies ?
🔔 Suivez-moi pour comprendre les enjeux du cyber et rentrer dans la tête des attaquants.
--
PS: Restez en avance sur les cybercriminels, contactez moi et Quarkslab pour anticiper les risques, protéger vos données sensibles et réinventer la détection des menaces.
Le débunk
✅ Ces trois actualités sont véridiques !
En effet, il y a eu une arnaque au deepfake pour un montant de 26 millions de dollars, comme rapporté par le site de news hongkongais. L'arnaque a été confirmée par la police et a eu lieu le 4 février 2024.
🌐 https://tinyurl.com/ybb64b76
Concernant la désinformation chinoise, un long article de Microsoft daté du 4 avril 2024 explique comment la Chine utilise les réseaux sociaux et l'IA pour influencer des pays étrangers. Le candidat en question est Terry Gou, et il y aurait effectivement eu un faux audio généré par l'IA (rapidement retiré par YouTube).
🌐 https://tinyurl.com/mvf3k9ue
Enfin, Israël aurait effectivement développé une IA nommée "Lavender" qui aurait eu un impact sur le choix des cibles lors de l'attaque sur Gaza. Cette information provient d'un rapport réalisé par 972mag, un journal indépendant israélien, daté du 3 avril 2024.
🌐 https://tinyurl.com/5n94ztcp
En conclusion, toutes ces informations sont vraies. Cependant, nous rappelons qu'il est toujours important de citer ses sources afin de permettre aux gens de vérifier les informations que nous publions sur les réseaux. 😉
Vous avez une question, une remarque ou une suggestion ? Nous vous répondrons au plus vite !
Contactez-nous