Une vidéo d’un ministre marocain tenant des propos choquants circule sur WhatsApp. Des milliers de partages en quelques heures. Sauf que cette vidéo est entièrement fabriquée. Ce scénario, qui semblait encore futuriste il y a trois ans, est aujourd’hui une réalité que le Maroc commence à frôler de près.
Comprendre le deepfake, une technologie qui trompe les yeux
Le terme deepfake désigne une technique de manipulation audiovisuelle basée sur l’intelligence artificielle, capable de remplacer le visage d’une personne par celui d’une autre dans une vidéo, ou de faire prononcer à quelqu’un des mots qu’il n’a jamais dits. Le résultat est souvent bluffant de réalisme, au point de tromper l’œil humain sans effort particulier. Ce qui était réservé aux studios hollywoodiens avec des budgets colossaux est désormais accessible à n’importe qui disposant d’un ordinateur portable et d’une connexion internet.
La technologie repose sur ce que les chercheurs appellent les réseaux antagonistes génératifs — en anglais Generative Adversarial Networks, ou GANs. Deux algorithmes s’affrontent : l’un fabrique l’image falsifiée, l’autre tente de la détecter. À force d’itérations, le résultat devient difficile à distinguer de la réalité. Des applications gratuites comme DeepFaceLab ou des plateformes en ligne permettent aujourd’hui de créer un deepfake convaincant en moins d’une heure. Selon une étude du cabinet Deeptrace publiée dès 2019, le nombre de vidéos deepfakes disponibles sur internet doublait tous les six mois. Depuis, l’accélération n’a fait que s’intensifier.
Des usages qui dépassent largement la simple curiosité technologique
Si certains utilisent cette technologie à des fins créatives — recréer le visage d’un acteur décédé dans un film, par exemple — la grande majorité des deepfakes détectés dans le monde servent des intentions malveillantes. Le revenge porn synthétique constitue à lui seul environ 96 % des deepfakes recensés sur internet, d’après les données de Sensity AI. Des célébrités, des femmes politiques, mais aussi des personnes ordinaires se retrouvent victimes de montages à caractère sexuel qu’elles n’ont jamais tournés. La dimension psychologique de ces agressions est dévastateurs et les recours juridiques, souvent inexistants.
Viennent ensuite les deepfakes à vocation politique ou financière. Des faux discours de chefs d’État, des vidéos de dirigeants d’entreprises annonçant de fausses décisions boursières, ou encore des appels téléphoniques synthétisés — le voice cloning — pour extorquer des fonds. En 2020, une banque des Émirats arabes unis a été escroquée de 35 millions de dollars après qu’un employé a reçu un appel qui imitait parfaitement la voix de son directeur. Ce genre d’arnaques commence à toucher le continent africain, et le Maroc ne fait pas exception.
Le Maroc face à une menace encore sous-estimée
Le Royaume du Maroc connaît depuis plusieurs années une transformation numérique accélérée. Avec un taux de pénétration internet qui dépasse les 88 % en 2024 selon l’ANRT, et une population massivement connectée via les smartphones, le terrain est particulièrement fertile pour la propagation de contenus manipulés. Les réseaux sociaux — Facebook, TikTok, Instagram, et surtout WhatsApp — fonctionnent comme des autoroutes à désinformation où une vidéo truquée peut atteindre des millions de personnes avant qu’un seul fact-checkeur n’ait eu le temps de réagir.
Des cas circulent déjà discrètement. Des personnalités publiques marocaines ont vu leur image détournée dans des montages grossiers, mais les outils s’améliorent. La frontière entre le grossier et le convaincant s’efface à une vitesse inquiétante. Des journalistes marocains spécialisés en cybersécurité rapportent avoir reçu des signalements de victimes — femmes notamment — dont l’image avait été utilisée sans consentement dans des contenus synthétiques à caractère intime. Le phénomène est réel, même si les chiffres officiels sont encore difficiles à établir.
Un cadre juridique qui peine à suivre le rythme technologique
La législation marocaine n’est pas totalement démunie face aux contenus numériques malveillants. La loi 09-08 relative à la protection des données personnelles, ainsi que les dispositions du Code pénal sur la diffamation, l’atteinte à la vie privée et les escroqueries informatiques, offrent des bases légales. Mais ces textes ont été rédigés bien avant l’émergence des deepfakes, et leur application à ce type de contenus reste floue, voire inopérante en pratique.
Il n’existe à ce jour aucune définition légale du deepfake dans le droit marocain, aucune procédure spécifique pour les victimes, et peu de formations dédiées au sein des corps judiciaires et policiers. Le dépôt d’une plainte pour une vidéo falsifiée peut s’avérer un parcours du combattant, notamment lorsque le contenu est hébergé à l’étranger — ce qui est presque toujours le cas. Des pays comme la France, les États-Unis ou la Chine ont déjà adopté des législations ciblant explicitement les deepfakes malveillants. Le Maroc doit engager ce chantier sans tarder.
Qui sont les cibles prioritaires au Maroc
Comprendre qui risque d’être victime d’un deepfake aide à calibrer les réponses à apporter. Plusieurs profils concentrent les risques :
- Les femmes, toutes catégories confondues, qui restent les premières victimes des deepfakes à caractère sexuel dans le monde entier
- Les personnalités politiques et les élus, dont l’image peut être détournée pour diffuser de faux discours ou créer des scandales artificiels à des fins électorales
- Les chefs d’entreprise et les cadres supérieurs, exposés aux arnaques par voice cloning et aux fausses instructions financières
- Les influenceurs et créateurs de contenu, dont la notoriété en ligne les rend vulnérables à des usurpations d’identité numérique
- Les citoyens ordinaires, notamment les jeunes actifs présents massivement sur les réseaux sociaux, dont les photos et vidéos publiques alimentent les bases de données utilisées par les algorithmes de génération
- Les institutions publiques et les médias, dont la crédibilité peut être attaquée par des contenus synthétiques diffusés juste avant une annonce officielle ou lors d’une crise nationale
Comment détecter un deepfake à l’œil nu
Même si les technologies de détection automatique progressent — des entreprises comme Microsoft, Intel ou des startups spécialisées proposent des outils d’analyse — il reste utile de savoir repérer soi-même les indices visuels suspects. Un deepfake, même sophistiqué, trahit souvent sa nature à travers plusieurs détails :
Les mouvements oculaires constituent l’un des premiers points de vigilance. Les algorithmes peinent encore à reproduire la façon naturelle dont une personne cligne des yeux ou fait bouger son regard. Regardez aussi la ligne de fusion entre le visage et le cou — une légère incohérence de texture ou d’éclairage peut trahir un montage. Les boucles d’oreilles, les cheveux sur les tempes, ou les dents sont autrement révélatrices : les modèles IA ont longtemps eu du mal avec ces zones de détail fin.
D’un point de vue audio, un deepfake vocal présente parfois une prosodie légèrement mécanique, des transitions trop lisses entre les mots, ou une absence des micro-hésitations naturelles du discours humain. Sur WhatsApp, soyez particulièrement attentifs aux messages vocaux ou vidéos qui arrivent de sources inattendues avec un contexte émotionnel fort — urgence, scandale, révélation — car c’est précisément le type de contenu conçu pour court-circuiter votre esprit critique avant que vous n’ayez le temps de réfléchir.
Les outils disponibles pour vérifier un contenu suspect
Plusieurs plateformes permettent d’analyser une image ou une vidéo suspecte. FotoForensics révèle les anomalies de compression dans les images. InVID et WeVerify, utilisés par les journalistes professionnels, permettent d’effectuer des recherches d’images inversées et d’analyser les métadonnées vidéo. Deepware Scanner est spécifiquement conçu pour détecter les vidéos synthétiques. Ces outils ne sont pas infaillibles — surtout face aux deepfakes les plus récents — mais ils constituent une première ligne de défense accessible au grand public.
Ce que le Maroc doit faire pour se préparer
La réponse au défi des deepfakes ne peut pas être uniquement technologique. Elle exige une approche combinant sensibilisation citoyenne, réforme juridique, formation des professionnels et coopération internationale. Sur le plan législatif, il est urgent de combler le vide en adoptant une définition légale précise du deepfake malveillant, en créant des infractions spécifiques avec des peines adaptées, et en renforçant la coopération avec les plateformes numériques pour des procédures de retrait rapide.
La DGSSI (Direction Générale de la Sécurité des Systèmes d’Information) et la CNDP (Commission Nationale de contrôle de la protection des Données à caractère Personnel) ont un rôle central à jouer dans la définition d’une doctrine nationale. Les universités marocaines, notamment les filières d’informatique et de droit du numérique, doivent intégrer cette thématique dans leurs cursus. Et les médias — télévisions, radios, presse en ligne — doivent former leurs équipes à la vérification des contenus synthétiques, au même titre qu’elles l’ont fait pour les fake news textuelles.
La société civile n’est pas en reste. Des associations comme Masader ou les collectifs de journalistes d’investigation au Maroc peuvent jouer un rôle de vigie et d’alerte. Car en définitive, la première ligne de défense contre les deepfakes, c’est un citoyen informé, équipé d’un esprit critique actif — capable de s’arrêter deux secondes avant de partager une vidéo qui semble trop choquante pour être vraie.
Questions fréquentes sur les deepfakes au Maroc
Est-ce qu’il est illégal de créer un deepfake au Maroc ?
Il n’existe pas encore de loi marocaine visant spécifiquement les deepfakes. Toutefois, selon les usages, leur création peut tomber sous le coup de dispositions existantes : atteinte à la vie privée, diffamation, escroquerie informatique ou usurpation d’identité numérique. Une réforme législative dédiée est attendue.
Comment signaler une vidéo deepfake qui me cible ?
Vous pouvez déposer une plainte auprès de la Brigade Nationale de la Police Judiciaire (BNPJ) ou contacter la CNDP pour les violations de données personnelles. En parallèle, signalez le contenu directement sur la plateforme concernée (Facebook, TikTok, WhatsApp). Conservez des captures d’écran et les liens comme preuves.
Les deepfakes peuvent-ils influencer les élections au Maroc ?
Le risque est réel et documenté ailleurs dans le monde. Une fausse vidéo d’un candidat diffusée 48h avant un scrutin peut créer un dommage réputationnel irréparable. La HACA (Haute Autorité de la Communication Audiovisuelle) devrait intégrer ce risque dans sa surveillance des campagnes électorales numériques.
Comment protéger ses proches contre les deepfakes ?
Limitez la publication de photos et vidéos en haute résolution sur les réseaux publics. Activez les paramètres de confidentialité sur vos profils. Sensibilisez votre entourage à l’existence de cette technologie. Et adoptez un réflexe systématique de vérification avant de partager tout contenu vidéo à forte charge émotionnelle.