
Sur les plateformes de vente en ligne comme Vinted, Leboncoin ou dans les annonces immobilières, une nouvelle forme d’arnaque prend de l’ampleur : des vendeurs utilisent l’intelligence artificielle pour transformer des photos médiocres en images bluffantes. Un vêtement usagé acheté pour quelques centimes devient visuellement comme neuf, un appartement avec du carrelage basique se retrouve orné d’un magnifique parquet, et une robe froissée issue de l’ultra fast-fashion est revendue comme une pièce de qualité. Ce phénomène, documenté par des médias nationaux dont TF1, soulève une question cruciale : comment les consommateurs peuvent-ils se protéger contre des arnaques qu’ils ne voient pas ?
L’intelligence artificielle a beau être une technologie fascinante qui transforme de nombreux secteurs, elle est désormais aussi un outil au service de la tromperie. Voici tout ce que vous devez savoir pour ne pas tomber dans le piège.

Des vêtements cheap transformés en luxe grâce à l’IA sur Vinted
Le principe de cette arnaque est aussi simple qu’efficace. Des vendeurs achètent des articles de fast fashion à des prix dérisoires — parfois 35 centimes l’unité sur des sites de vente en gros — puis les revendent sur Vinted pour une trentaine d’euros, après avoir retouché les photos avec des outils d’intelligence artificielle générative. En deux clics et quelques secondes, une robe froissée et usée se retrouve présentée comme un vêtement impeccable, sans la moindre trace d’usure.
Cette pratique inonde progressivement les plateformes de seconde main, au grand dam des acheteurs qui croient faire une bonne affaire. Une vague de frustration a récemment déferlé sur les réseaux sociaux, avec des dizaines d’internautes se plaignant d’avoir reçu des articles sans rapport avec les photos de l’annonce. La différence entre le produit photographié et l’article reçu peut être saisissante : des boots présentés comme quasi-neufs et brillants peuvent en réalité être usés, déformés, avec les bouts abîmés.
Ces pratiques ne constituent pas seulement une mauvaise foi ordinaire. En droit français, induire un consommateur en erreur sur les caractéristiques essentielles d’un produit relève des pratiques commerciales trompeuses, au sens des articles L.121-2 et suivants du Code de la consommation. Et depuis l’entrée en vigueur de l’AI Act européen en 2024, l’obligation de transparence s’étend à tout contenu significativement modifié par une intelligence artificielle.

De fausses preuves de dommages générées par IA pour obtenir des remboursements
Les arnaques à l’IA ne touchent pas que les acheteurs. Des vendeurs honnêtes en font également les frais, comme l’a illustré l’expérience de Johanna et sa mère. Cette dernière avait mis en vente un livre d’occasion en excellent état, proposé à 15 euros. L’acheteur a négocié jusqu’à 10 euros, puis le livre a été soigneusement emballé dans du papier bulle et expédié avec soin.
À la réception, l’acheteur a immédiatement ouvert un litige en prétendant que l’ouvrage était endommagé, et a fourni une photo censée en témoigner : une déchirure bien visible sur la couverture. Sauf que la photo était générée par intelligence artificielle. En l’examinant attentivement, plusieurs incohérences révélatrices apparaissaient : le visage de la personne en arrière-plan n’était pas le même que sur les premières photos, son tatouage avait mystérieusement disparu, et son bracelet avait changé. Autant de détails caractéristiques d’une image de synthèse.
L’acheteur a d’abord été remboursé par la plateforme — il a donc obtenu le livre gratuitement, frais de port inclus. C’est grâce à la ténacité de Johanna et sa mère, qui ont insisté sur les anomalies de la photo, que la plateforme a finalement accepté de les indemniser. Ce cas n’est pas isolé : créer une image convaincante de dommages fictifs n’a jamais été aussi accessible, et les plateformes peinent à détecter ces fraudes à grande échelle. Des arnaques similaires exploitant l’IA ont également envahi le monde des appels téléphoniques, où le clonage vocal permet de se faire passer pour des proches.

L’immobilier, nouvelle cible des photos retouchées par IA
Cette dérive ne se limite pas aux plateformes de seconde main. Dans l’immobilier, certains professionnels utilisent l’IA pour embellir leurs annonces bien au-delà du simple recadrage ou de la correction de luminosité habituels. Un exemple parlant illustre le phénomène : une annonce présentait deux photos du même appartement. Sur la première, un magnifique parquet clair, lisse et impeccable. Sur la deuxième, la réalité photographiée : du carrelage ordinaire.
L’objectif de cette manipulation est clairement défini par les professionnels qui l’utilisent : amener les acheteurs potentiels à se projeter dans un appartement qu’ils n’auraient peut-être pas visité autrement. « L’idée, c’est de se dire : avec du parquet, ça pourrait ressembler à ça », explique un agent immobilier observateur de ces pratiques. Alors qu’avec du carrelage, le visiteur potentiel ne se serait peut-être pas déplacé. La technique attire les clics, génère des visites, mais aboutit souvent à une déception lors de la découverte de l’appartement réel.
Or, la législation française est explicite sur ce point : les agents immobiliers sont légalement tenus de préciser toute utilisation de l’intelligence artificielle dans leurs annonces. Omettre cette mention constitue une pratique trompeuse susceptible d’engager leur responsabilité civile et pénale. Ce n’est pas une question de bon goût, c’est une obligation légale.

Ce que dit la loi face aux arnaques à l’IA
Face à la multiplication de ces pratiques, le cadre légal français et européen offre des protections théoriquement solides, même si leur application reste encore perfectible face à l’ampleur du phénomène.
Du côté des vendeurs frauduleux, les risques sont clairement définis. Toute pratique commerciale trompeuse est passible de jusqu’à 2 ans d’emprisonnement et 300 000 euros d’amende. Utiliser des images générées ou significativement modifiées par intelligence artificielle pour présenter des produits sans en informer l’acheteur entre directement dans cette catégorie.
Les plateformes elles-mêmes ne sont pas exemptées. Si elles ne mettent pas en place les outils nécessaires pour détecter les images générées par IA et supprimer les annonces frauduleuses, elles s’exposent à une amende pouvant aller jusqu’à 6 % de leur chiffre d’affaires annuel. Vinted, Leboncoin et leurs équivalents sont donc officiellement tenus de traiter chaque signalement et chaque réclamation au cas par cas, même si les volumes d’annonces rendent la tâche colossale.
L’AI Act européen, entré en vigueur en juillet 2024, impose par ailleurs une obligation de transparence générale sur tout contenu généré ou substantiellement modifié par une intelligence artificielle. La DGCCRF (Direction Générale de la Concurrence, de la Consommation et de la Répression des Fraudes) multiplie les alertes sur ces nouvelles formes de tromperie. Mais le travail de contrôle reste colossal face aux millions d’annonces publiées chaque jour en France. C’est pourquoi les consommateurs doivent apprendre à se protéger eux-mêmes, sans attendre une réponse systématique des autorités.

Comment repérer les fausses images IA et se protéger en ligne
Quelques réflexes simples permettent de réduire significativement les risques face à ces arnaques visuelles.
Analyser les incohérences dans les photos. Les images générées ou retouchées par IA produisent souvent des anomalies imperceptibles au premier regard : des mains avec un nombre de doigts incorrect, des textes illisibles ou déformés en arrière-plan, des reflets qui ne correspondent pas à l’éclairage ambiant, ou des détails (vêtements, accessoires, tatouages) qui changent entre les différentes photos d’une même annonce. Ces incohérences sont révélatrices d’une synthèse artificielle.
Questionner le rapport qualité/prix. Un article présenté dans un état quasi-parfait, photographié professionnellement et proposé à un prix défiant toute concurrence doit éveiller la méfiance. Sur les plateformes de seconde main, les objets de qualité se vendent rarement à des prix inférieurs à leur valeur réelle par des vendeurs soucieux de leur réputation.
Utiliser des outils de détection d’images IA. Des services en ligne comme AI or Not, Hive Moderation ou la recherche d’images inversée de Google permettent d’identifier si une photo a été générée par intelligence artificielle ou si elle a déjà été utilisée ailleurs sous une autre identité. Ces outils sont accessibles gratuitement et ne prennent que quelques secondes.
Demander des photos supplémentaires. Avant tout achat, sollicitez des photos additionnelles prises en temps réel : un objet tenu à la main, photographié sous différents angles, à côté d’un élément de référence (une pièce de monnaie, un ticket de caisse récent). Un vendeur honnête accèdera sans hésiter à cette demande. Un fraudeur utilisant des visuels générés par IA sera dans l’impossibilité de fournir ces clichés supplémentaires cohérents. Si vous êtes victime d’une arnaque, la plateforme Thésée (internet-signalement.gouv.fr) permet de signaler officiellement les escroqueries en ligne aux autorités françaises. Et si vous êtes curieux des nouvelles applications de l’IA qui transforment nos habitudes, notre article sur Google AP2 et les agents qui font vos achats à votre place illustre combien cette technologie redéfinit aussi les usages légitimes.
0 Commentaires
Aucun commentaire pour le moment. Soyez le premier à commenter !