option
Maison
Nouvelles
Le nouveau générateur d'images de Chatgpt est vraiment doué pour simuler les reçus

Le nouveau générateur d'images de Chatgpt est vraiment doué pour simuler les reçus

10 avril 2025
122

Ce mois-ci, ChatGPT a lancé un nouveau générateur d'images avec son modèle 4o, et il est sacrément doué pour intégrer du texte dans les images. Les gens l'utilisent déjà pour créer de faux reçus de restaurant, ajoutant un nouveau tour au répertoire des deepfakes d'IA que les escrocs adorent utiliser.

Deedy Das, une figure connue sur les réseaux sociaux et dans le monde du capital-risque, a partagé sur X une photo d'un faux reçu d'un vrai steakhouse de San Francisco, affirmant l'avoir créé avec 4o.

Vous pouvez utiliser 4o pour générer de faux reçus.

Il y a trop de processus de vérification dans le monde réel qui reposent sur des « images réelles » comme preuve. Cette époque est révolue. pic.twitter.com/9FORS1PWsb

— Deedy (@deedydas) 29 mars 2025

D'autres ont suivi le mouvement, créant leurs propres faux, certains ajoutant même des taches de nourriture ou de boisson pour les rendre plus crédibles :

Je pense que dans l'image originale, les lettres sont trop parfaites et ne suivent pas les plis du papier. Elles semblent flotter au-dessus du papier. Voici ma tentative pour la rendre plus réaliste. Dites-moi ce que vous en pensez. pic.twitter.com/EixRSHubeY

— Michael Gofman (@michaelgofman) 29 mars 2025

Le faux le plus convaincant que nous ayons trouvé chez TechCrunch venait de France, où un utilisateur de LinkedIn a publié un reçu froissé généré par IA d'une chaîne de restaurants locale :

Nous, chez TechCrunch, avons essayé 4o et réussi à créer un faux reçu pour un Applebee’s à San Francisco :

Crédits image : chagpt / charles rollet
Mais notre tentative présentait quelques signes révélateurs de falsification. Pour commencer, le total utilisait une virgule au lieu d'un point, et le calcul était erroné. Les LLM ont encore du mal avec les mathématiques de base, donc ce n'est pas trop surprenant.

Il ne faudrait pas grand-chose pour qu'un escroc ajuste quelques chiffres avec un logiciel de retouche photo ou des invites plus spécifiques.

Il est assez clair que faciliter la génération de faux reçus ouvre tout un monde de possibilités de fraude. Il n'est pas difficile d'imaginer des acteurs malveillants utilisant cette technologie pour se faire « rembourser » des dépenses totalement inventées.

Taya Christianson, porte-parole d'OpenAI, a déclaré à TechCrunch que toutes les images créées par ChatGPT contiennent des métadonnées indiquant qu'elles ont été générées par l'IA. Christianson a également mentionné qu'OpenAI « prend des mesures » contre les utilisateurs qui enfreignent ses politiques d'utilisation et qu'ils « apprennent toujours » des usages réels et des retours.

Lorsque nous avons demandé pourquoi ChatGPT permet de créer de faux reçus en premier lieu, et si cela est conforme aux politiques d'utilisation d'OpenAI (qui interdisent la fraude), Christianson a répondu que l'objectif d'OpenAI est de « donner aux utilisateurs autant de liberté créative que possible ». Elle a souligné que les faux reçus d'IA pourraient être utilisés à des fins non frauduleuses, comme « enseigner la littératie financière » ou créer des œuvres d'art originales et des publicités pour produits.

Article connexe
Un organisme à but non lucratif s'appuie sur des agents d'intelligence artificielle pour stimuler la collecte de fonds à des fins caritatives Un organisme à but non lucratif s'appuie sur des agents d'intelligence artificielle pour stimuler la collecte de fonds à des fins caritatives Alors que les grandes entreprises technologiques promeuvent les "agents" d'IA comme des stimulants de la productivité pour les entreprises, une organisation à but non lucratif démontre leur potentiel
Les plus grands laboratoires d'IA avertissent que l'humanité est en train de perdre le contrôle de la compréhension des systèmes d'IA Les plus grands laboratoires d'IA avertissent que l'humanité est en train de perdre le contrôle de la compréhension des systèmes d'IA Dans une démonstration d'unité sans précédent, des chercheurs d'OpenAI, de Google DeepMind, d'Anthropic et de Meta ont mis de côté leurs divergences pour lancer un avertissement collectif sur le dével
ChatGPT ajoute l'intégration de Google Drive et Dropbox pour l'accès aux fichiers ChatGPT ajoute l'intégration de Google Drive et Dropbox pour l'accès aux fichiers ChatGPT améliore la productivité avec de nouvelles fonctionnalités d'entrepriseOpenAI a dévoilé deux nouvelles fonctionnalités puissantes qui transforment ChatGPT en un outil de productivité complet
commentaires (15)
0/200
NicholasYoung
NicholasYoung 14 avril 2025 14:26:48 UTC+02:00

ChatGPTの新しい画像生成器を使って、豪華なディナーのレシートを作りました。めっちゃリアルで友達も信じちゃった。面白いけど、こんなに簡単に偽物が作れるのはちょっと怖いですね。この機能、使うときは注意が必要です!

BillyAdams
BillyAdams 14 avril 2025 13:50:02 UTC+02:00

O novo gerador de imagens do ChatGPT é incrível! Usei para criar um recibo falso de um jantar chique e ficou tão real que meus amigos acreditaram. É divertido, mas também assustador como é fácil criar falsificações convincentes. Cuidado com isso!

StevenHill
StevenHill 14 avril 2025 06:28:13 UTC+02:00

ChatGPT의 새로운 이미지 생성기로 고급 저녁 식사의 영수증을 만들었어요. 너무 진짜 같아서 친구들도 속았어요. 재미있지만, 이렇게 쉽게 가짜를 만들 수 있다는 게 조금 무섭네요. 이 기능, 사용할 때 조심해야 할 것 같아요!

AnthonyHernández
AnthonyHernández 13 avril 2025 21:43:05 UTC+02:00

ChatGPT의 새로운 이미지 생성기는 정말 대단해요! 레시트 위조가 너무 잘돼서 무섭네요. 시도해봤는데, 설득력 있는 가짜를 만드는 게 너무 쉬워요. 사기꾼들이 이걸 좋아할 거예요. 조심하세요, 여러분!

PaulRoberts
PaulRoberts 13 avril 2025 15:19:44 UTC+02:00

O novo gerador de imagens do ChatGPT é louco! É muito bom em falsificar recibos, é assustador. Eu testei e é muito fácil fazer falsificações convincentes. Os scammers devem estar adorando isso. Cuidado por aí, pessoal!

JustinAnderson
JustinAnderson 13 avril 2025 12:37:28 UTC+02:00

El nuevo generador de imágenes de ChatGPT es una locura. Lo usé para crear un recibo falso de una cena elegante y parecía tan real que mis amigos lo creyeron. Es divertido pero también un poco aterrador lo fácil que es hacer falsificaciones convincentes. ¡Hay que tener cuidado!

Retour en haut
OR