IL PICCOLO ASINO CHE HA COMMOSSO IL WEB: TRA EMOZIONE E FINZIONE DIGITALE
L’immagine di un asinello ferito ha fatto il giro dei social, commuovendo migliaia di utenti con la sua espressione dolente e il corpo rannicchiato su un telo. In molti hanno condiviso la foto accompagnandola con frasi come “non mollare piccolo guerriero”, convinti si trattasse della storia reale di un cucciolo sopravvissuto a un brutto incidente. Tuttavia, la verità è ben diversa: l’asinello è stato generato con intelligenza artificiale, e la commovente storia che lo accompagna è completamente inventata. In questo articolo analizziamo nel dettaglio il caso nato da un post de Il Mattino, approfondiamo altri episodi simili di contenuti virali falsi e offriamo strumenti pratici per riconoscere quando un’immagine o un video non è reale ma creato digitalmente.
Il caso del Mattino: una favola generata dall’IA
Il punto di partenza della vicenda è un articolo pubblicato da Il Mattino, accompagnato da un post sui social che ha riscosso ampio successo. Il titolo riportava:
“Piccolo asino sopravvissuto commuove il web, ma è creato dall’intelligenza artificiale. Travolto da un camion, gravemente ferito e salvato.”
Nel testo si raccontava di un asinello investito da un camion e salvato da mani premurose. Tuttavia, l’intera storia è priva di qualunque conferma reale. Nessuna fonte ufficiale, nessun testimone, nessuna documentazione fotografica o video al di fuori dell’immagine iniziale. E soprattutto: nessun asinello ferito è mai esistito.
Il Mattino menziona l’intelligenza artificiale, ma non chiarisce immediatamente che l’intero racconto è frutto di una creazione digitale. La presentazione, infatti, tende a spingere sull’emozione più che sulla verifica.
Molte persone, colpite dal contenuto, hanno condiviso la foto pensando si trattasse di una storia vera. Il risultato è un’ondata virale che ha commosso — e ingannato — migliaia di utenti.
Non è la prima volta: altri casi simili
Questa non è la prima storia “emotiva” alimentata da contenuti generati con IA. Ecco alcuni esempi recenti:
1. La “nonna in guerra”
Una falsa immagine di un’anziana signora che abbraccia un gatto tra le macerie è diventata simbolo di resilienza in Ucraina. Era stata generata interamente con IA.
2. Il cane davanti alla tomba del padrone
Un cane inginocchiato davanti a una lapide ha commosso il web. Anche questa foto si è rivelata artificiale: l’ombra del cane era incoerente e l’ambiente sfocato.
3. Deepfake politici
In diversi casi, video deepfake sono stati diffusi per alterare reazioni emotive del pubblico, mostrando finti applausi o lacrime in eventi pubblici.
Come riconoscere se un’immagine o un video è generato con IA
Con la crescita dei modelli generativi, diventa sempre più difficile distinguere realtà da finzione. Ma ci sono alcuni segnali da osservare:
1. Controlla i dettagli “imperfetti”
• Occhi, dita, zampe, orecchie spesso mostrano anomalie: forme irregolari, mancanze, duplicazioni.
• Le ombre possono risultare incoerenti con la fonte di luce della scena.
2. Fai una ricerca inversa
Google Images, TinEye e strumenti simili possono aiutarti a scoprire la vera origine della foto.
3. Leggi i metadati
Le immagini IA spesso non contengono dati EXIF (fotocamera, data, geolocalizzazione).
4. Nei video: osserva i movimenti
• In caso di video deepfake, i movimenti possono risultare meccanici.
• Occhi e labbra possono essere lievemente disallineati rispetto all’audio.
5. Verifica la fonte
Le storie più credibili sono solitamente riportate da fonti multiple e affidabili. Se esiste una sola fonte emotiva, è bene dubitare.
Ma come fanno i professionisti a capire se foto o video sono stati generati con l’IA?
Nel 2025, riconoscere se foto o video sono stati creati con l’intelligenza artificiale non si basa più esclusivamente sull’“occhio clinico” degli esperti.
Per farlo efficacemente serve un set di strumenti che includa ricerche inverse, analisi forense automatizzata e verifica della provenienza dei contenuti. Sono disponibili diverse soluzioni tecnologiche, come il plug-in InVID-WeVerify e le API di livello enterprise come Reality Defender, che, usate insieme, consentono a giornalisti, aziende e cittadini di accertare in pochi minuti l’autenticità di un’immagine o di un video.
Il team di In Bocca al Lupo monitora da vicino l’evoluzione di questi metodi e dedicherà a questo tema un approfondimento specifico.
Emozioni vere, contenuti falsi
L’immagine dell’asinello ferito è un perfetto esempio di quanto le emozioni suscitate dai contenuti artificiali possano travolgere la nostra capacità critica. L’intelligenza artificiale oggi è in grado di creare narrazioni visive estremamente convincenti, ma non sempre rappresentano la verità.
La storia del Mattino ci ricorda che anche una testata giornalistica può contribuire — volontariamente o meno — a diffondere contenuti non verificati. Per questo motivo è essenziale allenare il nostro occhio e il nostro giudizio: emozionarci, sì, ma senza smettere di chiederci se ciò che vediamo sia davvero reale.