7 SOFTWARE GRATUITI PER RICONOSCERE LE IMMAGINI FALSE GENERATE DALL’AI

La rapida evoluzione dell’intelligenza artificiale ha portato a una proliferazione di immagini realistiche generate da algoritmi, facilitando la diffusione di informazioni false o ingannevoli online. Di fronte a questa nuova sfida, sono emersi strumenti innovativi che sfruttano l’IA per smascherare le foto manipolate, distinguendo il contenuto autentico da quello artificialmente prodotto.

In questo articolo esploreremo alcune delle principali piattaforme gratuite disponibili online, dedicate al riconoscimento delle immagini create artificialmente tramite intelligenza artificiale. Attraverso un’analisi approfondita, valuteremo i pregi e le criticità di ciascuno di questi strumenti, per presentarvi una lista dei 7 migliori software in grado di distinguere il contenuto visivo autentico da quello generato artificialmente.

Forensically Beta

Forensically Beta sembra essere uno strumento molto utile per analizzare l’autenticità e la manipolazione delle immagini. In particolare, offre funzionalità come il rilevamento dei cloni, l’analisi del livello di errore (ELA) e l’analisi del rumore. L’analisi del livello di errore (ELA) è una tecnica forense che esamina le variazioni nei livelli di compressione all’interno di un file. Le aree manomesse tendono a presentare livelli di compressione diversi rispetto al resto dell’immagine, e attraverso l’ELA, Forensically Beta può individuare potenziali segni di manipolazione. Questa funzionalità può essere preziosa per gli investigatori digitali e gli esperti di grafica che cercano di determinare l’integrità di un’immagine. Forensically Beta sembra essere uno strumento molto utile per analizzare l’autenticità e la manipolazione delle immagini.

In particolare, offre funzionalità come il rilevamento dei cloni, l’analisi dei componenti principali (PCA) e l’analisi del rumore. Il rilevamento dei cloni consente di individuare aree identiche all’interno di un’immagine, che potrebbero essere indizio di fotomontaggio o duplicazione. L’analisi dei componenti principali può rivelare informazioni sulla provenienza e l’autenticità dei contenuti visivi. Infine, l’analisi del rumore è utile per identificare l’utilizzo di filtri di riduzione del rumore, spesso impiegati per mascherare segni di manipolazione delle immagini. Queste funzionalità possono essere preziose per gli investigatori digitali e gli esperti di grafica che cercano di determinare l’integrità di un’immagine.

Nel complesso, Forensically Beta si configura come uno strumento piuttosto completo e orientato all’analisi forense, offrendo una serie di funzionalità avanzate per l’autenticazione dei contenuti visivi, andando oltre i semplici rilevamenti di elementi “umani” vs “artificiali”.

 

AI o not

Il primo strumento di cui andremo a parlare è AI or not, lanciato nel 2022 dalla società di intelligenza artificiale Optic con sede a San Francisco. Questa piattaforma utilizza avanzate tecnologie di riconoscimento per autenticare immagini, video e contenuti audio, distinguendo in modo accurato tra elementi reali e falsi.

L’obiettivo iniziale di AI or not era individuare e contrastare la proliferazione di NFT falsificati, dal momento che la blockchain non garantisce l’autenticità del contenuto effettivo dei file tokenizzati. Finora, il software è riuscito a identificare oltre 100 milioni di NFT contraffatti, dimostrando la sua efficacia anche nel riconoscimento di immagini false presenti sul web in generale.

Tuttavia, AI or not incontra alcune limitazioni: lo strumento ha difficoltà nel distinguere in modo chiaro i disegni creati manualmente da quelli generati dall’intelligenza artificiale. Inoltre, le sue prestazioni risultano leggermente inferiori quando si tratta di analizzare immagini compresse o di bassa qualità. Nonostante questi aspetti da migliorare, AI or not si conferma come uno strumento all’avanguardia nel campo dell’autenticazione visiva digitale.

 

FotoForensics

FotoForensics è un software di autenticazione delle immagini che si distingue per la sua versatilità e flessibilità. A differenza di alcuni strumenti più generalisti, FotoForensics offre il supporto per una vasta gamma di formati di file, inclusa l’opzione di inserire direttamente l’URL di un’immagine da analizzare.

Uno degli approcci distintivi di FotoForensics è l’utilizzo dell’analisi del livello di errore (ELA – Error Level Analysis) per individuare potenziali manipolazioni fotografiche. Questa tecnica analizza le variazioni nei livelli di compressione all’interno dei file esaminati, in quanto le aree manomesse tendono a presentare livelli di compressione diversi rispetto al resto dell’immagine.

Questa analisi forense basata sull’ELA consente a FotoForensics di identificare in maniera più approfondita i segni di manipolazione all’interno dei file multimediali, andando oltre i semplici rilevamenti di elementi “umani” vs “artificiali” proposti da altri strumenti.
Grazie a questa specializzazione nell’analisi forense delle immagini, FotoForensics si posiziona come uno strumento particolarmente utile per esperti e professionisti che necessitano di un livello di approfondimento superiore nell’autenticazione dei contenuti visivi, andando oltre le soluzioni più generaliste e accessibili al grande pubblico.

 

Hugging Face

Hugging Face è un’altra soluzione interessante nel campo degli strumenti per l’autenticazione di immagini generate dall’intelligenza artificiale. Come Illuminarty, Hugging Face si distingue per la sua semplicità d’uso e accessibilità, essendo un’applicazione completamente gratuita e open source. Una delle funzionalità chiave di Hugging Face è la sua capacità di fornire agli utenti una percentuale che distingue in modo chiaro tra elementi “umani” e “artificiali” all’interno delle immagini analizzate.

Questa analisi viene completata in soli 5 secondi, offrendo rapidità e reattività nell’individuazione di contenuti generati dall’IA.
L’accuratezza di Hugging Face nel rilevamento di immagini create artificialmente è generalmente soddisfacente, sebbene non possa vantare una precisione perfetta al 100%. Ciò è stato evidenziato in un esempio riportato, in cui lo strumento ha avuto difficoltà nell’identificare correttamente come artificiale un dipinto realistico creato dalla potente intelligenza artificiale DALL-E.

Questa limitazione nell’analisi di determinate tipologie di immagini fotorealistiche sottolinea come gli strumenti di autenticazione visiva, pur essendo estremamente utili, debbano ancora essere perfezionati per far fronte all’impressionante evoluzione delle tecnologie di generazione di contenuti artificiali. Nonostante ciò, Hugging Face si conferma come una soluzione accessibile e dalle prestazioni generalmente affidabili per gli utenti interessati a identificare immagini create dall’IA.

 

Content at Scale

Content at Scale ha introdotto un nuovo strumento chiamato Content at Scale AI Image Detector, che offre agli utenti la possibilità di verificare se un’immagine è stata creata da un generatore di immagini AI. Vediamo come funziona in dettaglio:


1. Caricamento dell’immagine: Gli utenti possono caricare il file di un’immagine o inserire direttamente l’URL dell’immagine nell’interfaccia del rilevatore.
2. Analisi dell’immagine: L’algoritmo esamina i pixel dell’immagine, valutando la sua fluidità e altri modelli tipici delle immagini generate dall’IA.
3. Punteggio percentuale: Il rilevatore assegna un punteggio percentuale che indica la probabilità che l’immagine sia stata creata da un essere umano o da un’intelligenza artificiale.


Questo strumento è in grado di rilevare immagini provenienti da generatori noti come DALL-E, Midjourney e StableDiffusion. La sua introduzione rappresenta un passo importante verso la trasparenza riguardo all’origine delle immagini e consente di identificare quelle create dall’IA.

 

SynthID

SynthID integra direttamente nei pixel dell’immagine una “filigrana” o watermark digitale che risulta invisibile all’occhio umano. Questo contrassegno non altera la percezione visiva dell’immagine per l’utente, ma rende l’opera riconoscibile. Inizialmente, SynthID sarà disponibile solo per gli utenti di Imagen, il generatore di arte di Google ospitato sulla piattaforma di apprendimento automatico Vertex.

La complessità di SynthID sta nel trovare il giusto equilibrio tra la non-percettibilità del watermark e la robustezza contro manipolazioni. Google assicura che il watermark non può essere facilmente rimosso con semplici modifiche all’immagine, ma ammette che non si tratta di una soluzione infallibile, soprattutto contro manipolazioni estreme. In un mondo in cui l’arte generativa e le immagini create dall’IA stanno diventando sempre più diffuse, SynthID rappresenta un passo avanti per garantire l’attribuzione corretta e la consapevolezza riguardo all’origine di queste opere.

Tuttavia, la sfida rimane quella di bilanciare la protezione dell’opera con la libSynthID integra direttamente nei pixel dell’immagine una “filigrana” o watermark digitale che risulta invisibile all’occhio umano. Questo contrassegno non altera la percezione visiva dell’immagine per l’utente, ma rende l’opera riconoscibile. Inizialmente, SynthID sarà disponibile solo per gli utenti di Imagen, il generatore di arte di Google ospitato sulla piattaforma di apprendimento automatico Vertex.

Illuminarty

Un’altra soluzione degna di nota nel panorama degli strumenti di riconoscimento di immagini generate dall’intelligenza artificiale è Illuminarty. Questa piattaforma offre una vasta gamma di funzionalità per aiutare gli utenti a identificare contenuti visivi creati artificialmente.

Illuminarty ha dimostrato una buona capacità di riconoscere correttamente la maggior parte delle fotografie reali come autentiche. Tuttavia, lo strumento ha etichettato solo circa la metà delle immagini create dall’IA come artificiali, evidenziando ancora alcuni margini di miglioramento nella precisione del rilevamento. Il design intenzionalmente cauto di Illuminarty, mirato a evitare di accusare erroneamente gli artisti di utilizzare l’IA, può risultare vantaggioso per evitare controversie, ma potrebbe anche limitare l’efficacia dello strumento nel contrastare in modo più incisivo la diffusione di contenuti visivi falsi o manipolati.

Nonostante queste considerazioni, Illuminarty rimane una soluzione interessante nel panorama degli strumenti di autenticazione delle immagini, offrendo agli utenti una gamma di funzionalità per identificare i contenuti generati artificialmente.