Intelligenza artificiale: come riconoscere un’immagine generata dall’IA

All’intelligenza artificiale bastano 13 millisecondi per elaborare un’immagine, ma osservando con attenzione si può rimanere sorpresi

Le immagini fake stanno diventando sempre più realistiche con il passare del tempo e ora, grazie a programmi online come MidjourneyDall-e, praticamente chiunque può creare facilmente immagini artificiali o manipolate.

La buona notizia è che l’essere umano ha un istinto naturale che lo aiuta a riconoscerle, secondo Siwei Lyu, professore di scienza e ingegneria informatica presso l’Università di Buffalo.

Lyu fa parte di un gruppo di ricercatori che combattono l’intelligenza artificiale con l’intelligenza artificiale stessa. Hanno scoperto che il modo migliore per insegnare a un programma di intelligenza artificiale a individuare immagini sintetiche è mostrargli come fanno gli umani.

Come si riconosce un’immagine generata dall’intelligenza artificiale?

Le immagini artefatte ci circondano da molto tempo: la loro manipolazione esiste praticamente sin dall’invenzione della fotografia. Pensate solo a questa foto del 1860, con la testa di Abramo Lincoln apposta sul corpo di qualcun altro; un lavoro che richiedeva grande abilità e attenzione ai dettagli.

Quello che cambia oggi è la facilità con cui chiunque, anche senza esperienza, può creare qualcosa che sembra autentico: il risultato è un’esplosione di immagini sintetiche.

Midjourney è uno dei programmi utilizzati per creare le immagini attraverso l'IA
Midjourney è uno dei programmi utilizzati per creare le immagini attraverso l’IA – Pexels @Sanket Mishra – Irshivideos.it

 

Tuttavia, Lyu ci incoraggia a non cedere al panico: ci suggerisce di usare il nostro istinto naturale per individuare stranezze o dettagli sospetti e di stare al passo con i continui progressi dell’intelligenza artificiale.

Da qualche mese, inoltre, Meta sta lavorando su delle etichette da applicare alle immagini generate dall’IA, da utilizzare sui principali social della società.

Il primo passo da fare è prendersi del tempo: i media ci sommergono di immagini ogni giorno e per elaborarne una ci bastano 13 millisecondi, un tempo sufficiente per riconoscere di cosa si tratti, ma troppo breve per distinguere una riproduzione autentica da un falso.

Ciò che rende un’immagine sospetta è il suo contrasto con ciò che sappiamo essere vero; è importante non ignorare questo istinto.

“La prossima volta che vediamo qualcosa di interessante o divertente, potremmo prenderci un momento per analizzarlo meglio”, suggerisce Lyu. “Se qualcosa sembra strano, evitiamo di condividerlo subito sui social: in questo modo possiamo contribuire a frenare la diffusione di contenuti fake”.

I programmi di intelligenza artificiale sono progettati per creare immagini realistiche utilizzando una vasta quantità di dati provenienti da immagini reali. Tuttavia, il loro “tallone d’Achille”, come lo definisce Lyu, è che conoscono solo ciò che è stato loro “insegnato” e non sanno quali dettagli siano importanti.

Ciò spesso porta alla creazione di “artefatti”, difetti nell’immagine che sono facilmente identificabili a uno sguardo più attento. Ad esempio, nei video deepfake, le persone raramente battono le palpebre perché l’intelligenza artificiale si basa spesso su immagini di persone con gli occhi aperti.

“I segni rivelatori spesso si trovano nei punti di giunzione”, spiega Paulo Ordoveza, esperto di verifica delle immagini. Ad esempio, “una manica che diventa braccio senza soluzione di continuità”, oppure “comportamenti strani di capelli, occhiali, copricapi, gioielli e sfondi”.

Se l’immagine raffigura una persona, Lyu consiglia di osservare le mani e gli occhi: gli attuali programmi di intelligenza artificiale non riescono bene a riprodurre mani realistiche: spesso queste appaiono strane, con sei dita o posizioni innaturali. Inoltre, gli occhi sono un punto critico. Gli esseri umani sono molto attenti alle sottili caratteristiche del viso, come le pupille di forma circolare e il riflesso della luce uniforme.

Le luci e le ombre sono particolarmente difficili da riprodurre per l’intelligenza artificiale. Se nell’immagine ci sono superfici riflettenti, è probabile che l’illuminazione o le ombre non siano realistiche. Questo è dovuto a una limitazione nell’applicare le leggi della fisica, come la gravità.

Inoltre, molte immagini sintetiche presentano uniformità innaturali e oggetti curvi anziché dritti. Ad esempio, nella foto del Papa generata dall’IA, la croce sembra avere i bordi arrotondati e appare “galleggiante” sul piumino, quasi senza gravità.

Ma tutti questi “trucchi” per smascherare i prodotti dell’intelligenza artificiale hanno un difetto, spiega Hany Farid, professore presso l’Università della California a Berkeley ed esperto di media: “Qualsiasi cosa vi dica oggi, probabilmente non funzionerà più tra un mese. La realtà è che questo settore si evolve molto, molto velocemente. Non possiamo fare affidamento unicamente sulle nostre capacità di osservazione”.

Un approccio più pragmatico e di efficacia più duratura è essere in generale scettici nei confronti di ciò che i media ci propongono, metterne in dubbio le fonti e verificarne la veridicità, afferma l’esperto.

Un utile strumento è la ricerca inversa di immagini di Google, che permette agli utenti di caricare un’immagine e vedere se ci sono conversazioni in corso sulla sua creazione. Tuttavia, questo strumento può funzionare per immagini molto diffuse, ma potrebbe non essere d’aiuto in caso di immagini meno note o uniche.

Per casi più complessi, ci sono aziende come Reality Defender che offrono servizi di rilevamento AI a pagamento. Queste aziende svolgono ricerche approfondite utilizzando metodi sofisticati come il watermarking avanzato, spiega Daniela Rus, direttrice del Laboratorio di informatica e intelligenza artificiale (CSAIL) del Massachusetts Institute of Technology. “Queste tecniche sofisticate si stanno dimostrando efficaci”, aggiunge Rus.

Farid suggerisce che i creatori di AI dovrebbero obbligatoriamente riportare qualche forma di filigrana o altro contrassegno sui propri contenuti per identificarli come generati da un computer, soprattutto se vengono condivisi online. Al momento, le risorse gratuite per identificare i contenuti generati dall’IA sono poche e poco affidabili.

Lyu e il suo team hanno sviluppato un programma gratuito basato sul web chiamato DeepFake-o-meter. Tuttavia, parte del problema è che gli investitori sono più inclini a finanziare la creazione di AI piuttosto che le contromisure per l’AI stessa. “La nostra attività riceve molta meno attenzione e stiamo praticamente esaurendo le risorse”, afferma Lyu.

Mentre l’intelligenza artificiale continua ad avanzare, avremo bisogno di più programmi gratuiti di rilevamento AI su base web e di altri strumenti in grado di identificare la “firma” dell’AI. In mancanza di tali risorse, possiamo iniziare ad essere più cauti rispetto alle immagini generate dall’intelligenza artificiale, controllando prima di credere a ciò che vediamo.

Impostazioni privacy