La cronaca non si misura più solo con il rumore delle esplosioni, ma con la qualità dei pixel che le documentano. Negli ultimi mesi, la guerra tra Israele, Stati Uniti e Iran è diventata il primo vero conflitto in cui le immagini satellitari manipolate dall’intelligenza artificiale hanno raggiunto un livello di sofisticazione tale da ingannare non solo gli utenti comuni, ma persino gli algoritmi di ricerca più avanzati.

Diverse inchieste condotte da BBC Financial Times, AFP e NewsGuard hanno smascherato una serie di immagini satellitari e video realizzati con l’Ai che hanno inquinato il racconto del conflitto tra Iran, Israele e Stati Uniti. Ecco i casi più eclatanti e i meccanismi che li hanno resi virali. Perché i satelliti AI sono così convincenti
Le immagini satellitari “ritoccate” non sono semplici fotomontaggi. Gli attori della disinformazione utilizzano tecniche di Image-to-Image translation, dove partono da una base reale — ad esempio una foto di Google Earth di una base militare — e chiedono all’AI di “sovrapporre” i danni. Il risultato è una texture di distruzione, crateri e fumo che rispetta perfettamente l’illuminazione, le ombre e la prospettiva dell’immagine originale. Come riportato da testate come The Hindu e analisti di AFP, la difficoltà nel distinguerle nasce dal fatto che l’AI non inventa l’intera scena, ma altera solo i dettagli critici, mantenendo inalterato tutto il resto del contesto geografico.

Go to top

Log in with your credentials

or    

Forgot your details?

Create Account