Una finta esplosione al Pentagono, quartier generale della difesa statunitense, inganna gli utenti dei social e diventa virale. Ed è subito polemica per le possibilità di creare disinformazione, aperte dall’utilizzo dell’AI.
L’immagine, evidentemente generata con un software di intelligenza artificiale, mostra una enorme esplosione vicino al Pentagono, con relativa colonna di fumo nero. Quanto basta per ingannare gli utenti, che l’hanno condivisa sui social prontamente.
In pochi minuti, migliai account di social media – tra cui anche alcuni account verificati – hanno condiviso l’immagine falsa, amplificando ulteriormente la confusione.
È toccato ai funzionari del Pentagono confermare che si è trattato di un fake e che nessun incidente ha colpito il sito militare.
Inoltre, alcuni esperti di fact checking – come Nick Waters di Bellingcat, un collettivo giornalistico specializzato in inchieste e fact checking – si sono affrettati a sottolineare alcune notevoli incongruenze dell’immagine: non solo non c’erano testimoni a corroborare la veridicità dell’evento, ma l’edificio stesso è assai diverso dal Pentagono.
L’intelligenza artificiale ha ancora difficoltà a ricreare luoghi senza introdurre artefatti casuali. Ma gli utenti non nascondono la preoccupazione per la capacità dei software di grafica, basati sull’AI, per le infinite possibilità di creare disinformazione aperte dal loro utilizzo.