Siamo capaci a riconoscere l’Intelligenza Artificiale?

da | 9 Gen 2026 | Scripta |

L’intelligenza artificiale, un tempo prerogativa degli scrittori di fantascienza, è entrata stabilmente nella nostra vita quotidiana, talvolta in modo invisibile. Ogni giorno, secondo le stime più recenti, vengono generate 34 milioni di immagini interamente dall’IA, attraverso oltre duemila strumenti disponibili online (Forbes, 2025). È un volume che cresce in maniera esponenziale e che, inevitabilmente, modifica il nostro rapporto con l’informazione, il pluralismo, la creatività e l’identità. In una parola: con la realtà.

La Generative AI, quella che per intenderci crea testi, immagini, video, rappresenta allo stesso tempo una straordinaria opportunità e una fonte crescente di rischio. Le opportunità sono sotto gli occhi di tutti: nuove forme di creatività, capacità di calcolo a disposizione su larga scala, processi più rapidi e strumenti che rendono più accessibili servizi e conoscenze. Basti pensare che il mercato dei software di intelligenza artificiale è passato dai 122 miliardi di dollari del 2024 a una previsione di 467 miliardi nel 2030, con un tasso di crescita del 25% annuo (ABI Research, 2025). Questo boom non è soltanto economico: riguarda il nostro modo di lavorare, esprimerci, studiare, informarci.

Accanto a questo scenario entusiasmante, però, si apre un fronte meno rassicurante. Lo Stanford AI Index Report 2025 ha documentato 233 “incidenti” legati all’IA nel 2024, con un aumento del 56% in un solo anno. Si tratta di errori, distorsioni, abusi o incidenti nell’utilizzo dell’IA che possono avere impatto su diritti e libertà fondamentali degli utenti. Se ciò non bastasse, l’allarme si amplifica considerevolmente sul versante delle frodi: Deloitte stima che le truffe abilitate da sistemi generativi, inclusi i deepfake, raggiungeranno 40 miliardi di dollari negli Stati Uniti nel 2027, rispetto ai già allarmanti 12,3 miliardi del 2023.

A mio avviso il dato più preoccupante riguarda la percezione degli utenti. In Italia, quasi quattro cittadini su dieci non sanno cosa sia un deepfake, e un ulteriore 21% ne ha un’idea vaga. Solo il 41% dei cittadini ha una percezione chiara del fenomeno, mentre il 46% ritiene che l’IA stia aumentando il rischio di disinformazione (Ipsos, 2025). In un contesto in cui l’IA è in grado su larga scala di manipolare immagini, audio e video in modo sempre più realistico, il deficit di conoscenza e consapevolezza diventa un pericolo concreto per la qualità del dibattito pubblico, la tenuta della democrazia e la sicurezza individuale.

Il quadro normativo: l’approccio sistemico dell’Europa

Per fronteggiare questa trasformazione, l’Europa ha messo in campo due strumenti centrali. Il primo, in ordine di adozione, è l’European Media Freedom Act (EMFA), che introduce nuovi obblighi di trasparenza per le grandi piattaforme. L’articolo 18 del regolamento prevede, infatti, che i fornitori di servizi media che utilizzano tali piattaforme dichiarino “che non forniscono contenuti generati da sistemi di intelligenza artificiale senza sottoporre tali contenuti al riesame umano e al controllo editoriale”. È uno strumento importante poiché, da un lato, restituisce centralità ai media tradizionali che vengono riconosciuti come tali anche sulle piattaforme e, dall’altro, reinstaura un patto di fiducia tra utenti e piattaforme, in un’epoca in cui la distinzione tra contenuto editoriale e disinformazione è sempre più sfumata.

Il secondo pilastro, recentemente adottato, è l’AI Act: il primo quadro normativo orizzontale, completo e vincolante al mondo che disciplina l’IA in quanto tale. L’articolo 50 di questo Regolamento rappresenta una svolta epocale: impone ai fornitori di sistemi generativi di marcare in modo leggibile e tecnicamente rilevabile tutti gli output sintetici, siano essi testi, immagini, audio o video. Significa che, dal 2 agosto 2026, qualsiasi contenuto creato artificialmente dovrà essere riconoscibile non solo all’occhio umano, ma anche agli strumenti automatici.

La legge italiana 132/2025, che integra il quadro europeo, non prevede obblighi specifici sulla riconoscibilità dei contenuti IA, ma all’articolo 25 interviene sul diritto d’autore, chiarendo che la tutela riguarda esclusivamente le opere dell’ingegno umano, anche se create con l’ausilio dell’IA. Inoltre, all’articolo 20 conferma le prerogative dell’AGCOM e del Garante Privacy nell’ambito dei servizi digitali e della sorveglianza sulle piattaforme prevedendo espressamente che “restano fermi le competenze, i compiti e i poteri del Garante per la protezione dei dati personali e dell’Autorità per le garanzie nelle comunicazioni, quale Coordinatore dei Servizi Digitali ai sensi dell’articolo 15 del decreto-legge 15 settembre 2023, n. 123, convertito, con modificazioni, dalla legge 13 novembre 2023, n. 159.”

Il ruolo di AGCOM: tutela della persona, dei consumatori, del pluralismo

In questo scenario regolatorio, Agcom svolge un ruolo cruciale. Come Coordinatore dei Servizi Digitali ai sensi del Digital Services Act, l’Autorità vigila di concerto con la Commissione europea sulle piattaforme molto grandi, assicurandosi che il regolamento venga osservato al fine di dare piena attuazione al principio secondo cui ciò che è illegale offline lo è anche online. Inoltre, mantiene attive le sue competenze in merito alla tutela dei minori, al contrasto ai discorsi d’odio e alla tutela dei consumatori attribuitele, in recepimento della Direttiva SMAV, dagli articoli 41 e 42 del TUSMA, procedendo, nei casi di particolare gravità e urgenza, a impartire ordini di rimozione di contenuti audiovisivi direttamente alle piattaforme.

La tutela della persona diventa centrale soprattutto alla luce dell’aumento di deepfake politici, video manipolati a fini di estorsione o pornografia non consensuale, e contenuti che sfruttano vulnerabilità psicologiche. Sebbene, come anticipato, l’Autorità può intervenire per rimuovere contenuti lesivi e contrastare gli abusi più gravi, si tratta di interventi ex post, dove i diritti degli utenti sono già lesi. Per questa ragione l’Autorità è impegnata anche nella promozione di strumenti di co-regolamentazione con i professionisti che operano, a fini commerciali, sulle piattaforme e di strumenti di alfabetizzazione digitale per gli utenti in età scolare, come ad esempio il Patentino digitale.

Quanto alla co-regolamentazione un esempio significativo è il Codice di condotta per gli influencer, approvato lo scorso agosto (Delibera 197/25/CONS). Il codice impone trasparenza sulla modifica dei contenuti audiovisivi, prevedendo che chi utilizza filtri o software in modo tale da alterare significativamente l’immagine soprattutto se ciò può influire sulla percezione dei minori, o di soggetti vulnerabili, debba indicarlo chiaramente. È un tassello essenziale per evitare che i più giovani interiorizzino modelli estetici irrealistici o che i consumatori siano indotti a credere a prestazioni o caratteristiche non realistiche. Ne sono un esempio i drammatici casi di cronaca relativi a medicinali e prestazioni sanitarie.

Come riconoscere i contenuti generati da IA

Nel giro di pochissimi mesi abbiamo assistito alla diffusione di modelli generativi capaci di produrre video estremamente realistici, come Veo 3di Google e Sora 2di OpenAI. La propagazione su larga scala di questo strumento, come anticipato in precedenza, ha reso più complessa la distinzione tra vero e falso. Ciononostante, con un po’ di attenzione e qualche accortezza è ancora possibile “smascherare” un contenuto artificiale.

Un primo elemento è la presenza dei watermark, le filigrane digitali imposte in diversi strumenti di generazione AI. A titolo non esaustivo e prendendo in considerazione alcuni tra i più diffusi: Sora 2 di OpenAI inserisce una nuvoletta animata in tre punti dello schermo, mentre Gemini di Google adotta una stella stilizzata (resa visibile a partire da Veo3, poiché in precedenza si limitava ad essere una filigrana inserita nei pixel di ogni fotogramma del video generato) e Grok di X un simbolo circolare.

Un secondo metodo riguarda la ricerca di anomalie visive: loghi di brand famosi palesemente sbagliati nella forma e nei colori, scritte i cui caratteri sono inventati, sfondi statici o folla troppo uniforme. Nei video si possono considerare anche i movimenti, talvolta infatti i personaggi dei video non rispettano le leggi della fisica. Inoltre, è utile prestare attenzione anche all’eccesso di perfezione: dalla pelle e i capelli, alla fluidità innaturale dei video.

Molto importante è anche utilizzare tool online per il riconoscimento di contenuti generati con l’IA, talvolta messi a disposizione dai proprietari di sistemi di IA.

È il caso di SynthID Detector, uno strumento che nasce proprio per identificare in modo rapido ed efficiente i contenuti generati dall’intelligenza artificiale di Google.

In generale, il semplice confronto con la realtà molto spesso permette di riconoscere un falso: verificare ad esempio se un fatto è stato riportato da fonti affidabili, confrontare un’immagine con quelle ufficiali, riflettere sulla veridicità di un contenuto prima di diffonderlo. Ricordiamo tutti la foto di Papa Francesco che indossa un Moncler, giusto per citare la più “innocua”.

Le piattaforme social dal canto loro stanno introducendo progressivamente strumenti automatici di riconoscimento: Instagram, Facebook, YouTube, TikTok e Snapchat già applicano etichette ai contenuti generati artificialmente, mentre YouTube e TikTok prevedono obblighi specifici per i contenuti realistici. Dal 2026, con l’AI Act pienamente operativo, questo sistema di etichettatura diventerà obbligatorio per tutti i contenuti generati a prescindere dal “luogo” di pubblicazione.

Convivere con l’IA: un tema di cittadinanza digitale

L’intelligenza artificiale non è, di per sé, una minaccia. È un acceleratore: può amplificare le nostre capacità o distorcerle; può democratizzare l’accesso all’informazione o renderlo più fragile, andando a ledere il pluralismo delle fonti di informazione o a minare la sostenibilità economica degli editori tradizionali, come a dimostrato anche la recente reazione della FIEG in merito all’utilizzo delle opere giornalistiche da parte dei grandi player online [Mauro Carmignani su Agenda digitale]. L’Intelligenza Artificiale può potenziare la creatività o appiattirla su modelli preconfezionati.

La differenza la fa la consapevolezza.

Le norme europee e nazionali stanno via via dispiegando le loro potenzialità, le piattaforme stanno introducendo marcatori e controlli più avanzati, le autorità incaricate stanno rafforzando le proprie competenze e i propri strumenti per assicurare l’enforcement delle misure.

Tuttavia, la prima linea di difesa resta sempre l’utente e lo sviluppo del suo senso critico: la capacità di osservare, verificare, dubitare quando necessario e comprendere come funzionano gli strumenti che utilizza ogni giorno.

Smascherare l’IA non riguarda solo le competenze tecniche di ognuno di noi. È un atto di cittadinanza digitale, oggi più che mai, una forma concreta di tutela della propria libertà.

Altri Scripta
Frodi online e responsabilizzazione delle piattaforme

Frodi online e responsabilizzazione delle piattaforme

Secondo una inchiesta di Reuters, Meta starebbe guadagnando una fortuna grazie agli introiti derivanti dalla sponsorizzazione di contenuti fraudolenti: nel 2024, il 10% dei ricavi pubblicitari generati da Facebook, Instagram e WhatsApp, corrispondente a 16 miliardi di...

Rivedi Stop Piracy

Rivedi Stop Piracy

Grande partecipazione al Convegno Stop Piracy. La cooperazione europea per il contrasto alla pirateria promosso da Agcom con la partecipazione dell'Università degli Studi di Napoli Parthenope.È stata un'importante occasione di confronto tra istituzioni, operatori,...

Google alleata di Agcom contro la pirateria

Google alleata di Agcom contro la pirateria

Google ha finalmente iniziato a collaborare con AGCOM per contrastare la pirateria online, con il Piracy shield. Napoli - Cagliari e Inter-Como del 23 maggio 2025, ossia le due partite con cui si è deciso il campionato appena concluso, sono state infatti per AGCOM il...

Influencer, ecco gli effetti delle nuove regole Agcom

Influencer, ecco gli effetti delle nuove regole Agcom

Non è una stretta agli influencer, non è una reazione al cosiddetto Pandoro-Gate. La pubblicazione da parte di Agcom di linee guida sulla responsabilità e sula trasparenza del lavoro degli influencer è semmai un atto di rispetto e di valorizzazione di una professione...

Alla sua immeritata morte. Intervista ad Alda Merini

Alla sua immeritata morte. Intervista ad Alda Merini

MILANO. L'immagine di don Maurizio la tiene stretta tra le mani, per aiutare i ricordi. Pochi gli incontri con il sacerdote di Brentana, sufficienti però per lasciare il segno e per rimanere impietrita alla notizia della sua morte, volontaria, lo scorso 31 marzo. Alda...