Nella Relazione annuale del Sistema di informazione per la sicurezza della Repubblica, presentata questa settimana al Parlamento, l’ambiente informativo viene inserito esplicitamente tra i fattori che incidono sulla sicurezza nazionale. Disinformazione, uso malevolo dell’intelligenza artificiale e rischio di condizionamento dei processi democratici non vengono più trattati come semplici fenomeni comunicativi, ma come variabili strategiche. Il linguaggio della Relazione è prudente, quasi tecnico. Non parla soltanto di propaganda ostile, ma di equilibrio tra sicurezza e libertà, della necessità di distinguere tra intervento degli apparati e giudizio dei cittadini, della tutela del corretto funzionamento della vita democratica.
A inizio anno il report NATO 2026 sulla cognitive warfare ha dato una forma sistematica a questo slittamento. La competizione tra attori statali e non statali non viene più descritta soltanto nei termini tradizionali – militari, economici o tecnologici – ma anche come competizione cognitiva: una dinamica che riguarda la capacità di influenzare percezioni, decisioni e comportamenti collettivi e che può operare stabilmente sotto la soglia del conflitto armato, incidendo sulla coesione sociale senza ricorrere alla forza. La percezione entra così nel dominio della sicurezza, non più come semplice questione mediatica o culturale, ma come dimensione strutturale della competizione contemporanea. Quando la stabilità di una società viene letta anche in termini cognitivi, l’ambiente informativo smette di essere soltanto uno spazio pubblico di confronto e diventa un terreno operativo.
In realtà l’ambiente informativo non è diventato improvvisamente un problema di sicurezza. Più semplicemente, è diventato ingestibile. Negli ultimi anni la comunicazione politica si è progressivamente adattata alle logiche delle piattaforme: immediatezza, reazione continua, polarizzazione. L’attenzione è diventata la risorsa scarsa, l’indignazione un moltiplicatore, la visibilità un indicatore di potere. È in questo contesto che prende forma l’onda. Non è stata creata da un singolo attore. È il risultato dell’intreccio tra tecnologia, mercato e competizione politica. Gli algoritmi hanno premiato i contenuti più divisivi perché generavano interazione; i leader hanno imparato a parlare direttamente a segmenti sempre più ristretti e radicalizzati; i corpi intermedi hanno progressivamente perso spessore. Finché questa dinamica produceva consenso, era perfettamente funzionale al sistema politico. Quando ha iniziato a generare instabilità diffusa, è diventata improvvisamente un problema.

Ma un’onda di questo tipo non è neutra. Negli ultimi anni alcuni attori politici hanno imparato a cavalcarla con grande efficacia. Hanno compreso prima di altri che la competizione non si svolgeva più soltanto nei programmi o nelle ideologie, ma nei ritmi della comunicazione, nei registri emotivi, nelle reazioni immediate. Invece di subire l’ecosistema algoritmico, lo hanno occupato, trasformando polarizzazione e frammentazione in una leva competitiva. Cavalcare l’onda significa esattamente questo: sfruttarne l’energia senza tentare di cambiarne la direzione. È una strategia adattiva che si limita a entrare nel flusso e utilizzarlo. Il problema emerge quando quell’energia comincia a produrre effetti sistemici che vanno oltre il vantaggio politico immediato: delegittimazione diffusa, erosione della fiducia istituzionale, radicalizzazione permanente dello spazio pubblico. A quel punto gli Stati non cercano più di surfare l’onda, ma di risalirla. Ma risalire un’onda con la stessa tavola è un’operazione molto diversa. È in questo punto di frizione che nasce ciò che oggi viene chiamato guerra cognitiva: il tentativo di neutralizzare, con strumenti di sicurezza, una dinamica che per anni è stata incentivata – o quantomeno tollerata – perché funzionale alla competizione politica. Il problema è che la fisica sociale è meno docile di quella strategica. Un’onda alimentata da accelerazione, disintermediazione e conflitto non si spegne semplicemente classificandola come vulnerabilità. Se si interviene comprimendo l’instabilità senza modificare l’ecosistema che la genera, l’energia non scompare. Si redistribuisce.
La questione, quindi, non è soltanto distinguere tra dissenso e destabilizzazione. È capire se sia possibile intervenire sugli effetti senza intervenire sulle cause. Se l’ambiente algoritmico continua a premiare l’estremo e la competizione politica continua a sincronizzarsi con l’indignazione, la risposta securitaria rischia di arrivare tardi e di restare strutturalmente insufficiente. Cavalcare l’onda produce vincitori; risalirla produce attrito. E in un sistema già polarizzato l’attrito tende a generare ulteriore pressione. In questo contesto la stabilità non può più essere letta soltanto in termini di ordine pubblico o deterrenza militare. Diventa una questione di resilienza cognitiva. È qui che lo Stato entra in acqua. Non per cavalcare l’onda, ma per tentare di contenerla. Quando un fenomeno produce effetti sistemici sulla fiducia istituzionale, sulla coesione sociale o sulla regolarità dei processi elettorali, l’intervento dello Stato diventa quasi inevitabile. Se la manipolazione informativa può essere automatizzata, scalata e potenziata dall’intelligenza artificiale, la risposta non può restare soltanto culturale o mediatica. Ma proprio qui si apre la soglia. La stessa Relazione lo riconosce già nell’edizione 2025: “Ciò che risulta essere fattibile non è assolutamente detto che sia lecito secondo il diritto e l’etica civile delle società aperte.”
La tecnologia rende possibile molto più di quanto le democrazie possano permettersi. È tecnicamente possibile monitorare flussi informativi in tempo reale, classificare contenuti in base al rischio, intervenire prima che un messaggio produca effetti, anticipare e neutralizzare dinamiche di amplificazione. Il problema non è se tutto questo sia fattibile. È dove si colloca il limite. Le società liberali non sono fondate sulla massima efficienza del controllo, ma sulla distinzione tra ciò che deve essere governato e ciò che deve restare aperto. Quando la competizione politica viene letta in chiave cognitiva, la linea tra dissenso e destabilizzazione tende inevitabilmente a restringersi. Il conflitto non appare più soltanto come espressione del pluralismo democratico, ma può essere interpretato come una vulnerabilità. La polarizzazione non è più soltanto una dinamica politica: diventa un fattore di rischio. È in questo punto che la sicurezza entra nello spazio delle interpretazioni, e quando la sicurezza entra nelle interpretazioni, la tentazione è di ridurre l’incertezza. Il problema non è riconoscere l’esistenza delle minacce. Interferenze, operazioni coordinate e campagne sintetiche esistono realmente, e nessuno Stato può permettersi di ignorarle. La difficoltà è stabilire il discrimine.
Quando un contenuto diventa destabilizzante? Quando una campagna è dissenso organizzato e quando diventa operazione ostile? Quando la radicalizzazione rientra nel conflitto politico e quando si trasforma in vulnerabilità sistemica? Non esistono indicatori puramente tecnici. Nessun algoritmo è in grado di separare automaticamente pluralismo e destabilizzazione, perché la classificazione dipende sempre da criteri interpretativi: contesto, intenzione, effetti attesi. È qui che la questione diventa realmente complessa. L’intervento di sicurezza presuppone una soglia, ma quella soglia non è un dato oggettivo: è una decisione. Se è troppo alta, lascia spazio a interferenze reali. Se è troppo bassa, finisce per comprimere conflitto legittimo. Le democrazie si reggono da sempre su una tensione permanente: proteggere l’ordine senza soffocare il dissenso. La guerra cognitiva introduce un elemento ulteriore in questa tensione, trasformando la percezione collettiva in una variabile strategica. Da quel momento, ogni alterazione può essere letta come un attacco. Il rischio non sta nell’esistenza di strumenti di difesa, ma nella progressiva estensione di ciò che viene considerato difendibile. Se la stabilità diventa il criterio principale, la conflittualità può essere trattata come rumore da ridurre. Quando la coesione entra nel lessico della sicurezza, la divergenza può apparire come un’anomalia. A quel punto l’onda non viene soltanto contenuta. Viene normalizzata. E con essa cambia la natura stessa della politica.
La guerra cognitiva non è un’invenzione retorica: è il riconoscimento che la competizione contemporanea si svolge anche nello spazio delle percezioni. Gli Stati non possono ignorarlo. Ma proprio perché la percezione diventa terreno strategico, la distinzione diventa decisiva. Le società pluralistiche non sono stabili in senso meccanico. Sono attraversate da conflitto, divergenza, attrito. La democrazia non elimina queste tensioni: le organizza. Quando la stabilità entra nel lessico della sicurezza cognitiva, il rischio è confondere l’attrito con la minaccia. Un conto è proteggere i processi elettorali da interferenze esterne. Un conto è trattare la conflittualità interna come vulnerabilità da ridurre. La linea non passa tra ordine e caos. Sta tra dissenso e destabilizzazione. Finché quella distinzione resta nitida, la difesa è compatibile con la libertà. Quando comincia ad assottigliarsi, la protezione tende a trasformarsi in gestione preventiva dell’incertezza. L’onda non si spegne comprimendola. Si modifica cambiando le condizioni che l’hanno generata. Se la competizione politica viene stabilmente riclassificata come variabile cognitiva di sicurezza, la democrazia entra in una fase diversa: non più soltanto governo dei comportamenti, ma governo delle interpretazioni. Si tratta di una trasformazione sottile, che non avviene attraverso un atto formale ma nel modo in cui viene tracciata la soglia tra ciò che deve essere difeso e ciò che deve restare aperto. Ed è proprio quella soglia, oggi, uno dei punti più delicati della sicurezza occidentale.