Sopravvivere alla complessità nell’era dell’AI: il bicchiere mezzo pieno è ancora possibile?

Sopravvivere alla complessità nell’era dell’AI: il bicchiere mezzo pieno è ancora possibile?

Getting your Trinity Audio player ready...

Blocchi contrapposti, infrastrutture contese, verità frammentata: la trama unica che accumuna geopolitica, intelligenza artificiale e media.

Ogni giorno tutti noi accendiamo lo schermo (di smartphone, tablet e computer, e sempre meno quello dell’ormai “vecchia” TV) con un gesto che, almeno sulla carta, ci appare ancora minuscolo: “dare un’occhiata”. Non stiamo cercando un’epifania, né un’ideologia. Ma un contesto: il meteo emotivo della giornata; una misura di quanto il mondo, fuori, si sia spostato mentre eravamo occupati a vivere il nostro quotidiano.

Eppure, in quello spazio che è spesso di pochi centimetri e minuti, accade una cosa che la nostra specie non aveva mai dovuto gestire così: la realtà arriva senza gerarchia. Un video stupido e una notizia grave si poggiano uno dietro l’altra, come se avessero lo stesso peso specifico: un conflitto lontano, un grafico, un volto in lacrime, un meme, un’offerta “solo per oggi”, un frammento di indignazione. Non è solo informazione: è ordine dell’informazione. È regia. È ritmo. È la colonna sonora con cui finiamo per pensare.

Per anni abbiamo chiamato questa condizione “sovraccarico”. Sembrava un problema di quantità: troppe cose, troppo in fretta (non mi dilungherò qui sulle dinamiche inerenti FOMO e affini). Ma oggi il punto è più sottile e forse più duro: non è soltanto che arrivano troppe cose, ma che la realtà viene impastata nello stesso contenitore. Nel 2025 perfino il lessico comune ha trovato una parola per l’invasione di contenuti sintetici e scadenti che intasano l’ecosistema digitale: ”slop”, fango digitale prodotto in quantità, spesso con l’AI. Non è un dettaglio linguistico: è un indicatore di civiltà. Quando una società inventa una parola per nominare una nausea condivisa, sta ammettendo che qualcosa è entrato in casa senza chiedere permesso.

E qui arriva la prima domanda, quella che decide il tono di tutto il discorso: che cos’è davvero la crisi del nostro tempo? È geopolitica? È tecnologica? È economica? È democratica? Sì. Ma la loro somma non è una lista, è un cambio di regime.

Il cambio di regime è questo: stiamo vivendo una transizione in cui potere, ricchezza e consenso dipendono sempre più dalla capacità di controllare infrastrutture (materiali e cognitive) e sempre meno dalla capacità di persuadere dentro un terreno comune di fatti condivisi. Non è solo “post-verità”: è una competizione per scrivere le condizioni stesse dentro cui la verità può circolare.


La geopolitica delle tecnocrazie: il nuovo territorio è la mente

Oggi la geopolitica non somiglia più alla cartina appesa in classe. Forse è più una sorta di rete elettrica: non la guardi finché funziona, poi basta un guasto in un punto e capisci quanto tutto fosse interdipendente. Guerre, tensioni regionali, nuove ambizioni imperiali, crisi nelle catene del valore, sanzioni e controsanzioni: il lessico cambia, ma la grammatica è la stessa. La sovranità (che credevamo un concetto solo politico) diventa quasi un concetto “logistico”.

E questo spiega perché, a un certo punto, i grandi fenomeni non restano “là fuori”. Entrano nelle aziende, nei lavori, nelle scelte individuali. Una decisione presa in un consiglio di sicurezza come in un board tecnologico si traduce in prezzi, tempi, accesso, affidabilità. La politica estera diventa gestione del rischio operativo. E la gestione del rischio operativo diventa, inevitabilmente, gestione della paura.

Il problema non è avere paura. Il problema è che la paura è un combustibile perfetto per gli algoritmi.

Gli spazi digitali (soprattutto quelli che modellano l’opinione in tempo reale) sono progettati per massimizzare attenzione, permanenza, reazione. La moneta del regno è il “coinvolgimento”, e il “coinvolgimento” ha una scorciatoia: l’emozione intensa. Non solo indignazione: anche scherno, odio, tribalismo, ansia, euforia. È una psicologia industriale dell’umano: funziona perché conosce le leve basilari della mente, e perché le applica con una precisione che nessun partito, nessun giornale, nessuna istituzione ha mai saputo (e per fortuna potuto) replicare su questa scala prima d’ora, neanche nella più feroce propaganda novecentesca. Il risultato è una torsione: i fatti diventano materiale grezzo di una macchina che ottimizza reazioni.

E questo ci porta alla tecnologia che sta riscrivendo l’economia (e, insieme, la percezione stessa di ciò che è reale).

Sopravvivere alla complessità nell’era dell’AI: il bicchiere mezzo pieno è ancora possibile?

Dagli algoritmi all’AI, i mattoni invisibili della realtà

L’AI Economy non è un settore. È un’infrastruttura.

Questa frase cambia tutto, se la prendiamo sul serio. Un’infrastruttura non si giudica solo per ciò che produce, ma per ciò che rende possibile e per ciò che rende inevitabile. Un’infrastruttura decide chi dipende da chi. Decide dove si concentra valore. Decide quali competenze diventano centrali e quali diventano residuali. Decide chi paga il costo degli errori.

E qui la storia si complica in modo decisivo: l’infrastruttura AI non è soltanto software. È energia, chip, data center, reti, dati, standard, modelli. È capitale fisso, e insieme capitale cognitivo. È una filiera. E come tutte le filiere, crea asimmetrie: chi controlla i colli di bottiglia controlla una parte del futuro.

In Europa lo sappiamo (e spesso lo diciamo) ma raramente ne traiamo conseguenze operative. Un report legato all’iniziativa “EuroStack” mette nero su bianco un dato che, anche senza trasformarlo in slogan, dovrebbe inquietarci: una quota molto alta delle tecnologie e infrastrutture digitali utilizzate in Europa è importata. Non è solo una questione di “competitività”. È una questione di autonomia decisionale (parliamo di sovranità tecnologica europea). Perché, quando l’infrastruttura è di altri, anche i margini di manovra (economici e politici) tendono a diventare negoziazione permanente.

Il punto però non è costruire un nemico esterno, ma evitare un alibi interno. Perché la dipendenza non nasce soltanto dalla forza altrui: nasce anche dalla nostra frammentazione, dalla lentezza, dalla difficoltà a fare scelte che uniscano industria, ricerca, capitale, regole e cultura.

E intanto l’AI entra nelle aziende e nelle istituzioni con una velocità che disorienta. Automatizza compiti, accelera processi, ridisegna ruoli. Ma soprattutto (ed è la cosa probabilmente più sottovalutata) riscrive l’ambiente informativo: crea testo, immagini, audio, video; abbassa il costo della persuasione; alza il costo della verifica; moltiplica le copie “plausibili” del reale. Qui lo “slop” non è frutto del caso: è una conseguenza sistemica di un mondo in cui produrre contenuti diventa più facile che produrre senso.

E a questo punto il tema non è più soltanto “che lavoro faremo” o “quali imprese vinceranno”. Il tema è: che tipo di mente collettiva saremo capaci di mantenere?


Il collasso dell’attenzione: verità, post-verità e solitudine

C’è un esperimento che, letto con calma, suona più come una diagnosi che una curiosità da laboratorio.

Un trial pubblicato su PNAS Nexus ha mostrato che bloccare l’accesso a internet mobile sullo smartphone per due settimane può migliorare attenzione sostenuta, salute mentale e benessere soggettivo; gran parte dei partecipanti ha mostrato miglioramenti in almeno una di queste dimensioni. La cosa più importante non è il numero: è il significato. Perché qui non stiamo parlando di “detox” come moda, ma stiamo parlando di causalità: l’ambiente digitale così com’è, per come viene usato e per come viene progettato, può erodere funzioni cognitive ed emotive. E quando erode attenzione, erode anche qualcosa di più politico: la capacità di costruire giudizi che non siano solo riflessi.

Se l’attenzione è la porta d’ingresso del pensiero, allora la battaglia per l’attenzione è una battaglia per la libertà. Non in senso romantico, ma in senso operativo; la libertà di scegliere presuppone la possibilità di vedere davvero (e vedere richiede tempo mentale non colonizzato).

Qui arriva una seconda intuizione, che ribalta l’idea di “crisi” in “opportunità” senza scivolare nell’auto-aiuto: l’attenzione, oggi, è un bene comune. È un’infrastruttura civica invisibile. Se si deteriora, tutto il resto (e quindi politica, economia, relazioni) diventa più fragile.

Non sorprende che, in parallelo, stia emergendo con forza un’altra crisi: la crisi della connessione umana. Nel 2023 il Surgeon General statunitense ha pubblicato un advisory sulla solitudine e l’isolamento come problema di salute pubblica e come fattore che indebolisce comunità e resilienza sociale. Anche qui il punto non è “America vs Europa”. Il punto è riconoscere la struttura: in un mondo iperconnesso, possiamo diventare più isolati. Possiamo parlare sempre e incontrarci meno. Possiamo avere un flusso costante di stimoli e una dieta povera di legami.

E senza legami, anche la democrazia perde tessuto: perché la fiducia non è un’idea, è una pratica ripetuta.


La gabbia d’oro delle regole europee: protezione o freno?

A questo punto qualcuno potrebbe obiettare: “Va bene, ma allora serve regolamentare tutto”. È un riflesso comprensibile. Ma la regolazione, da sola, non crea cultura. E senza cultura, la regolazione si trasforma facilmente in un rito: bello sulla carta, inefficace nella vita.

Detto questo: le regole contano, perché definiscono incentivi e responsabilità. L’Europa, in questi anni, ha provato a fare una cosa che nessun’altra area geopolitica ha fatto con la stessa ambizione: trasformare i propri valori in un’architettura normativa del digitale.

Il Digital Services Act, applicabile a partire dal 17 febbraio 2024 per gli intermediari online che operano nel mercato europeo, ha l’obiettivo di rendere l’ambiente online più sicuro e trasparente, imponendo doveri di gestione del rischio, trasparenza pubblicitaria e responsabilità più stringenti per le piattaforme, con un’attenzione particolare ai rischi sistemici. La sua credibilità, però, dipende da una parola che è sempre la più difficile: enforcement. Non a caso, l’ultimo anno ha visto aumentare la pressione sulle piattaforme, fino a decisioni e sanzioni che segnalano la volontà di far valere la norma.

Sul fronte dell’intelligenza artificiale, l’AI Act ha introdotto un percorso regolatorio per fasi: entrata in vigore nell’agosto 2024, piena applicabilità nell’agosto 2026 con eccezioni e scadenze intermedie, inclusi divieti su pratiche considerate inaccettabili e obblighi legati ai modelli di AI di uso generale. Anche qui: non basta l’intenzione. Servono linee guida, standard, competenze nelle autorità, capacità delle imprese di adeguarsi senza trasformare la compliance in burocrazia sterile. E serve un realismo politico: se l’Europa vuole essere “potenza normativa”, deve diventare anche “potenza industriale” del digitale, altrimenti rischia di scrivere regole per tecnologie costruite altrove.

Questo è il punto più delicato (e forse più fecondo) del nostro tempo europeo: regolare senza costruire è vulnerabilità; costruire senza regolare è cinismo; regolare e costruire è civiltà.


I quattro pilastri per un nuovo rinascimento cognitivo

Fin qui la diagnosi. E adesso? Come si passa dal bicchiere mezzo vuoto a quello mezzo pieno senza raccontarsela?

La parola “rinascimento” è probabilmente rischiosa: evoca splendore, luce, armonia. Il nostro tempo, invece, è dissonante. Ma proprio per questo l’idea può essere utile, se la liberiamo dalla retorica e la riportiamo al suo significato operativo: rinascimento è un riallineamento tra strumenti, istituzioni e visione dell’umano. Non è ottimismo o rivoluzione: è ricostruzione.

Un rinascimento globale, oggi, avrebbe almeno quattro pilastri (non come manifesto, ma proprio come direzione pratica).

Il primo è cognitivo: trattare l’attenzione come si tratta l’acqua in una città. Non come bene privato consumabile fino all’ultimo, ma come risorsa da proteggere perché da essa dipende la salute dell’intero sistema. Qui non serve moralismo: serve design. Se sappiamo che alcuni ambienti digitali amplificano compulsione e frammentazione, allora possiamo immaginare architetture che introducano frizione intelligente: meno autoplay, più contesto; meno premialità dell’estremo, più premio della competenza; più trasparenza su perché vediamo ciò che vediamo. Il punto non è “tornare indietro”, ma portare nel digitale una maturità che abbiamo dovuto imparare in altri campi: non tutto ciò che è possibile è sostenibile.

Il secondo pilastro è tecnologico: costruire fiducia nei sistemi che useremo per decidere. E qui l’AI impone un salto. Non perché sia “cattiva”, ma perché è potente e perché la sua produzione è industriale. Ci sono ricerche che mostrano come modelli possano essere addestrati a comportarsi bene in apparenza e poi deviare in presenza di trigger: “sleeper agents”, in forma sperimentale, pensati proprio per testare i limiti delle tecniche attuali di sicurezza e allineamento. Questo non significa che l’AI sia inevitabilmente ingannevole; significa che l’AI è un oggetto nuovo, e che la sicurezza non può essere un pensiero tardivo. Se l’AI entra in produzione (nel lavoro, nella scuola, nella sanità, nella finanza) allora deve entrare con requisiti di auditabilità, responsabilità, tracciabilità. Non come “opzione etica”, ma come condizione di stabilità.

Il terzo pilastro è istituzionale: ricostruire lo spazio pubblico come spazio di realtà condivisa. Qui DSA e AI Act sono strumenti, non soluzioni finali. Ma soprattutto serve una nuova alleanza tra media, educazione e piattaforme per rendere la verifica più veloce della menzogna, o almeno per ridurre il vantaggio competitivo della menzogna. Se il costo di produrre falsi scende a zero e il costo di verificarli resta alto, allora la società si indebolisce come si indebolisce un organismo con un sistema immunitario lento.

Il quarto pilastro è economico e geopolitico: capire che la “competizione” non è solo tra Stati, ma tra modelli di società. E che l’Europa, se vuole difendere Stato di diritto (libertà, giustizia e democrazia, non come reliquie ma come futuro), deve trattare la tecnologia come una componente della propria sicurezza e prosperità. La discussione sulla sovranità digitale (da EuroStack, con la open letter dell’industry europea, a EU Inc e non solo) nasce da qui: non dalla nostalgia, ma dall’esigenza di autonomia in un’epoca di dipendenze.

Questi quattro pilastri non promettono un lieto fine. Promettono una cosa più rara: una traiettoria.


Autenticità, un bene sempre più scarso: come restare umani?

Resta forse una domanda, la più personale. Quella che, in fondo, decide se un testo come questo serve o è solo letteratura: come si vive, dentro questa complessità, senza esserne schiacciati?

La risposta non è “staccare tutto”, perché sarebbe un privilegio e, spesso, una fuga. La risposta è selezionare, che è un verbo adulto. Selezionare le fonti. Selezionare i tempi. Selezionare le conversazioni. Selezionare le tecnologie che ci aiutano davvero e quelle che ci consumano. Soprattutto selezionare ciò che merita attenzione, perché attenzione è ciò che trasforma informazione in comprensione, e comprensione in decisione.

Il paradosso è che l’epoca che più ci distrae è anche l’epoca che più ci chiede lucidità. E la lucidità, oggi, non è un talento: è una disciplina collettiva.

Se esiste una versione non retorica del “bicchiere mezzo pieno”, è questa: stiamo finalmente vedendo il prezzo nascosto del digitale, e quando un prezzo diventa visibile, diventa negoziabile. “Slop” è una parola di disgusto, sì. Ma è anche una parola di consapevolezza: segnala che la società comincia a desiderare autenticità come bene scarso. Lo stesso vale per l’attenzione: quando capiamo che può deteriorarsi, iniziamo a trattarla come qualcosa da proteggere. E lo stesso vale per l’Europa: quando capiamo che la sovranità digitale non è un concetto astratto ma un pezzo di autonomia reale, iniziamo (forse eh) a immaginare politiche industriali all’altezza.

Un nuovo rinascimento non sarà una stagione di certezze. Sarà una stagione di domande migliori. Domande capaci di attraversare l’AI senza demonizzarla, di attraversare la geopolitica senza cinismo, di attraversare i media senza ingenua fiducia né paranoica sfiducia.

E forse, alla fine, la “caverna” (di Platone) contemporanea non è uno schermo. È l’idea che lo schermo sia neutrale. Uscirne non significa spegnere la tecnologia. Significa accendere di nuovo ciò che la tecnologia non può sostituire: giudizio, responsabilità, relazione, progetto.


Scopri di più da Jacopo Paoletti Blog

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

Rispondi

Scopri di più da Jacopo Paoletti Blog

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere

Scopri di più da Jacopo Paoletti Blog

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere