Editoriale

Nel 2025 abbiamo esternalizzato il pensiero. Che sia un 2026 di focus. Per non fonderci con la macchina.

Antonino Polimeni

Avvocato, fondatore di Polimeni.Legal, da oltre vent’anni si occupa di diritto applicato al mondo digitale. Autore di numerosi libri, è presidente dell’Associazione Digital for Children, con cui promuove l’educazione digitale e guida missioni umanitarie nel mondo. Difende un’idea semplice: la tecnologia deve servire alle persone, non dominarle.

Del 2025 digitale mi porto dietro due parole. Mi servono per descrivere un cambio di abitudini che ho visto nelle piattaforme e nei contenuti ma, soprattutto, nelle persone.

La prima parola è epistemia, presa in prestito dal professor Walter Quattrociocchi.
Deriva dal greco ἐπιστήμη (epistḗmē), che significa conoscenza fondata, sapere dimostrato. Nella filosofia classica, soprattutto in Platone e Aristotele, episteme indica la conoscenza che si distingue dall’opinione perché poggia su ragioni e prove. Il suffisso moderno “-ia” segnala uno stato, una condizione. “Epistemia” quindi non è “la conoscenza”, bensì la condizione del sapere in un certo contesto storico e sociale.

Nel modo in cui viene usata nel dibattito recente, epistemia indica la condizione collettiva in cui il rapporto con la conoscenza viene deformato, perché i meccanismi che dovrebbero garantire affidabilità, verifica, autorevolezza e controllo critico risultano aggirati. Non riguarda il singolo errore o la singola bufala. Riguarda l’ecosistema del sapere e cioè come una società decide che cosa sia vero e quali fonti meritino fiducia.
È una malattia gentile, l’epistemia, e ce ne stiamo ammalando tutti: crediamo di sapere quando in realtà stiamo solo accettando una risposta che suona bene, quella dell’intelligenza artificiale. Quella intelligenza artificiale che non ci spiega, non ci da motivazioni, ma ci chiede solo e semplicemente di aderire.

Leggiamo, riconosciamo il tono autorevole e la struttura impacchettata bene ed è lì, esattamente lì, che avviene il passaggio più delicato della malattia, in quel preciso minuscolo momento in cui scambiamo la plausibilità per verità e la chiarezza per competenza.

E non possiamo certo prendercela con la macchina che genera (bene) il testo. Il problema, la malattia, sta nella persona che smette di verificare, perché la verifica richiede tempo, fatica e una certa umiltà. E nel 2025 quella fatica, quell’umiltà, è diventata impopolare.

Anche un tempo ci fidavamo ciecamente di testi semplici. Ci fidavamo delle enciclopedie e facevamo bene: quelle erano fonti costruite da persone, con metodo e responsabilità. Le macchine, invece, lavorano sulla statistica. Producono testi perché calcolano la probabilità che una parola segua un’altra, non perché sappiano ciò che stanno dicendo.

Quando riusciremo a interiorizzare questa differenza, forse qualcosa cambierà. Continueremo anche a copiare quelle frasi, perché spesso sono comode e utili. Però lo faremo sapendo che non stiamo maneggiando conoscenza, stiamo maneggiando una possibilità. La possibilità che la macchina abbia indovinato.

Da quel momento in poi, forse, l’epistemia inizierà a perdere forza.

Oggi, però, l’unica cura disponibile resta la prevenzione culturale, educando allo scarto tra linguaggio e sapere, tra ciò che suona vero e ciò che è vero perché è stato verificato.

La seconda parola di cui voglio parlarvi è epanortosi enfatica. Non la tengo per il tecnicismo, la tengo per ciò che rivela, per il simbolo che rappresenta in questo 2025.

L’epanortosi enfatica è quella costruzione retorica che funziona più o meno così: “non è questo, è quest’altro”. Si afferma qualcosa, poi lo si scarta subito dopo e lo si sostituisce con una versione più forte e più “vendibile”. Praticamente si sposta l’attenzione dalla prima formulazione a una seconda che suona meglio. È un meccanismo antichissimo, tipico dell’oratoria e della propaganda. Cosa c’entra con il 2025?

C’entra eccome, perché questo modo di scrivere è diventato lo stile dominante. Nei modelli linguistici generativi l’epanortosi enfatica emerge come pattern statistico ricorrente, in modo incredibilmente inconsapevole per chi, nella maggior parte dei casi, non effettua alcuna scelta comunicativa e si limita a fare un banale copia e incolla. In sostanza l’epanotrosi enfatica, se ripetuta, è diventata un marcatore del linguaggio prodotto dall’intelligenza artificiale. Non è l’unico marcatore, sia chiaro, ma è quello che prendo qui come esempio, come simbolo, utile allo scopo di questo pezzo.

Quel modo di costruire le frasi in questo 2025 si è moltiplicato nei testi, nelle email, nei post, nelle presentazioni, passando dalle persone che lo riproducono senza farci caso. Aberrante.

Così, la scrittura ha smesso di avere un volto. Lo stile si assomiglia ovunque. Il tono perde identità. Persino il pensiero diventa sospetto, perché non si capisce più se dietro una frase oggi c’è (almeno il tocco di) una persona oppure il ragionamento è completamente demandato a una macchina che ha rimesso insieme parole nel modo statisticamente più convincente.
E così mi accade sempre più spesso che, quando non riconosco più la voce di chi scrive, viene meno anche il mio interesse.

Nel 2026 non mi aspetto una svolta. Mi aspetto una normalizzazione. Che è anche peggio.

I contenuti generati saranno meno riconoscibili perché avranno imparato a imitare anche le imperfezioni e a scegliere parole più umane.

La confusione per ognuno di noi sarà tra ciò che abbiamo effettivamente pensato noi e ciò che ci è stato restituito in forma più ordinata. Ci auto-attribuiremo un’intelligenza che spesso sarà una buona mediazione linguistica, inizieremo a credere che stiamo ragionando meglio e, in un tempo minore di quanto di si possa aspettare, ci abitueremo a pensare solo in presenza di un assistente.

L’altro giorno, in un dialogo tra amici, mi sono ritrovato a dire “il mio chatgpt”, “la mia intelligenza artificiale”. Intendevo “il mio account” che è in grado di fare cose diverse da quello degli altri.

“La mia intelligenza artificiale mi risponde usando queste fonti”.

“La mia intelligenza artificiale non usa più bullet point a meno che io non lo chieda espressamente”

“La MIA INTELLIGENZA artificiale”.

La “mia intelligenza artificiale”, plasmata da due anni di dialoghi, di preferenze, di correzioni, di piccoli rituali quotidiani, con un addestramento personalizzato che la avvicina sempre più al mio modo di ragionare, al mio lessico, alle mie esitazioni, alle mie ossessioni, fino al punto in cui quella voce esterna inizia a sembrare una versione levigata di me stesso, più ordinata. E io mi ritrovo a riconoscermi in un oggetto che non possiede memoria biologica ed esperienza, ma conosce perfettamente le mie abitudini mentali, con il sospetto sottile che, prima o poi, non starò più usando uno strumento per pensare meglio, ma starò chiedendo a qualcun altro di pensare al posto mio, facendomi credere che quell’oggetto sia un mio reale surrogato e quindi che io possa fidarmi come mi fido di me stesso.

È lì che si gioca il 2026. Nella capacità di mettere bene a fuoco questa integrazione silenziosa tra la nostra intelligenza e la macchina, di riconoscerla per ciò che è e di tenerla davanti a noi come si tiene un oggetto affilato sul tavolo, come un coltello, molto utile ma pericoloso allo stesso tempo, ben in vista, sapendo da che parte afferrarlo e come usarlo per non farsi male, sapendo che non dev’essere maneggiato in modo distratto, altrimenti ci si ferisce.