La verità in confezione protetta

Quando la promessa di proteggerci dall’errore diventa il rischio di rinunciare al giudizio personale.

C’è qualcosa di strano e rivelatore nell’ansia con cui, negli ultimi mesi, molti media mainstream parlano e discettano dell’intelligenza artificiale. Non solo la presentano come un prodigio inarrestabile che cambierà la vita di tutti; la raccontano anche come una minaccia sottile, un’ombra che si infila tra noi e la verità.

E così, mentre ci spiegano quanto l’IA sia utile e redditizia, dedicano il doppio del fiato a dirci quanto sia rischiosa e pericolosa. L’effetto è curioso: il lettore viene invitato a provare allo stesso tempo incanto e timore, ammirazione e diffidenza, come davanti a una magia che affascina ma che potrebbe bruciare le mani.

La narrazione è lineare: la tecnologia corre più veloce della coscienza e il mondo rischia di cadere in balìa della disinformazione automatizzata. Ma la realtà — quella vera, senza sovrastampe — è più semplice: la disinformazione è vecchia come l’uomo, non nasce con l’IA e non scomparirà quando un algoritmo verrà regolato per decreto.

Da quando esistono parole, esistono anche parole storte, deviate. Il falso non è una creazione dell’ingegnere informatico; è una tentazione, un’abitudine, un vizio e talvolta un’arma che accompagna l’umanità da quando l’uomo ha iniziato a mentire. L’IA non inventa nulla: accelera ciò che già c’è. Moltiplica, amplifica, riproduce. Fa quello che la tecnologia ha sempre fatto: estende la volontà e la potenza dell’uomo, nel bene e nel male.

Il punto allora non è demonizzare la macchina, ma capire il ruolo e la responsabilità dell’uomo che la usa.

Ed è qui che entra in scena il nodo più delicato: mentre ci raccontano quanto l’IA sia capace di ingannare, spesso omettono un dettaglio decisivo. A volte non temono la disinformazione: temono la perdita di controllo. Temono che troppe persone possano produrre contenuti, verificare fatti, mettere in discussione narrazioni consolidate, sgretolare monopoli informativi costruiti in decenni di abitudini.

Quando un potere — politico, mediatico, tecnologico — dice di voler “proteggere” i cittadini dalla disinformazione, la cosa in sé può sembrare positiva. È nella parola tutela che nasce l’ambiguità.

La tutela, all’inizio, è un aiuto: “La situazione è complessa, lasciate che ve la spieghiamo noi.” È un gesto che appare benevolo. Chi non vorrebbe essere aiutato a capire meglio?

Il passo successivo è l’affidamento. Poco a poco la tutela diventa abitudine: le persone iniziano a delegare la fatica di verificare, confrontare, ragionare. “Se c’è qualcosa di falso, ce lo diranno loro.” “Se qualcosa è pericoloso, lo toglieranno loro.” Non si chiede più: “È vero?” Si chiede: “Che cosa dicono loro che sia vero?”

L’affidamento non è ancora negativo: è un passaggio psicologico naturale. Quando una società è sommersa da informazioni, cerca un faro che orienti e selezioni al posto suo.

E arriviamo all’ultimo passo: la dipendenza. Un accostamento impercettibile. Se ci si affida troppo a un intermediario della verità, si finisce col non saper più farne a meno. Diventa una dipendenza cognitiva. Si smette di verificare, di confrontare, di chiedere, di dubitare. La ricerca della verità non è più un cammino personale: diventa un prodotto preconfezionato da altri.

È questo il nodo critico: quando la protezione diventa comodità e la comodità diventa rinuncia alla propria autonomia mentale. Si insinua un messaggio più sottile, pseudo-pedagogico, quasi un invito morale: state attenti, non fidatevi troppo di ciò che è nuovo, lasciate che siano gli esperti — i nostri esperti — a dirvi cos’è vero e cos’è falso.

Il succo del discorso è questo: la lotta alla disinformazione è giusta. Il rischio è che, nel nome della sicurezza cognitiva, si consegni ad altri la sovranità sul vero. E quando si delega troppo la verità, si smette di essere liberi.

Ogni delega sulla verità è un cedimento spirituale. Se accettiamo ogni filtro imposto “per il nostro bene”, si restringe la nostra capacità di giudizio. Ogni algoritmo che elimina ciò che qualcun altro ritiene “falso o dannoso” ci priva di un pezzo di mondo, di un frammento di realtà, di un margine di confronto.

Non si tratta di negare i rischi dell’IA. Si tratta di ricordare che la difesa dalla menzogna non può ridursi a un recinto costruito da pochi intorno ai molti. Che la libertà non è un lusso, ma un’arte. E che la verità non è una proprietà privata.

La risposta più saggia all’IA non è il divieto, ma la maturità: imparare a leggere, confrontare, dubitare, riconoscere i propri limiti cognitivi e — perché no — anche affidarsi all’IA stessa come strumento di verifica, non come sorvegliante. Utilizzare l’intelligenza artificiale come strumento soggetto alla nostra intelligenza.

Una società che cresce è una società che sa autoeducarsi, non una società che delega l’educazione alla tecnologia o ai suoi sedicenti custodi. La battaglia per la verità non si vince con chi controlla meglio la rete, ma con chi allena meglio la mente. E allora sì, difendere la verità diventa un gesto profondamente umano: non obbedienza al potere, ma responsabilità verso se stessi.

Questa immagine è pubblicabile.

Rispondi