Riflessioni sull'erosione silenziosa della competenza nell'era dell'intelligenza artificiale

rofessionista che analizza dati generati dall'intelligenza artificiale in ufficio.
Automazione Cognitiva e Competenza Umana | Adytum AI
Nota editoriale
Questo articolo propone una riflessione critica sull'interazione tra esseri umani e sistemi di intelligenza artificiale, basata su osservazione fenomenologica, framework filosofici e psicologici, e analisi delle trasformazioni cognitive emergenti. Non costituisce consulenza psicologica, medica o professionale. L'obiettivo è stimolare pensiero critico e dialogo costruttivo su fenomeni in rapida evoluzione.
📅 15 febbraio 2026 📂 Etica & Policy ⏱️ 25 min lettura ✍️ Adytum AI

C'è un momento, lavorando con l'intelligenza artificiale, in cui ti accorgi di aver perso qualcosa. Non è drammatico. Non è improvviso. È sottile, quasi impercettibile — come quando realizzi che non ricordi più un numero di telefono che componevi a memoria ogni giorno, perché ora è salvato nel telefono. Solo che stavolta non si tratta di un numero. Si tratta del modo in cui pensi.

Stai usando ChatGPT da mesi, forse da più di un anno. Ti ha aiutato a scrivere email complicate, a riorganizzare presentazioni, a trovare idee quando eri bloccato davanti a una pagina bianca. Funziona. Funziona straordinariamente bene. La produttività è aumentata. Il tempo risparmiato è reale. Poi un giorno qualcuno — un cliente, un collega, un revisore — ti chiede una domanda semplice: "Ma perché hai scelto questo approccio invece di quell'altro?" E in quell'istante realizzi qualcosa di inquietante: non lo sai. Non hai scelto, nel senso pieno del termine. Hai selezionato. Tra le opzioni che l'algoritmo ti ha generato, hai preso quella che ti sembrava migliore, quella che "suonava bene". Ma se dovessi spiegare i criteri della tua preferenza, non sapresti articolarli con precisione. Non c'è stato un vero processo decisionale autonomo. C'è stata una preferenza istintiva davanti a un menù già preparato da qualcun altro — o meglio, da qualcos'altro.

La differenza tra scegliere e selezionare sembra minima, quasi semantica. Ma non lo è. Scegliere significa possedere criteri espliciti, avere una teoria (anche implicita) di cosa funziona e perché, sapere cosa vuoi ottenere e come arrivarci. Selezionare significa affidarsi a un giudizio estetico immediato — "questo mi sembra meglio di quello" — senza necessariamente comprendere le ragioni profonde di quella preferenza. Il primo è un atto di padronanza cognitiva. Il secondo è un atto di delega mascherata da controllo. E questo lentissimo, quasi impercettibile scivolamento dalla scelta alla selezione è forse uno dei cambiamenti più profondi e meno discussi che l'intelligenza artificiale sta producendo nel nostro modo di lavorare, di pensare, di essere professionisti.

Per comprendere la dimensione più ampia di questa trasformazione, può essere utile rileggere le nostre riflessioni precedenti sull'arte di restare umani nell'interazione con sistemi di AI.


L'architettura nascosta della delega

Quando parliamo di intelligenza artificiale, tendiamo a concentrarci sui risultati visibili: la velocità, l'efficienza, la capacità di produrre contenuti apparentemente sofisticati in pochi secondi. Ma c'è un livello più profondo, meno evidente, che riguarda la struttura stessa del nostro rapporto con il sapere e la competenza. Ogni volta che deleghiamo a un sistema algoritmico una funzione cognitiva — scrivere un testo, analizzare dati, generare soluzioni creative — non stiamo semplicemente esternalizzando un compito. Stiamo ridisegnando l'architettura del nostro processo mentale. Stiamo modificando cosa significa "sapere fare qualcosa".

Prendiamo un esempio concreto, tratto dall'esperienza di molti professionisti creativi. Un designer grafico con quindici anni di esperienza inizia a usare Midjourney, Stable Diffusion o altri strumenti di generazione visiva basati su AI. Prima, il suo processo creativo era iterativo e manuale: schizzi, prove di palette cromatiche, raffinamenti progressivi attraverso tentativi ed errori. Ogni scelta — il blu invece del verde, quella tipografia invece di un'altra — era il risultato di un dialogo interno tra intuizione estetica e razionalizzazione critica. Poteva non sempre articolare esplicitamente perché preferiva una soluzione, ma quella preferenza emergeva da un'esperienza incarnata, da anni di pratica, da una sensibilità coltivata attraverso migliaia di decisioni simili. Ora, il processo è diverso. Scrive un prompt, genera cinquanta varianti in pochi minuti, seleziona quella che "funziona meglio". La produttività è aumentata di un fattore dieci. I clienti sono soddisfatti. Ma quando, durante una revisione, gli viene chiesto "perché questo blu invece di quell'altro?", la risposta non c'è più. Non c'è stata una scelta cromatica consapevole. C'è stata una selezione tra alternative già generate.

Questo non è un problema di competenza tecnica. Il designer in questione resta un professionista esperto. Ma la natura stessa della sua expertise si sta trasformando. Sta passando da una competenza generativa — la capacità di creare soluzioni ex novo attraverso un processo padroneggiato — a una competenza discriminatoria — la capacità di riconoscere la soluzione migliore tra quelle proposte da un sistema esterno. E questa trasformazione non è neutra. Perché la competenza generativa richiede una comprensione profonda del processo: sapere non solo cosa funziona, ma perché funziona, come si arriva a quel risultato, quali sono le alternative possibili e i trade-off impliciti in ogni scelta. La competenza discriminatoria, invece, può funzionare anche senza questa comprensione. Puoi scegliere l'opzione migliore basandoti su un giudizio estetico immediato, senza necessariamente possedere la conoscenza procedurale che ti permetterebbe di generarla autonomamente.

Il filosofo Hubert Dreyfus, nei suoi studi sull'intelligenza artificiale e la fenomenologia dell'expertise, ha mostrato che la vera competenza non consiste nell'applicazione consapevole di regole esplicite, ma in una forma di "intuizione incarnata" — un sapere che emerge dall'esperienza corporea, dalla pratica ripetuta, da un'immersione totale nel dominio di attività. L'esperto vero non "calcola" la soluzione migliore applicando un algoritmo mentale. La vede, la sente, la riconosce immediatamente perché il suo corpo, la sua mente, il suo sguardo sono stati plasmati da anni di pratica. Ma questa forma di sapere richiede esercizio continuo. Richiede di attraversare ripetutamente il processo, di fare errori, di correggersi, di sviluppare quella sensibilità fine che distingue il maestro dal principiante. E cosa succede quando quel processo viene sempre più delegato a un sistema esterno? Cosa succede quando non generi più soluzioni, ma le selezioni da un catalogo algoritmico?

La risposta non è semplice, e forse non è nemmeno univoca. Ma c'è un rischio che vale la pena nominare: l'atrofia progressiva della capacità generativa per mancanza di esercizio. Come un muscolo che non viene più usato, la capacità di creare autonomamente — di attraversare la fatica cognitiva della generazione, di confrontarsi con il vuoto della pagina bianca, di costruire qualcosa dal nulla — può indebolirsi gradualmente se viene sistematicamente delegata. E quando questo accade, non te ne accorgi immediatamente. Te ne accorgi solo quando, per qualche ragione, il sistema non è disponibile, o non funziona come ti aspetti, o ti viene chiesto di spiegare il tuo processo — e realizzi che quel processo, in parte, non è più tuo.


Il paradosso della zona grigia: quando il giudizio umano incontra lo score numerico

C'è un secondo fenomeno, forse ancora più sottile, che emerge nell'interazione sistematica con sistemi di intelligenza artificiale: la progressiva erosione della fiducia nel proprio giudizio professionale. E questo accade in un modo particolare, quasi paradossale, che vale la pena esplorare con attenzione. Immagina una responsabile delle risorse umane in una multinazionale che ha implementato sistemi di AI per lo screening automatizzato dei curriculum vitae. Il sistema è stato addestrato su migliaia di assunzioni passate, ha "imparato" quali caratteristiche correlano con successo professionale, e ora assegna a ogni candidato uno score numerico — un voto da 0 a 100 che sintetizza l'adeguatezza al ruolo. Il processo è più veloce, apparentemente più oggettivo, meno soggetto a bias personali evidenti. Poi succede qualcosa. Un candidato viene automaticamente scartato. La responsabile HR, per abitudine professionale, dà un'occhiata al curriculum prima di archiviarlo definitivamente. E si blocca. Esperienza rilevante. Competenze solide. Referenze eccellenti. Tutto quello che cercava. Interroga il sistema: perché è stato escluso? Risposta: "Mancanza di keyword rilevanti nella sezione competenze. Score: 42/100."

In quel momento si apre una frattura, una zona grigia che rivela qualcosa di profondo sul nostro rapporto con l'automazione decisionale. Da un lato, c'è il giudizio umano: qualitativo, contestuale, basato su un'esperienza decennale, capace di leggere tra le righe, di cogliere potenziale oltre i descrittori formali, di integrare informazioni che non sono facilmente formalizzabili. Dall'altro lato, c'è lo score algoritmico: quantitativo, apparentemente oggettivo, basato su pattern statistici estratti da grandi dataset, ridotto a un numero che pretende di sintetizzare l'intera complessità di una persona e del suo percorso professionale. E la domanda che emerge è disarmante nella sua semplicità: di chi ti fidi? Se ti fidi del tuo giudizio e sovrascrivi il sistema, perché l'hai implementato? Se ti fidi del sistema e scarti il candidato nonostante il tuo giudizio positivo, a cosa serve la tua expertise?

Questa non è una questione tecnica che si risolve "migliorando l'algoritmo". È una tensione epistemologica fondamentale tra due modi radicalmente diversi di conoscere e valutare il mondo. Il giudizio umano opera attraverso una comprensione contestuale, incarnata, capace di tollerare l'ambiguità e di integrare considerazioni che non possono essere facilmente tradotte in variabili misurabili. È un sapere che vive nell'esperienza, che si affina attraverso l'errore e la correzione, che porta con sé la responsabilità morale della decisione. Lo scoring algoritmico, invece, opera attraverso la riduzione della complessità a feature esplicite, la trasformazione del qualitativo in quantitativo, l'estrazione di pattern statistici da dati storici. Non è "più oggettivo" nel senso filosofico profondo del termine — è solo più esplicito nei criteri, anche quando quei criteri sono inadeguati, parziali, o riflettono bias nascosti nei dati di training.

Il problema vero non è che il sistema sbaglia. È che il numero — quel "42/100" — acquisisce un'autorità epistemica indebita. Viene percepito come "oggettivo" semplicemente perché è quantitativo, anche quando si basa su criteri arbitrari o inadeguati al contesto specifico. E questa percezione di oggettività tende progressivamente a erodere la fiducia nel giudizio qualitativo umano, che viene riletto come "soggettivo", "parziale", "meno affidabile". Ma questa gerarchia è filosoficamente infondata. L'oggettività non è una proprietà del formalismo matematico. È una proprietà dell'adeguatezza del metodo al fenomeno che si vuole comprendere. E ci sono dimensioni della realtà umana — la creatività, il potenziale non ancora espresso, la capacità di crescita in contesti nuovi — che resistono alla quantificazione senza per questo essere "meno reali" o "meno conoscibili".

Ciò che accade in questa zona grigia è particolarmente insidioso proprio perché non è una sostituzione violenta del giudizio umano con quello algoritmico. È una progressiva perdita di fiducia nelle proprie capacità valutative. Quando ti trovi sistematicamente di fronte a decisioni in cui il tuo giudizio dice una cosa e lo score numerico ne dice un'altra, e quando quello score viene presentato con l'autorità della "scienza dei dati" e dell' "intelligenza artificiale", la tendenza naturale è iniziare a dubitare di te stesso. Forse il sistema vede qualcosa che tu non vedi. Forse i tuoi criteri sono obsoleti. Forse la tua intuizione, per quanto affinata da anni di esperienza, è meno affidabile di un pattern statistico estratto da migliaia di casi. E così, gradualmente, smetti di ascoltare quella voce interiore che ti dice "questo candidato è giusto, nonostante lo score basso". Smetti di fidarti della tua capacità di giudizio. E in quel momento, qualcosa di essenzialmente umano — la responsabilità personale della decisione, l'assunzione del rischio dell'errore, la fiducia nell'esperienza incarnata — comincia a erodersi.


L'illusione della comprensione: quando la fluidità maschera la superficialità

C'è un terzo aspetto di questa trasformazione che merita attenzione particolare, perché tocca il cuore stesso di cosa significhi "comprendere" qualcosa. Immagina uno studente universitario che usa ChatGPT per studiare. Chiede riassunti di capitoli complessi, spiegazioni semplificate di concetti difficili, risoluzioni passo-passo di esercizi. L'output è sempre fluido, ben strutturato, apparentemente comprensibile. Lo studente legge, annuisce, sente di aver capito. Nei test scritti, dove può consultare appunti e materiali, ottiene voti discreti. Ma poi arriva l'esame orale. Il professore gli chiede di spiegare un concetto, non in astratto, ma applicato a un caso specifico che non ha mai visto prima. E lì, improvvisamente, la comprensione apparente si rivela per quello che è: una familiarità superficiale con la forma linguistica del concetto, senza una reale padronanza della sua sostanza.

Cosa è successo? Lo studente ha confuso due cose profondamente diverse: la riproduzione linguistica e la comprensione procedurale. Ha memorizzato come il concetto suona quando viene spiegato bene, ma non ha interiorizzato come funziona il concetto, come si applica, quali sono i suoi limiti, in che modo si connette ad altri concetti. Questa distinzione non è banale. La filosofia della mente e le scienze cognitive hanno mostrato che la comprensione autentica non è mai solo verbale. È sempre, almeno in parte, procedurale: sapere come usare un'idea, come manipolarla, come applicarla a situazioni nuove. Ludwig Wittgenstein, in un passaggio famoso delle Ricerche Filosofiche, scriveva: "Comprendere è sapere come andare avanti." Non è possedere una definizione. È sapere cosa fare con quella definizione in contesti diversi, anche imprevisti.

I sistemi di intelligenza artificiale come i Large Language Models sono straordinariamente bravi a generare testo fluido, coerente, che suona come se provenisse da qualcuno che comprende profondamente l'argomento. E questa fluidità può essere ingannevole, perché ci porta a credere che, se un testo è ben scritto, chiaro, privo di contraddizioni evidenti, allora deve essere anche corretto, accurato, frutto di comprensione genuina. Ma non è così. Un testo può essere sintatticamente perfetto e semanticamente superficiale. Può usare tutti i termini tecnici giusti senza davvero padroneggiare i concetti che quei termini dovrebbero designare. E quando noi, come utenti, ci affidiamo sistematicamente a questi output senza attraversare personalmente la fatica dell'elaborazione — senza lottare con l'incomprensione, senza riorganizzare attivamente le informazioni, senza confrontarci con l'errore e la correzione — rischiamo di sviluppare una comprensione dello stesso tipo: fluida in superficie, fragile in profondità.

C'è una ragione psicologica profonda per cui questo accade. L'apprendimento vero, quello che produce padronanza duratura, richiede quello che i ricercatori chiamano "difficoltà desiderabile" — una certa dose di fatica cognitiva, di confusione iniziale, di necessità di riorganizzare attivamente ciò che si sta cercando di capire. Quando l'informazione ci viene presentata in forma già perfettamente organizzata, già completamente chiara, già pronta per il consumo, quella fatica viene eliminata. E con essa, paradossalmente, viene eliminata anche l'opportunità di apprendere davvero. Riceviamo la forma senza attraversare il processo che ci permetterebbe di padroneggiarla. È come guardare qualcuno suonare il piano in modo magistrale e credere, per questo, di aver imparato a suonare. La familiarità con il risultato non equivale alla padronanza del processo.

E c'è un altro elemento, ancora più sottile, che riguarda la natura stessa della memoria e della conoscenza. Quando generiamo attivamente una risposta — quando scriviamo un testo con le nostre parole, quando risolviamo un problema attraverso i nostri passi, quando costruiamo una spiegazione partendo da ciò che già sappiamo — quel processo di generazione lascia tracce profonde nella memoria. Non solo ricordiamo il contenuto; ricordiamo il percorso che ci ha portato a quel contenuto, gli ostacoli che abbiamo incontrato, le intuizioni che hanno reso possibile la soluzione. Quando invece riceviamo passivamente una risposta già formulata da un sistema esterno, quella ricchezza di connessioni non si forma. Memorizziamo il prodotto finale, ma senza tutta la rete di relazioni, di contesti, di procedure che renderebbero quella conoscenza davvero utilizzabile in situazioni nuove.


L'AI come specchio delle nostre contraddizioni nascoste

Ma c'è anche un lato diverso, meno problematico e forse persino prezioso, di questa interazione con l'intelligenza artificiale. Ed è il modo in cui questi sistemi, proprio richiedendo esplicitazione continua, finiscono per rivelare aspetti del nostro pensiero che normalmente restano invisibili. Quando chiedi a ChatGPT di "dare una risposta etica" su una questione complessa — licenziare qualcuno per incompetenza, dire una verità dolorosa o una bugia pietosa, privilegiare efficienza o trasparenza in una situazione critica — ti accorgi molto rapidamente di quanto sia difficile tradurre i tuoi valori morali in criteri operativi chiari. Cosa significa esattamente "etico" in quel contesto specifico? Su quali principi stai basando il giudizio? E se ci sono principi in conflitto — per esempio, rispetto dell'autonomia individuale vs protezione dal danno — come decidi quale prevale?

L'intelligenza artificiale, per funzionare, richiede istruzioni esplicite. E nel tentativo di fornire queste istruzioni, scopri spesso qualcosa di scomodo: che i tuoi valori non sono così chiari e coerenti come pensavi. Che le tue preferenze variano enormemente a seconda del contesto. Che molte delle tue convinzioni etiche sono intuizioni non esaminate, ereditate culturalmente, mai davvero messe alla prova della formulazione rigorosa. E questa non è necessariamente una debolezza. È, in un certo senso, la condizione normale del pensiero umano. Come hanno mostrato gli studi di Daniel Kahneman e Amos Tversky sui bias cognitivi, gran parte del ragionamento umano opera attraverso euristiche — scorciatoie mentali che funzionano straordinariamente bene in contesti familiari ma che possono produrre errori sistematici in situazioni complesse o controintuitive. Non pensiamo sempre attraverso logica formale esplicita. Pensiamo attraverso analogie, pattern riconosciuti, intuizioni embodied, assunzioni tacite che ci sembrano ovvie finché qualcosa non ci costringe a renderle esplicite.

E l'intelligenza artificiale, in un certo senso, sta facendo proprio questo: ci sta costringendo a esplicitare. Non perché abbia un'agenda pedagogica, ma semplicemente perché non può operare sull'implicito. E in questo processo di esplicitazione forzata, emergono contraddizioni che normalmente riusciamo a ignorare. Ti accorgi che applichi standard diversi a situazioni simili. Che i tuoi giudizi etici sono profondamente influenzati da come le domande sono formulate. Che ciò che chiami "principio" è spesso una preferenza contestuale che non hai mai davvero esaminato. E questa scoperta può essere preziosa, se la accogliamo non come un difetto da correggere, ma come un'opportunità per comprendere meglio noi stessi. L'AI, in questo senso, funziona come uno specchio cognitivo — non perché ci dica chi siamo, ma perché ci obbliga a guardare con più attenzione come effettivamente pensiamo, decidiamo, valutiamo.

C'è però un rischio in questo processo di esplicitazione, e vale la pena nominarlo. Il rischio è credere che ciò che non può essere esplicitato non esista, o sia meno valido. Che l'intuizione morale che non riesci a tradurre in regola formale sia "solo soggettiva", e quindi meno legittima di un algoritmo che produce un punteggio numerico basato su criteri espliciti. Ma questa sarebbe una conclusione profondamente sbagliata. Perché ci sono forme di conoscenza — quella che il filosofo Michael Polanyi chiamava "tacit knowledge", conoscenza tacita — che resistono per loro natura alla completa formalizzazione. Il medico esperto che "sente" che qualcosa non va in un paziente, anche se tutti i test sono nella norma. L'insegnante che intuisce quale studente ha bisogno di un approccio diverso, senza poter spiegare esattamente come lo sa. Il leader che percepisce la tensione in una riunione e interviene prima che esploda, non seguendo un protocollo ma rispondendo a segnali sottili che ha imparato a leggere in anni di pratica. Queste forme di sapere non sono "meno reali" perché non possono essere facilmente tradotte in algoritmi. Sono semplicemente di natura diversa. E una cultura che valorizza solo ciò che può essere esplicitato, misurato, algoritmizzato, rischia di perdere accesso a dimensioni fondamentali dell'esperienza e della conoscenza umana.


Il prompt come pratica filosofica quotidiana

C'è però un fenomeno curioso che emerge dall'uso prolungato di sistemi di intelligenza artificiale, e che forse merita di essere riletto in una chiave meno negativa. Molte persone che imparano a scrivere prompt efficaci per ChatGPT o altri modelli linguistici scoprono qualcosa di inaspettato: diventano più chiari anche nel pensiero generale, al di fuori dell'interazione con l'AI. Perché succede? Perché scrivere un buon prompt richiede precisione concettuale. Devi sapere con esattezza cosa vuoi ottenere. Devi essere in grado di specificare il contesto, il tono, il pubblico, i vincoli. Devi distinguere tra ciò che vuoi e ciò che non vuoi. E tutto questo — questa necessità di esplicitare l'implicito, di articolare chiaramente intenzioni che normalmente restano vaghe — è, di fatto, un esercizio continuo di chiarificazione del pensiero.

È interessante notare come questo processo assomigli, in modo sorprendente, a pratiche filosofiche molto antiche. La maieutica socratica, il metodo attraverso cui Socrate aiutava i suoi interlocutori a "partorire" le loro idee, funzionava esattamente così: ponendo domande sempre più precise, sempre più difficili da evitare, costringeva le persone a esaminare assunzioni che davano per scontate, a rendere esplicito ciò che era implicito, a vedere contraddizioni che normalmente riuscivano a ignorare. E in un certo senso, l'AI fa qualcosa di simile. Non perché sia intelligente nel senso umano, ma proprio perché non lo è. Proprio perché non può "capire cosa intendi" quando sei vago, ti costringe a essere preciso. Proprio perché non può riempire i vuoti con intuizioni contestuali, ti obbliga a esplicitare il contesto.

E c'è qualcosa di paradossalmente formativo in questo. Molte persone scoprono che il vero valore di scrivere un prompt ben strutturato non è tanto l'output che ottengono dall'AI, quanto la chiarezza mentale che hanno dovuto sviluppare per formulare il prompt. È come se il processo stesso di cercare di comunicare con un sistema che non condivide il tuo background culturale, le tue assunzioni implicite, il tuo senso comune, ti costringesse a diventare più consapevole di ciò che davvero stai cercando. E questa consapevolezza, una volta sviluppata, rimane. Ti accorgi di porre domande più precise anche alle persone. Di essere più chiaro nelle email, nelle presentazioni, nelle conversazioni difficili. Non perché sei diventato "più razionale" in qualche senso riduttivo, ma perché hai sviluppato un'abitudine mentale alla precisione che prima forse non avevi.

Questo non risolve i problemi che abbiamo esplorato finora — l'erosione della competenza generativa, la perdita di fiducia nel giudizio qualitativo, l'illusione della comprensione superficiale. Ma suggerisce che la relazione con l'intelligenza artificiale non è necessariamente a somma zero. Non è solo una questione di ciò che perdiamo. C'è anche, potenzialmente, qualcosa che possiamo guadagnare: una maggiore consapevolezza riflessiva, una capacità più affinata di esplicitare le nostre intenzioni, una sensibilità più acuta alle ambiguità e alle contraddizioni del nostro stesso pensiero. Il punto, come sempre, non è la tecnologia in sé. È come scegliamo di usarla. E soprattutto, è se riusciamo a mantenerla come strumento di amplificazione della nostra intelligenza, piuttosto che lasciarla diventare un sostituto che progressivamente ci rende dipendenti e meno capaci di pensare autonomamente.


Cosa significa preservare il pensiero nell'era dell'automazione

Arriviamo quindi alla domanda centrale: come si fa a usare l'intelligenza artificiale senza perdere, nel processo, ciò che è essenzialmente umano nel nostro modo di pensare, creare, decidere? Non c'è una risposta semplice, e sarebbe disonesto pretendere di averne una. Ma ci sono alcune direzioni, alcune pratiche, alcuni principi che forse possono aiutarci a navigare questa trasformazione senza soccombere completamente alla tentazione della delega totale.

La prima cosa da riconoscere è che non tutto ciò che può essere delegato deve essere delegato. C'è una differenza fondamentale tra funzione esecutiva e funzione riflessiva. L'intelligenza artificiale può essere straordinariamente utile per compiti esecutivi: formattare documenti, analizzare grandi quantità di dati, generare varianti creative da valutare, tradurre linguaggi, riassumere informazioni. Tutte attività dove la velocità e l'efficienza computazionale portano valore reale senza necessariamente compromettere qualcosa di essenziale. Ma la funzione riflessiva — definire gli obiettivi, valutare le implicazioni etiche, assumere la responsabilità delle decisioni, integrare considerazioni che non sono facilmente formalizzabili — questa richiede qualcosa che l'AI non possiede: consapevolezza, intenzionalità, responsabilità morale incarnata. E quando deleghiamo anche questa dimensione, non stiamo solo perdendo efficienza o rischiando errori. Stiamo abdicando a ciò che ci rende agenti morali, soggetti responsabili, persone capaci di rispondere delle proprie scelte.

Un secondo principio riguarda l'importanza di mantenere vivo il processo generativo, anche quando sarebbe più comodo delegarlo. Questo significa, concretamente, resistere alla tentazione di chiedere all'AI di scrivere qualcosa al posto tuo. Scrivi tu una prima bozza, anche se imperfetta, anche se grezza. Poi, se vuoi, usa l'AI per migliorarla, raffinarla, renderla più chiara. Ma non saltare il passaggio della generazione autonoma. Perché è in quel passaggio — nella fatica di trovare le parole giuste, di organizzare i pensieri, di confrontarti con la tua stessa confusione — che avviene l'elaborazione profonda. È lì che impari davvero cosa vuoi dire. Se deleghi completamente quella fase, ottieni un testo migliore più velocemente, ma perdi l'opportunità di pensare attraverso la scrittura. E nel lungo periodo, questa perdita si accumula. Diventi progressivamente meno capace di generare autonomamente, perché il "muscolo" della generazione si atrofizza per mancanza di esercizio.

Un terzo aspetto riguarda la verifica critica. Mai, mai fidarsi ciecamente dell'output di un sistema di AI, per quanto sofisticato. I Large Language Models possono produrre testo estremamente fluido che contiene errori fattuali, semplificazioni eccessive, bias nascosti, o persino invenzioni complete presentate con sicurezza sintattica. E la fluidità dell'output rende questi problemi particolarmente insidiosi, perché tutto suona autorevole, tutto sembra corretto. Ma la plausibilità non è verità. Quindi verifica sempre. Controlla le fonti, confronta con altre fonti indipendenti, interroga le affermazioni che ti sembrano sospette. Non per diffidenza tecnologica fine a se stessa, ma per responsabilità epistemica. Se usi l'AI per scrivere qualcosa che poi firmi, sei tu il responsabile di ciò che quel testo afferma. Non puoi nasconderti dietro "l'ha detto l'AI". E quindi devi essere in grado di garantire, personalmente, l'accuratezza e l'onestà intellettuale di ciò che produci.

E c'è un quarto elemento, forse il più difficile da praticare in una cultura ossessionata dalla velocità: l'importanza di preservare spazi di lentezza deliberata. Non tutto deve essere fatto alla velocità massima possibile. Ci sono decisioni — quelle con conseguenze irreversibili, quelle che toccano la vita delle persone, quelle che implicano dilemmi etici complessi — che devono essere lente. Devono passare attraverso la riflessione, il dubbio, la consultazione con altri, l'elaborazione emotiva, la sospensione del giudizio. E quando usi l'AI per queste decisioni, il rischio non è tanto che l'AI sbagli (può sbagliare, certo), ma che la velocità della risposta ti impedisca di attraversare quel processo riflessivo che è parte essenziale del decidere bene. Un consiglio pratico: prima di accettare una decisione importante suggerita dall'AI, imponiti una pausa di 24-48 ore. Lascia sedimentare. Dormi sopra. Parlane con qualcuno. E solo dopo, se la decisione ti sembra ancora giusta, procedi. Questa lentezza non è inefficienza. È saggezza pratica.


L'abitudine come architettura del futuro

Ma forse il punto più profondo, quello che unifica tutte queste riflessioni, riguarda la natura stessa dell'abitudine e della formazione cognitiva. Ogni volta che usi l'intelligenza artificiale in un certo modo — ogni volta che deleghi una funzione, ogni volta che ti fidi di un output senza verificarlo, ogni volta che scegli la velocità invece della riflessione — stai compiendo un gesto apparentemente banale. Ma quel gesto, ripetuto centinaia o migliaia di volte, diventa un'abitudine. E le abitudini non sono neutre. Plasmano il modo in cui pensi, il modo in cui ti approcci ai problemi, il tipo di soluzioni che sei in grado di immaginare. Le abitudini cognitive, nel tempo, diventano strutture mentali. E le strutture mentali determinano il tipo di problemi che sei ancora capace di affrontare autonomamente.

Non è l'algoritmo che ti sostituisce. È l'abitudine alla scorciatoia. È la ripetizione sistematica di gesti di delega che, accumulandosi, modificano la tua architettura cognitiva. E la cosa insidiosa è che questo processo è invisibile mentre accade. Non ti accorgi di stare perdendo una capacità finché non ti serve davvero, e scopri che non c'è più. È come quando smetti di usare la memoria per i numeri di telefono perché sono tutti salvati. All'inizio non sembra importante. Ma poi un giorno il telefono si rompe, e ti accorgi che non ricordi più nessun numero, nemmeno quelli che una volta sapevi a memoria. E capire che hai esternalizzato una funzione mentale che ora, semplicemente, non possiedi più.

La domanda quindi non è se l'intelligenza artificiale sia "buona" o "cattiva". È una domanda mal posta, che presuppone che la tecnologia abbia una natura morale intrinseca. Non ce l'ha. È uno strumento straordinariamente potente che può amplificare le nostre capacità o atrofizzarle, a seconda di come lo usiamo. La vera domanda è: quali competenze vogliamo preservare? Quali capacità vogliamo continuare a esercitare, anche quando esiste un'alternativa più veloce e apparentemente più efficiente? Cosa vogliamo che resti nostro, anche nell'era dell'automazione?

E questa domanda non ha una risposta universale. Dipende dai tuoi valori, dai tuoi obiettivi, dal tipo di lavoro che fai, dal tipo di persona che vuoi essere. Ma deve essere una scelta consapevole. Non può essere un effetto collaterale passivo dell'adozione tecnologica. Perché ciò che non esercitiamo, nel tempo, si atrofizza. E ciò che deleghiamo sistematicamente, progressivamente, non sappiamo più fare. E quando quella capacità perduta è qualcosa di fondamentale — la capacità di pensare autonomamente, di giudicare con la propria esperienza, di creare dal nulla, di assumere responsabilità per le proprie decisioni — allora ciò che abbiamo perso non è solo una skill tecnica. È qualcosa di più profondo. È una parte di ciò che significa essere umani, nel senso pieno e ricco del termine.


Verso una coscienza dell'uso

L'intelligenza artificiale non ci sta osservando. Non ha intenzioni. Non vuole sostituirci né salvarci. È uno specchio computazionale straordinariamente sofisticato che riflette, amplifica, e a volte rivela aspetti del nostro pensiero che normalmente restano nascosti. E da questo specchio possiamo imparare qualcosa di essenziale — non su cosa l'AI può fare, ma su chi siamo noi quando scegliamo di usarla in un modo piuttosto che in un altro.

Forse il vero allineamento che serve non è quello dell'AI ai valori umani, ma quello degli esseri umani alla consapevolezza di quali parti di sé vogliono preservare, allenare, trasmettere — anche e soprattutto quando la tecnologia offre scorciatoie apparentemente migliori. Perché nel lungo periodo, ciò che definisce una cultura, una professione, una persona, non è solo cosa sa fare, ma cosa sceglie di continuare a fare, nonostante potrebbe delegare.

E questa scelta — questa coscienza dell'uso — è forse la competenza più importante che possiamo sviluppare nell'era dell'automazione cognitiva. Non è una competenza tecnica. È una forma di saggezza pratica, di lucidità riflessiva, di capacità di guardare con occhio critico i propri gesti quotidiani e chiedersi: dove sto andando? Cosa sto diventando, attraverso questa serie infinita di piccole deleghe? E soprattutto: è davvero lì che voglio andare?

Perché alla fine, l'abitudine diventa destino. E il destino che ci aspetta non è scritto negli algoritmi. È scritto in ciò che scegliamo di fare, ogni giorno, ogni volta che apriamo ChatGPT e decidiamo cosa delegare e cosa preservare.


Nota finale

Le riflessioni contenute in questo articolo nascono dall'osservazione fenomenologica, dall'analisi filosofica e psicologica, e dal tentativo di comprendere trasformazioni cognitive ancora in corso. Non rappresentano verità definitive né sostituiscono l'elaborazione personale che ognuno deve fare rispetto al proprio rapporto con la tecnologia. L'intento è aprire spazi di pensiero critico, non chiuderli con prescrizioni.

Riferimenti e approfondimenti

Le riflessioni sviluppate in questo articolo si nutrono di diversi filoni di pensiero:

Fenomenologia dell'expertise e dell'embodied cognition:

Filosofia del linguaggio e della mente:

Psicologia cognitiva e bias:

Filosofia della tecnologia:

Se queste riflessioni ti hanno fatto pensare, condividile.

L'intelligenza artificiale sta trasformando il modo in cui lavoriamo e pensiamo. Ma quella trasformazione non è inevitabile. È il risultato di scelte quotidiane che facciamo, spesso senza consapevolezza. Forse è tempo di iniziare a scegliere con più attenzione.

Tag: Automazione Cognitiva Pensiero Critico Competenza Intelligenza Artificiale Filosofia della Mente Wittgenstein Dreyfus Embodied Cognition Etica Digitale Expertise Fenomenologia ChatGPT Large Language Models Delega Algoritmica Futuro del Lavoro