Riflessioni sull'erosione silenziosa della competenza nell'era dell'intelligenza artificiale

rofessionista che analizza dati generati dall'intelligenza artificiale in ufficio.
Nota editoriale Questo articolo propone una riflessione critica sull'interazione tra esseri umani e sistemi di intelligenza artificiale, basata su osservazione fenomenologica, framework filosofici e psicologici, e analisi delle trasformazioni cognitive emergenti. Non costituisce consulenza psicologica, medica o professionale. L'obiettivo è stimolare pensiero critico e dialogo costruttivo su fenomeni in rapida evoluzione.

C'è un momento, lavorando con l'intelligenza artificiale, in cui ti accorgi di aver perso qualcosa. Non è drammatico. Non è improvviso. È sottile, quasi impercettibile — come quando realizzi che non ricordi più un numero di telefono che componevi a memoria ogni giorno, perché ora è salvato nel telefono. Solo che stavolta non si tratta di un numero. Si tratta del modo in cui pensi.

Stai usando ChatGPT da mesi, forse da più di un anno. Ti ha aiutato a scrivere email complicate, a riorganizzare presentazioni, a trovare idee quando eri bloccato davanti a una pagina bianca. Funziona. Funziona straordinariamente bene. La produttività è aumentata. Il tempo risparmiato è reale. Poi un giorno qualcuno — un cliente, un collega, un revisore — ti chiede una cosa semplice: "Ma perché hai scelto questo approccio invece di quell'altro?" E in quell'istante realizzi qualcosa di inquietante: non lo sai. Non hai scelto, nel senso pieno del termine. Hai selezionato. Tra le opzioni che l'algoritmo ti ha generato, hai preso quella che ti sembrava migliore, quella che "suonava bene". Ma se dovessi spiegare i criteri della tua preferenza, non sapresti articolarli con precisione.

La differenza tra scegliere e selezionare sembra minima, quasi semantica. Ma non lo è. Scegliere significa possedere criteri espliciti, avere una teoria — anche implicita — di cosa funziona e perché, sapere cosa vuoi ottenere e come arrivarci. Selezionare significa affidarsi a un giudizio estetico immediato senza necessariamente comprendere le ragioni profonde di quella preferenza. Il primo è un atto di padronanza cognitiva. Il secondo è un atto di delega mascherata da controllo. E questo lentissimo, quasi impercettibile scivolamento dalla scelta alla selezione è forse uno dei cambiamenti più profondi e meno discussi che l'intelligenza artificiale sta producendo nel nostro modo di lavorare, di pensare, di essere professionisti.

L'architettura nascosta della delega

Quando parliamo di intelligenza artificiale, tendiamo a concentrarci sui risultati visibili: la velocità, l'efficienza, la capacità di produrre contenuti apparentemente sofisticati in pochi secondi. Ma c'è un livello più profondo, meno evidente, che riguarda la struttura stessa del nostro rapporto con il sapere e la competenza. Ogni volta che deleghiamo a un sistema algoritmico una funzione cognitiva — scrivere un testo, analizzare dati, generare soluzioni creative — non stiamo semplicemente esternalizzando un compito. Stiamo ridisegnando l'architettura del nostro processo mentale. Stiamo modificando cosa significa "sapere fare qualcosa".

Prendiamo un esempio concreto. Un designer grafico con quindici anni di esperienza inizia a usare strumenti di generazione visiva basati su AI. Prima, il suo processo creativo era iterativo e manuale: schizzi, prove di palette cromatiche, raffinamenti progressivi attraverso tentativi ed errori. Ogni scelta — il blu invece del verde, quella tipografia invece di un'altra — era il risultato di un dialogo interno tra intuizione estetica e razionalizzazione critica. Ora scrive un prompt, genera cinquanta varianti in pochi minuti, seleziona quella che "funziona meglio". La produttività è aumentata di un fattore dieci. Ma quando durante una revisione gli viene chiesto "perché questo blu invece di quell'altro?", la risposta non c'è più. Non c'è stata una scelta cromatica consapevole. C'è stata una selezione tra alternative già generate.

Questo non è un problema di competenza tecnica. Il designer resta un professionista esperto. Ma la natura stessa della sua expertise si sta trasformando: da una competenza generativa — la capacità di creare soluzioni ex novo attraverso un processo padroneggiato — a una competenza discriminatoria — la capacità di riconoscere la soluzione migliore tra quelle proposte da un sistema esterno. E questa trasformazione non è neutra. La competenza generativa richiede una comprensione profonda del processo: sapere non solo cosa funziona, ma perché funziona, come si arriva a quel risultato, quali sono le alternative e i trade-off impliciti in ogni scelta. La competenza discriminatoria, invece, può funzionare anche senza questa comprensione profonda.

Come un muscolo che non viene più usato, la capacità di creare autonomamente può indebolirsi gradualmente se viene sistematicamente delegata. E quando questo accade, non te ne accorgi immediatamente.

Adytum AI — Etica & Policy

Il filosofo Hubert Dreyfus, nei suoi studi sull'intelligenza artificiale e la fenomenologia dell'expertise, ha mostrato che la vera competenza non consiste nell'applicazione consapevole di regole esplicite, ma in una forma di "intuizione incarnata" — un sapere che emerge dall'esperienza corporea, dalla pratica ripetuta, da un'immersione totale nel dominio di attività. L'esperto vero non calcola la soluzione migliore applicando un algoritmo mentale. La vede, la sente, la riconosce immediatamente perché il suo corpo, la sua mente, il suo sguardo sono stati plasmati da anni di pratica. Ma questa forma di sapere richiede esercizio continuo — attraversare ripetutamente il processo, fare errori, correggersi, sviluppare quella sensibilità fine che distingue il maestro dal principiante. Cosa succede quando quel processo viene sempre più delegato a un sistema esterno? Cosa succede quando non generi più soluzioni, ma le selezioni da un catalogo algoritmico?

Il paradosso della zona grigia: quando il giudizio incontra lo score numerico

C'è un secondo fenomeno, forse ancora più sottile, che emerge nell'interazione sistematica con sistemi di AI: la progressiva erosione della fiducia nel proprio giudizio professionale. Immagina una responsabile delle risorse umane che ha implementato un sistema di AI per lo screening automatizzato dei curriculum. Il sistema assegna a ogni candidato uno score da 0 a 100. Un candidato viene automaticamente scartato — score: 42/100, motivazione: mancanza di keyword nella sezione competenze. La responsabile dà un'occhiata al profilo prima di archiviarlo. Esperienza rilevante. Competenze solide. Referenze eccellenti. Tutto quello che cercava.

In quel momento si apre una frattura che rivela qualcosa di profondo sul nostro rapporto con l'automazione decisionale. Da un lato, c'è il giudizio umano: qualitativo, contestuale, capace di leggere tra le righe, di cogliere potenziale oltre i descrittori formali, di integrare informazioni difficilmente formalizzabili. Dall'altro lato, c'è lo score algoritmico: quantitativo, apparentemente oggettivo, ridotto a un numero che pretende di sintetizzare l'intera complessità di una persona. E la domanda che emerge è disarmante: di chi ti fidi? Se ti fidi del tuo giudizio e sovrascrivi il sistema, perché l'hai implementato? Se ti fidi del sistema e scarti il candidato nonostante il tuo giudizio positivo, a cosa serve la tua expertise?

Tensione epistemologica

Questa non è una questione tecnica che si risolve migliorando l'algoritmo. Il numero — quel "42/100" — acquisisce un'autorità epistemica indebita: viene percepito come "oggettivo" semplicemente perché è quantitativo, anche quando si basa su criteri arbitrari o inadeguati al contesto. E questa percezione tende progressivamente a erodere la fiducia nel giudizio qualitativo umano, riletto come "soggettivo" e quindi meno affidabile. Ma l'oggettività non è una proprietà del formalismo matematico — è una proprietà dell'adeguatezza del metodo al fenomeno che si vuole comprendere.

Ciò che accade in questa zona grigia è particolarmente insidioso proprio perché non è una sostituzione violenta del giudizio umano con quello algoritmico. È una progressiva perdita di fiducia nelle proprie capacità valutative. Quando ti trovi sistematicamente di fronte a decisioni in cui il tuo giudizio dice una cosa e lo score numerico ne dice un'altra, la tendenza naturale è iniziare a dubitare di te stesso. E così, gradualmente, smetti di ascoltare quella voce interiore che ti dice "questo candidato è giusto, nonostante lo score basso". Smetti di fidarti della tua capacità di giudizio. E in quel momento, qualcosa di essenzialmente umano — la responsabilità personale della decisione, l'assunzione del rischio dell'errore, la fiducia nell'esperienza incarnata — comincia a erodersi.

L'illusione della comprensione: quando la fluidità maschera la superficialità

C'è un terzo aspetto di questa trasformazione che tocca il cuore stesso di cosa significhi comprendere qualcosa. Uno studente universitario usa ChatGPT per studiare: riassunti di capitoli complessi, spiegazioni semplificate di concetti difficili, risoluzioni passo-passo di esercizi. L'output è sempre fluido, ben strutturato, apparentemente comprensibile. Lo studente legge, annuisce, sente di aver capito. Poi arriva l'esame orale. Il professore chiede di spiegare un concetto applicato a un caso specifico mai visto prima. E lì, improvvisamente, la comprensione apparente si rivela per quello che è: familiarità superficiale con la forma linguistica del concetto, senza una reale padronanza della sua sostanza.

Lo studente ha confuso due cose profondamente diverse: la riproduzione linguistica e la comprensione procedurale. Ha memorizzato come il concetto suona quando viene spiegato bene, ma non ha interiorizzato come il concetto funziona, come si applica, quali sono i suoi limiti. Wittgenstein, in un passaggio famoso delle Ricerche Filosofiche, scriveva: "Comprendere è sapere come andare avanti." Non è possedere una definizione. È sapere cosa fare con quella definizione in contesti diversi, anche imprevisti. I Large Language Models sono straordinariamente bravi a generare testo fluido che suona come comprensione profonda — e questa fluidità è ingannevole, perché ci porta a credere che un testo ben scritto e privo di contraddizioni evidenti debba essere anche corretto e frutto di comprensione genuina. Non è così.

Difficoltà desiderabile

L'apprendimento vero richiede quello che i ricercatori chiamano "difficoltà desiderabile": una certa dose di fatica cognitiva, di confusione iniziale, di necessità di riorganizzare attivamente ciò che si cerca di capire. Quando l'informazione viene presentata già perfettamente organizzata e pronta per il consumo, quella fatica viene eliminata. Con essa, paradossalmente, viene eliminata anche l'opportunità di apprendere davvero. È come guardare qualcuno suonare il piano in modo magistrale e credere, per questo, di aver imparato a suonare.

C'è poi un elemento ancora più sottile, che riguarda la natura della memoria e della conoscenza. Quando generiamo attivamente una risposta — quando scriviamo un testo con le nostre parole, quando costruiamo una spiegazione partendo da ciò che già sappiamo — quel processo lascia tracce profonde. Non solo ricordiamo il contenuto: ricordiamo il percorso che ci ha portato a quel contenuto, gli ostacoli incontrati, le intuizioni che hanno reso possibile la soluzione. Quando invece riceviamo passivamente una risposta già formulata da un sistema esterno, quella rete di connessioni non si forma. Memorizziamo il prodotto finale, ma senza tutta la struttura di relazioni e procedure che renderebbero quella conoscenza davvero utilizzabile in situazioni nuove.

L'AI come specchio delle nostre contraddizioni nascoste

Ma c'è anche un lato diverso, meno problematico e forse persino prezioso, di questa interazione. Quando chiedi a ChatGPT di "dare una risposta etica" su una questione complessa — licenziare qualcuno per incompetenza, dire una verità dolorosa o una bugia pietosa, privilegiare efficienza o trasparenza — ti accorgi molto rapidamente di quanto sia difficile tradurre i propri valori morali in criteri operativi chiari. Cosa significa esattamente "etico" in quel contesto specifico? E se ci sono principi in conflitto — rispetto dell'autonomia individuale versus protezione dal danno — come decidi quale prevale?

L'intelligenza artificiale, per funzionare, richiede istruzioni esplicite. E nel tentativo di formularle, scopri spesso qualcosa di scomodo: che i tuoi valori non sono così chiari e coerenti come pensavi. Come hanno mostrato gli studi di Kahneman e Tversky sui bias cognitivi, gran parte del ragionamento umano opera attraverso euristiche — scorciatoie mentali che funzionano bene in contesti familiari ma producono errori sistematici in situazioni complesse. Non pensiamo sempre attraverso logica formale esplicita. Pensiamo attraverso analogie, pattern riconosciuti, assunzioni tacite che ci sembrano ovvie finché qualcosa non ci costringe a renderle esplicite. E l'AI, proprio perché non può operare sull'implicito, ci costringe sistematicamente a questa esplicitazione.

C'è però un rischio preciso in questo processo. Il rischio è credere che ciò che non può essere esplicitato non esista, o sia meno valido. Quello che Michael Polanyi chiamava tacit knowledge — la conoscenza tacita — resiste per sua natura alla completa formalizzazione. Il medico esperto che "sente" che qualcosa non va in un paziente anche se tutti i test sono nella norma. L'insegnante che intuisce quale studente ha bisogno di un approccio diverso senza poterlo spiegare esattamente. Il leader che percepisce la tensione in una riunione e interviene prima che esploda. Queste forme di sapere non sono "meno reali" perché non possono essere tradotte in algoritmi. Sono semplicemente di natura diversa. E una cultura che valorizza solo ciò che può essere esplicitato, misurato, algoritmizzato, rischia di perdere accesso a dimensioni fondamentali dell'esperienza umana.

L'AI non ci sta osservando. Non ha intenzioni. È uno specchio computazionale che riflette, amplifica, e a volte rivela aspetti del nostro pensiero che normalmente restano nascosti.

Adytum AI — Etica & Policy

Il prompt come pratica filosofica quotidiana

C'è però un fenomeno curioso che emerge dall'uso prolungato di sistemi di AI, e che merita di essere riletto in chiave meno negativa. Molte persone che imparano a scrivere prompt efficaci per ChatGPT o altri modelli linguistici scoprono qualcosa di inaspettato: diventano più chiare anche nel pensiero generale, al di fuori dell'interazione con l'AI. Perché? Perché scrivere un buon prompt richiede precisione concettuale. Devi sapere con esattezza cosa vuoi ottenere. Devi essere in grado di specificare il contesto, il tono, il pubblico, i vincoli. Devi distinguere tra ciò che vuoi e ciò che non vuoi. E questo — questa necessità di esplicitare l'implicito, di articolare chiaramente intenzioni che normalmente restano vaghe — è, di fatto, un esercizio continuo di chiarificazione del pensiero.

È interessante notare come questo processo assomigli alla maieutica socratica: ponendo domande sempre più precise, Socrate costringeva i suoi interlocutori a esaminare assunzioni che davano per scontate, a rendere esplicito ciò che era implicito, a vedere contraddizioni che normalmente riuscivano a ignorare. L'AI fa qualcosa di simile — non perché sia intelligente nel senso umano, ma proprio perché non lo è. Proprio perché non può riempire i vuoti con intuizioni contestuali, ti obbliga a esplicitare il contesto. E molte persone scoprono che il vero valore di un prompt ben strutturato non è tanto l'output ottenuto, quanto la chiarezza mentale che hanno dovuto sviluppare per formularlo.

Il paradosso formativo

Questo non risolve i problemi dell'erosione della competenza generativa o dell'illusione di comprensione superficiale. Ma suggerisce che la relazione con l'AI non è necessariamente a somma zero. Non è solo questione di ciò che perdiamo. C'è anche, potenzialmente, qualcosa da guadagnare: una maggiore consapevolezza riflessiva, una capacità più affinata di esplicitare le proprie intenzioni, una sensibilità più acuta alle ambiguità del proprio pensiero.

Cosa significa preservare il pensiero nell'era dell'automazione

Arriviamo alla domanda centrale: come si fa a usare l'intelligenza artificiale senza perdere, nel processo, ciò che è essenzialmente umano nel nostro modo di pensare, creare, decidere? Non c'è una risposta semplice. Ma ci sono alcune direzioni che possono aiutarci a navigare questa trasformazione senza soccombere completamente alla tentazione della delega totale.

La prima cosa da riconoscere è che non tutto ciò che può essere delegato deve essere delegato. C'è una differenza fondamentale tra funzione esecutiva e funzione riflessiva. L'AI può essere straordinariamente utile per compiti esecutivi: formattare documenti, analizzare grandi quantità di dati, generare varianti creative da valutare, tradurre linguaggi, riassumere informazioni. Ma la funzione riflessiva — definire gli obiettivi, valutare le implicazioni etiche, assumere la responsabilità delle decisioni, integrare considerazioni non facilmente formalizzabili — richiede qualcosa che l'AI non possiede: consapevolezza, intenzionalità, responsabilità morale incarnata. Quando deleghiamo anche questa dimensione, non stiamo solo perdendo efficienza. Stiamo abdicando a ciò che ci rende agenti morali.

Un secondo principio riguarda l'importanza di mantenere vivo il processo generativo, anche quando sarebbe più comodo delegarlo. Scrivi tu una prima bozza, anche se imperfetta, anche se grezza. Poi, se vuoi, usa l'AI per migliorarla. Ma non saltare il passaggio della generazione autonoma. Perché è in quel passaggio — nella fatica di trovare le parole giuste, di organizzare i pensieri, di confrontarti con la tua stessa confusione — che avviene l'elaborazione profonda. È lì che impari davvero cosa vuoi dire. Se deleghi completamente quella fase, ottieni un testo migliore più velocemente, ma perdi l'opportunità di pensare attraverso la scrittura.

Un terzo aspetto riguarda la verifica critica sistematica. Mai fidarsi ciecamente dell'output di un sistema di AI, per quanto sofisticato. I Large Language Models possono produrre testo estremamente fluido che contiene errori fattuali, semplificazioni eccessive, bias nascosti, o invenzioni complete presentate con sicurezza sintattica. La plausibilità non è verità. Se usi l'AI per scrivere qualcosa che poi firmi, sei tu il responsabile di ciò che quel testo afferma. Non puoi nasconderti dietro "l'ha detto l'AI".

E c'è un quarto elemento, forse il più difficile da praticare in una cultura ossessionata dalla velocità: preservare spazi di lentezza deliberata. Ci sono decisioni — quelle con conseguenze irreversibili, quelle che toccano la vita delle persone, quelle che implicano dilemmi etici complessi — che devono essere lente. Devono passare attraverso la riflessione, il dubbio, la consultazione. Quando usi l'AI per queste decisioni, il rischio non è tanto che l'AI sbagli, ma che la velocità della risposta ti impedisca di attraversare quel processo riflessivo che è parte essenziale del decidere bene. Questa lentezza non è inefficienza. È saggezza pratica.

L'abitudine come architettura del futuro

Il punto più profondo, quello che unifica tutte queste riflessioni, riguarda la natura stessa dell'abitudine e della formazione cognitiva. Ogni volta che usi l'intelligenza artificiale in un certo modo — ogni volta che deleghi una funzione, ogni volta che ti fidi di un output senza verificarlo, ogni volta che scegli la velocità invece della riflessione — stai compiendo un gesto apparentemente banale. Ma quel gesto, ripetuto centinaia o migliaia di volte, diventa un'abitudine. E le abitudini cognitive, nel tempo, diventano strutture mentali. E le strutture mentali determinano il tipo di problemi che sei ancora capace di affrontare autonomamente.

Non è l'algoritmo che ti sostituisce. È l'abitudine alla scorciatoia. È la ripetizione sistematica di gesti di delega che, accumulandosi, modificano la tua architettura cognitiva. E la cosa insidiosa è che questo processo è invisibile mentre accade. Non te ne accorgi finché non ti serve davvero quella capacità, e scopri che non c'è più. Come quando smetti di usare la memoria per i numeri di telefono perché sono tutti salvati. All'inizio non sembra importante. Ma poi il telefono si rompe, e realizzi che non ricordi più nessun numero — nemmeno quelli che una volta sapevi a memoria.

Forse il vero allineamento che serve non è quello dell'AI ai valori umani, ma quello degli esseri umani alla consapevolezza di quali parti di sé vogliono preservare, allenare, trasmettere.

Adytum AI — Etica & Policy

Verso una coscienza dell'uso

L'intelligenza artificiale non ci sta osservando. Non ha intenzioni. Non vuole sostituirci né salvarci. È uno specchio computazionale straordinariamente sofisticato che riflette, amplifica, e a volte rivela aspetti del nostro pensiero che normalmente restano nascosti. E da questo specchio possiamo imparare qualcosa di essenziale — non su cosa l'AI può fare, ma su chi siamo noi quando scegliamo di usarla in un modo piuttosto che in un altro.

La vera domanda non è se l'intelligenza artificiale sia "buona" o "cattiva" — è una domanda mal posta, che presuppone una natura morale intrinseca alla tecnologia. La vera domanda è: quali competenze vogliamo preservare? Quali capacità vogliamo continuare a esercitare, anche quando esiste un'alternativa più veloce? Cosa vogliamo che resti nostro, anche nell'era dell'automazione? Questa domanda non ha risposta universale. Dipende dai valori, dagli obiettivi, dal tipo di persona che si vuole essere. Ma deve essere una scelta consapevole. Non può essere un effetto collaterale passivo dell'adozione tecnologica.

Perché alla fine, l'abitudine diventa destino. E il destino che ci aspetta non è scritto negli algoritmi. È scritto in ciò che scegliamo di fare, ogni giorno, ogni volta che apriamo ChatGPT e decidiamo cosa delegare e cosa preservare.

Domande frequenti

Qual è la differenza tra scegliere e selezionare nel contesto dell'AI?

Scegliere significa possedere criteri espliciti, avere una teoria di cosa funziona e perché. Selezionare significa affidarsi a un giudizio estetico immediato tra alternative già generate da un sistema esterno, senza necessariamente comprendere le ragioni profonde di quella preferenza. Il primo è padronanza cognitiva. Il secondo è delega mascherata da controllo.

Cos'è la competenza generativa e perché rischia di erodersi con l'AI?

La competenza generativa è la capacità di creare soluzioni ex novo attraverso un processo padroneggiato, sapendo non solo cosa funziona ma perché. Con l'uso sistematico dell'AI tende a trasformarsi in competenza discriminatoria — saper riconoscere la soluzione migliore tra quelle proposte — che può funzionare anche senza comprensione profonda del processo sottostante.

Perché la fluidità dell'output AI può essere ingannevole?

Perché un testo può essere sintatticamente perfetto e semanticamente superficiale. I LLM generano output fluido che suona come comprensione profonda, ma può contenere errori fattuali, semplificazioni o invenzioni presentate con sicurezza sintattica. La plausibilità non è verità.

Cosa si intende per tacit knowledge e perché è rilevante nel rapporto con l'AI?

La conoscenza tacita nel senso di Michael Polanyi è il sapere che resiste per sua natura alla completa formalizzazione: l'intuizione del medico esperto, la sensibilità dell'insegnante, la lettura silenziosa dei segnali da parte del leader. Una cultura che valorizza solo ciò che può essere algoritmizzato rischia di perdere accesso a dimensioni fondamentali dell'esperienza umana.

Come si preserva il pensiero autonomo nell'era dell'automazione cognitiva?

Mantenendo vivo il processo generativo anche quando sarebbe più comodo delegarlo, verificando criticamente ogni output prima di farlo proprio, distinguendo tra funzioni esecutive delegabili e funzioni riflessive che richiedono consapevolezza e responsabilità morale, e preservando spazi deliberati di lentezza per le decisioni con conseguenze irreversibili.

Riferimenti e approfondimenti
Fenomenologia dell'expertise e embodied cognition

Hubert Dreyfus — What Computers Still Can't Do

Maurice Merleau-Ponty — Fenomenologia della percezione

Michael Polanyi — The Tacit Dimension

Filosofia del linguaggio e della mente

Ludwig Wittgenstein — Ricerche Filosofiche

John SearleChinese Room Argument

Gilbert Ryle — The Concept of Mind

Psicologia cognitiva e bias

Daniel Kahneman — Thinking, Fast and Slow

Amos Tversky — Studi su euristiche e bias cognitivi

K. Anders Ericsson — Ricerche su expertise e deliberate practice

Filosofia della tecnologia

Don Ihde — Technology and the Lifeworld

Albert Borgmann — Technology and the Character of Contemporary Life

Langdon Winner — The Whale and the Reactor

Nota metodologica
Le riflessioni contenute in questo articolo nascono dall'osservazione fenomenologica, dall'analisi filosofica e psicologica, e dal tentativo di comprendere trasformazioni cognitive ancora in corso. Non rappresentano verità definitive né sostituiscono l'elaborazione personale che ognuno deve fare rispetto al proprio rapporto con la tecnologia. L'intento è aprire spazi di pensiero critico, non chiuderli con prescrizioni.

Pubblicato su Adytum AI — Blog. Non semplificare per convincere, ma per comprendere.