C’è una versione di questo saggio che ho scritto diciotto mesi fa e sono contento di non aver pubblicato.
Si chiamava Perché un’app di studio nell’era di ChatGPT?, e passava duemila parole a spiegare come l’IA avrebbe trasformato l’educazione, come Fluera sarebbe stata l’app che finalmente rendeva reale il tutoring personalizzato e come in cinque anni nessuno avrebbe più studiato come prima. Era ottimista. Era sicuro. Era anche, retrospettivamente, quasi completamente sbagliato.
Quello che non vedevo, allora, era che il problema non è mai stato che gli studenti non potessero raggiungere l’informazione. Non è mai stato che gli insegnanti non potessero personalizzare. Il problema era — ed è — che gli strumenti moderni rendono incredibilmente facile sentirsi di aver imparato qualcosa quando non è così. E più lo strumento diventa bravo con la sensazione, più peggiora sulla cosa che conta.
Il collo di bottiglia si è spostato
Per gran parte della storia, la domanda che definiva lo studio di qualsiasi cosa era accesso. I libri costavano. Gli insegnanti scarseggiavano. Le biblioteche erano lontane. Una persona istruita era, prima di tutto, qualcuno che era riuscito ad avvicinarsi all’informazione.
Per la mia generazione, la domanda è diventata navigazione. L’informazione era abbondante; trovare il pezzo giusto era il lavoro. Google, Wikipedia, Stack Overflow — un’intera infrastruttura per una sola domanda: dov’è? Essere istruiti nel 2015 voleva dire saper cercare bene.
Nel 2026, nessuna delle due domande ci vincola davvero. Qualsiasi fatto è a tre secondi. Qualsiasi spiegazione si può generare nello stile che preferisci. Il collo di bottiglia si è spostato di nuovo, e — ecco la parte che mi era sfuggita — per la nuova forma l’infrastruttura ancora non l’abbiamo costruita.
Il nuovo collo di bottiglia è: come trasformo ciò che ho appena letto in qualcosa che tengo davvero?
La vecchia scienza cognitiva, in sordina vendicata
Ed ecco la cosa buffa. Le risposte a questa domanda stanno in letteratura da cinquant’anni. La ripetizione spaziata, da Ebbinghaus nel 1885. Retrieval practice, da Roediger e Karpicke nel 2006 [Roediger e Karpicke, 2006] View in bibliography → . Difficoltà desiderabili, da Bjork nel 1994 [Bjork, 1994] View in bibliography → . Concept mapping, da Novak nel 1984 [Novak e Gowin, 1984] View in bibliography → . La neuroscienza della memoria spaziale di O’Keefe e dei Moser, che ha vinto il Nobel nel 2014 [Moser et al., 2005] View in bibliography → .
Questi risultati sono robusti. Le meta-analisi sono coerenti. Gli effect size vanno da moderato a d = 0.88 — molto grande per qualsiasi standard della scienza cognitiva.
Quello che non abbiamo mai avuto — nemmeno una volta, in tutta la storia dell’ed-tech — sono strumenti che rendano la cosa giusta la via più facile. Anki rende possibile la retrieval practice ma al prezzo di un costo di costruzione enorme. Notion rende gli appunti leggibili ma non recuperabili. GoodNotes rende la scrittura a mano bella ma sconnessa da qualsiasi schedule di memoria. Ogni strumento risolve un passo di un ciclo a più passi; nessuno risolve il ciclo.
E ora, sopra quel mosaico, abbiamo gli LLM. Che rendono la cosa sbagliata — il consumo passivo di risposte articolate — sentire come se fosse quella giusta. Tre secondi di fluenza, scambiati per codifica. Automation bias su scala planetaria [Kahneman, 2011] View in bibliography → .
Il Centauro, non il rimpiazzo
La tentazione, nel costruire uno strumento di studio basato sull’IA, è mettere l’IA al centro. Farle generare i tuoi appunti, riassumerti il manuale, spiegarti le domande d’esame. Capisco la tentazione. È il prodotto ovvio. Ed è anche, secondo tutto ciò che dice la scienza, esattamente sbagliato.
Il framing Centauro di Kasparov è quello che funziona davvero. Il giocatore di scacchi più forte del mondo non è Stockfish. Non è nemmeno Carlsen. È Carlsen con Stockfish, in simbiosi strutturata — ognuno fa ciò che sa fare meglio, nessuno dei due finge di essere l’altro.
Per lo studio, il contributo umano è profondità, giudizio e generazione. Il contributo dell’IA è ampiezza, verifica e scaffolding. Uno strumento che lo capisce ha l’IA che chiede prima di rispondere, fa da impalcatura prima di risolvere, verifica prima di offrirsi. Uno strumento che lo sbaglia fa l’inverso, e lo studente lascia la sessione sentendosi più intelligente senza aver imparato nulla.
Fluera è il nostro tentativo del primo tipo.
Su cosa stiamo scommettendo
Stiamo scommettendo che esiste una coorte di learner — non tutti, non la maggioranza, ma abbastanza — che sa sentire la differenza tra fluenza e competenza quando conta. Studenti che preparano orali a cui non si può fingere. Learner di lungo corso che notano come tutto ciò che chiedono a ChatGPT evapori entro la settimana dopo. Docenti stanchi di vedere studenti consegnare saggi LLM-generati articolati che lo studente poi non sa difendere.
Per loro, l’attrito non è un bug. Scrivere a mano non è nostalgia. Essere interrogati prima che ti venga detto non è una punizione. Sono funzioni. Sono il meccanismo.
Stiamo costruendo uno strumento di studio più lento, più silenzioso e più difficile delle alternative. Perché l’evidenza dice che è quello che funziona. E perché gli strumenti più veloci, più rumorosi e più facili sono diventati, a questo punto, strumenti per l’illusione di competenza.
Se ti risuona — vieni a costruirlo con noi nella beta. Se non ti risuona, va bene anche così. Non ogni strumento è per ogni learner. Questo è per quelli che sanno distinguere la differenza.