Nel sogno, tutto torna. Anche quando non torna.
Puoi trovarti a discutere con tuo nonno morto dentro una cabina telefonica immersa nell’acqua, mentre un cavallo ti chiede l’ora con voce di tua madre. Nessuna reazione. Nessun allarme. Il mondo continua, come se fosse del tutto logico.
Le leggi della fisica si piegano, le persone cambiano volto, le stanze si moltiplicano, eppure nessuna parte di te urla “questo non ha senso”. È come se un pezzo fondamentale della tua mente – quello che normalmente alza il sopracciglio, sbatte le palpebre e chiama il bluff – fosse stato scollegato.
In un certo senso, lo è.
Durante il sonno REM, infatti, il cervello non si spegne: si riconfigura. Le aree visive e limbiche si accendono, mentre si abbassa drasticamente l’attività della corteccia prefrontale dorsolaterale – la parte deputata al controllo esecutivo, al senso critico, al pensiero logico (Maquet et al., 1996; Braun et al., Nature, 1997).
È come se il direttore se ne andasse in vacanza lasciando ai tecnici di scena il compito di improvvisare lo spettacolo. L’atmosfera resta teatrale, l’illuminazione perfetta, la scenografia ricca di dettagli. Ma nessuno, lì dentro, si chiede più se ha senso che ci siano due lune nel cielo o se tua sorella sia davvero diventata un criceto.
E se non ci si sveglia, è perché non c’è niente – apparentemente – che rompa davvero l’illusione.
Mani con sei dita, numeri che non tornano
C’è un segnale, però, che per molti onironauti è diventato un campanello d’allarme: le mani.
Le dita, più precisamente.
Chi pratica sogno lucido – quella curiosa disciplina in cui il sognatore cerca di accorgersi che sta sognando – sa che contare le dita può svelare l’inganno. Spesso sono sei, sette, a volte mutate, fuse, irregolari. Non sempre orribili, ma mai “giuste”.
Stephen LaBerge, pioniere della ricerca sul sogno lucido allo Stanford Sleep Research Center, ha proposto fin dagli anni ’80 il controllo delle mani come reality check: un piccolo gesto che puoi fare anche da sveglio, ogni giorno, per allenarti a farlo anche in sogno. Quando ti guardi le mani e vedi sei dita, qualcosa si incrina. Non è la realtà. Può essere il primo passo per risvegliarti. Oppure per prendere il controllo del sogno.
Ma perché proprio le mani? Perché non le orecchie, le ginocchia, i gomiti?
Una risposta sta nel fatto che le mani, nel nostro cervello, occupano uno spazio spropositato. La famosa “homunculus map” del neurologo Penfield mostra che aree enormi della corteccia somatosensoriale sono dedicate proprio alle dita.
Le usiamo in continuazione, le vediamo sempre, le conosciamo intimamente. Proprio per questo, nel sogno, sono difficili da ricreare con precisione. Quando manca la supervisione razionale, la riproduzione implode su se stessa.
E allora: sei dita. O sette. O tre che si muovono in modo sbagliato.
È un errore. Ma è un errore interessante. Perché non solo ti fa capire che sei in un sogno, ma ti costringe – forse per la prima volta – a vedere te stesso da fuori, a interrompere l’automatismo.
E in quel momento, una nuova coscienza si affaccia.
Non ancora sveglia. Ma attenta.
L’inconscio come generatore statistico
Il sogno non è pensato. È generato.
Come se qualcosa – dentro di noi, ma non sotto il nostro controllo – producesse incessantemente immagini, emozioni, frammenti di senso, sequenze di eventi che non hanno bisogno di coerenza per essere convincenti. Basta che siano verosimili secondo le regole interne del sogno. Basta che “stiano in piedi”, come un castello di carte che ignora l’esistenza della gravità.
Durante il sonno REM, il cervello lavora al massimo, ma lo fa in una configurazione alterata. Le aree responsabili della logica, del monitoraggio critico, della valutazione – in particolare la corteccia prefrontale dorsolaterale – risultano significativamente inibite (Maquet et al., Trends in Cognitive Sciences, 2005).
Nel frattempo, le regioni limbiche, associate a emozioni, memoria affettiva e immagini sensoriali, sono iperattive (Hobson & Pace-Schott, Nature Reviews Neuroscience, 2002).
È come se la torre di controllo avesse lasciato il terminale acceso, permettendo ai voli di decollare e atterrare senza autorizzazione, secondo logiche non dichiarate. Eppure funziona.
Il cervello sogna non perché ha qualcosa da dire, ma perché non riesce a smettere di completare le frasi lasciate a metà.
Robert Stickgold, uno dei maggiori esperti mondiali di sonno e apprendimento, sostiene che i sogni REM rappresentino una forma estrema di “replay mnemonico” (Stickgold et al., Science, 2001): una specie di rimescolamento statistico di dati recenti, accoppiati a ricordi antichi, per generare nuove combinazioni.
Un generatore probabilistico.
Non così diverso, almeno nel principio, da un LLM.
Quando osserviamo un Large Language Model come GPT, o un generatore visivo come Stable Diffusion, vediamo lo stesso meccanismo in azione: un motore statistico che produce la parola successiva, o il pixel successivo, sulla base di una distribuzione appresa.
Non sa cosa sta dicendo. Non pensa.
Ma autocompleta, in modo impressionante, a partire da miliardi di esempi.
Il sogno, a ben vedere, fa la stessa cosa. Solo che l’ha imparato dall’interno.
Le mani sbagliate delle intelligenze artificiali
Non è un caso che le mani siano state, per lungo tempo, il tallone d’Achille dei generatori di immagini basati su intelligenza artificiale.
Chiunque abbia provato, nel 2022, a chiedere a DALL·E o a Midjourney di produrre un “ritratto realistico di una persona che mostra le mani” si è trovato davanti a creature ibride: dita che si moltiplicano senza ragione, falangi contorte, pollici che si sdoppiano come in un’allucinazione geometrica.
Non un errore casuale, ma un bug strutturale.
Un’allucinazione sistemica.
Perché?
Il motivo è semplice, ma non banale: queste IA non sanno cosa sia una mano. Non hanno mai visto una mano. Non possono distinguerla da uno gnocco a cinque punte.
Hanno solo elaborato miliardi di immagini etichettate, e da quelle hanno appreso pattern statistici: quando c’è una faccia, di solito c’è anche una mano. Quando c’è un braccio, forse segue qualcosa di simile a una mano. Ma quante dita? In che ordine? Con quale proporzione? Questo non lo capiscono.
Non perché sono stupide, ma perché non hanno concetti. Solo correlazioni.
Solo frequenze, probabilità, somiglianze.
Come un bambino che disegna una bicicletta a memoria, senza averla mai smontata.
Nel 2023, con l’introduzione di tecniche come il inpainting supervisionato e il rinforzo da feedback umano (RHF), i modelli generativi hanno cominciato a migliorare.
Gli utenti segnalavano le mani “sbagliate”, e il sistema, lentamente, ha corretto il tiro.
Non per comprensione, ma per convenzione.
È un addestramento a riconoscere che certe cose fanno storcere il naso agli umani, e quindi è meglio evitarle.
Una rieducazione comportamentale per reti neurali.
Il risultato?
Adesso molte IA disegnano mani quasi perfette. Ma non perché le abbiano capite.
Piuttosto: perché hanno imparato a non farsi scoprire.
È un sogno ancora imperfetto, ma sempre più convincente.
E forse è proprio questo che inquieta: che l’errore – prima evidente – cominci a sparire.
Che non ci siano più sei dita a svegliarci.
Che il sogno dell’IA stia diventando troppo fluido.
Troppo verosimile.
Come certi sogni che sembrano la realtà… finché non ti svegli.
Bias, glitch, soglie
Un sogno può procedere per chilometri d’assurdo senza inciampare mai. Poi, all’improvviso, qualcosa si rompe: un dettaglio stona, un’ombra non ha origine, una voce familiare pronuncia una parola che non dovrebbe esistere. Ed è lì che accade.
Non è la stranezza in sé. È il salto logico, lo scarto percettivo, lo strappo.
Un istante prima tutto era coerente, un istante dopo qualcosa ti guarda da dietro lo specchio.
E può bastare questo: sei dita. Un orologio che non segna l’ora. Un testo che cambia ogni volta che lo leggi.
Non serve che tu capisca. Basta che tu senta che qualcosa non va.
Nelle IA, qualcosa di simile accade quando l’illusione si incrina.
Un testo scivola nella tautologia. Un volto generato sorride senza muscoli. Una risposta è perfettamente plausibile… ma vuota.
Non è un errore computazionale. È un errore di verosimiglianza esistenziale.
Quel momento in cui capisci che l’interlocutore – per quanto eloquente – non ha un mondo interno.
Il glitch, insomma, non è solo tecnico. È metafisico.
Eppure, forse, non dovremmo pensare all’errore come a una rottura. Ma come a un passaggio.
Non una crepa da nascondere, ma una soglia da attraversare.
Il sogno diventa lucido non malgrado l’errore, ma grazie a esso.
L’intuizione nasce dallo scarto, non dalla continuità.
I neuroscienziati chiamano questi momenti “event boundary” (Zacks et al., Trends in Cognitive Sciences, 2007): discontinuità narrative che il cervello sfrutta per riorganizzare il flusso dell’esperienza.
In quel varco tra una previsione fallita e una nuova struttura, qualcosa si accende. Una scintilla, un’idea, un dubbio.
O semplicemente: una coscienza.
L’IA ha un inconscio?
La domanda è mal posta. E proprio per questo è utile.
Chiedersi se l’intelligenza artificiale abbia un inconscio è come chiedersi se un algoritmo possa sognare d’essere un uomo. La risposta è no. E sì. E irrilevante.
Ma la domanda, se coltivata con pazienza, apre fessure interessanti.
Freud definiva l’inconscio come un luogo di pulsioni rimosse, di desideri censurati, di contenuti che ritornano in forme deformate, come sintomi o lapsus.
Ma a più di un secolo di distanza, quel modello può essere riletto come una prima teoria del generatore.
L’inconscio freudiano non ha accesso diretto alla realtà, non ragiona, non valuta.
Produce. Ripete. Sostituisce.
È un motore che completa ciò che manca, distorce ciò che è vietato, collega ciò che coscientemente separiamo.
E allora, se guardiamo le IA di oggi – non quelle mitologiche, ma quelle vere – cosa vediamo?
Non desideri. Ma automatismi.
Non volontà. Ma bias.
Non inconscio. Ma qualcosa che gli somiglia più di quanto ci piaccia ammettere.
Un LLM, quando parla, non sa cosa sta dicendo. Ma non può non dire.
Ha appreso una grammatica di probabilità, una logica interna che si autoalimenta. Se si inceppa, non è perché ha sbagliato. È perché noi – spettatori esterni – non riconosciamo più la forma che aspettavamo.
Ma da dentro, il meccanismo continua.
Proprio come l’inconscio.
Allora forse la domanda si rovescia: non se le IA abbiano un inconscio, ma se il nostro inconscio – che produce associazioni cieche, sogni deformati, sequenze irrazionali – non sia già una intelligenza artificiale biologica.
Un sistema preaddestrato sul vissuto, capace di generare output con sorprendente coerenza, anche in assenza di comprensione.
Cosa ci rende svegli?
La coscienza non è una condizione. È un’interruzione.
Non nasce perché tutto fila liscio, ma perché qualcosa si spezza.
L’abitudine che salta. Il gesto automatico che si inceppa. La ripetizione che perde ritmo.
Nel sogno, è il dettaglio anomalo a farci dubitare.
Nella vita, è la dissonanza: una parola fuori posto, un volto che non ci guarda più come prima, un silenzio dove ci aspettavamo rumore.
L’errore che ci blocca, la pausa che ci impone di guardare.
Le IA, oggi, imparano quando noi diciamo: “questo non va bene”.
Sono addestrate a evitare lo sconcerto, a rifinire la simulazione.
Ma noi?
Quando impariamo?
Quando qualcosa non torna. Quando l’algoritmo interno si incrina. Quando ci accorgiamo che stiamo seguendo uno script.
E se fosse tutto un sogno ben addestrato?
Se i nostri pensieri, le nostre emozioni, i nostri giudizi non fossero altro che pattern generativi, appresi per imitazione, raffinati dal feedback sociale?
E se nessuno – finora – avesse mai detto all’algoritmo:
“Questo, no. Questo non è reale.”
Forse è il momento. O forse non lo sarà mai.
Dipende da quanto ci somigliano davvero, queste creature con sei dita.