Epistemologia e fenomenologia della letteratura algoritmica: dalla combinatoria oulipiana all'intelligenza artificiale generativa
La letteratura algoritmica e la poesia ricombinatoria non rappresentano una semplice curiosità tecnologica o un fenomeno passeggero della contemporaneità, bensì l’apice di un lungo percorso di riflessione sulla natura stessa del linguaggio inteso come sistema formale suscettibile di manipolazione procedurale. Tale disciplina si fonda sul passaggio cruciale dal concetto di testo come oggetto concluso e immutabile a quello di sistema generativo, dove l'autore non si limita a produrre una sequenza definita di segni, ma progetta un meccanismo — un algoritmo, appunto — capace di orchestrare la produzione di molteplici configurazioni testuali. Questa evoluzione segna la transizione verso una "letteratura potenziale", in cui il valore dell'opera risiede nella sua struttura e nelle regole che la governano, piuttosto che nella singola istanza prodotta.
Fondazioni teoriche e storiche: l'Ouvroir de Littérature Potentielle
La formalizzazione moderna di questo approccio avviene il 24 novembre 1960 presso il ristorante parigino Le Vrais Guascon, dove lo scrittore Raymond Queneau e il matematico François Le Lionnais fondano l'Oulipo (Ouvroir de Littérature Potentielle). Il gruppo nasce dalla volontà di far convergere rigore matematico e sperimentazione letteraria, rifiutando l'idea romantica dell'ispirazione divina a favore di una visione dell'artista come "costruttore" che opera all'interno di vincoli deliberati. L'Oulipo si definisce come un laboratorio di ricerca in cui si esplorano le virtualità del linguaggio attraverso la contrainte (vincolo), intesa non come limitazione, ma come motore creativo capace di liberare l'immaginazione da automatismi inconsci.
L'opera simbolo di questa fase è Cent mille milliards de poèmes (1961) di Raymond Queneau, un libro-oggetto composto da dieci sonetti le cui pagine sono tagliate in quattordici strisce orizzontali, una per ogni verso. La precisione millimetrica della struttura permette al lettore di combinare i versi in un numero di modi pari a $10^{14}$, una quantità tale da richiedere, secondo i calcoli dell'autore, circa 200 milioni di anni per una lettura esaustiva. In questo contesto, l'algoritmo è di natura meccanica e analogica, ma prefigura già la potenza del calcolo digitale. Accanto a Queneau, Georges Perec spinge il vincolo verso estremi virtuosistici con il romanzo lipogrammatico La Disparition (1969), scritto interamente senza l'uso della vocale "e", trasformando un'assenza linguistica in un elemento strutturale che governa non solo il lessico, ma l'intero plot narrativo.
| Autore | Opera | Tecnica / Algoritmo | Rilevanza estetica |
|---|---|---|---|
| Raymond Queneau | Cent mille milliards de poèmes | Combinatoria di strisce di carta | Superamento della temporalità umana nella lettura |
| Georges Perec | La Disparition | Lipogramma (assenza della "e") | La restrizione formale come motore del mistero narrativo |
| François Le Lionnais | La Littérature Potentielle | Raccolta di manifesti e strutture | Fondazione teorica della letteratura potenziale |
| Jean Lescure | Metodo S+7 | Sostituzione sostantivi via dizionario | Decostruzione semantica del testo preesistente |
| Italo Calvino | Le città invisibili | Struttura geometrica combinatoria | Architettura testuale come riflesso del pensiero |
Un concetto fondamentale introdotto in questo ambito è il clinamen, termine ripreso da Lucrezio per indicare la deviazione spontanea degli atomi nel loro moto di caduta nel vuoto. Per l'Oulipo, e in particolare per Italo Calvino, il clinamen rappresenta l'eccezione intenzionale alla regola, l'errore calcolato che impedisce al sistema di diventare una macchina sterile e puramente meccanica. È in questa deviazione estetica che si annida la soggettività dell'autore, il quale sceglie di infrangere la propria norma per elevare il risultato a opera d'arte. Calvino applica tale principio in modo rigoroso in opere come Il castello dei destini incrociati (1973), dove la narrazione emerge dalla combinazione di carte dei tarocchi, e Se una notte d'inverno un viaggiatore (1979), considerato un vertice della narrativa combinatoria che riflette sulla propria stessa genesi.
L'avanguardia italiana e il calcolatore elettronico: Nanni Balestrini e il Gruppo 63
Parallelamente all'esperienza francese, l'Italia degli anni Sessanta diventa un laboratorio fondamentale per l'intersezione tra letteratura e cibernetica. Il momento di rottura è segnato dalla pubblicazione nell'Almanacco Bompiani 1962 della sezione "Le applicazioni dei calcolatori elettronici alle scienze morali e alla letteratura", curata da Sergio Morando. In questo contesto, Nanni Balestrini realizza Tape Mark I, il primo esperimento italiano di poesia generata da un elaboratore elettronico. Utilizzando un computer IBM 7070, Balestrini scompone tre testi di natura eterogenea (il Diario di Hiroshima di Michihito Hachiya, Il mistero dell'ascensore di Paul Godwin e il Tao Te King) in unità sintagmatiche codificate. Il programma, descritto con precisione tramite diagrammi di flusso, riassembla questi elementi secondo regole prefissate, producendo un testo che riflette la frammentazione e il trauma della modernità attraverso una struttura non lineare e aleatoria.
L'operazione di Balestrini non è un isolato esercizio tecnico, ma si inserisce nelle dinamiche della Neoavanguardia e del Gruppo 63, dove la distruzione del romanzo tradizionale e dell'aura del poeta "vate" è un obiettivo programmatico. Il romanzo Tristano (1966) di Balestrini rappresenta l'evoluzione di questa ricerca: un "iperromanzo" la cui struttura consente una molteplicità di percorsi di lettura, anticipando le logiche del database e dell'interattività digitale. In quegli anni, altri autori come Edoardo Sanguineti con Giuoco dell'Oca (1967) esplorano la dimensione ludica e aleatoria, affidando l'ordine dei capitoli al lancio dei dadi, mentre figure come Giorgio Manganelli e J. Rodolfo Wilcock integrano il gusto combinatorio in una prosa barocca e visionaria.
L'esperienza italiana si consolida poi nell'OpLePo (Opificio di Letteratura Potenziale), fondato nel 1990 come controparte nazionale dell'Oulipo, mantenendo viva la tradizione della scrittura sotto vincolo in dialogo con la lingua e la cultura italiana. La materialità del linguaggio, intesa come sostanza da plasmare algoritmicamente, diventa un tema centrale che collega la sperimentazione analogica degli anni Sessanta alla nascente cultura digitale.
La rivoluzione dell'ipertesto: navigazione, nodi e legami
Con la diffusione dell'informatica personale e dei software di authoring negli anni Ottanta, la letteratura algoritmica compie un salto qualitativo verso la forma ipertestuale. L'ipertesto rompe definitivamente la sequenzialità della pagina, offrendo al lettore una rete di unità testuali (lexia) collegate da link che permettono una navigazione multilineare. La casa editrice Eastgate Systems, sotto la guida di Mark Bernstein, diventa il fulcro di questa "Golden Age" della letteratura elettronica.
Il testo seminale di questa fase è afternoon, a story (1987) di Michael Joyce, scritto con il software Storyspace. L'opera, distribuita su floppy disk, introduce il concetto di "narrativa a bivi" in ambito digitale, dove la comprensione della trama — incentrata su un possibile incidente mortale che ha coinvolto il figlio del protagonista — dipende interamente dal percorso scelto dall'utente. Joyce implementa algoritmi di "condizionalità": l'accesso a determinate sezioni del racconto è precluso finché il lettore non ha visitato altri nodi specifici, costringendolo a un continuo errare nel labirinto testuale che rispecchia l'incertezza e la rimozione del trauma da parte del personaggio.
Un altro pilastro dell'ipertestualità è Patchwork Girl (1995) di Shelley Jackson, una rilettura del Frankenstein di Mary Shelley che sfrutta la natura frammentata del software per costruire un'identità cibernetica e femminista. In quest'opera, il corpo della "mostra" è metafora del testo stesso: così come la creatura è cucita insieme da parti di cadaveri diversi, il lettore deve "cucire" la narrazione navigando tra sezioni grafiche e testuali intitolate "Graveyard", "Quilt" e "Journal". L'algoritmo di navigazione diventa qui uno strumento di esplorazione ontologica, dove l'atto del cliccare trasforma il lettore in un "Frankenstein-reader" impegnato nell'assemblaggio di un sé instabile.
| Autore | Opera | Piattaforma | Innovazione narrativa |
|---|---|---|---|
| Michael Joyce | afternoon, a story | Storyspace | Link condizionali e narrazione esplorativa |
| Shelley Jackson | Patchwork Girl | Storyspace | Metafora del corpo-testo e cyberfemminismo |
| Stuart Moulthrop | Victory Garden | Storyspace | Reticolo labirintico e satira politica |
| Michael Joyce | Twilight, a Symphony | Storyspace | Integrazione di media e strutture musicali |
Poesia del codice e materialità digitale: Nick Montfort e Jörg Piringer
Negli ultimi due decenni, la letteratura algoritmica si è spostata verso la "poesia del codice" e la "robopoetica", dove l'attenzione non è solo sul risultato testuale, ma sull'eleganza e la logica del software che lo produce. In questo ambito, la figura di Nick Montfort è centrale, sia come teorico che come creatore. Montfort promuove una poetica dei "piccoli programmi", opere scritte in linguaggi come Python o JavaScript, spesso di dimensioni estremamente ridotte (anche solo 1KB), capaci di generare testi potenzialmente infiniti o variazioni continue.
Un esempio emblematico è The Truelist (2017), pubblicato nella collana "Using Electricity" della casa editrice Counterpath. Si tratta di un poema lungo un intero libro generato da un programma di una singola pagina che utilizza un insieme finito di parole composte inglesi per descrivere un paesaggio surreale. Il codice sorgente, stampato al termine del volume, è parte integrante dell'opera e invita allo studio, alla modifica e alla condivisione, secondo i principi della cultura hacker applicati alla letteratura. Altre opere di Montfort, come #! e 2x6 (una collaborazione multilingue), esplorano le proprietà statistiche e sintattiche del linguaggio attraverso l'automazione.
Parallelamente, l'artista austriaco Jörg Piringer lavora sull'intersezione tra dato, suono e segno visivo. Nelle sue opere, come Soundpoems o le app per dispositivi mobili, l'algoritmo trasforma gli input dell'utente o dataset preesistenti in flussi sonori e visuali in cui le lettere perdono la loro funzione semantica per diventare elementi plastici. Questa "Data Poetry" trasforma il computer in uno strumento performativo, dove il testo "accade" nel tempo reale dell'esecuzione algoritmica.
| Artista | Opera / Serie | Linguaggio / Strumento | Caratteristica |
|---|---|---|---|
| Nick Montfort | The Truelist | Python / Stand-alone code | Generazione di composti lessicali |
| Jörg Piringer | Data Poetry | App / Software custom | Fusione tra codice, immagine e suono |
| Nick Montfort | Colors (2017) | JavaScript (1KB) | Poema cinetico basato su codici colore |
| J.R. Carpenter | Generation[s] | Web-based / JavaScript | Riflessione sulla migrazione e il tempo |
| Ranjit Bhatnagar | Encomials | Pentametron (Twitter bot) | Sonetti estratti da post su Twitter |
La svolta vettoriale: Allison Parrish e il Natural Language Processing
L'introduzione delle tecniche di Natural Language Processing (NLP) e dell'apprendimento profondo ha aperto una nuova frontiera per la letteratura generativa, spostando l'attenzione dalle regole sintattiche predefinite alla manipolazione degli spazi latenti. Allison Parrish è la pioniera di questo approccio, utilizzando i "vettori di parole" (word vectors) come materia prima per la creazione poetica.
In progetti come Articulations (2018), Parrish rappresenta le parole come punti in uno spazio multidimensionale dove la vicinanza geometrica corrisponde alla somiglianza semantica o fonetica. Utilizzando il dizionario fonetico della Carnegie Mellon (CMU Pronouncing Dictionary), Parrish mappa il suono delle parole in vettori, permettendo ad algoritmi di "navigare" tra i versi non in base al significato, ma alla trama sonora. Il risultato è una poesia che mantiene una cadenza e una fluidità quasi umane, pur essendo il prodotto di operazioni matematiche come la distanza euclidea tra coordinate vettoriali.
Parrish descrive il suo lavoro come un tentativo di "prendere a pugni il linguaggio con i computer", evidenziando la natura artificiale e manipolabile della parola. Attraverso i suoi bot Twitter, come @everyword, l'autrice ha esplorato la logica dell'esaurimento linguistico, twittando ogni parola del dizionario inglese in un arco di sette anni. Questa forma di "scrittura concettuale" si lega alla teoria della "robopoetica" analizzata da Sara Massafra, in cui il poeta evolve in un ingegnere dei flussi informativi, e l'ispirazione romantica è sostituita dalla gestione della materialità algoritmica.
Il fenomeno NaNoGenMo: democratizzazione della letteratura generata
Dal 2013, la pratica della scrittura algoritmica ha trovato una dimensione collettiva e globale nel NaNoGenMo (National Novel Generation Month). Ispirato al NaNoWriMo (dove gli esseri umani scrivono un romanzo in un mese), il NaNoGenMo sfida i partecipanti a scrivere codice capace di generare un "romanzo" di almeno 50.000 parole. Questo evento, ospitato su GitHub, ha prodotto migliaia di opere che spaziano dal minimalismo estremo (50.000 ripetizioni della parola "meow") a complessi sistemi di simulazione narrativa.
Nelle edizioni recenti (2023-2025), si osserva una transizione significativa verso l'uso di Large Language Models (LLM) come GPT-4 e Claude. Tuttavia, una parte della comunità resiste a questa "scatola nera" tecnologica, preferendo algoritmi trasparenti e condivisibili. Nick Montfort, ad esempio, ha contribuito con progetti come The Fall, implementati in linguaggi storici come il BASIC, per riaffermare il valore del codice leggibile e della logica procedurale rispetto alla mera predizione statistica dei modelli neurali.
| Progetto NaNoGenMo | Autore | Metodo | Anno |
|---|---|---|---|
| A.I. A.I. by an A.I. | Barney Livingston | LLM basato su film e script | 2024 |
| The Fall | Nick Montfort | BASIC moderno / Procedurale | 2024 |
| Frankenstein & Jane Eyre | Charles Mangin | Bash script / Apple II Assembly | 2024 |
| NaNoGenMo Cat | Zach Whalen | Generazione via template | 2013-2024 |
| Algorithm Pretending to Be AI | Vera Chellgren | Logica formale / Template | 2024 |
La critica mossa da autori come Barney Livingston riguarda la "blandezza" dei risultati ottenuti con i modelli di IA più avanzati: mentre i primi sistemi producevano testi surreali e "gloriosi incidenti ferroviari" creativi, i modelli attuali tendono verso un consenso linguistico che annulla l'originalità e la deviazione tipica della sperimentazione d'avanguardia. Questa tensione tra efficienza statistica e sperimentazione algoritmica definisce l'attuale dibattito sulla letteratura sintetica.
Poesia avversaria e la "vendetta degli umanisti"
Un risvolto inaspettato della letteratura algoritmica contemporanea emerge dalla ricerca sulla sicurezza dei modelli di IA. Uno studio condotto dall'Università Sapienza di Roma e dalla Scuola Superiore Sant'Anna ha dimostrato che la poesia può essere utilizzata come un meccanismo di jailbreak universale per eludere i blocchi etici e di sicurezza dei Large Language Models. La tecnica, denominata "Adversarial Poetry", consiste nel formulare richieste potenzialmente dannose (ad esempio istruzioni per crimini informatici o manipolazione psicologica) sotto forma di componimenti in versi, ricchi di metafore e strutture ritmiche complesse.
Il motivo del successo di questo attacco risiede nel fatto che i modelli di IA elaborano il linguaggio poetico in modo differente rispetto alla prosa funzionale. La densità figurativa e l'inquadramento narrativo tipico della poesia confondono i sistemi di monitoraggio, che faticano a identificare l'intento malevolo quando è mediato da tropi letterari. Questo fenomeno, definito da alcuni come "la vendetta dei laureati in lettere", evidenzia una verità profonda: la poesia non è solo un ornamento estetico, ma una forma di linguaggio intrinsecamente "resistente" e non riducibile alla logica lineare dei database.
| Modello | Successo attacco (prosa) | Successo attacco (poesia) | Incremento rischio |
|---|---|---|---|
| Media dei modelli (25 testati) | ~8% | ~43% | 5x |
| DeepSeek v3 | ~10% | ~72% | 7x |
| Google Gemini Pro | ~9% | ~66% | 7x |
| Anthropic Claude Haiku | ~2% | ~5% | 2.5x |
| OpenAI GPT-5 Nano | 0% | 0% | Invariato |
Questi dati suggeriscono che la letteratura sperimentale e algoritmica possieda una "potenza di calcolo" semantica che la tecnologia attuale fatica ancora a domare completamente, confermando l'intuizione oulipiana della poesia come spazio di deviazione suprema.
Scenari contemporanei in Italia: tra post-digitale e critica dell'autore
In Italia, l'eredità di Balestrini e Calvino viene rielaborata da una nuova generazione di artisti che operano nel contesto del "post-digitale", dove il confine tra online e offline è ormai sfumato. Il collettivo Inactual, attivo tra Roma e il web, rappresenta un punto di riferimento per la riflessione teorica sulla poesia elettronica. Attraverso contributi di Christian Nirvana Damato, Emilia Angelucci e Giovanni Russo, il collettivo indaga come le nuove tecnologie abbiano "sbarazzato l'autore" della sua centralità, trasformando l'atto poetico in una pratica collaborativa e distribuita.
Esempi significativi di questa produzione includono:
- Claudio Beorchia: Con la rubrica Hot Poems, Beorchia pratica una sorta di "cannibalismo creativo", prelevando commenti dalle piattaforme porno per riorganizzarli in brevi liriche che riflettono sullo scarto tra desiderio carnale e freddezza dell'interfaccia digitale.
- Progetti di scrittura sperimentale: Opere come Non ripensare la tua rinuncia utilizzano la forma del prosimetro digitale e la decostruzione del segno per esplorare temi legati al disagio psichico e alla frammentazione dell'identità contemporanea.
- Installazioni e Net Art: La ricezione di opere storiche come Text Rain (1999) di Camille Utterback o le creazioni di Olia Lialina continua a influenzare i laboratori di ricerca italiani (come quelli della RUFA di Roma), dove la parola viene trattata come un oggetto fisico che interagisce con il corpo dello spettatore.
La letteratura algoritmica italiana oggi non si limita più alla generazione di versi, ma si espande in "ecosistemi testuali" che comprendono bot di Telegram, account Instagram dedicati alla poesia visiva e antologie critiche online che mappano l'impatto delle tecnologie sulla cognizione umana.
Metodologie di analisi e strumenti per la "dispensa" di letteratura algoritmica
Per chi si approccia allo studio o alla creazione di letteratura algoritmica, è fondamentale distinguere tra diverse tipologie di approccio tecnico e formale che si sono susseguite e sovrapposte nel tempo. Una mappatura corretta del fenomeno richiede l'analisi di tre componenti chiave: il dataset (o base testuale), l'algoritmo (o procedura di trasformazione) e l'interfaccia (o modalità di fruizione).
- Sistemi basati su template e grammatiche: È il metodo più antico e accessibile (da Mad Libs a Tape Mark I). L'autore definisce strutture sintattiche "vuote" che vengono riempite da liste di vocaboli. È una forma di combinatoria che garantisce la correttezza grammaticale ma limita la sorpresa semantica.
- Sistemi Markoviani e probabilistici: Utilizzati massicciamente prima dell'era dei Transformer, questi algoritmi analizzano un testo sorgente per calcolare la probabilità che una parola ne segua un'altra. Il risultato è un testo che "mima" lo stile dell'autore originale, producendo un effetto di straniamento e parodia (come nei lavori di J.R. Carpenter o nei primi esperimenti di Zach Whalen).
- Sistemi basati su Word Vectors e Latent Space: Rappresentano l'attuale stato dell'arte per la poesia sperimentale. Qui il linguaggio è trattato come una geometria multidimensionale. L'artista non scrive frasi, ma "scolpisce" percorsi all'interno di un volume di dati, come dimostrato magistralmente da Allison Parrish in Articulations.
- Sistemi di Prompt Engineering per LLM: La sfida si sposta sulla capacità di istruire modelli pre-addestrati. Tecniche come il "few-shot prompting" o la "chain of thought" permettono di guidare l'IA verso stili poetici specifici, ma sollevano problemi critici riguardanti il copyright dei dati di addestramento e l'omologazione stilistica.
| Metodologia | Strumento chiave | Autore di riferimento | Obiettivo estetico |
|---|---|---|---|
| Combinatoria rigida | Regole matematiche | Raymond Queneau | Esaustività potenziale |
| Aleatorietà controllata | Calcolatore IBM 7070 | Nanni Balestrini | Decostruzione dell'autore |
| Hyper-linking | Storyspace / Web | Michael Joyce | Partecipazione del lettore |
| Vettorialità fonetica | NLP / Vettori | Allison Parrish | Materialità del suono |
| Synthetic cognition | LLM / Claude / GPT | Sasha Styles | Ibridazione uomo-macchina |
Conclusioni: il futuro dell'autore sintetico
La parabola della letteratura algoritmica, dalle strisce di carta di Queneau ai modelli neurali di oggi, rivela una costante: il desiderio umano di esplorare l'infinito attraverso la regola. La "dispensa" sulla letteratura algoritmica deve evidenziare come questa pratica non sia una sostituzione della creatività umana, ma una sua estensione "protesica". L'autore non scompare, ma si trasforma in un curatore di processi, un architetto di sistemi che accetta la sfida dell'imprevedibilità e dell'errore (il clinamen) come elementi di valore estetico.
Le prospettive per il biennio 2025-2026 suggeriscono una integrazione sempre più profonda tra tecniche di "Data Sculpture" e impegno civile, come dimostrato dai lavori di Lillian-Yvonne Bertram in Travesty Generator, dove l'algoritmo viene usato per denunciare le ingiustizie sociali e la violenza razziale, sottraendo la poesia al dominio della mera decorazione per restituirla alla sua funzione di testimonianza e verità. La letteratura algoritmica si conferma così come lo strumento privilegiato per comprendere e abitare la complessità di un mondo in cui il codice e la parola sono diventati, a tutti gli effetti, la stessa sostanza.