**************************************************************

          BOLLETTINO '900 - Segnalazioni / B, giugno 2000             Successivo

**************************************************************


Francesca Tomasi
Seminario di studi: "Soluzioni informatiche e telematiche
per la filologia" (Pavia, 30-31 marzo 2000)

Il convegno tenutosi lo scorso marzo presso la Facolta' di Lettere e Filosofia dell'Universita' pavese ha aperto la discussione attorno al problema del rapporto tra informatica e filologia, presentando una nutrita schiera di esperti nel settore delle applicazioni computazionali al trattamento di dati di natura testuale. La discussione si e' quindi sviluppata secondo le linee direttrici di quelle problematiche a tutt'oggi fra le piu' indagate in materia, con l'obiettivo di giungere al superamento della diffusa credenza del limitato utilizzo della "macchina" informatica.
Le tematiche affrontate hanno spaziato dalla realizzazione automatica delle concordanze al problema della testualita' "fluida" nella creazione di edizioni digitali, dalla questione della gestione elettronica del ritmo nella poesia delle origini alla codifica del testo a fini editoriali, dai motori di ricerca per documenti codificati alle banche dati testuali, fino all'analisi del libro antico e alla sua presenza sulla rete.
La prima giornata, presieduta da Domenico de Robertis, si e' aperta con l'introduzione ai lavori, egregiamente condotta da Cesare Segre, che ha riflettuto sullo spinoso problema filologico, anzi meglio ecdotico, della ricostruzione del testo che risponde alla volonta' ultima dell'autore, notando come l'odierna preoccupazione dei filologi tradizionalisti sia quella di giungere alla definizione di un testo unico, partendo dall'esame delle varianti attestate dai testimoni della tradizione testuale. Segre ha colto l'importanza che l'informatica puo' avere in quest'ambito: non solo il computer come strumento per velocizzare le operazioni (per esempio le concordanze) ma anche la possibilita' offerta dagli strumenti elettronici di lasciare un'edizione "aperta", vale a dire di non trovare necessariamente una soluzione al problema della ricostruzione del testo, ma, tramite l'informatica, consentire alla molteplicita' delle possibili forme del testo di realizzarsi e trasmettere quindi la storia della tradizione.

Sempre attorno al problema "varianti, apparato, testo" si e' incentrato il primo intervento della giornata, tenuto da Lino Leonardi, il quale ha parlato della prospettiva ipertestuale delle "Concordanze della lingua poetica italiana delle origini", presentando il lavoro effettuato a partire dalle concordanze realizzate, in forma cartacea, da Avalle e nate in ambiente Ricciardi. Questo lavoro e' la conversione in forma elettronica del corpus rappresentato dalla poesia delle origini e gestito tramite il DBT (Data Base Testuale). L'intero corpus e' stato lemmatizzato e sono stati tratti circa 5000 lemmi principali. Al fine di verificare il rapporto lemma-forma e' stato consultato il lessico poetico (presente all'interno del programma) fra testimoni paralleli. Si e' effettuata la disambiguazione degli omografi e la ricerca delle frequenze e' cosi' stata resa piu' complessa (frequenza totale e frequenza di ogni singola forma del lemma). Per congiunzioni, preposizioni, avverbi si e' provveduto alla definizione dei sinonimi di forma e per ogni lemma e relativo sintagma e' possibile il rinvio a forme analoghe. Si e' aggiunta la possibilita' di visualizzare il testo completo, l'insieme dei testi afferenti la medesima tradizione, al fine della verifica delle varianti (che il programma consente di automatizzare), e di affiancare le immagini degli originali.

L'intervento di Dino Buzzetti e' stato incentrato attorno al problema della testualita' fluida e dell'edizione digitale dei testi. Il relatore ha presentato il progetto di studio dei testi relativi alla nascita dello Studio bolognese (arti e medicina), con l'esemplificazione del commento di Gentile da Cingoli all'Isagoge di Porfirio. La complessa testualita' dei dati, costituiti dai testi che testimoniano delle lezioni tenute dai lettori dello Studio, e' da individuarsi nella "fluidita'" che li caratterizza; la *contaminatio*, dovuta all'opera dei *repetitores*, ha condotto alla tradizione di testi che presentano una struttura particolarmente complessa. I *repetitores* erano giovani insegnanti tenuti a spiegare nuovamente le lezioni dei *magistri* e a fare esercizi sulla materia trattata; questo faceva si che al testo venissero aggiunte digressioni o variazioni. Nella tradizione manoscritta delle opere dei maestri bolognesi le tracce di questa pratica si individuano sotto forma di glosse marginali o di passi interpolati nel testo.
Un utile strumento in grado di rappresentare tali documenti e' il database *Kleio*, creato da Manfred Thaller del Max-Planck-Institut di Goettingen, nato per l'elaborazione dell'informazione storica, che consente non solo di editare tutti i testimoni della tradizione testuale ma anche di realizzare un'edizione strutturata, vale a dire rappresentare tradizioni testuali di tipo fluido, costruire "un'edizione come database". A cio' si aggiunge la possibilita' di affiancare testo elettronico ed immagine digitale anche per porzioni di entrambe e per ciascuna lezione variante. La possibilita' e' dunque di una rappresentazione strutturale non lineare del testo.
Affrontando il problema delle edizioni digitali, in opposizione all'edizione strutturata come database, il relatore ha discusso dei limiti posti dalla TEI, la DTD SGML per la codifica dei testi umanistici, soffermandosi sul concetto di mark-up come sistema per assegnare espressione al testo e sul mark-up TEI, come codifica della struttura del testo; a questo proposito risulta evidente il rapporto fra mark-up che da' un costrutto sintattico e notazionale e il database che fornisce invece il formalismo per lavorare sulle strutture dei dati. Da qui deriva il binomio opposito espressione e contenuto; se il mark-up parla del *testo* (espressione) all'interno del testo, allora ne fa parte, se invece parla del *contenuto* non fa parte del testo. Di qui l'opposizione fra il filologo e il critico del testo, che si pongono diversamente sull'interpretazione del medesimo testo: il testo inteso come stringa di caratteri contro il testo inteso in termini letterari, che veicola quindi una serie di informazioni che esulano dalla sequenza di grafemi.

La giornata si e' chiusa con l'intervento di Sergio Bozzola e Marco Praloran che hanno presentato il progetto dell'AMI, l'Archivio Metrico Italiano, affrontando il problema del ritmo dell'endecasillabo delle origini, presentando una consistente documentazione ed esemplificando i criteri di automatizzazione delle procedure nello studio della metrica sulla raccolta volgare del Petrarca. L'AMI consente una capillare interrogazione dei testi per categorie metriche: e' possibile svolgere ricerche, impostare filtri ed elaborare statistiche relative al testo poetico nella sua dimensione metrica e prosodica. E' possibile reperire informazioni sul progetto all'indirizzo: del CIBIT (http://cibit.unipi.it), cliccando sulla "ricerca avanzata".

Anche la seconda giornata, presieduta da Mirko Tavoni, e' stata ricca di stimolanti riflessioni attorno all'edizione dei testi, ai motori di ricerca ed alla creazione di banche dati.

Fabio Ciotti ha discusso dei criteri per l'edizione scientifica dei testi in formato elettronico, affrontando problemi e limiti della TEI, la DTD SGML per i testi umanistici, la questione della catalogazione delle risorse digitali e la potenza rappresentazionale dell'apparato testuale tramite il ricorso a SGML.
Il relatore ha, in prima istanza, riflettuto sulle condizioni necessarie per fare un'edizione critica e sui criteri da rispettare, compendiabili in: fare un'edizione destinata ad ogni tipologia di utenza, provvedere ad un apparato di varianti con specificazione delle fonti e della loro natura ed esplicazione delle congetture con indicazione delle responsabilita', realizzare un'edizione longeva pari a quella cartacea, non vincolare la struttura edita ad un software specifico, vista l'obsolescenza degli strumenti. A questo proposito il relatore ha suggerito la necessita' dell'uso di sistemi in grado di inglobare l'informazione a livello di rappresentazione dei dati e ha l'opportunita' di adottare sistemi di rappresentazione standard. Di qui l'esigenza di individuare il piu' adeguato sistema di codifica. La codifica puo' essere definita come un'operazione interpretativa; si puo' considerare un linguaggio teorico, formalizzato, fatto per parlare di un testo. Il relatore ha quindi trattato della nascita dei linguaggi di codifica dichiarativi, realizzati come risposta all'esigenza di risolvere il problema della rappresentazione del testo; fra essi SGML, un metalinguaggio che si occupa della codifica della struttura logica, ignorando la forma grafica, vale a dire l'aspetto fisico, e concependo il testo organizzato come un albero gerarchico, dove i nodi dell'albero si presentano come gli elementi del testo, oggetti di contenuto, che forniscono la funzione logico-strutturale della porzione di testo cui sono associati. Fra le numerose DTD SGML esistenti il relatore si e' soffermato sulla TEI, appositamente creata per la codifica dei testi umanistici, individuando e descrivendo il set di marcatori ad hoc che la TEI, grazie al suo approccio polieuretico, mette a disposizione per realizzare edizioni diplomatiche ed edizioni critiche, per effettuare la trascrizione delle fonti primarie e per la codifica dell'apparato.

Francesco Corti ha presentato TreSy (Text Retrieval System), il motore di ricerca testuale per documenti SGML/XML creato presso il CRIBECU (Centro Ricerche Informatiche per i Beni Culturali) della Scuola Normale di Pisa. Un software estremamente strutturato che consente di effettuare ricerche full-text a vario livello sui documenti codificati: sulle stringhe, sui marcatori, sui valori degli attributi. E' quindi in grado di gestire in modo efficiente l'enorme volume di informazioni che puo' contenere un testo (o piu' testi) conforme alle specifiche di SGML/XML.
Dal punto di vista tecnico TReSy si compone di due strutture dati principali: quella che gestisce la ricerca testuale e quella che gestisce le ricerche sulla struttura dei documenti.
Una notevole potenzialita' che e' offerta da questo applicativo e' la possibilita' di indicizzare assieme al testo puro anche ogni informazione sulla struttura di un documento SGML. Dato che l'indicizzazione e' indipendente dalla *DTD* utilizzata, il software offre la possibilita' di poter gestire una enorme tipologia di documenti che vanno da quelli per cui la struttura e' predominante fino a quelli di solo testo dove la struttura puo' essere irrilevante ai fini della ricerca.
L'impiego delle due strutture dati che realizzano il motore di ricerca ha come effetto voluto quello di poter rispondere ad ogni richiesta su testo o struttura dei documenti indicizzati.
Il programma e' a tutt'oggi attivo e presenta gia' alcuni documenti codificati sui quali e' possibile fare ricerca. Il sito e': www.cribecu.sns.it oppure tresy.cribecu.sns.it

Mirko Tavosanis ha presentato il CIBIT (http://cibit.unipi.it), una biblioteca telematica di opere della letteratura italiana. I numerosissimi testi presenti nella banca dati possono essere letti on-line, selezionando il documento dall'elenco, o interrogati tramite la maschera predisposta (DBT): e' possibile ottenere liste di frequenze e concordanze, anche con contesto esteso, ed e' consentito fare ricerche su corpora lemmatizzati. E' anche prevista la ricerca su collezioni di testi o su speciali insiemi di testi o ipertesti.

Angela Nuovo ha mostrato siti Internet che trattano del libro antico a stampa (http://www.uniud.it/lettere/libroantico). Parlando della rete SBN e degli OPAC a tutt'oggi consultabili sul web, la relatrice ha mostrato il catalogo EDIT 16, il censimento delle cinquecentine di circa 1200 biblioteche, i vari e molteplici OPAC "illustrati", fino alle esperienze locali di digitalizzazione del libro antico. Mentre all'estero pare che la tendenza sia di fare cataloghi collettivi che uniscono materiali tra i piu' disparati (fra cui "Gallica" in Francia e "American memory" della Library of Congress), in Italia pare manchi la consapevolezza della digitalizzazione e anche i primi progetti di manoscritti in rete non sono stati ancora pubblicati.

Direi quindi che nella molteplicita' di stimolanti progetti presentati al convegno pavese e nelle interessanti prospettive metodologiche, si noti un favorevole avvicinamento dei filologi all'utilizzo degli strumenti informatici, piu' che con l'obiettivo di automatizzare le procedure di *recensio* e di "stemmatica", con la volonta' di realizzare edizioni digitali, dove e' parso assolutamente primeggiare il ricorso ai sistemi di codifica (SGML/TEI) e agli strumenti per la gestione delle banche dati in formato elettronico (DBT). La necessita' che si fa sempre piu' impellente e' di avere a disposizione testi su cui effettuare indagini e ricerche, dove *l'information retrieval* sia preciso ed esaustivo ma dove anche la mole dell'informazione venga interpretata in modo che il recupero dei dati possa soddisfare le esigenze di analisi testuale. La disponibilita' di disporre dei risultati dei lavori di codifica e della strutturazione in banche dati sul web, in formato ipertestuale, consente un sempre piu' diffuso ricorso al "testo" (da intendendersi non solo come sequenza di stringhe di caratteri ma come successione di grafemi interpretati) nella sua istanza digitale con un rinnovato approccio ermeneutico a mole di documenti spesso piu' difficilmente consultabili sul cartaceo e che la resa computazionale rende oggetto di sofisticate ricerche.



*****************************************************************

Bollettino '900 - Electronic Newsletter of '900 Italian Literature
versione e-mail - SEGNALAZIONI / A, agosto 1999. Anno V, 4.
Redazione: Daniela Baroncini, Eleonora Conti, Stefania Filippi,
Anna Frabetti, Elisa Soverini; Editor: Federico Pellizzi.
Dipartimento di Italianistica dell'Universita' di Bologna, Via Zamboni 32,
40126 Bologna, Italy, Fax +39 051 2098555; tel. +39 051 2098595/334294.
Reg. Trib. di Bologna n. 6436 del 19 aprile 1995 - ISSN 1124-1578

URL: http://www.comune.bologna.it/iperbole/boll900/
         http://www.unibo.it/boll900/
         http://oliva.modlang.denison.edu/~pellizzi/
         http://www.brown.edu/Departments/Italian_Studies/boll900/

*****************************************************************


Bollettino '900 - Electronic Newsletter of '900 Italian Literature - © 1997-1999