28 resultados para MIO
em AMS Tesi di Dottorato - Alm@DL - Università di Bologna
Resumo:
La variabilità genetica è un importante strumento per lo studio e la conservazione della biodiversità in specie rare e minacciate di estinzione. Durante il mio dottorato mi sono quindi occupata di mettere a punto diverse metodologie molecolari al fine di valutare la diversità genetica in due specie rare della flora italiana che presentano problematiche diverse e specifiche. I marcatori arbitrari RAPD e i marcatori semi-arbitrari ISSR sono stati utilizzati per valutare la diversità genetica in Quercus crenata Lam. e per confermare l’ipotesi della sua origine ibridogena dalle due specie presunte parentali Quercus cerris L. e Quercus suber L., essendo Q. crenata presente in Italia settentrionale dove Q. suber è attualmente assente. I marcatori SSR o microsatelliti sono invece stati messi a punto su una specie a rischio di estinzione, endemica dell’Appennino Tosco-Emiliano, Primula apennina Widmer, applicando una metodologia specifica, basata sulla costruzione di una libreria genomica arricchita per l’isolamento di primer specifici. I marcatori RAPD e ISSR, utilizzati su un totale di 85 campioni, hanno mostrato alti livelli di diversità molecolare entro le specie studiate, eccetto per Q. suber le cui popolazioni rappresentano il margine orientale di distribuzione della specie, per questo più sottoposte ad impoverimento genetico. Oltre alla cluster analysis (UPGMA) e alla Analisi delle Componenti Principali effettuate per entrambi i marcatori, che confermano l’ipotesi dell’origine ibrida degli individui di Q. crenata diffusi in Italia Settentrionale, sono stati calcolati l’indice di ibridità basato sul maximum likelihood, che dimostra una introgressione asimmetrica di Q. crenata verso il parentale caratterizzato da superiorità demografica (Q. cerris) e il test di Mantel. Quest’ultimo ha permesso di confrontare i due marcatori RAPD e ISSR utilizzati ottenendo una bassa correlazione, a conferma del fatto che, amplificando tratti differenti del DNA nucleare, i dati non sono sovrapponibili, sebbene forniscano risultati analoghi. Per l’isolamento di loci microsatelliti ipervariabili ho utilizzato il protocolllo FIASCO (Fast isolation by AFLP of sequences containing repeats- Zane et al. 2002) che permette di costruire una libreria genomica arricchita partendo dal DNA estratto da P. apennina. Tale procedura ha previsto la digestione del DNA genomico per la produzione di una miscela di frammenti di DNA. Tramite ibridazione con opportune sonde sono stati isolati i frammenti contenenti i microsatelliti. Sequenziando i cloni ricombinanti, ho ottenuto sequenze contenenti repeats sulle cui regioni fiancheggianti sono stati costruiti 15 coppie di primer che potranno, in seguito, essere utilizzate per definire la quota di riproduzione clonale in P. apennina e per valutare la diversità genetica delle popolazioni che coprono l’areale di distribuzione della specie. Data la loro natura altamente variabile e la loro abbondanza nel DNA, gli SSR saranno, come i marcatori RAPD e gli ISSR, ugualmente validi per lo studio della variabilità genetica e per l’analisi di problematiche specifiche legate alle specie rare.
Resumo:
La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.
Resumo:
L’ermeneutica filosofica di Hans-Georg Gadamer – indubbiamente uno dei capisaldi del pensiero novecentesco – rappresenta una filosofia molto composita, sfaccettata e articolata, per così dire formata da una molteplicità di dimensioni diverse che si intrecciano l’una con l’altra. Ciò risulta evidente già da un semplice sguardo alla composizione interna della sua opera principale, Wahrheit und Methode (1960), nella quale si presenta una teoria del comprendere che prende in esame tre differenti dimensioni dell’esperienza umana – arte, storia e linguaggio – ovviamente concepite come fondamentalmente correlate tra loro. Ma questo quadro d’insieme si complica notevolmente non appena si prendano in esame perlomeno alcuni dei numerosi contributi che Gadamer ha scritto e pubblicato prima e dopo il suo opus magnum: contributi che testimoniano l’importante presenza nel suo pensiero di altre tematiche. Di tale complessità, però, non sempre gli interpreti di Gadamer hanno tenuto pienamente conto, visto che una gran parte dei contributi esegetici sul suo pensiero risultano essenzialmente incentrati sul capolavoro del 1960 (ed in particolare sui problemi della legittimazione delle Geisteswissenschaften), dedicando invece minore attenzione agli altri percorsi che egli ha seguito e, in particolare, alla dimensione propriamente etica e politica della sua filosofia ermeneutica. Inoltre, mi sembra che non sempre si sia prestata la giusta attenzione alla fondamentale unitarietà – da non confondere con una presunta “sistematicità”, da Gadamer esplicitamente respinta – che a dispetto dell’indubbia molteplicità ed eterogeneità del pensiero gadameriano comunque vige al suo interno. La mia tesi, dunque, è che estetica e scienze umane, filosofia del linguaggio e filosofia morale, dialogo con i Greci e confronto critico col pensiero moderno, considerazioni su problematiche antropologiche e riflessioni sulla nostra attualità sociopolitica e tecnoscientifica, rappresentino le diverse dimensioni di un solo pensiero, le quali in qualche modo vengono a convergere verso un unico centro. Un centro “unificante” che, a mio avviso, va individuato in quello che potremmo chiamare il disagio della modernità. In altre parole, mi sembra cioè che tutta la riflessione filosofica di Gadamer, in fondo, scaturisca dalla presa d’atto di una situazione di crisi o disagio nella quale si troverebbero oggi il nostro mondo e la nostra civiltà. Una crisi che, data la sua profondità e complessità, si è per così dire “ramificata” in molteplici direzioni, andando ad investire svariati ambiti dell’esistenza umana. Ambiti che pertanto vengono analizzati e indagati da Gadamer con occhio critico, cercando di far emergere i principali nodi problematici e, alla luce di ciò, di avanzare proposte alternative, rimedi, “correttivi” e possibili soluzioni. A partire da una tale comprensione di fondo, la mia ricerca si articola allora in tre grandi sezioni dedicate rispettivamente alla pars destruens dell’ermeneutica gadameriana (prima e seconda sezione) ed alla sua pars costruens (terza sezione). Nella prima sezione – intitolata Una fenomenologia della modernità: i molteplici sintomi della crisi – dopo aver evidenziato come buona parte della filosofia del Novecento sia stata dominata dall’idea di una crisi in cui verserebbe attualmente la civiltà occidentale, e come anche l’ermeneutica di Gadamer possa essere fatta rientrare in questo discorso filosofico di fondo, cerco di illustrare uno per volta quelli che, agli occhi del filosofo di Verità e metodo, rappresentano i principali sintomi della crisi attuale. Tali sintomi includono: le patologie socioeconomiche del nostro mondo “amministrato” e burocratizzato; l’indiscriminata espansione planetaria dello stile di vita occidentale a danno di altre culture; la crisi dei valori e delle certezze, con la concomitante diffusione di relativismo, scetticismo e nichilismo; la crescente incapacità a relazionarsi in maniera adeguata e significativa all’arte, alla poesia e alla cultura, sempre più degradate a mero entertainment; infine, le problematiche legate alla diffusione di armi di distruzione di massa, alla concreta possibilità di una catastrofe ecologica ed alle inquietanti prospettive dischiuse da alcune recenti scoperte scientifiche (soprattutto nell’ambito della genetica). Una volta delineato il profilo generale che Gadamer fornisce della nostra epoca, nella seconda sezione – intitolata Una diagnosi del disagio della modernità: il dilagare della razionalità strumentale tecnico-scientifica – cerco di mostrare come alla base di tutti questi fenomeni egli scorga fondamentalmente un’unica radice, coincidente peraltro a suo giudizio con l’origine stessa della modernità. Ossia, la nascita della scienza moderna ed il suo intrinseco legame con la tecnica e con una specifica forma di razionalità che Gadamer – facendo evidentemente riferimento a categorie interpretative elaborate da Max Weber, Martin Heidegger e dalla Scuola di Francoforte – definisce anche «razionalità strumentale» o «pensiero calcolante». A partire da una tale visione di fondo, cerco quindi di fornire un’analisi della concezione gadameriana della tecnoscienza, evidenziando al contempo alcuni aspetti, e cioè: primo, come l’ermeneutica filosofica di Gadamer non vada interpretata come una filosofia unilateralmente antiscientifica, bensì piuttosto come una filosofia antiscientista (il che naturalmente è qualcosa di ben diverso); secondo, come la sua ricostruzione della crisi della modernità non sfoci mai in una critica “totalizzante” della ragione, né in una filosofia della storia pessimistico-negativa incentrata sull’idea di un corso ineluttabile degli eventi guidato da una razionalità “irrazionale” e contaminata dalla brama di potere e di dominio; terzo, infine, come la filosofia di Gadamer – a dispetto delle inveterate interpretazioni che sono solite scorgervi un pensiero tradizionalista, autoritario e radicalmente anti-illuminista – non intenda affatto respingere l’illuminismo scientifico moderno tout court, né rinnegarne le più importanti conquiste, ma più semplicemente “correggerne” alcune tendenze e recuperare una nozione più ampia e comprensiva di ragione, in grado di render conto anche di quegli aspetti dell’esperienza umana che, agli occhi di una razionalità “limitata” come quella scientista, non possono che apparire come meri residui di irrazionalità. Dopo aver così esaminato nelle prime due sezioni quella che possiamo definire la pars destruens della filosofia di Gadamer, nella terza ed ultima sezione – intitolata Una terapia per la crisi della modernità: la riscoperta dell’esperienza e del sapere pratico – passo quindi ad esaminare la sua pars costruens, consistente a mio giudizio in un recupero critico di quello che egli chiama «un altro tipo di sapere». Ossia, in un tentativo di riabilitazione di tutte quelle forme pre- ed extra-scientifiche di sapere e di esperienza che Gadamer considera costitutive della «dimensione ermeneutica» dell’esistenza umana. La mia analisi della concezione gadameriana del Verstehen e dell’Erfahrung – in quanto forme di un «sapere pratico (praktisches Wissen)» differente in linea di principio da quello teorico e tecnico – conduce quindi ad un’interpretazione complessiva dell’ermeneutica filosofica come vera e propria filosofia pratica. Cioè, come uno sforzo di chiarificazione filosofica di quel sapere prescientifico, intersoggettivo e “di senso comune” effettivamente vigente nella sfera della nostra Lebenswelt e della nostra esistenza pratica. Ciò, infine, conduce anche inevitabilmente ad un’accentuazione dei risvolti etico-politici dell’ermeneutica di Gadamer. In particolare, cerco di esaminare la concezione gadameriana dell’etica – tenendo conto dei suoi rapporti con le dottrine morali di Platone, Aristotele, Kant e Hegel – e di delineare alla fine un profilo della sua ermeneutica filosofica come filosofia del dialogo, della solidarietà e della libertà.
Resumo:
“Il tocco pianistico: premesse storiche e sviluppi scientifici” si pone l’obiettivo di provare la politimbricità del pianoforte. A tal fine, ho indagato la relazione tra il gesto, la meccanica del pianoforte e il suono, problema sfiorato da alcuni maestri del Novecento, ma mai approfondito e sviscerato per ovvie ragioni riguardanti la mancanza di una tecnologia idonea e competenze difficili da trovare in una medesima persona. Per quest’ultima ragione mi sono avvalsa della collaborazione sia del Laboratorio di Anatomia Funzionale dell'Apparato Locomotore del Dipartimento di Morfologia Umana dell’Università di Milano, dove lavorano esperti delle più moderne tecnologie idonee alla registrazione del movimento, sia dell’ingegnere Alberto Amendola, docente a contratto di Acustica musicale presso l’Università di Parma per ciò che concerne l’analisi del suono e i rilievi acustici. La tesi si articola in due parti organizzate in quattro capitoli. Nel primo, La didattica pianistica nel primo trentennio del Novecento: il tocco e il timbro come parole chiave, dopo aver tracciato un quadro generale riguardante i concetti di ‘tocco’ e ‘timbro’ incontrati nei metodi e trattati del Sette/Ottocento, già affrontati nella tesi di laurea, procedo ad analizzare alcuni dei lavori più rappresentativi scritti tra la fine dell’Ottocento e gli anni Trenta del Novecento (The Leschetizky Method. A Guide to Fine and Correct Piano Playing di Malwine Brée, Über die physiologischen Fehler und die Umgestaltung der Klaviertechnik di Albert Maria Steinhausen, Die Grundlagen der Klaviertechnik di Rudolph Maria Breithaupt e The Phisiological Mechanics of Piano Technique di Otto Ortmann). Tali studi presentano una parte dedicata alle diverse modalità di produzione sonora e, quasi tutti, giungono ad una medesima conclusione: pur nella sua ricchezza, il pianoforte è uno strumento monotimbrico, dove la differenza tra i suoni è data dall’intensità e dall’agogica. Al fine di provare la politimbricità del pianoforte, il mio percorso di studi si è scontrato sia con la meccanica del pianoforte sia con l’acustica musicale. Ho fatto precedere quindi l’indagine scientifica, che confluisce nel capitolo IV, da una sezione in cui presento l’evoluzione della meccanica del pianoforte fino a giungere alla descrizione della meccanica moderna (capitolo II, Il Pianoforte: meccanica e modalità di produzione del suono), e da un’altra in cui affronto i fondamenti di acustica musicale, al fine di fornire al lettore i mezzi basilari per cimentarsi con la parte scientifica (capitolo III, Cenni di acustica musicale). Il capitolo IV è il resoconto organico e sistematico delle sperimentazioni svolte durante il dottorato presso il laboratorio di Anatomia funzionale dell’apparato locomotore dell’Università di Milano. La presentazione ripercorre necessariamente le tappe della ricerca considerata la novità assoluta dell’oggetto indagato. All’illustrazione dei dati di ogni fase segue sempre la discussione e l’interpretazione dei risultati per garantire la validità dell’esperimento. L’interesse della ricerca è stato condiviso oltre che dal dipartimento di Anatomia, anche dalla casa costruttrice di pianoforti Bechstein che ha costruito una meccanica speciale, e dalla ditta di pianoforti Angelo Fabbrini, che ha messo a disposizione un mezza coda Bechstein per effettuare i rilievi. Il capitolo IV, che rappresenta, dunque, il cuore della presente dissertazione dottorale, dimostra che il pianoforte è uno strumento politimbrico: mettendo in relazione il gesto pianistico, la reazione della meccanica e il suono è risultato che al movimento del martello, ripetibilmente diverso a seconda del tocco pianistico, corrisponde una reazione acustica che varia ripetibilmente in maniera differente a seconda del tocco.
Resumo:
Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.
Resumo:
Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.
Resumo:
INTRODUZIONE. Presentazione della ricerca e del metedo seguito per realizzarla. CAPITOLO PRIMO. Il contesto storico, politico e sociale di riferimento. - Storia della Siria, - La Siria politica e il conflitto israelo-palestinese - La società siriana: multiculturalismo, tradizione, islam. - Teatro e letteratura in Siria, e nel Bilad AlSham. CAPITOLO SECONDO. I testi. Traduzione integrale di due opere teatrali di Sa’d Allah Wannus. Breve presentazione. - “ Riti di segni e trasformazioni.”, (tukus al-isharat wa-l-tahawwulat), 1994. Il dramma si svolge nella Damasco del XIX secolo, dove un affare di morale e buon costume è il punto di partenza per la metamorfosi dei suoi protagonisti, mettendo a nudo le riflessioni, i desideri più intimi, le contraddizioni e le angosce di una società in crisi. Interessante l’analisi delle figure femminili di questa piece, le loro scelte, il loro ruolo nella società e soprattutto la presa di coscienza delle loro posizioni. - “ I giorni ubriachi.” , (Alayyam Almakhmura), 1997. Il ritratto di una famiglia siriana degli anni trenta. Due genitori, quattro figli, e un nipote che a distanza di anni decide di ripercorrere e raccontarci le loro storie.Una madre che vive tormentata dal suo spettro e che decide di abbandonare la propria famiglia e i propri figli per seguire un altro uomo. Un padre che tiene con violenza le redini delle proprie relazioni, e che rifiuta l’occidente in tutte le sue forme per restare aggrappato alle proprie tradizioni. Un figlio che sceglie l’ordine e la carriera militare, e che, incapace di risolvere il suo rapporto di dipendenza dalla madre, e di risolvere il conflitto tra la legge e un affetto quasi morboso, sceglie di suicidarsi. Un figlio che sceglie la via della perdizione, delle droghe, del furto e degli affari illegali, e che va incontro al successo e alla ricchezza... CAPITOLO TERZO. Biografia di Sa’d Allah Wannus, presentazione delle sue opere principali. Sa’d Allah Wannus (1941 – 1997) è sicuramente uno dei principali protagonisti nell’ambito del teatro arabo contemporaneo. Scrittore, critico, drammaturgo, riformatore, uomo impegnato politicamente, e infine essere umano nella lotta tra la vita e la morte (muore a 56 anni per tumore, dopo un lungo periodo di degenza). Mio intento è quello di analizzare l’opera di quest’autore, attraverso i suoi numerosi scritti e piece teatrali (purtroppo al giorno d’oggi ancora quasi interamente non tradotte dall’arabo), fino ad arrivare, attraverso queste, ad una lettura della società araba contemporanea, e al ruolo che il teatro assume al suo interno. Vita e opere di Sa’ad Allah Wannus. Nasce in Siria nel 1941 in un piccolo villaggio vicino alla città di Tartous, sulla costa mediterranea. Dopo aver terminato gli studi superiori, nel 1959, parte per Il Cairo (Egitto), per studiare giornalismo e letteratura. Rientra a Damasco nel 1964, lavorando al tempo stesso come funzionario al ministero della cultura e come redattore o giornalista in alcune riviste e quotidiani siriani. Nel 1966 parte per Parigi, dove studierà con Jean-Louis Barrault, e dove farà la conoscenza delle tendenze del teatro contemporaneo. Ha l’occasione di incontrare scrittori e critici importanti come Jean Genet e Bernard Dort, nonché di conoscere le teorie sul teatro di Brech e di Piscator, dai quali sarà chiaramente influenzato. In questi anni, e soprattutto in seguito agli avvenimenti del Maggio 1968, si sviluppa in modo determinante la sua coscienza politica, e sono questi gli anni in cui compone alcune tra le sue piece più importanti, come: Serata di gala per il 5 giugno (haflat samar min ajl khamsa huzayran) nel 1968, L’elefante, oh re del tempo! (al-fil, ya malik al-zaman!) 1969, Le avventure della testa del Mamelucco Jaber (Meghamarat ra’s al-mamluk Jabiir) 1970, Una serata con Abu-Khalil al- Qabbani (Sahra ma’a Abi Khalil Al-Qabbani) 1972, Il re è il re (al-malik uwa al-malik) 1977. Parallelamente porta avanti una intensa attività artistica e intellettuale. Soggiorna di nuovo in Francia e a Weimar, per portare a termine la sua formazione teatrale, fonda il Festival di teatro di Damasco, traduce e mette in scena numerosi spettacoli, scrive e pubblica numerosi articoli e una importante serie di studi sul teatro, intitolata: Manifesto per un nuovo teatro arabo (bayanat limasrah ‘arabi jadid) (1970). Scrive in numerose riviste e giornali e fonda la rivista La vita teatrale (al-hayyat al-masrahiyya), del quale sarà capo redattore. La visita del presidente egiziano Anouar Sadat a Gerusalemme nel 1977 e gli accordi di Camp David l’anno seguente, lo gettano in una profonda depressione. E’ l’inizio di un lungo periodo di silenzio e di smarrimento. Ritornerà a scrivere solamente nel 1989, con l’inizio della prima Intifada palestinese, scrive allora una piece teatrale intitolata Lo stupro (al-ightisab), dove presenta un’analisi della struttura dell’elite al potere in Israele. Questo testo apre una nuova epoca creativa, durante la quale Wannus compone alcuni testi molto importanti, nonostante la malattia e il cancro che gli viene diagnosticato nel 1992. Tra questi le pieces Miniature storiche (munamnamat tarakhiyya), nel 1993, e Rituali per una metamorfosi (tukus al-isharat wa-l-tahawwulat), nel 1994 e A proposito della memoria e della morte (‘an al-dhakira wa-l-mawt) nel 1996, una sua ultima opera in cui sono raccolti dei racconti, drammi brevi e una lunga meditazione sulla malattia e la morte. Nel 1997 l’UNESCO gli chiede di redigere il messaggio per la Giornata Mondiale del Teatro, che si tiene ogni anno il 27 marzo. Nel 1997, poche settimane prima della sua scomparsa, realizza insieme ad Omar Almiralay il film documentario Il y a tant de choses a reconter, una intervista in cui Wannus parla della sua opera, e del conflitto Israelo-Palestinese. Muore a 56 anni, il 15 maggio 1997, per un’amara coincidenza proprio il giorno anniversario della creazione di Israele. Wannus drammaturgo engagè: l’importanza del conflitto israelo palestinese nella sua opera. Un’analisi dell’influenza e dell’importanza che le opere di Wannus hanno avuto nel seno della società araba, e soprattutto il suo impegno costante nell’uso del teatro come mezzo per la presa di coscienza del pubblico dei problemi della società contemporanea. Punto cardine dell’opera di Wannus, il conflitto israelo palestinese, e il tentativo costante in alcune sue opere di analizzarne le cause, le strutture, le parti, i giochi di potere. E’ il simbolo di tutta la generazione di Wannus, e delle successive. Analisi delle illusioni e dei miti che la società araba ripropone e che Wannus ha cercato più volte di mettere a nudo. La lotta contro le ipocrisie dei governi, e il tentativo di far prendere coscienza alla società araba del suo ruolo, e delle conseguenze delle sue azioni. L’individuo, la famiglia, la società ... il teatro. Distruggere le apparenze per mettere a nudo l’essere umano nella sua fragilità. CONCLUSIONI. APPENDICE: Intervista con Marie Elias BIBLIOGRAFIA.
Resumo:
Nonostante la riforma societaria ed i tentativi di rilanciare l’economia nazionale, ancora oggi la principale fonte di ricchezza e di capitalizzazione resta l’investimento immobiliare. Ed ecco perchè si sente sempre più parlare di “Real Estate”, ovvero dei diritti reali sui beni immobili, della loro circolazione, e delle garanzie e tutele ad essa correlate. Dalla vendita immobiliare tipizzata nel codice civile del ’42 ad oggi molto è cambiato. E il mio lavoro parte proprio da un’analisi delle nuove forme e dei nuovi limiti alla circolazione degli immobili. In primis ho affrontato il tema del riconoscimento giurisprudenziale della cessione di cubatura: un esempio tipico del passaggio dal fatto al diritto attraverso la costruzione giurisprudenziale di nuove fattispecie giuridiche già in uso fra gli operatori del mercato. Tecnicamente la stessa espressione “cessione di cubatura” non risulta corretta: non si ha una vera e propria cessione, quanto la costituzione di una servitù ius non edificandi a favore di un terreno e a carico di un altro. La giurisprudenza è ormai concorde nello stabilire che l’accordo delle parti rimane comunque privo di efficacia se ad esso non segue un permesso di costruire della Pubblica Amministrazione che riconosca la maggiore capacità edificatoria al terreno a cui vantaggio è stabilità la servitù. Un’altra nuova forma di circolazione della proprietà, così come degli altri diritti reali minori, è la multiproprietà. La multiproprietà viene disciplinata nel nostro ordinamento, a seguito di una risoluzione del Parlamento Europeo del 13 ottobre 1988, dapprima con il D.lgs. 9 novembre 1998 e da ultimo con il Codice del Consumo, che con gli artt. 69 ss. stabilisce una più puntuale tutela degli acquirenti. Si riconosce qui l’esistenza di uno squilibrio fra le posizioni contrattuali fra venditore ed acquirente/consumatore: vi è una profonda asimmetria informativa fra le parti, che viene colmata prevedendo la consegna al futuro acquirente di un dettagliato prospetto informativo predisposto dal venditore. La mia attenzione si è concentrata proprio sul tema delle tutele che il nostro ordinamento riconosce al consumatore multiproprietario: un prospetto informativo dal contenuto minimo legislativamente predeterminato, recesso, fideiussione. Ho dedicato un particolare approfondimento alla normativa sull’acquisto immobiliare sulla carta. Il D.lgs. 122/2005 si inserisce nel contesto di una legislazione, che spesso trova la sua origine nel diritto privato europeo, finalizzata alla regolamentazione di un fenomeno sempre più frequente nella realtà economica contemporanea, rappresentato dalla contrattazione fra soggetti che si trovano in una posizione di squilibrio contrattuale: un “contraente forte” da una parte, ed un “contraente debole” dall’altra. La legislazione nazionale interviene sempre più frequentemente per porre un rimedio a queste situazioni di squilibrio, con interventi di tipo conformativo intesi a rendere effettiva l’autonoma contrattuale delle parti e, conseguentemente, agevolare il corretto funzionamento del mercato. Si parla in tal senso di una ius espansiva del modello europeo di legislazione a tutela del contraente debole, e quindi di una espansione del diritto privato europeo anche in settori dove manca una puntuale normativa comunitaria. Vi è una generale tendenza ad un “neoformalismo”, che consiste nella richiesta espressa della forma scritta e nella conformazione del contenuto del contratto, che solo apparentemente limitano l’autonomia contrattuale delle parti ma che tende ad eliminare le situazioni di squilibrio dando una tutela effettiva al contraente debole. Contraente debole e non “consumatore”. L’art. 1 del decreto parla, infatti, espressamente di “persona fisica”. Secondo gli orientamenti dottrinali maggioritari dalla nuova disciplina resterebbero esclusi, e quindi non rientrerebbero nella definizione di “acquirenti”, le società, le persone giuridiche e gli enti collettivi in generale. Si riconosce la figura del “professionista debole”, giacché si riconosce che l’acquisto di un immobile da costruire sia un’operazione che, in virtù della sua importanza economica, viene gestita con maggiore avvedutezza: l’acquisto di un immobile non è propriamente “atto di consumo”in senso tecnico. L’esigenza di tutela è diversa: si vuole tutelare l’acquirente in considerazione dell’intrinseca rischiosità dell’operazione, stabilendo alcuni profili fondamentali del contenuto del contratto non solo e non tanto a fini informativi, quanto piuttosto per una “tutela sostanziale” dell’acquirente. Il legislatore si preoccupa di predisporre garanzie obbligatorie per il caso di dissesto dell’impresa costruttrice. Le garanzie, quindi, come forma di tutela del contraente debole. Il mio lavoro si concentra, a questo punto, sulle garanzie personali e reali. Poche le novità sulle garanzie, ma alcune significative. Nel campo delle garanzie personali, acquista maggiore rilevanza la fideiussione prestata dal contraente forte a favore del contraente debole, affinché quest’ultimo possa recuperare tutte le somme investite per l’acquisto dell’immobile: sia esso un immobile in multiproprietà, sia esso un immobile ancora da costruire. E ancora le garanzie reali: pegno e ipoteca. Ho posto particolare attenzione al tema della "portabilità" dei mutui e surrogazione ex art. 1202 c.c. ed al tema delle formalità ipotecarie così come previsti dagli artt. 6, 7 e 8 della l. 2 aprile 2007, n. 40 sulla concorrenza. Ma la mia attenzione si è soffermata soprattutto sul tema della nullità ed in particolare sulla nullità relativa. La più recente legislazione speciale, specie quella di derivazione europea, ha dato un grosso scossone alla dogmatica tradizionale della nullità negoziale. Le fattispecie di nullità relativa sono sempre più frequenti, tanto da far parlare di una nuova categoria di nullità c.d. “nullità di protezione”. Quest’ultima risponde ad esigenze profondamente differenti dalla nullità assoluta di stampo codicistico. In luogo della nullità, sembra oggi più corretto parlare delle nullità: diverse categorie di invalidità, ciascuna delle quali soddisfa interessi diversificati, e come tale riceve anche una disciplina differenziata in termini di legittimazione all’azione, rilevabilità d’ufficio, prescrittibilità, sanabilità, opponibilità ai terzi. Ancora una volta partendo da un’analisi critica del D.lgs. 122/2005, ho avuto modo di approfondire il fondamentale tema della nullità nel nostro ordinamento. L’art. 2 del decreto stabilisce espressamente la nullità relativa, e cioè azionabile dal solo acquirente parte debole del contratto, nel caso in cui non sia rilasciata dal venditore la fideiussione. L’art. 6 stabilisce, invece, un contenuto minimo del contratto poste a tutela della parte debole e del corretto funzionamento del mercato immobiliare. Se ad alcune di esse può attribuirsi un valore meramente ordinatorio, altre al contrario rivestono una natura di norme imperative di ordine pubblico attinenti più precisamente al c.d. ordine pubblico di protezione ed al c.d. ordine pubblico di direzione. Nel sistema del nostro codice, la violazione di norma imperative dà luogo, ex art. 1418, alla nullità del contatto salvo che la legge stabilisca diversamente. E’quindi configurabile una nullità virtuale del contratto, ovvero non espressamente e letteralmente stabilita, ma che può essere desunta dal tenore imperativo delle norme. La dottrina prevalente è ormai orientata nel senso di ammettere che anche la nullità relativa possa essere virtuale, nel quadro di un orientamento, ormai dominante, volto al superamento dell’approccio tendente a far rientrare nell’eccezionalità qualsiasi difformità dal modello classico della nullità. Il problema, quindi, si sposta all’individuazione della natura imperativa della norma violata. In linea generale si afferma che perché una norma possa essere definita imperativa debba porre un comando o un divieto espresso, debba essere inderogabile ed indisponibile. Oggetto di dibattiti dottrinali è, poi, il tema della rilevabilità d’ufficio delle nullità relative. A fronte di una prima posizione dottrinale tendente ad escludere tale rilevabilità d’ufficio sul presupposto di una sua inconciliabilità con il regime di legittimazione relativa all’azione di nullità, dottrina e giurisprudenza più recenti appaiono concordi nel ritenere assolutamente conciliabili tali due profili. Si concorda, inoltre, sull’esistenza di limitazioni alla rilevabilità d’ufficio della nullità: la nullità può essere rilevata d’ufficio dal giudice, ma tale rilievo deve operare nell’esclusivo interesse del contraente debole, dovendo il giudice bloccarsi davanti ad un concreto interesse della parte a mantenere in vita il contratto. Discorso a sé stante deve poi esser fatto sul rapporto fra nullità relativa e nullità virtuale e responsabilità del notaio rogante. Secondo l’orientamento dominante della giurisprudenza, nella misura in cui vi sia una violazione di norme imperative, e l’imperatività sia evidente, manifesta, dal tenore delle disposizioni, deve ritenersi che la nullità, sia testuale che virtuale, comporti la responsabilità del notaio ai sensi dell’art. 28 l. not. Ogni qualvolta, viceversa, tale nullità non si configuri, la responsabilità disciplinare sarà esclusa. Si avverte, comunque, una prima apertura verso la sanzionabilità delle nullità relative che siano manifeste. In chiusura del mio lavoro non ho potuto non tenere conto della recente crisi dei mercati internazionali. Crisi che ha avuto inizio proprio con il crollo negli Stati Uniti dei settori immobiliare e finanziario, improntati verso una eccessiva deregolamentazione e valorizzazione dell’autonomia contrattuale delle parti. L’assenza di garanzie sicure e la carenza di controllo di un professionista corrispondente al nostro notaio pubblico ufficiale, ha portato ad investimenti e finanziamenti azzardati da parte delle banche e degli istituti di credito che stanno vivendo un momento di profonda crisi aprendo la strada ad una recessione economica di portata mondiale.
Resumo:
I libretti che Pascoli scrisse in forma di abbozzi e che sognò potessero calcare il palcoscenico di un teatro furono davvero un “melodramma senza musica”. In primo luogo, perché non giunsero mai ad essere vestiti di note e ad arrivare in scena; ma anche perché il tentativo di scrivere per il teatro si tinse per Pascoli di toni davvero melodrammatici, nel senso musicale di sconfitta ed annullamento, tanto da fare di quella pagina della sua vita una piccola tragedia lirica, in cui c’erano tante parole e, purtroppo, nessuna musica. Gli abbozzi dei drammi sono abbastanza numerosi; parte di essi è stata pubblicata postuma da Maria Pascoli.1 Il lavoro di pubblicazione è stato poi completato da Antonio De Lorenzi.2 Ho deciso di analizzare solo quattro di questi abbozzi, che io reputo particolarmente significativi per poter cogliere lo sviluppo del pensiero drammatico e della poetica di Pascoli. I drammi che analizzo sono Nell’Anno Mille (con il rifacimento Il ritorno del giullare), Gretchen’s Tochter (con il rifacimento La figlia di Ghita), Elena Azenor la Morta e Aasvero o Caino nel trivio o l’Ebreo Errante. La prima ragione della scelta risiede nel fatto che questi abbozzi presentano una lunghezza più consistente dell’appunto di uno scheletro di dramma registrato su un foglietto e, quindi, si può seguire attraverso di essi il percorso della vicenda, delle dinamiche dei personaggi e dei significati dell’opera. Inoltre, questi drammi mostrano cosa Pascoli intendesse comporre per sollevare le vesti del libretto d’opera e sono funzionali all’esemplificazione delle sue concezioni teoriche sulla musica e il melodramma, idee che egli aveva espresso nelle lettere ad amici e compositori. In questi quattro drammi è possibile cogliere bene le motivazioni della scelta dei soggetti, il loro significato entro la concezione melodrammatica del poeta, il sistema simbolico che soggiace alla creazione delle vicende e dei personaggi e i legami con la poetica pascoliana. Compiere un’analisi di questo tipo significa per me, innanzitutto, risalire alle concezioni melodrammatiche di Pascoli e capire esattamente cosa egli intendesse per dramma musicale e per rinnovamento dello stesso. Pascoli parla di musica e dei suoi tentativi di scrivere per il teatro lirico nelle lettere ai compositori e, sporadicamente, ad alcuni amici (Emma Corcos, Luigi Rasi, Alfredo Caselli). La ricostruzione del pensiero e dell’estetica musicale di Pascoli ha dovuto quindi legarsi a ricerche d’archivio e di materiali inediti o editi solo in parte e, nella maggioranza dei casi, in pubblicazioni locali o piuttosto datate (i primi anni del Novecento). Quindi, anche in presenza della pubblicazione di parte del materiale necessario, quest’ultimo non è certo facilmente e velocemente consultabile e molto spesso è semi sconosciuto. Le lettere di Pascoli a molti compositori sono edite solo parzialmente; spesso, dopo quei primi anni del Novecento, in cui chi le pubblicò poté vederle presso i diretti possessori, se ne sono perse le tracce. Ho cercato di ricostruire il percorso delle lettere di Pascoli a Giacomo Puccini, Riccardo Zandonai, Giovanni Zagari, Alfredo Cuscinà e Guglielmo Felice Damiani. Si tratta sempre di contatti che Pascoli tenne per motivi musicali, legati alla realizzazione dei suoi drammi. O per le perdite prodotte dalla storia (è il 1 Giovanni Pascoli, Nell’Anno Mille. Sue notizie e schemi da altri drammi, a c. di Maria Pascoli, Bologna, Zanichelli, 1924. 2 Giovanni Pascoli, Testi teatrali inediti, a c. di Antonio De Lorenzi, Ravenna, Longo, 1979. caso delle lettere di Pascoli a Zandonai, che andarono disperse durante la seconda guerra mondiale, come ha ricordato la prof.ssa Tarquinia Zandonai, figlia del compositore) o per l’impossibilità di stabilire contatti quando i possessori dei materiali sono privati e, spesso, collezionisti, questa parte delle mie ricerche è stata vana. Mi è stato possibile, però, ritrovare gli interi carteggi di Pascoli e i due Bossi, Marco Enrico e Renzo. Le lettere di Pascoli ai Bossi, di cui do notizie dettagliate nelle pagine relative ai rapporti con i compositori e all’analisi dell’Anno Mille, hanno permesso di cogliere aspetti ulteriori circa il legame forte e meditato che univa il poeta alla musica e al melodramma. Da queste riflessioni è scaturita la prima parte della tesi, Giovanni Pascoli, i musicisti e la musica. I rapporti tra Pascoli e i musicisti sono già noti grazie soprattutto agli studi di De Lorenzi. Ho sentito il bisogno di ripercorrerli e di darne un aggiornamento alla luce proprio dei nuovi materiali emersi, che, quando non sono gli inediti delle lettere di Pascoli ai Bossi, possono essere testi a stampa di scarsa diffusione e quindi poco conosciuti. Il quadro, vista la vastità numerica e la dispersione delle lettere di Pascoli, può subire naturalmente ancora molti aggiornamenti e modifiche. Quello che ho qui voluto fare è stato dare una trattazione storico-biografica, il più possibile completa ed aggiornata, che vedesse i rapporti tra Pascoli e i musicisti nella loro organica articolazione, come premessa per valutare le posizioni del poeta in campo musicale. Le lettere su cui ho lavorato rientrano tutte nel rapporto culturale e professionale di Pascoli con i musicisti e non toccano aspetti privati e puramente biografici della vita del poeta: sono legate al progetto dei drammi teatrali e, per questo, degne di interesse. A volte, nel passato, alcune di queste pagine sono state lette, soprattutto da giornalisti e non da critici letterari, come un breve aneddoto cronachistico da inserire esclusivamente nel quadro dell’insuccesso del Pascoli teatrale o come un piccolo ragguaglio cronologico, utile alla datazione dei drammi. Ricostruire i rapporti con i musicisti equivale nel presente lavoro a capire quanto tenace e meditato fu l’avvicinarsi di Pascoli al mondo del teatro d’opera, quali furono i mezzi da lui perseguiti e le proposte avanzate; sempre ho voluto e cercato di parlare in termini di materiale documentario e archivistico. Da qui il passo ad analizzare le concezioni musicali di Pascoli è stato breve, dato che queste ultime emergono proprio dalle lettere ai musicisti. L’analisi dei rapporti con i compositori e la trattazione del pensiero di Pascoli in materia di musica e melodramma hanno in comune anche il fatto di avvalersi di ricerche collaterali allo studio della letteratura italiana; ricerche che sconfinano, per forza di cose, nella filosofia, estetica e storia della musica. Non sono una musicologa e non è stata mia intenzione affrontare problematiche per le quali non sono provvista di conoscenze approfonditamente adeguate. Comprendere il panorama musicale di quegli anni e i fermenti che si agitavano nel teatro lirico, con esiti vari e contrapposti, era però imprescindibile per procedere in questo cammino. Non sono pertanto entrata negli anfratti della storia della musica e della musicologia, ma ho compiuto un volo in deltaplano sopra quella terra meravigliosa e sconfinata che è l’opera lirica tra Ottocento e Novecento. Molti consigli, per non smarrirmi in questo volo, mi sono venuti da valenti musicologi ed esperti conoscitori della materia, che ho citato nei ringraziamenti e che sempre ricordo con viva gratitudine. Utile per gli studi e fondamentale per questo mio lavoro è stato riunire tutte le dichiarazioni, da me conosciute finora, fornite da Pascoli sulla musica e il melodramma. Ne emerge quella che è la filosofia pascoliana della musica e la base teorica della scrittura dei suoi drammi. Da questo si comprende bene perché Pascoli desiderasse tanto scrivere per il teatro musicale: egli riteneva che questo fosse il genere perfetto, in cui musica e parola si compenetravano. Così, egli era convinto che la sua arte potesse parlare ed arrivare a un pubblico più vasto. Inoltre e soprattutto, egli intese dare, in questo modo, una precisa risposta a un dibattito europeo sul rinnovamento del melodramma, da lui molto sentito. La scrittura teatrale di Pascoli non è tanto un modo per trovare nuove forme espressive, quanto soprattutto un tentativo di dare il suo contributo personale a un nuovo teatro musicale, di cui, a suo dire, l’umanità aveva bisogno. Era quasi un’urgenza impellente. Le risposte che egli trovò sono in linea con svariate concezioni di quegli anni, sviluppate in particolare dalla Scapigliatura. Il fatto poi che il poeta non riuscisse a trovare un compositore disposto a rischiare fino in fondo, seguendolo nelle sue creazioni di drammi tutti interiori, con scarso peso dato all’azione, non significa che egli fosse una voce isolata o bizzarra nel contesto culturale a lui contemporaneo. Si potranno, anche in futuro, affrontare studi sugli elementi di vicinanza tra Pascoli e alcuni compositori o possibili influenze tra sue poesie e libretti d’opera, ma penso non si potrà mai prescindere da cosa egli effettivamente avesse ascoltato e avesse visto rappresentato. Il che, documenti alla mano, non è molto. Solo ciò a cui possiamo effettivamente risalire come dato certo e provato è valido per dire che Pascoli subì il fascino di questa o di quell’opera. Per questo motivo, si trova qui (al termine del secondo capitolo), per la prima volta, un elenco di quali opere siamo certi Pascoli avesse ascoltato o visto: lo studio è stato possibile grazie ai rulli di cartone perforato per il pianoforte Racca di Pascoli, alle testimonianze della sorella Maria circa le opere liriche che il poeta aveva ascoltato a teatro e alle lettere del poeta. Tutto questo è stato utile per l’interpretazione del pensiero musicale di Pascoli e dei suoi drammi. I quattro abbozzi che ho scelto di analizzare mostrano nel concreto come Pascoli pensasse di attuare la sua idea di dramma e sono quindi interpretati attraverso le sue dichiarazioni di carattere musicale. Mi sono inoltre avvalsa degli autografi dei drammi, conservati a Castelvecchio. In questi abbozzi hanno un ruolo rilevante i modelli che Pascoli stesso aveva citato nelle sue lettere ai compositori: Wagner, Dante, Debussy. Soprattutto, Nell’Anno Mille, il dramma medievale sull’ultima notte del Mille, vede la significativa presenza del dantismo pascoliano, come emerge dai lavori di esegesi della Commedia. Da questo non è immune nemmeno Aasvero o Caino nel trivio o l’Ebreo Errante, che è il compimento della figura di Asvero, già apparsa nella poesia di Pascoli e portatrice di un messaggio di rinascita sociale. I due drammi presentano anche una specifica simbologia, connessa alla figura e al ruolo del poeta. Predominano, invece, in Gretchen’s Tochter e in Elena Azenor la Morta le tematiche legate all’archetipo femminile, elemento ambiguo, materno e infero, ma sempre incaricato di tenere vivo il legame con l’aldilà e con quanto non è direttamente visibile e tangibile. Per Gretchen’s Tochter la visione pascoliana del femminile si innesta sulle fonti del dramma: il Faust di Marlowe, il Faust di Goethe e il Mefistofele di Boito. I quattro abbozzi qui analizzati sono la prova di come Pascoli volesse personificare nel teatro musicale i concetti cardine e i temi dominanti della sua poesia, che sarebbero così giunti al grande pubblico e avrebbero avuto il merito di traghettare l’opera italiana verso le novità già percorse da Wagner. Nel 1906 Pascoli aveva chiaramente compreso che i suoi drammi non sarebbero mai arrivati sulle scene. Molti studi e molti spunti poetici realizzati per gli abbozzi gli restavano inutilizzati tra le mani. Ecco, allora, che buona parte di essi veniva fatta confluire nel poema medievale, in cui si cantano la storia e la cultura italiane attraverso la celebrazione di Bologna, città in cui egli era appena rientrato come professore universitario, dopo avervi già trascorso gli anni della giovinezza da studente. Le Canzoni di Re Enzio possono quindi essere lette come il punto di approdo dell’elaborazione teatrale, come il “melodramma senza musica” che dà il titolo a questo lavoro sul pensiero e l’opera del Pascoli teatrale. Già Cesare Garboli aveva collegato il manierismo con cui sono scritte le Canzoni al teatro musicale europeo e soprattutto a Puccini. Alcuni precisi parallelismi testuali e metrici e l’uso di fonti comuni provano che il legame tra l’abbozzo dell’Anno Mille e le Canzoni di Re Enzio è realmente attivo. Le due opere sono avvicinate anche dalla presenza del sostrato dantesco, tenendo presente che Dante era per Pascoli uno dei modelli a cui guardare proprio per creare il nuovo e perfetto dramma musicale. Importantissimo, infine, è il piccolo schema di un dramma su Ruth, che egli tracciò in una lettera della fine del 1906, a Marco Enrico Bossi. La vicinanza di questo dramma e di alcuni degli episodi principali della Canzone del Paradiso è tanto forte ed evidente da rendere questo abbozzo quasi un cartone preparatorio della Canzone stessa. Il Medioevo bolognese, con il suo re prigioniero, la schiava affrancata e ancella del Sole e il giullare che sulla piazza intona la Chanson de Roland, costituisce il ritorno del dramma nella poesia e l’avvento della poesia nel dramma o, meglio, in quel continuo melodramma senza musica che fu il lungo cammino del Pascoli librettista.
Resumo:
La regolazione dell’espressione genica è un processo molto complesso e finemente controllato da fattori multipli, tra i quali quelli epigenetici hanno richiamato l’attenzione nell’ultima decade. I meccanismi di regolazione epigenetica comprendono la metilazione del DNA a livello delle isole CpG nella regione del promotore del gene e le modifiche istoniche post-traduzionali, quali acetilazioni e metilazioni. Questa serie di elementi di regolazione concorre a determinare uno stato di impacchettamento della cromatina più o meno rilassato, che influenzerà la trascrizione di geni critici, per esempio nello sviluppo o nelle neoplasie. Gli ambiti nei quali lo studio del profilo epigenetico ha assunto maggiore rilievo sono effettivamente quello oncologico e quello del differenziamento di cellule staminali, due contesti nei quali si è svolto il mio programma di Dottorato, nel quale ho seguito in parallelo più progetti presentati nella tesi in modo indipendente. La ricerca in campo tumorale è centrata sull’indagine di nuovi marcatori e sull’individuazione di profili epigenetici specifici per un determinato tumore che possano aiutare la diagnostica precoce, la classificazione e la sorveglianza dell’evoluzione clinica della neoplasia. In questo contesto si inserisce il progetto finalizzato alla costruzione di quadri associativi di metilazione in due tumori cerebrali, il glioblastoma (GBM) e l’oligodendroglioma (ODG). La casistica di GBM e di ODG in dotazione è stata valutata dal punto di vista della metilazione dei promotori di geni (MGMT, EMP3,..) con funzioni oncosoppressive e trovati ipermetilati anche in altri tumori o localizzati in regioni citologicamente instabili, per poter correlare questi dati con la risposta terapeutica nel caso del GBM o con i dati di perdita di eterozigosità (LOH) 1p19q nel caso dell’ODG. Parallelamente all’individuazione di marcatori epigenetici in ambito oncologico, la ricerca si sta muovendo anche nell’indagine di nuove potenziali terapie farmacologiche antitumorali su base epigenetica. In questo contesto, con lo scopo di approfondire le relazioni tra i meccanismi alla base della regolazione epigenetica, ci si è riproposti di valutare la correlazione tra il meccanismo di metilazione/demetilazione del DNA e quello di acetilazione/deacetilazione istonica e la loro vicendevole influenza nel determinare silenziamento genico piuttosto che riattivazione dell’espressione di geni ipermetilati. Sono stati usati farmaci epigenetici demetilanti, quali Azacitidina e Decitabina, inibitori della istone deacetilasi, quali la Tricostatina A, e inibitori della via di sintesi di molecole, le poliammine, coinvolte nella regolazione dell’espressione genica con modalità ancora da precisare in modo definitivo. Sebbene i meccanismi di regolazione epigenetica vengano studiati per lo più nel cancro, a causa delle gravi conseguenze che una loro disregolazione porta in termini di silenziamento di geni oncosoppressori, essi sono implicati fisiologicamente anche nel differenziamento di cellule staminali. Gli ultimi due progetti trattati nella tesi si contestualizzano in questo ambito. In particolare viene presentata la messa a punto di una metodologia di immunoprecipitazione sequenziale della cromatina finalizzata all’individuazione di due modificazioni istoniche associate alla stessa regione di DNA. Le modifiche hanno riguardato i marcatori rappresenatativi di cromatina trascrizionalmente repressa H3K27me3 (trimetilazione della Lys27 dell’istone H3) e di cromatina trascrizionalmente attiva H3K24me2 (dimetilazione della Lys4 dell’istone H3) che definiscono i domini detti bivalenti, associati a geni che codificano per fattori di trascrizione che regolano lo sviluppo in cellule embrionali staminali, mantenendoli pronti per un veloce indirizzamento verso l’ attivazione trascrizionale. Il ruolo che la regolazione epigenetica svolge durante il differenziamento di cellule staminali non è ancora noto con precisione. È chiaro però che la memoria della linea cellulare verso la quale si differenzia una cellula staminale adulta, implica l’utilizzo di modifiche epigenetiche, quali la metilazione del DNA e correlati pattern di metilazione e acetilazione istonica. L’ultimo progetto, trattato, è stato finalizzato a verificare il coinvolgimento dell’epigenetica e in particolare della metilazione dei promotori di fattori trascrizionali precocemente attivati durante il differenziamento verso il fenotipo muscolare cardiaco di cellule staminali umane derivate da tessuto adiposo (ADSCs).
Resumo:
Questa tesi parte da un evento “minore” della storia del XIX secolo per tendere, poi, ad alcuni obiettivi particolari. L’evento è costituito da uno strano funerale postumo, quello di Piero Maroncelli, carbonaro finito alla Spielberg, graziato, poi emigrato in Francia e in America, il cui corpo viene sepolto a New York nell’estate del 1846. Quarant’anni dopo, nel 1886, i resti di Maroncelli vengono esumati e – attraverso una “trafila” particolare, di cui è protagonista la Massoneria, da una sponda all’altra dell’Atlantico – solennemente trasferiti nella città natale di Forlì, dove vengono collocati nel pantheon del cimitero monumentale, inaugurato per l’occasione. Gli eventi celebrativi che si consumano a New York e a Forlì sono molto diversi fra loro, anche se avvengono quasi in contemporanea e sotto regie politiche ispirate dal medesimo radicalismo anticlericale. E’ chiaro che Maroncelli è un simbolo e un pretesto: simbolo di un’italianità transnazionale, composta di un “corpo” in transito, fuori dello spazio nazionale, ma appartenente alla patria (quella grande e quella piccola); pretesto per acquisire e rafforzare legami politici, mercè mobilitazioni di massa in un caso fondate sul festival, sulla festa en plein air, nell’altro sui rituali del cordoglio per i “martiri” dell’indipendenza. L’opportunità di comparare questi due contesti – l’Italia, colta nella sua periferia radicale e la New York della Tammany Hall -, non sulla base di ipotesi astratte, ma nella concretezza di un “caso di studio” reale e simultaneo, consente di riflettere sulla pervasività dell’ideologia democratica nella sua accezione ottocentesca, standardizzata dalla Massoneria, e, d’altro canto, sui riti del consenso, colti nelle rispettive tipicità locali. Un gioco di similitudini e di dissomiglianze, quindi. Circa gli obiettivi particolari – al di là della ricostruzione del “caso” Maroncelli -, ho cercato di sondare alcuni temi, proponendone una ricostruzione in primo luogo storiografica. Da un lato, il tema dell’esilio e del trapianto delle esperienze di vita e di relazione al di fuori del proprio contesto d’origine. Maroncelli utilizza, come strumento di identitario e di accreditamento, il fourierismo; la generazione appena successiva alla sua, grazie alla Giovine Italia, possiede già un codice interno, autoctono, cui fare riferimento; alla metà degli anni Cinquanta, ad esso si affiancherà, con successo crescente, la lettura “diplomatica” di ascendenza sabauda. Dall’altro, ho riflettuto sull’aspetto legato ai funerali politici, al cordoglio pubblico, al trasferimento postumo dei corpi. La letteratura disponibile, al riguardo, è assai ricca, e tale da consentire una precisa classificazione del “caso” Maroncelli all’interno di una tipologia della morte laica, ben delineata nell’Italia dell’Ottocento e del primo Novecento. E poi, ancora, ho preso in esame le dinamiche “festive” e di massa, approfondendo quelle legate al mondo dell’emigrazione italiana a Mew York, così distante nel 1886 dall’élite colta di quarant’anni prima, eppure così centrale per il controllo politico della città. Dinamiche alle quali fa da contrappunto, sul versante forlivese, la visione del mondo radicale e massonico locale, dominato dalla figura di Aurelio Saffi e dal suo tentativo di plasmare un’immagine morale e patriottica della città da lasciare ai posteri. Quasi un’ossessione, per il vecchio triumviro della Repubblica romana (morirà nel 1890), che interviene sulla toponomastica, sull’edilizia cemeteriale, sui pantheon civico, sui “ricordi” patriottici. Ho utilizzato fonti secondarie e di prima mano. Anche sulle prime, quantitativamente assai significative, mi sono misurata con un lavoro di composizione e di lettura comparata prima mai tentato. La giustapposizione di chiavi di lettura apparentemente distanti, ma giustificate dalla natura proteiforme e complicata del nostro “caso”, apre, a mio giudizio, interessanti prospettive di ricerca. Circa le fonti di prima mano, ho attinto ai fondi disponibili su Maroncelli presso la Biblioteca comunale di Forlì, alle raccolte del Grande Oriente d’Italia a Roma, a periodici italoamericani assai rari, sparsi in diverse biblioteche italiane, da Milano a Roma. Mi rendo conto che la quantità dei materiali reperiti, sovente molto eterogenei, avrebbero imposto una lettura delle fonti più accurata di quella che, in questa fase della ricerca, sono riuscita a condurre. E’ vero, però, che le suggestioni già recuperabili ad un’analisi mirata al contenuto principale – le feste, la propaganda, il cordoglio – consentono la tessitura di una narrazione non forzata, nella quale il ricordo della Repubblica romana viaggia da una sponda all’altra dell’Atlantica, insieme ai resti di Maroncelli; nella quale il rituale massonico funge da facilitatore e da “mediatore culturale”; nella quale, infine, il linguaggio patriottico e la koinè democratica trans-nazionale riescono incredibilmente a produrre o a incarnare identità. Per quanto tempo? La risposta, nel caso forlivese, è relativamente facile; in quello della “colonia” italiana di New York, presto alterata nella sua connotazione demografica dalla grande emigrazione transoceanica, le cose appaiono più complesse. E, tuttavia, nel 1911, cinquantesimo dell’Unità, qualcuno, nella grande metropoli americana, si sarebbe ricordato di Maroncelli, sia pure in un contesto e con finalità del tutto diverse rispetto al 1886: segno che qualcosa, sotto traccia, era sopravvissuto.
Resumo:
La mia tesi si riallaccia al dibattito teorico-letterario contemporaneo sulla possibilità di un approccio cognitivo alla narrativa e alla letteratura in particolare. Essa si propone di esplorare il rapporto tra narrazione ed esperienza, ridefinendo il concetto di “esperienzialità” della narrativa introdotto da Monika Fludernik nel suo Towards a “Natural” Narratology (1996). A differenza di Fludernik, che ha identificato l’esperienzialità con la rappresentazione dell’esperienza dei personaggi, la mia trattazione assegna un ruolo di primo piano al lettore, cercando di rispondere alla domanda: perché leggere una storia è – o si costituisce come – un’esperienza? L’intuizione dietro tutto ciò è che le teorizzazioni dell’esperienza e della coscienza nella filosofia della mente degli ultimi venti anni possano gettare luce sull’interazione tra lettori e testi narrativi. Il mio punto di riferimento principale è la scienza cognitiva “di seconda generazione”, secondo cui l’esperienza è un relazionarsi attivo e corporeo al mondo. La prima parte del mio studio è dedicata all’intreccio tra la narrativa e quello che chiamo lo “sfondo esperienziale” di ogni lettore, un repertorio di esperienze già note ai lettori attraverso ripetute interazioni con il mondo fisico e socio-culturale. Mi soffermo inoltre sul modo in cui relazionarsi a un testo narrativo può causare cambiamenti e slittamenti in questo sfondo esperienziale, incidendo sulla visione del mondo del lettore. Mi rivolgo poi al coinvolgimento corporeo del lettore, mostrando che la narrativa può attingere allo sfondo esperienziale dei suoi fruitori anche sul piano dell’esperienza di base: le simulazioni corporee della percezione contribuiscono alla nostra comprensione delle storie, incidendo sia sulla ricostruzione dello spazio dell’ambientazione sia sulla relazione intersoggettiva tra lettori e personaggi. Infine, mi occupo del rapporto tra l’esperienza della lettura e la pratica critico-letteraria dell’interpretazione, sostenendo che – lungi dal costituire due modalità opposte di fruizione dei testi – esse sono intimamente connesse.
Resumo:
Il lavoro svolto nel corso del mio dottorato ha avuto per oggetto lo studio dell’ inibizione della glicolisi aerobia (il principale processo metabolico utilizzato dalle cellule neoplastiche per produrre energia) ottenuta mediante il blocco dell’enzima lattato deidrogenasi (LDH). La mia attività si è concentrata sulla possibilità di utilizzare questo approccio allo scopo di migliorare l’efficacia della terapia antitumorale, valutandone gli effetti su colture di carcinoma epatocellulare umano Inizialmente, per valutare gli effetti della inibizione della LDH, è stato usato l’acido ossamico ( OXA). Questo composto è l’unico inibitore noto specifico per LDH ; è una molecola non tossica in vivo, ma attiva a concentrazioni troppo elevate per consentirne un uso terapeutico. Un importante risultato ottenuto è stata la dimostrazione che l’ inibizione della LDH ottenuta con OXA non è solo in grado di innescare una risposta di morte nelle cellule trattate, ma, associata alla somministrazione di sorafenib, aumenta fortemente l’efficacia di questo farmaco, determinando un effetto di sinergismo. Questo forte effetto di potenziamento dell’azione del farmaco è stato spiegato con la dimostrazione che il sorafenib ha la capacità di inibire il consumo di ossigeno delle cellule trattate, rendendole più dipendenti dalla glicolisi. Grazie alla collaborazione con il Dipartimento di Scienze Farmaceutiche il nostro gruppo di ricerca è arrivato alla identificazione di un composto (galloflavina) che inibisce la LDH con una efficienza molto maggiore di OXA. I risultati preliminari ottenuti sulle cellule di epatocarcinoma suggeriscono che la galloflavina potrebbe essere un composto promettente nel campo degli inibitori metabolici tumorali e inducono a una sua valutazione più approfondita come potenziale farmaco antineoplastico.
Resumo:
Lung ultrasound use is increasing in respiratory medicine thanks to its development in the latest years. Actually it allows to study diseases of the chest wall (traumas, infections, neoplasms), diaphragm (paralysis, ipokinesis), pleura (effusions, pneumothorax, thickenings, neoplasms) and lung parenchyma (consolidations, interstitial syndromes, peripheral lesions). One of the most useful application of chest ultrasound is the evaluation of effusions. However, no standardized approach for ultrasound-guided thoracenthesis is available. Our study showed that our usual ultrasonographic landmark (“V-point”) could be a standard site to perform thoracenthesis: in 45 thoracenthesis no pneumothorax occurred, drainage was always successful at first attempt. Values of maximum thickness at V-point and drained fluid volume showed a significative correlation. Proteins concentration of ultrasound patterns of effusions (anechoic, ipoechoic, moving echoic spots, dense moving spots, hyperechoic) were compared to those of the macroscopic features of fluids showing connection between light-yellow fluid and echoic moving spots pattern and between ipoechoic/dense moving spots and cloudy-yellow/serum-haematic fluids. These observations suggest that ultrasound could predict chemical-physical features of effusions. Lung ultrasound provides useful information about many disease of the lung, but actually there is not useful in obstructive bronchial diseases. Analysing diaphragmatic kinetics using M-mode through transhepatic scan we described a similarity between diaphragm excursion during an expiratory forced maneuver and the volume/time curve of spirometry. This allowed us to identify the M-mode Index of Obstruction (MIO), an ultrasound-analogue of FEV1/VC. We observed MIO values of normal subjects (9) and obstructed patients (9) comparing the two groups. FEV1/VC and MIO showed a significant correlation suggesting that MIO may be affected by airways obstruction; MIO values were significatively different between normal and obstructed so that it could identify an obstructive syndrome. The data show that it is possible to suspect the presence of obstructive syndrome of the airways using ultrasonography of the diaphragm.
Resumo:
Intorno alla metà degli anni trenta la Spagna diventò il centro dell’attenzione del mondo e tutte le grandi potenze internazionali, vecchie e nuove, vennero coinvolte, in misura diversa, nella guerra civile. Già nell’agosto del 1936, un mese dopo l’esplosione del conflitto, tutti gli Stati più rappresentativi caldeggiavano l’ipotesi di una politica comune di “non intervento”. Il ruolo guida in tal senso venne assunto dal governo inglese, capace di dissuadere, in tempi estremamente rapidi, il governo frontista francese di Leon Blum dall’intento di sostenere economicamente e militarmente il legittimo governo repubblicano spagnolo. La preoccupazione che il conflitto potesse degenerare in uno scontro più generale fu quindi la ragione principale per la quale qualche settimana dopo nacque il “Comitato di Non Intervento”, cui aderirono ben ventisette nazioni europee tra cui Francia, Inghilterra, URSS, Italia, Germania e Portogallo. Il mio progetto di ricerca dottorale esamina il ruolo, le scelte ed i relativi dibattiti in merito all’unica grande potenza, gli Stati Uniti d’America, che, pur scegliendo di rimanere neutrale, si astenne dal partecipare al suddetto Comitato. In ambito statunitense particolare rilievo assumono due aspetti del dibattito politico sulla Spagna: il primo maturato in seno all’Amministrazione Roosevelt, il secondo elaborato dalla componente Liberal della coalizione del New Deal attraverso i settimanali, “The Nation” e “The New Republic”. Il confronto pubblico acceso dalla guerra civile spagnola fu infatti l’occasione per la società civile americana per dibattere apertamente e francamente circa l’opportunità e la capacità della nazione di assumere o meno un ruolo internazionale corrispondente al prestigio socio-economico in via di acquisizione a livello mondiale. Approfondire ed esaminare il dibattito sulla guerra civile spagnola negli USA significa dunque andare alla ricerca delle radici culturali di quello che sarà uno dei più vasti ed articolati confronti politici e teorici del ventesimo secolo: l’internazionalismo americano.