912 resultados para Gestione della risorsa idrica,Piano SIMPO,Regime dei deflussi di magra,Sbarramento in alveo Po,Rubber dum


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato nasce dalla partecipazione al progetto dell'Università di Bologna, sull'Osservatorio aziendale. Un metodo di ricerca trasversale, focalizzato sulla prospettiva manageriale e sulle capacità che le aziende sono in grado di sviluppare al loro interno, mediante una raccolta dati esaustiva, sistematica e periodica. In particolare l'indagine si è incentrata nell'individuazione del livello di sostenibilità, intesa come ambientale, sociale ed economica, per le aziende del territorio Emiliano-Romagnolo, nel settore della grande distribuzione. In seguito si è analizzato i principali marchi con l'obiettivo di individuare le azioni intraprese e i progetti che sono stati sviluppati e che si intendono sviluppare. Dopo uno studio incentrato nell'ambito della letteratura sul concetto di sostenibilità, si è cercato di comprendere come la grande distribuzione alimentare si pone all'interno di questa tematica, cercando di individuare le principali certificazioni ambientali e sociali, e i punti in comune o di differenziazione di questo settore merceologico, rispetto agli altri. La raccolta delle informazioni è stata effettuata attraverso l'analisi dei siti ufficiali delle aziende selezionate e, laddove presenti, attraverso i Bilanci Sociali/Sostenibili e gli altri documenti disponibili. In particolare sono state considerate quattro aziende del settore della grande distribuzione alimentare, del nostro territorio, andando ad analizzarne: informazioni generali sull'azienda da analizzare, certificazioni ambientali, certificazioni sociali, energia, risorse primarie, gestione rifiuti, impatto ambientale, reporting, welfare, responsabilità sociale, supply chain e valore per il consumatore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La terapia di resincronizzazione cardiaca (TRC) è un presidio non farmacologico che riduce la mortalità e la morbosità nei pazienti con scompenso refrattario alla terapia medica. La maggior parte dei dati riguardanti gli effetti della TRC coinvolgono i pazienti con le indicazioni consolidate seguenti: classe NYHA III-IV, ritardo della conduzione ventricolare (QRS>opp= 20 msec), disfunzione sistolica ventricolare sinistra (frazione di eiezione ventricolare sinistra >opp= 35%) e ritmo sinusale (RS). Mentre è noto che la fibrillazione atriale permanente (FA) sia presente in una porzione consistente dei pazienti con scompenso cardiaco, vi sono pochi dati riguardanti la sopravvivenza e gli effetti a lungo-termine della TRC in pazienti con scompenso cardiaco e fibrillazione atriale (FA); la maggior parte degli studi sono osservazionali ed hanno dimostrato che la TRC potrebbe conferire dei benefici a corto e medio termine anche in pazienti con FA permanente. Solo recentemente un ampio studio osservazionale ha descritto che, a lungo-termine, la TRC migliora significativamente la capacità funzionale, la frazione di eiezione e induce il rimodellamento inverso del ventricolo sinistro solamente in quei pazienti con FA dove la TRC viene combinata con l’ablazione del nodo atrio-ventricolare (NAV). La strategia ablativa del NAV infatti conferendo una stimolazione completa e costante, permette di eliminare gli effetti del ritmo spontaneo di FA (ritmo irregolare e tendenzialmente tachicardico) cheinterferisce in maniera importante con la stimolazione biventricolare in particolare durante gli sforzi fisici. Sulla base di queste premesse il presente studio si propone di valutare gli effetti a lungo-termine della TRC su pazienti con scompenso cardiaco e FA permanente focalizzando su due aspetti principali: 1) confrontando la sopravvivenza di pazienti con FA permanente rispetto ai pazienti in RS; 2) confrontando la sopravvivenza di pazienti in FA suddivisi secondo la modalità di controllo della frequenza con somministrazione di farmaci antiaritmici (gruppo FA-farm) oppure mediante controllo ablazione del NAV (gruppo FA-abl). Metodi e risultati: Sono presentati i dati di 1303 pazienti sottoposti consecutivamente ad impianto di dispositivo per la TRC e seguiti per un periodo mediano di 24 mesi. Diciotto pazienti sono stati persi durante il follow-up per cui la popolazione dello studio è rappresentata da una popolazione totale di 1295 pazienti di cui 1042 in RS e 243 (19%) in FA permanente. Nei pazienti con FA il controllo della frequenza cardiaca è stato effettuato mediante la somministrazione di farmaci anti-aritmici (gruppo FA-farm: 125 pazienti) oppure mediante ablazione del NAV (FA-abl: 118 pazienti). Rispetto ai pazienti in RS, i pazienti in FA permanente erano significativamente più vecchi, più spesso presentavano eziologia nonischemica, avevano una frazione di eiezione più elevata al preimpianto, una durata del QRS minore e erano più raramente trattati con un defibrillatore. Lungo un follow-up mediano di 24 mesi, 170/1042 pazienti in RS e 39/243 in FA sono deceduti (l’incidenza di mortalità a 1 anno era di 8,4% e 8,9%, rispettivamente). I rapporti di rischio derivanti dall’analisi multivariata con il 95% dell’intervallo di confidenza (HR, 95% CI) erano simili sia per la morte per tutte le cause che per la morte cardiaca (0.9 [0.57-1.42], p=0.64 e 1.00 [0.60-1.66] p=0.99, rispettivamente). Fra i pazienti con FA, il gruppo FA-abl presentava una durata media del QRS minore ed era meno frequentemente trattato con il defibrillatore impiantabile rispetto al gruppo FA-farm. Soli 11/118 pazienti del FA-abl sono deceduti rispetto a 28/125 nel gruppo FA-farm (mortalità cumulativa a 1 anno di 9,3% e 15,2% rispettivamente, p<0.001), con HR, 95% CI per FA-abl vs FA-farm di 0.15 [0.05-0.43],,p<0.001 per la mortalità per tutte le cause, di 0.18 [0.06-0.57], p=0.004 per la mortalità cardiaca, e di 0.09 [0.02-0.42], p<0.002 per la mortalità da scompenso cardiaco. Conclusioni: I pazienti con scompenso cardiaco e FA permanente trattati con la TRC presentano una simile sopravvivenza a lungo-termine di pazienti in RS. Nei pazienti in FA l’ablazione del NAV in aggiunta alla TRC migliora significativamente la sopravvivenza rispetto alla sola TRC; questo effetto è ottenuto primariamente attraverso una riduzione della morte per scompenso cardiaco.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I policlorobifenili (PCB) sono un gruppo di 209 congeneri di bifenili policlorurati altamente tossici e persistenti che, a causa della loro elevata lipofilia, tendono ad accumularsi in sedimenti anaerobici marini, tramite i quali possono entrare nella catena alimentare. I PCB possono essere degradati mediante processi di declorurazione riduttiva mediati da popolazioni microbiche anaerobiche in grado di utilizzarli fortuitamente come accettori finali della catena respiratoria. Il processo consiste quindi nella bioconversione di congeneri ad alto grado di clorurazione in PCB basso clorurati, meno tossici, meno bioaccumulabili e più facilmente biodegradabili in condizioni aerobiche. Nel presente elaborato è stata investigata la capacità di una popolazione microbica arricchita su congeneri coplanari di PCB da un sedimento contaminato del Canale Brentella (Prima Zona Industriale di Porto Marghera, laguna di Venezia), di declorurare miscele commerciali di PCB (Aroclor 1254) in condizioni geobiochimiche di laboratorio che riproducono quelle presenti in sito. Il processo è quindi stato studiato in microcosmi anaerobici slurry di sedimento sospeso nella stessa acqua del sito e monitorato con un approccio chimico e microbiologico integrato. Ai fini di caratterizzare e stimolare i microganismi responsabili del processo degradativo sono state utilizzate tecniche convenzionali basate sull’inibizione selettiva di diversi gruppi microbici. Dopo una fase di latenza di 7 settimane, la coltura microbica ha declorurato velocemente ed estesamente la miscela commerciale di PCB saggiata, bioconvertendo il 70% dei congeneri ad alto grado di clorurazione (da penta- a octa- clorurati) in PCB di- e tri-clorurati. Il processo ha esibito selettività nei confronti delle posizioni meta dei gruppi 2,3- e 2,3,4-clorofenile e para dei gruppi 3,4- e 3,4,5-clorofenile, secondo il modello di declorurazione H’. Il monitoraggio delle attività microbiche in presenza dei diversi inibitori saggiati ha permesso inoltre di concludere che i batteri metanogeni e i batteri solfato-riduttori non sono direttamente coinvolti nel processo degradativo, suggerendo invece che le specie decloruranti siano appartenenti o strettamente correlate al genere Dehalococcoides. Poiché lo studio è stato eseguito in condizioni geobiochimiche di laboratorio che mimano quelle presenti in sito, i risultati ottenuti indicano che la popolazione microbica dei sedimenti del canale Brentella, se opportunamente stimolata, è potenzialmente in grado di mediare in situ la declorurazione riduttiva dei PCB preesistenti nel sedimento, contribuendo alla natural attenuation dei sedimenti contaminati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

CAPITOLO 1 INTRODUZIONE Il lavoro presentato è relativo all’utilizzo a fini metrici di immagini satellitari storiche a geometria panoramica; in particolare sono state elaborate immagini satellitari acquisite dalla piattaforma statunitense CORONA, progettata ed impiegata essenzialmente a scopi militari tra gli anni ’60 e ’70 del secolo scorso, e recentemente soggette ad una declassificazione che ne ha consentito l’accesso anche a scopi ed utenti non militari. Il tema del recupero di immagini aeree e satellitari del passato è di grande interesse per un ampio spettro di applicazioni sul territorio, dall’analisi dello sviluppo urbano o in ambito regionale fino ad indagini specifiche locali relative a siti di interesse archeologico, industriale, ambientale. Esiste infatti un grandissimo patrimonio informativo che potrebbe colmare le lacune della documentazione cartografica, di per sé, per ovvi motivi tecnici ed economici, limitata a rappresentare l’evoluzione territoriale in modo asincrono e sporadico, e con “forzature” e limitazioni nel contenuto informativo legate agli scopi ed alle modalità di rappresentazione delle carte nel corso del tempo e per diversi tipi di applicazioni. L’immagine di tipo fotografico offre una rappresentazione completa, ancorché non soggettiva, dell’esistente e può complementare molto efficacemente il dato cartografico o farne le veci laddove questo non esista. La maggior parte del patrimonio di immagini storiche è certamente legata a voli fotogrammetrici che, a partire dai primi decenni del ‘900, hanno interessato vaste aree dei paesi più avanzati, o regioni di interesse a fini bellici. Accanto a queste, ed ovviamente su periodi più vicini a noi, si collocano le immagini acquisite da piattaforma satellitare, tra le quali rivestono un grande interesse quelle realizzate a scopo di spionaggio militare, essendo ad alta risoluzione geometrica e di ottimo dettaglio. Purtroppo, questo ricco patrimonio è ancora oggi in gran parte inaccessibile, anche se recentemente sono state avviate iniziative per permetterne l’accesso a fini civili, in considerazione anche dell’obsolescenza del dato e della disponibilità di altre e migliori fonti di informazione che il moderno telerilevamento ci propone. L’impiego di immagini storiche, siano esse aeree o satellitari, è nella gran parte dei casi di carattere qualitativo, inteso ad investigare sulla presenza o assenza di oggetti o fenomeni, e di rado assume un carattere metrico ed oggettivo, che richiederebbe tra l’altro la conoscenza di dati tecnici (per esempio il certificato di calibrazione nel caso delle camere aerofotogrammetriche) che sono andati perduti o sono inaccessibili. Va ricordato anche che i mezzi di presa dell’epoca erano spesso soggetti a fenomeni di distorsione ottica o altro tipo di degrado delle immagini che ne rendevano difficile un uso metrico. D’altra parte, un utilizzo metrico di queste immagini consentirebbe di conferire all’analisi del territorio e delle modifiche in esso intercorse anche un significato oggettivo che sarebbe essenziale per diversi scopi: per esempio, per potere effettuare misure su oggetti non più esistenti o per potere confrontare con precisione o co-registrare le immagini storiche con quelle attuali opportunamente georeferenziate. Il caso delle immagini Corona è molto interessante, per una serie di specificità che esse presentano: in primo luogo esse associano ad una alta risoluzione (dimensione del pixel a terra fino a 1.80 metri) una ampia copertura a terra (i fotogrammi di alcune missioni coprono strisce lunghe fino a 250 chilometri). Queste due caratteristiche “derivano” dal principio adottato in fase di acquisizione delle immagini stesse, vale a dire la geometria panoramica scelta appunto perché l’unica che consente di associare le due caratteristiche predette e quindi molto indicata ai fini spionaggio. Inoltre, data la numerosità e la frequenza delle missioni all’interno dell’omonimo programma, le serie storiche di questi fotogrammi permettono una ricostruzione “ricca” e “minuziosa” degli assetti territoriali pregressi, data appunto la maggior quantità di informazioni e l’imparzialità associabili ai prodotti fotografici. Va precisato sin dall’inizio come queste immagini, seppur rappresentino una risorsa “storica” notevole (sono datate fra il 1959 ed il 1972 e coprono regioni moto ampie e di grandissimo interesse per analisi territoriali), siano state molto raramente impiegate a scopi metrici. Ciò è probabilmente imputabile al fatto che il loro trattamento a fini metrici non è affatto semplice per tutta una serie di motivi che saranno evidenziati nei capitoli successivi. La sperimentazione condotta nell’ambito della tesi ha avuto due obiettivi primari, uno generale ed uno più particolare: da un lato il tentativo di valutare in senso lato le potenzialità dell’enorme patrimonio rappresentato da tali immagini (reperibili ad un costo basso in confronto a prodotti simili) e dall’altro l’opportunità di indagare la situazione territoriale locale per una zona della Turchia sud orientale (intorno al sito archeologico di Tilmen Höyük) sulla quale è attivo un progetto condotto dall’Università di Bologna (responsabile scientifico il Prof. Nicolò Marchetti del Dipartimento di Archeologia), a cui il DISTART collabora attivamente dal 2005. L’attività è condotta in collaborazione con l’Università di Istanbul ed il Museo Archeologico di Gaziantep. Questo lavoro si inserisce, inoltre, in un’ottica più ampia di quelle esposta, dello studio cioè a carattere regionale della zona in cui si trovano gli scavi archeologici di Tilmen Höyük; la disponibilità di immagini multitemporali su un ampio intervallo temporale, nonché di tipo multi sensore, con dati multispettrali, doterebbe questo studio di strumenti di conoscenza di altissimo interesse per la caratterizzazione dei cambiamenti intercorsi. Per quanto riguarda l’aspetto più generale, mettere a punto una procedura per il trattamento metrico delle immagini CORONA può rivelarsi utile all’intera comunità che ruota attorno al “mondo” dei GIS e del telerilevamento; come prima ricordato tali immagini (che coprono una superficie di quasi due milioni di chilometri quadrati) rappresentano un patrimonio storico fotografico immenso che potrebbe (e dovrebbe) essere utilizzato sia a scopi archeologici, sia come supporto per lo studio, in ambiente GIS, delle dinamiche territoriali di sviluppo di quelle zone in cui sono scarse o addirittura assenti immagini satellitari dati cartografici pregressi. Il lavoro è stato suddiviso in 6 capitoli, di cui il presente costituisce il primo. Il secondo capitolo è stato dedicato alla descrizione sommaria del progetto spaziale CORONA (progetto statunitense condotto a scopo di fotoricognizione del territorio dell’ex Unione Sovietica e delle aree Mediorientali politicamente correlate ad essa); in questa fase vengono riportate notizie in merito alla nascita e all’evoluzione di tale programma, vengono descritti piuttosto dettagliatamente gli aspetti concernenti le ottiche impiegate e le modalità di acquisizione delle immagini, vengono riportati tutti i riferimenti (storici e non) utili a chi volesse approfondire la conoscenza di questo straordinario programma spaziale. Nel terzo capitolo viene presentata una breve discussione in merito alle immagini panoramiche in generale, vale a dire le modalità di acquisizione, gli aspetti geometrici e prospettici alla base del principio panoramico, i pregi ed i difetti di questo tipo di immagini. Vengono inoltre presentati i diversi metodi rintracciabili in bibliografia per la correzione delle immagini panoramiche e quelli impiegati dai diversi autori (pochi per la verità) che hanno scelto di conferire un significato metrico (quindi quantitativo e non solo qualitativo come è accaduto per lungo tempo) alle immagini CORONA. Il quarto capitolo rappresenta una breve descrizione del sito archeologico di Tilmen Höyuk; collocazione geografica, cronologia delle varie campagne di studio che l’hanno riguardato, monumenti e suppellettili rinvenute nell’area e che hanno reso possibili una ricostruzione virtuale dell’aspetto originario della città ed una più profonda comprensione della situazione delle capitali del Mediterraneo durante il periodo del Bronzo Medio. Il quinto capitolo è dedicato allo “scopo” principe del lavoro affrontato, vale a dire la generazione dell’ortofotomosaico relativo alla zona di cui sopra. Dopo un’introduzione teorica in merito alla produzione di questo tipo di prodotto (procedure e trasformazioni utilizzabili, metodi di interpolazione dei pixel, qualità del DEM utilizzato), vengono presentati e commentati i risultati ottenuti, cercando di evidenziare le correlazioni fra gli stessi e le problematiche di diversa natura incontrate nella redazione di questo lavoro di tesi. Nel sesto ed ultimo capitolo sono contenute le conclusioni in merito al lavoro in questa sede presentato. Nell’appendice A vengono riportate le tabelle dei punti di controllo utilizzati in fase di orientamento esterno dei fotogrammi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’ermeneutica filosofica di Hans-Georg Gadamer – indubbiamente uno dei capisaldi del pensiero novecentesco – rappresenta una filosofia molto composita, sfaccettata e articolata, per così dire formata da una molteplicità di dimensioni diverse che si intrecciano l’una con l’altra. Ciò risulta evidente già da un semplice sguardo alla composizione interna della sua opera principale, Wahrheit und Methode (1960), nella quale si presenta una teoria del comprendere che prende in esame tre differenti dimensioni dell’esperienza umana – arte, storia e linguaggio – ovviamente concepite come fondamentalmente correlate tra loro. Ma questo quadro d’insieme si complica notevolmente non appena si prendano in esame perlomeno alcuni dei numerosi contributi che Gadamer ha scritto e pubblicato prima e dopo il suo opus magnum: contributi che testimoniano l’importante presenza nel suo pensiero di altre tematiche. Di tale complessità, però, non sempre gli interpreti di Gadamer hanno tenuto pienamente conto, visto che una gran parte dei contributi esegetici sul suo pensiero risultano essenzialmente incentrati sul capolavoro del 1960 (ed in particolare sui problemi della legittimazione delle Geisteswissenschaften), dedicando invece minore attenzione agli altri percorsi che egli ha seguito e, in particolare, alla dimensione propriamente etica e politica della sua filosofia ermeneutica. Inoltre, mi sembra che non sempre si sia prestata la giusta attenzione alla fondamentale unitarietà – da non confondere con una presunta “sistematicità”, da Gadamer esplicitamente respinta – che a dispetto dell’indubbia molteplicità ed eterogeneità del pensiero gadameriano comunque vige al suo interno. La mia tesi, dunque, è che estetica e scienze umane, filosofia del linguaggio e filosofia morale, dialogo con i Greci e confronto critico col pensiero moderno, considerazioni su problematiche antropologiche e riflessioni sulla nostra attualità sociopolitica e tecnoscientifica, rappresentino le diverse dimensioni di un solo pensiero, le quali in qualche modo vengono a convergere verso un unico centro. Un centro “unificante” che, a mio avviso, va individuato in quello che potremmo chiamare il disagio della modernità. In altre parole, mi sembra cioè che tutta la riflessione filosofica di Gadamer, in fondo, scaturisca dalla presa d’atto di una situazione di crisi o disagio nella quale si troverebbero oggi il nostro mondo e la nostra civiltà. Una crisi che, data la sua profondità e complessità, si è per così dire “ramificata” in molteplici direzioni, andando ad investire svariati ambiti dell’esistenza umana. Ambiti che pertanto vengono analizzati e indagati da Gadamer con occhio critico, cercando di far emergere i principali nodi problematici e, alla luce di ciò, di avanzare proposte alternative, rimedi, “correttivi” e possibili soluzioni. A partire da una tale comprensione di fondo, la mia ricerca si articola allora in tre grandi sezioni dedicate rispettivamente alla pars destruens dell’ermeneutica gadameriana (prima e seconda sezione) ed alla sua pars costruens (terza sezione). Nella prima sezione – intitolata Una fenomenologia della modernità: i molteplici sintomi della crisi – dopo aver evidenziato come buona parte della filosofia del Novecento sia stata dominata dall’idea di una crisi in cui verserebbe attualmente la civiltà occidentale, e come anche l’ermeneutica di Gadamer possa essere fatta rientrare in questo discorso filosofico di fondo, cerco di illustrare uno per volta quelli che, agli occhi del filosofo di Verità e metodo, rappresentano i principali sintomi della crisi attuale. Tali sintomi includono: le patologie socioeconomiche del nostro mondo “amministrato” e burocratizzato; l’indiscriminata espansione planetaria dello stile di vita occidentale a danno di altre culture; la crisi dei valori e delle certezze, con la concomitante diffusione di relativismo, scetticismo e nichilismo; la crescente incapacità a relazionarsi in maniera adeguata e significativa all’arte, alla poesia e alla cultura, sempre più degradate a mero entertainment; infine, le problematiche legate alla diffusione di armi di distruzione di massa, alla concreta possibilità di una catastrofe ecologica ed alle inquietanti prospettive dischiuse da alcune recenti scoperte scientifiche (soprattutto nell’ambito della genetica). Una volta delineato il profilo generale che Gadamer fornisce della nostra epoca, nella seconda sezione – intitolata Una diagnosi del disagio della modernità: il dilagare della razionalità strumentale tecnico-scientifica – cerco di mostrare come alla base di tutti questi fenomeni egli scorga fondamentalmente un’unica radice, coincidente peraltro a suo giudizio con l’origine stessa della modernità. Ossia, la nascita della scienza moderna ed il suo intrinseco legame con la tecnica e con una specifica forma di razionalità che Gadamer – facendo evidentemente riferimento a categorie interpretative elaborate da Max Weber, Martin Heidegger e dalla Scuola di Francoforte – definisce anche «razionalità strumentale» o «pensiero calcolante». A partire da una tale visione di fondo, cerco quindi di fornire un’analisi della concezione gadameriana della tecnoscienza, evidenziando al contempo alcuni aspetti, e cioè: primo, come l’ermeneutica filosofica di Gadamer non vada interpretata come una filosofia unilateralmente antiscientifica, bensì piuttosto come una filosofia antiscientista (il che naturalmente è qualcosa di ben diverso); secondo, come la sua ricostruzione della crisi della modernità non sfoci mai in una critica “totalizzante” della ragione, né in una filosofia della storia pessimistico-negativa incentrata sull’idea di un corso ineluttabile degli eventi guidato da una razionalità “irrazionale” e contaminata dalla brama di potere e di dominio; terzo, infine, come la filosofia di Gadamer – a dispetto delle inveterate interpretazioni che sono solite scorgervi un pensiero tradizionalista, autoritario e radicalmente anti-illuminista – non intenda affatto respingere l’illuminismo scientifico moderno tout court, né rinnegarne le più importanti conquiste, ma più semplicemente “correggerne” alcune tendenze e recuperare una nozione più ampia e comprensiva di ragione, in grado di render conto anche di quegli aspetti dell’esperienza umana che, agli occhi di una razionalità “limitata” come quella scientista, non possono che apparire come meri residui di irrazionalità. Dopo aver così esaminato nelle prime due sezioni quella che possiamo definire la pars destruens della filosofia di Gadamer, nella terza ed ultima sezione – intitolata Una terapia per la crisi della modernità: la riscoperta dell’esperienza e del sapere pratico – passo quindi ad esaminare la sua pars costruens, consistente a mio giudizio in un recupero critico di quello che egli chiama «un altro tipo di sapere». Ossia, in un tentativo di riabilitazione di tutte quelle forme pre- ed extra-scientifiche di sapere e di esperienza che Gadamer considera costitutive della «dimensione ermeneutica» dell’esistenza umana. La mia analisi della concezione gadameriana del Verstehen e dell’Erfahrung – in quanto forme di un «sapere pratico (praktisches Wissen)» differente in linea di principio da quello teorico e tecnico – conduce quindi ad un’interpretazione complessiva dell’ermeneutica filosofica come vera e propria filosofia pratica. Cioè, come uno sforzo di chiarificazione filosofica di quel sapere prescientifico, intersoggettivo e “di senso comune” effettivamente vigente nella sfera della nostra Lebenswelt e della nostra esistenza pratica. Ciò, infine, conduce anche inevitabilmente ad un’accentuazione dei risvolti etico-politici dell’ermeneutica di Gadamer. In particolare, cerco di esaminare la concezione gadameriana dell’etica – tenendo conto dei suoi rapporti con le dottrine morali di Platone, Aristotele, Kant e Hegel – e di delineare alla fine un profilo della sua ermeneutica filosofica come filosofia del dialogo, della solidarietà e della libertà.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’uso frequente dei modelli predittivi per l’analisi di sistemi complessi, naturali o artificiali, sta cambiando il tradizionale approccio alle problematiche ambientali e di rischio. Il continuo miglioramento delle capacità di elaborazione dei computer facilita l’utilizzo e la risoluzione di metodi numerici basati su una discretizzazione spazio-temporale che permette una modellizzazione predittiva di sistemi reali complessi, riproducendo l’evoluzione dei loro patterns spaziali ed calcolando il grado di precisione della simulazione. In questa tesi presentiamo una applicazione di differenti metodi predittivi (Geomatico, Reti Neurali, Land Cover Modeler e Dinamica EGO) in un’area test del Petén, Guatemala. Durante gli ultimi decenni questa regione, inclusa nella Riserva di Biosfera Maya, ha conosciuto una rapida crescita demografica ed un’incontrollata pressione sulle sue risorse naturali. L’area test puó essere suddivisa in sotto-regioni caratterizzate da differenti dinamiche di uso del suolo. Comprendere e quantificare queste differenze permette una migliore approssimazione del sistema reale; é inoltre necessario integrare tutti i parametri fisici e socio-economici, per una rappresentazione più completa della complessità dell’impatto antropico. Data l’assenza di informazioni dettagliate sull’area di studio, quasi tutti i dati sono stati ricavati dall’elaborazione di 11 immagini ETM+, TM e SPOT; abbiamo poi realizzato un’analisi multitemporale dei cambi uso del suolo passati e costruito l’input per alimentare i modelli predittivi. I dati del 1998 e 2000 sono stati usati per la fase di calibrazione per simulare i cambiamenti nella copertura terrestre del 2003, scelta come data di riferimento per la validazione dei risultati. Quest’ultima permette di evidenziare le qualità ed i limiti per ogni modello nelle differenti sub-regioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni è emerso chiaramente come la logistica rivesta un’importanza fondamentale per le aziende e costituisca un ottimo strumento per assicurarsi e mantenere un solido vantaggio competitivo. Inoltre, osservando l’ambiente attuale si evince come il sistema logistico sia caratterizzato da un progressivo aumento di complessità, sia in seguito alle maggiori esigenze dei mercati e sia come conseguenza della globalizzazione. In questo quadro evolutivo è mutato profondamente il ruolo ricoperto dalla logistica all’interno delle organizzazioni. Rispetto alla concezione tradizionale, che considerava la logistica come una funzione esclusivamente interna all’azienda, si è assistito al progressivo coinvolgimento dei fornitori e dei clienti ed è emersa la necessità di coordinare gli sforzi dell’intera supply chain, con l’obiettivo di migliorare il livello di servizio globalmente offerto e di ridurre i costi logistici totali. Tali considerazioni sono state il filo conduttore dell’analisi presentata di seguito, basata su uno studio svolto presso la DENSO Manufacturing Italia S.p.A., finalizzato all’analisi dei flussi in ingresso ed in particolar modo alla razionalizzazione degli imballi e dei trasporti, in un’ottica di integrazione con i fornitori. In particolare, la prima parte della trattazione introduce gli argomenti dal punto di vista teorico. Infatti, nel primo capitolo verrà illustrato il tema della logistica integrata e della sua evoluzione nel tempo, in relazione all’ambiente competitivo attuale ed alle nuove richieste dei mercati, approfondendo il tema della logistica in ingresso e del trasporto merci. Quindi, nel secondo capitolo verrà trattato il tema degli imballi, analizzandone le ripercussioni sull’intera catena logistica ed offrendo una panoramica dei metodi che permettono l’integrazione tra gli imballaggi ed i sistemi di trasporto, movimentazione e stoccaggio. Invece, la seconda parte dello studio sarà dedicata alla presentazione dell’azienda in cui è stato realizzato il progetto di tesi. Nel terzo capitolo verranno introdotte sia la multinazionale giapponese DENSO Corporation che la sua consociata DENSO Manufacturing Italia S.p.A., specializzata nella produzione di componenti per il mercato automotive, presso cui si è svolto lo studio. Nel quarto capitolo verrà descritto il layout dell’impianto, per poi presentare la logistica in ingresso allo stabilimento, ponendo maggiore attenzione ai flussi provenienti dal nord Italia – ed in particolare dal Piemonte – su cui si incentra il lavoro di tesi. Quindi, nella terza ed ultima parte verrà presentata in dettaglio l’analisi condotta durante lo studio aziendale. In particolare, il quinto capitolo tratta dei flussi di materiale provenienti dall’area piemontese, con l’analisi degli imballi utilizzati dai fornitori, delle consegne e delle modalità di trasporto. Infine, nel sesto capitolo saranno proposte delle soluzioni migliorative relativamente a tutte le criticità emerse in fase di analisi, valutandone gli impatti sia in termini economici che in relazione all’efficienza del flusso logistico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Two analytical models are proposed to describe two different mechanisms of lava tubes formation. A first model is introduced to describe the development of a solid crust in the central region of the channel, and the formation of a tube when crust widens until it reaches the leve\'es. The Newtonian assumption is considered and the steady state Navier- Stokes equation in a rectangular conduit is solved. A constant heat flux density assigned at the upper flow surface resumes the combined effects of two thermal processes: radiation and convection into the atmosphere. Advective terms are also included, by the introduction of velocity into the expression of temperature. Velocity is calculated as an average value over the channel width, so that lateral variations of temperature are neglected. As long as the upper flow surface cools, a solid layer develops, described as a plastic body, having a resistance to shear deformation. If the applied shear stress exceeds this resistance, crust breaks, otherwise, solid fragments present at the flow surface can weld together forming a continuous roof, as it happens in the sidewall flow regions. Variations of channel width, ground slope and effusion rate are analyzed, as parameters that strongly affect the shear stress values. Crust growing is favored when the channel widens, and tube formation is possible when the ground slope or the effusion rate reduce. A comparison of results is successfully made with data obtained from the analysis of pictures of actual flows. The second model describes the formation of a stable, well defined crust along both channel sides, their growing towards the center and their welding to form the tube roof. The fluid motion is described as in the model above. Thermal budget takes into account conduction into the atmosphere, and advection is included considering the velocity depending both on depth and channel width. The solidified crust has a non uniform thickness along the channel width. Stresses acting on the crust are calculated using the equations of the elastic thin plate, pinned at its ends. The model allows to calculate the distance where crust thickness is able to resist the drag of the underlying fluid and to sustain its weight by itself, and the level of the fluid can lower below the tube roof. Viscosity and thermal conductivity have been experimentally investigated through the use of a rotational viscosimeter. Analyzing samples coming from Mount Etna (2002) the following results have been obtained: the fluid is Newtonian and the thermal conductivity is constant in a range of temperature above the liquidus. For lower temperature, the fluid becomes non homogeneous, and the used experimental techniques are not able to detect any properties, because measurements are not reproducible.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La conoscenza delle esigenze luminose (intensità, spettro, durata minima, massima ed ottimale del fotoperiodo di illuminazione) e della tolleranza alle condizioni degli interni delle piante ad uso decorativo, è di fondamentale importanza per una giusta tecnica di progettazione (dimensionamento e dislocazione dei punti luce) dell’indoor plantscaping. Il lungo periodo di condizionamento al quale queste piante vengono sottoposte, caratterizzato principalmente dalla scarsa disponibilità di luce naturale e dagli alti livelli di concentrazione di CO2 determina una forte influenza sui processi morfo-fisiologici. Il presente studio analizza il fattore luminoso ed è articolato su più punti quali; • caratterizzazione della riposta fotosintetica all’intensità luminosa di 21 delle principali specie a fogliame decorativo comunemente utilizzate nella realizzazione degli spazi verdi indoor, per stabilire quali siano i minimi ed ottimali livelli di PAR tali da garantire una fotosintesi netta positiva e nel complesso le condizioni di maggior benessere per le piante; • quantificazione dell’incremento fotosintetico netto dovuto ad una maggior concentrazione di CO2 negli interni rispetto alla concentrazione CO2 atmosferica esterna, all’aumentare dell’ intensità luminosa artificiale sulle precedenti specie; • monitoraggio dell’andamento delle attività fotosintetiche durante il periodo di illuminazione di 8 ore comunemente utilizzato in un interno ad uso lavorativo, a PAR costante e variabile in Ficus elastica e Dieffenbachia picta, al fine di stabilire quali possano essere le durate e le modalità di somministrazione della luce per rendere massima la fotosintesi netta riducendo al minimo i consumi energetici dovuti all’accensione delle lampade; • valutazione della risposta morfo-fisiologica e fotosintetica a modificazioni dello spettro luminoso mediante l’uso di LED monocromatici colorati ad emissione nel bianco, blu e rosso in Ficus benjamina e Iresine herbistii al fine di stabilire se questo tipo di lampade possano essere utilizzate come fonte integrativa e/o sostitutiva nella realizzazione degli spazi verdi interni. Vengono analizzati il punto si compensazione alla luce (g), il punto di saturazione alla luce (s), l’efficienza quantica (AQE), il punto di respirazione al buio (Rd) e la fotosintesi netta massima (A max) per (Aglaonema commutatum, Asplenium nidus, Anthurium andreanum, Begonia rex, Calathea luoise, Calathea veitchiana, Calathea rufibarba, Calathea zebrina, Codiaeum variegatum, Cthenanthe oppenheimiana, Dieffenbakia picta, Ficus benjamina, Ficus elatica, Ficus longifolia, Fittonia verschaffeltii, Iresine herbistii, Philodendron erubescens, Philodendron pertusum, Potos aureus, Spathiphillum wallisi, Syngonium podophillum ) e classificate le specie in funzione di Amax in quattro categorie; A max < 2 µmol CO2 m-2 s-1, A max compresa tra 2 e 4 µmol CO2 m-2 s-1, Amax cpmpresa tra 4 e 6 µmol CO2 m-2 s-1, Amax > 6 µmol CO2 m-2 s-1, al fine di mettere in risalto la potenzialità fotosintetiche di ogni singola specie. I valori di PAR compresi tra (g) ed (s) forniscono le indicazioni sulle quali basarsi per scegliere una giusta lampada o dimensionare un punto luce per ogni singola specie e/o composizione. È stimata l’influenza di due livelli di concentrazione di CO2 ambientale (400 e 800 ppm) all’incrementare dell’intensità luminosa sul processo fotosintetico delle specie precedenti. Per quasi tutte le specie 800 ppm di CO2 non favoriscono nessun incremento all’attività fotosintetica ad eccezione di Ficus benjamina, Ficus elatica e Syngonium podophillum se non accompagnati da una disponibilità luminosa superiore alle 10 µmol m-2 s-1. Viene monitorato l’andamento dell’attività fotosintetica a PAR costante e variabile (intervallando periodi di 8 minuti a PAR 40 e 80) durante 8 ore di illuminazione su Ficus elastica e Dieffenbachia picta al fine di stabilire la miglior modalità di somministrazione della luce. La fotosintesi netta cumulativa per l’intera durata di illuminazione a PAR costante mostra un calo dopo alcune ore dall’attivazione in Dieffenbackia, e un andamento oscillatorio in Ficus. L’illuminazione alternata consente di raggiungere i quantitativi di CO2 organicata a 80 µmol m-2 s-1 di PAR, dopo 5 ore e mezza sia in Ficus che Dieffenbackia sebbene le potenzialità fotosintetiche delle due piante siano molto differenti. È stato valutato l’effetto dell’illuminazione artificiale mediante LED (15W) a luce bianca, blu e rossa monocromatica in rapporto alla luce neon(36W) bianca tradizionale (con differenti abbinamenti tra le lampade) sui principali parametri morfologici e fisiologici, in Ficus benjamin ‘Variegata’ e Iresine herbistii per verificare se tali fonti possono rappresentare una valida alternativa nella sostituzione o integrazione di altre lampade per gli spazi verdi indoor. Tutte le combinazioni LED indagate possono rappresentare un’alternativa di sostituzione alla coltivazione con neon ed un risparmio energetico di oltre il 50%. Una PAR di 20,6 µmol m-2 s-1 della singola lampada LED bianco è sufficiente per mantenere la pianta in condizioni di sopravvivenza con un consumo di 15W a fronte dei 36W necessari per il funzionamento di ogni neon. La combinazione LED bianco + LED blu monocromatico favorisce il contenimento della taglia della pianta, caratteristica gradita nella fase di utilizzo indoor, una maggior produzione di sostanza secca e un’attività fotosintetica più elevata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivi: Valutare la modalità  più efficace per la riabilitazione funzionale del limbo libero di fibula "single strut", dopo ampie resezioni per patologia neoplastica maligna del cavo orale. Metodi: Da una casistica di 62 ricostruzioni microvascolari con limbo libero di fibula, 11 casi sono stati selezionati per essere riabilitati mediante protesi dentale a supporto implantare. 6 casi sono stati trattati senza ulteriori procedure chirurgiche ad eccezione dell'implantologia (gruppo 1), affrontando il deficit di verticalità  della fibula attraverso la protesi dentaria, mentre i restanti casi sono stati trattati con la distrazione osteogenetica (DO) della fibula prima della riabilitazione protesica (gruppo 2). Il deficit di verticalità  fibula/mandibola è stato misurato. I criteri di valutazione utilizzati includono la misurazione clinica e radiografica del livello osseo e dei tessuti molli peri-implantari, ed il livello di soddisfazione del paziente attraverso un questionario appositamente redatto. Risultati: Tutte le riabilitazioni protesiche sono costituite da protesi dentali avvitate su impianti. L'età  media è di 52 anni, il rapporto uomini/donne è di 6/5. Il numero medio di impianti inseriti nelle fibule è di 5. Il periodo massimo di follow-up dopo il carico masticatorio è stato di 30 mesi per il gruppo 1 e di 38.5 mesi (17-81) di media per il gruppo 2. Non abbiamo riportato complicazioni chirurgiche. Nessun impianto è stato rimosso dai pazienti del gruppo 1, la perdita media di osso peri-implantare registrata è stata di 1,5 mm. Nel gruppo 2 sono stati riportati un caso di tipping linguale del vettore di distrazione durante la fase di consolidazione e un caso di frattura della corticale basale in assenza di formazione di nuovo osso. L'incremento medio di osso in verticalità è stato di 13,6 mm (12-15). 4 impianti su 32 (12.5%) sono andati persi dopo il periodo di follow-up. Il riassorbimento medio peri-implantare, è stato di 2,5 mm. Conclusioni: Le soluzioni più utilizzate per superare il deficit di verticalità  del limbo libero di fibula consistono nell'allestimento del lembo libero di cresta iliaca, nel posizionare la fibula in posizione ideale da un punto di vista protesico a discapito del profilo osseo basale, l'utilizzo del lembo di fibula nella versione descritta come "double barrel", nella distrazione osteogenetica della fibula. La nostra esperienza concerne il lembo libero di fibula che nella patologia neoplastica maligna utilizziamo nella versione "single strut", per mantenere disponibili tutte le potenzialità  di lunghezza del peduncolo vascolare, senza necessità  di innesti di vena. Entrambe le soluzioni, la protesi dentale ortopedica e la distrazione osteogenetica seguita da protesi, entrambe avvitate su impianti, costituiscono soluzioni soddisfacenti per la riabilitazione funzionale della fibula al di là  del suo deficit di verticalità . La prima soluzione ha preso spunto dall'osservazione dei buoni risultati della protesi dentale su impianti corti, avendo un paragonabile rapporto corona/radice, la DO applicata alla fibula, sebbene sia risultata una metodica con un numero di complicazioni più elevato ed un maggior livello di riassorbimento di osso peri-implantare, costituisce in ogni caso una valida opzione riabilitativa, specialmente in caso di notevole discrepanza mandibulo/fibulare. Decisiva è la scelta del percorso terapeutico dopo una accurata valutazione di ogni singolo caso. Vengono illustrati i criteri di selezione provenienti dalla nostra esperienza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La forte crescita nella pescicoltura ha portato ad una significativa pressione ambientale di origine antropica nei sistemi costieri. Il bivalve locale Scrobicularia plana è stato usato come bioindicatore per valutare la qualità ambientale di un ecosistema affetto da scarichi di acque residuali di una piscifattoria nel braccio di mare Rio San Pedro (Spagna sud-occidentale). I bivalvi sono stati raccolti nei sedimenti intertidali nell'ottobre del 2010 da cinque siti del braccio di mare, seguendo un gradiente di inquinamento decrescente dall'effluente al sito di controllo. Per valutare l'esposizione e l'effetto di contaminanti legati alle acque residuali delle piscifattorie è stata selezionata una batteria di biomarker. Sono state misurate nei tessuti delle ghiandole digestive dei bivalvi: l'attività di enzimi del sistema di detossificazione della Fase I (etossiresorufina-O-deetilasi, EROD e dibenzilfluoresceina, DBF) l'attività di un enzima del sistema di detossificazione di Fase II (glutatione S-transferasi, GST), l'attività di enzimi antiossidanti (glutatione perossidasi, GPX e glutatione reduttasi, GR) e parametri di stress ossidativo (perossidazione lipidica, LPO, e danno al DNA). In parallelo sono state misurate in situ, nelle aree di studio, temperatura, pH, salinità e ossigeno disciolto nelle acque superficiali; nelle acque interstiziali sono stati misurati gli stessi parametri con l'aggiunta del potenziale redox. Sono state trovate differenze significative (p<0,05) tra siti di impatto e sito di controllo per quanto riguarda l'attività di EROD e GR, LPO e danno al DNA; è stato osservato un chiaro gradiente di stress riconducibile alla contaminazione, con alte attività di questi biomarker nell'area di scarico delle acque residuali della pescicoltura e livelli più bassi nel sito di controllo. È stata trovata inoltre una correlazione negativa significativa (p<0,01) tra la distanza alla fonte di inquinamento e l’induzione dei biomarker. Sono state analizzate le componenti abiotiche, inserendole inoltre in una mappa georeferenziata a supporto. Ossigeno disciolto, pH, salinità e potenziale redox mostrano valori bassi vicino alla fonte di inquinamento, aumentando man mano che ci si allontana da esso. I dati ottenuti indicano nel loro insieme che lo scarico di acque residuali dalle attività di pescicoltura nel braccio di mare del Rio San Pedro può indurre stress ossidativo negli organismi esposti che può portare ad un'alterazione dello stato di salute degli organismi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il carcinoma polmonare rappresenta un problema socio-sanitario di grande rilievo, essendo la prima causa di morte per neoplasia. Il carcinoma polmonare non a piccole cellule (non small cell lung cancer - NSCLC) rappresenta la variante istologica più frequente (80% dei casi di tumore polmonare). Al momento della diagnosi circa il 60-70% dei pazienti presenta una malattia in stadio avanzato o metastatico non essendo suscettibile di trattamento chirurgico. Per questi pazienti il trattamento chemioterapico determina un prolungamento della sopravvivenza e un miglioramento della qualità  della vita rispetto alla sola terapia di supporto, identificandosi come standard terapeutico. L'individuazione del migliore trattamento chemioterapico per questo subset di pazienti rappresenta pertanto una delle principali sfide della ricerca oncologica. I regimi polichemioterapici si possono dividere schematicamente in tre generazioni in relazione all'introduzione nel corso degli anni di nuovi agenti chemioterapici. Con l'avvento dei regimi di terza generazione, il trattamento del NSCLC avanzato sembra aver raggiunto un plateau, mancando infatti chiare dimostrazioni di superiorità  di un regime di ultima generazione rispetto ad un altro. Tra questi l'associazione cisplatino e gemcitabina rappresenta uno dei regimi standard più utilizzati in considerazione del suo favorevole rapporto costo-beneficio. Al fine di migliorare i risultati del trattamento chemioterapico in termini di attività  ed efficacia, una possibilità  consiste nell'individuazione di parametri predittivi che ci consentano di identificare il miglior trattamento per il singolo paziente. Tra i vari parametri predittivi valutabili, un crescente interesse è stato rivolto a quelli di carattere genetico, anche grazie all'avvento di nuove tecniche di biologia molecolare e al sequenziamento del genoma umano che ha dato nuovo impulso a studi di farmacogenetica e farmacogenomica. Sulla base di queste considerazioni, in questa tesi è stato effettuato uno studio mirato a valutare l'espressione di determinanti molecolari coinvolti nel meccanismo di azione di gemcitabina e cisplatino in pazienti affetti dai due tipi istologici principali di NSCLC, adenocarcinomi e carcinomi squamocellulari. Lo studio dei livelli di espressione genica è stata effettuata in tessuti di 69 pazienti affetti da NSCLC arruolati presso l'Istituto Europeo di Oncologia di Milano. In particolare, mediante Real Time PCR è stata valutata l'espressione genica di ERCC1, hENT1, dCK, 5'-NT, CDA, RRM1 e RRM2 in 85 campioni isolati con microdissezione da biopsie provenienti dai tessuti polmonari normali o tumorali o dalle metastasi linfonodali. Le analisi di questi tessuti hanno mostrato differenze significative per i pattern di espressione genica di diversi determinanti molecolari potenzialmente utile nel predire l'efficacia di gemcitabina/cisplatino e per personalizzare i trattamenti in pazienti affetti da cancro. In conclusione, l'evoluzione delle tecniche di biologia molecolare promossa dagli studi di farmacogenetica racchiude in sè notevoli potenzialità  per quanto concerne l'ideazione di nuovi protocolli terapeutici. Identificando le caratteristiche genotipiche e i livelli di espressione geniche di determinanti molecolari implicati nella risposta ai farmaci potremmo infatti predisporre delle mappe di chemiosensibilità-chemioresistenza per ciascun paziente, nell'ottica di approntare di volta in volta le più appropriate terapie antitumorali in base alle caratteristiche genetiche del paziente e della sua patologia neoplastica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi si è incentrato sull’analisi dei frammenti di manoscritti ebraici medievali rinvenuti in alcuni archivi e biblioteche dell’area emiliano-romagnola ossia, come è noto, la regione italiana che vanta il maggior numero di frammenti rinvenuti; ben 6.000 frammenti sui circa 10.000 censiti sino ad oggi in tutta l’Italia, vale a dire un numero pari al 60% del totale. Nello specifico è stato esaminato il materiale pergamenaceo ebraico conservato in Archivi e Biblioteche delle città di Cesena, Faenza ed Imola, per un totale di 230 frammenti ebraici. Ho, quindi, proceduto all’identificazione di tutti i frammenti che, se dal punto di vista testuale ci documentano parti delle principali opere ebraiche diffuse nel Medioevo, sotto l’aspetto paleografico ci attestano le tre principali tradizioni scrittorie ebraiche utilizzate in Occidente, ossia: quella italiana, la sefardita e quella ashkenazita, oltre che ad alcuni rari esempi di grafia sefardita di tipo provenzale, una tipologia rara, se si considera che fra i quasi 10.000 frammenti finora scoperti in Italia, il numero di quelli vergati in questa grafia è davvero piccolo. Successivamente ho preso in esame le caratteristiche codicologiche e paleografiche dei frammenti, in particolar modo quelle relative a rigatura, foratura, mise en page e alle varianti grafiche individuali dello scriba, fra cui abbreviazioni, segni grafici di riempimento e resa del tetragramma sacro del nome di Dio, elementi che mi hanno consentito di identificare i frammenti smembrati da uno stesso manoscritto. Ciò ha permesso di individuare ben 80 manoscritti dai quali furono smembrati i 230 frammenti ebraici rinvenuti. Infine, sulla base dei dati raccolti, è stato realizzato un catalogo di tutti i frammenti, all’interno del quale i frammenti sono stati ricomposti per manoscritto. A loro volta, i vari manoscritti, suddivisi per soggetto, sono stati ordinati per secolo, dal più antico al più recente, in base alla grafia in cui sono vergati, ossia: Italiana, Sefardita (Provenzale) o Ashkenazita e per stile: quadrata, semicorsiva e corsiva. A motivo, poi, di nuovi ritrovamenti in diverse località italiane, mi sono dedicata ad un aggiornamento della mia ricerca compiuta per la tesi di Laurea, pubblicata nel 2004, sui frammenti talmudici e midrashici scoperti negli archivi e nelle biblioteche italiani; un genere di letteratura i cui rinvenimenti, per vari motivi, sono estremamente rari. In quell’occasione furono catalogati 475 frammenti talmudici, appartenenti a 151 manoscritti diversi, databili su base paleografica tra i secc. X e XV, e 54 frammenti midrashici appartenenti ad 8 manoscritti databili tra i secc. XII e XV. Ad oggi, dopo 4 anni, sono stati scoperti 21 nuovi frammenti talmudici ed un nuovo frammento midrashico. Nello specifico di questi 21 frammenti: 17 contengono parti tratte dal Talmud babilonese e 4 dal Sefer ha-Halakot di Alfasi (un noto compendio talmudico); mentre il frammento midrashico, rinvenuto presso la Sezione di Archivio di Stato di Foligno, contiene una parte del Midrash haggadah a Deuteronomio, costituendo pertanto già di per se stesso un rinvenimento molto importante. Questo frammento, ad una prima analisi, sembrerebbe completare alcune lacune del Midrash Haggadah ai cinque libri della Torah pubblicato a Vienna nel 1894 da S. Buber sulla base del solo manoscritto esistente che, tuttavia, presentava delle lacune, come riferisce lo stesso autore nella prefazione all’opera.