997 resultados para sub-Laplaciano gruppi di tipo H unique continuation principio di indeterminazione


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il tennis è uno sport molto diffuso che negli ultimi trent’anni ha subito molti cambiamenti. Con l’avvento di nuovi materiali più leggeri e maneggevoli la velocità della palla è aumentata notevolmente, rendendo così necessario una modifica a livello tecnico dei colpi fondamentali. Dalla ricerca bibliografica sono emerse interessanti indicazioni su angoli e posizioni corporee ideali da mantenere durante le varie fasi dei colpi, confrontando i giocatori di altissimo livello. Non vi sono invece indicazioni per i maestri di tennis su quali siano i parametri più importanti da allenare a seconda del livello di gioco del proprio atleta. Lo scopo di questa tesi è quello di individuare quali siano le variabili tecniche che influenzano i colpi del diritto e del servizio confrontando atleti di genere differente, giocatori di livello di gioco diverso (esperti, intermedi, principianti) e dopo un anno di attività programmata. Confrontando giocatori adulti di genere diverso, è emerso che le principali differenze sono legate alle variabili di prestazione (velocità della palla e della racchetta) per entrambi i colpi. Questi dati sono simili a quelli riscontrati nel test del lancio della palla, un gesto non influenzato dalla tecnica del colpo. Le differenze tecniche di genere sono poco rilevanti ed attribuibili alla diversa interpretazione dei soggetti. Nel confronto di atleti di vario livello di gioco le variabili di prestazione presentano evidenti differenze, che possono essere messe in relazione con alcune differenze tecniche rilevate nei gesti specifici. Nel servizio i principianti tendono a direzionare l’arto superiore dominante verso la zona bersaglio, abducendo maggiormente la spalla ed avendo il centro della racchetta più a destra rispetto al polso. Inoltre, effettuano un caricamento minore degli arti inferiori, del tronco e del gomito. Per quanto riguarda il diritto si possono evidenziare queste differenze: l’arto superiore è sempre maggiormente esteso per il gruppo dei principianti; il tronco, nei giocatori più abili viene utilizzato in maniera più marcata, durante la fase di caricamento, in movimenti di torsione e di inclinazione laterale. Gli altri due gruppi hanno maggior difficoltà nell’eseguire queste azioni preparatorie, in particolare gli atleti principianti. Dopo un anno di attività programmata sono stati evidenziati miglioramenti prestativi. Anche dal punto di vista tecnico sono state notate delle differenze che possono spiegare il miglioramento della performance nei colpi. Nel servizio l’arto superiore si estende maggiormente per colpire la palla più in alto possibile. Nel diritto sono da sottolineare soprattutto i miglioramenti dei movimenti del tronco in torsione ed in inclinazione laterale. Quindi l’atleta si avvicina progressivamente ad un’esecuzione tecnica corretta. In conclusione, dal punto di vista tecnico non sono state rilevate grosse differenze tra i due generi che possano spiegare le differenze di performance. Perciò questa è legata più ad un fattore di forza che dovrà essere allenata con un programma specifico. Nel confronto fra i vari livelli di gioco e gli effetti di un anno di pratica si possono individuare variabili tecniche che mostrano differenze significative tra i gruppi sperimentali. Gli evoluti utilizzano tutto il corpo per effettuare dei colpi più potenti, utilizzando in maniera tecnicamente più valida gli arti inferiori, il tronco e l’arto superiore. I principianti utilizzano prevalentemente l’arto superiore con contributi meno evidenti degli altri segmenti. Dopo un anno di attività i soggetti esaminati hanno dimostrato di saper utilizzare meglio il tronco e l’arto superiore e ciò può spiegare il miglioramento della performance. Si può ipotizzare che, per il corretto utilizzo degli arti inferiori, sia necessario un tempo più lungo di apprendimento oppure un allenamento più specifico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La mia tesi dal titolo ”Applicazione della tecnica PSinSAR™ allo studio di fenomeni franosi lenti: casi di studio in Emilia-Romagna” ha avuto come obiettivo quello di mostrare le potenzialità e i limiti della tecnica PSinSAR nel monitoraggio di fenomeni franosi localizzati in Val Marecchia. Ho svolto, nel capitolo due, un’analisi preliminare dell’area di studio andando a evidenziare prima le caratteristiche climatiche, piogge medie annue e le temperature minime e massime, e a seguire sono passato a descrivere l’inquadramento geologico e geomorfologico. L’area della Val Marecchia è, da questo punto di vista, molto particolare poggiando su quella che è definita dagli autori “coltre della Val Marecchia”; essa è un complesso alloctono sovrascorso ai terreni autoctoni della successione Umbro – Romagnola - Marchigiana. La traslazione verso Est della coltre avvenne per "scatti", in funzione delle principali fasi tettoniche appenniniche, separati da momenti di pausa in cui sedimentarono le formazioni più recenti le quali poi si spostarono in modo solidale con la coltre. La coltre, infatti, è costituita da un insieme di formazioni di età diverse e in particolare ritroviamo, partendo da quella più antica l’unità ligure, l’unità subligure e infine l’unità epiligure. La presenza di formazioni più recenti sopra ad altre più antiche rende unica la morfologia della vallata con enormi blocchi rocciosi poggianti su un substrato in genere argilloso come nell’esempio più famoso della rupe di San Leo. Da queste analisi è emersa un’altra caratteristica peculiare della valle cioè la forte tendenza a essere interessata da dissesti di varie tipologie. Gli indici di franosità mostrano che nella zona alta della vallata circa il 50% del territorio è interessato da dissesti, valore che decresce leggermente nella parte media e bassa della valle. Il motivo di tale instabilità è da imputare in parte alla forte erosione che avviene sulle placche epiliguri e in parte alle caratteristiche scadenti del substrato che è per lo più composto di argille e arenarie. Per quanto riguarda le tipologie di frane in Val Marecchia la situazione è molto eterogenea; in particolari le tre tipologie più frequenti sono il colamento lento, lo scivolamento rotazionale/traslativo e le frane di tipo complesso. Nel terzo capitolo ho descritto la tecnica PSinSAR; essa si basa sull’elaborazione di scene riprese da satellite per giungere alla formazione di una rete di punti, i PS, di cui conosciamo i movimenti nel tempo. I Permanent Scatterer (PS) sono dei bersagli radar individuati sulla superficie terrestre dal sensori satellitari caratterizzati per il fatto di possedere un’elevata stabilità nel tempo alla risposta elettromagnetica. I PS nella maggior parte dei casi corrispondono a manufatti presenti sulla superficie quali edifici, monumenti, strade, antenne e tralicci oppure ad elementi naturali come per esempio rocce esposte o accumuli di detrito. Lo spostamento viene calcolato lungo la linea di vista del satellite, per cui il dato in uscita non mostra lo spostamento effettivo del terreno, ma l'allontanamento o l'avvicinamento del punto rispetto al satellite. La misure sono sempre differenziali, ovvero sono riferite spazialmente a un punto noto a terra chiamato reference point, mentre temporalmente alla data di acquisizione della prima immagine. La tecnica PSinSAR proprio per la sua natura è "cieca" rispetto ai movimenti in direzione Nord-Sud. Le scene utilizzate per la creazione dei dataset di PS derivano quasi interamente dai satelliti ERS e ENVISAT. Tuttora sono disponibili anche le scene dei satelliti TerraSAR-X, RADARSAT e Cosmo Skymed. I sensori utilizzati in questo ambito sono i SAR (Synthetic Aperture Radar) che sono sensori attivi, cioè emettono loro stessi l'energia necessaria per investigare la superficie terrestre al contrario dei sensori ottici. Questo permette di poter acquisire scene anche di notte e in condizioni di cielo nuvoloso. La tecnica PSinSAR presenta molti vantaggi rispetto alle tecniche interferometriche tradizionali essa, infatti, è immune agli errori di decorrelamento temporale e spaziale oltre agli errori atmosferici, che portavano ad avere precisioni non inferiori a qualche cm, mentre ora l’errore di misura sulla velocità media di spostamento si attesta in genere sui 2 mm. La precisione che si ha nella georeferenziazione dei punti è in genere di circa 4-7 m lungo la direzione Est e circa 1-2 m in quella Nord. L’evoluzione di PSinSAR, SqueeSAR, permette un numero maggiore di punti poiché oltre ai Permanent Scatterers PS, tramite un apposito algoritmo, calcola anche i Distribuited Scatterer DS. I dataset di dati PS che ho utilizzato nel mio lavoro di tesi (PSinSAR) derivano, come detto in precedenza, sia da scene riprese dal satellite ERS che da ENVISAT nelle due modalità ascendenti e discendenti; nel primo caso si hanno informazioni sui movimenti avvenuti tra il 1992 e il 2000 mentre per l’ENVISAT tra il 2002 e il 2008. La presenza di dati PS nelle due modalità di ripresa sulla stessa zona permette tramite alcuni calcoli di ricavare la direzione effettiva di spostamento. È importante però sottolineare che, a seconda della modalità di ripresa, alcune aree possono risultare in ombra, per questo nell’analisi dei vari casi di studio non sempre sono stati utilizzabili tutti i dataset. Per l'analisi dei vari casi di studio, presentati nel capitolo 4, ho utilizzato diverso materiale cartografico. In particolare mi sono servito delle Carte Tecniche Regionali (CTR) a scala 1:10000 e 1:5000, in formato digitale, come base cartografica. Sempre in formato digitale ho utilizzato anche le carte geologiche e geomorfologiche dell'area della Val Marecchia (fogli 266, 267, 278) oltre, per finire, agli shapefile presi dal database online del Piano stralcio dell’Assetto Idrogeologico PAI. Il software usato per la realizzazione del lavoro di tesi è stato ArcGIS di proprietà di ESRI. Per ogni caso di studio ho per prima cosa effettuato un'analisi dal punto di vista geologico e geomorfologico, in modo da fare un quadro delle formazioni presenti oltre ad eventuali fenomeni franosi mostrati dalle carte. A seguire ho svolto un confronto fra il dato PS, e quindi i valori di spostamento, e la perimetrazione mostrata nel PAI. Per alcuni casi di studio il dato PS ha mostrato movimenti in aree già perimetrate nel PAI come "in dissesto", mentre in altri il dato satellitare ha permesso di venire a conoscenza di fenomeni non conosciuti (come ad esempio nel caso di Monte Gregorio). Per ogni caso di studio ho inoltre scelto alcuni PS caratteristici (solitamente quelli a coerenza maggiore) e ho ricavato la relativa serie storica. In questo modo è stato possibile verificare lo spostamento durante tutti gli anni in cui sono state prese le scene (dal 1992 al 2000 per dati ERS, dal 2002 al 2008 per dati ENVISAT) potendo quindi mettere in luce accelerazioni o assestamenti dei fenomeni nel tempo, oltre a escludere la presenza di trend di spostamento anomali imputabili nella maggior parte dei casi a errori nel dato. L’obiettivo della tesi è stato da una parte di verificare la bontà del dato PS nell’interpretazione dei movimenti dovuti a dissesti franosi e dall’altra di fare un confronto tra il dato di spostamento ricavato dai PS e i vari inventari o carte di piano. Da questo confronto sono emerse informazioni molti interessanti perché è stato possibile avere conferme di movimento su dissesti già conosciuti (Sant’Agata Feltria, San Leo e altri) ma anche di venire a conoscenza di fenomeni non conosciuti (Monte Gregorio). In conclusione è emerso dal mio lavoro che il monitoraggio tramite tecnica PSinSAR necessita di essere integrato con le tecniche tradizionali poiché presenta alcune limitazioni importanti come l’impossibilità di "vedere" movimenti veloci o lungo la direzione Nord-Sud, oltre ad avere dati in aree vegetate o scarsamente abitate. I vantaggi sono però notevoli potendo monitorare con un’unica ripresa vaste porzioni di territorio oltre ad avere serie storiche consistenti, in grado di evidenziare i movimenti avvenuti nel passato. Tale tecnica quindi, secondo il mio parere, può essere utilizzata come supporto alla stesura di cartografia di fenomeni franosi fornendo informazioni aggiuntive rispetto alle varie tecniche tradizionali come il GPS, sondaggi geotecnici e sondaggi inclinometrici.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Individuazione dei valori ottimali di crescita di dinoflagellate bentoniche, valutazione della tossicità e di interazioni allelopatiche. Il fitoplancton rappresenta la base della catena trofica in ambiente marino, nonché oltre la metà  della produzione primaria a livello mondiale. Le dinoflagellate, assieme alle diatomee, costituiscono la maggior parte del fitoplancton, comprendendo numerose e diversificate specie di microalghe dalla differente distribuzione, ecologia e fisiologia. Alcune specie appartenenti a tale gruppo sono in grado di dare luogo, in determinate condizioni, a estesi fenomeni di fioriture algali, che diventano particolarmente impattanti se le specie coinvolte sono responsabili della produzione di biotossine, le quali possono direttamente uccidere altri organismi o accumularsi nei loro tessuti. Gli effetti nocivi di questi fenomeni si ripercuotono pesantemente sull'ecosistema marino, con ingenti morie di organismi acquatici (da pesci a molluschi, dal bentos al necton) e profonde alterazioni nelle comunità specifiche. Un forte coinvolgimento si ha di conseguenza anche per le attività umane, in seguito a forti esternalità negative su pesca, turismo, attività ricreative, o spesso con rischi direttamente correlati alla salute umana, dovuti perlopiù ad ingestione di organismi contaminati o all'inalazione di tossine per via aerea. Negli ultimi anni le fioriture algali tossiche si sono fortemente intensificate in distribuzione, estensione e frequenza, attirando l'interesse globale della comunità scientifica. Diversi studi condotti in questo senso hanno portato all'identificazione di numerose specie di dinoflagellate tossiche e all'isolamento di una lunga serie di composti chimici con effetti dannosi da esse sintetizzate. Tuttavia si conosce ancora ben poco sull'ecologia di queste specie, in particolare su quali siano i fattori che possano indurre o regolare la proliferazione e lo sviluppo di un bloom algale. Questo studio si è focalizzato su due specie di dinoflagellate bentoniche tossiche, Ostreopsis ovata e Coolia monotis, entrambe appartenenti alla famiglia Ostreopsidaceae, note già da tempo nei paesi tropicali poiché associate alla sindrome da ciguatera. Negli ultimi anni, Ostreopsis ovata è stata oggetto di numerose ricerche in Europa, poiché ha dato luogo a fenomeni di bloom, collegati con danni respiratori nell'uomo, anche lungo i litorali italiani; soltanto recentemente grazie ad una tecnica analitica basata sulla combinazione di cromatografia liquida e spettrometria di massa (LC-MS), è stato possibile isolare la diverse tossine responsabili. Durante i vari monitoraggi e campionamenti delle acque, questa dinoflagellata è stata sempre riscontrata in presenza di Coolia monotis (e Prorocentrum lima), di cui invece si conosce ben poco, visto che la sua tossicità in Mediterraneo non è ancora stata dimostrata, né la sua tossina caratterizzata. Il primo step di questo studio è stato quello di valutare, attraverso il mantenimento di colture in vitro, l'importanza della temperatura nella crescita di O. ovata e C. monotis (singolarmente) provenienti dalla zona del monte Conero (Ancona, Marche). Esistono già studi di questo tipo su ceppi adriatici di O. ovata, tuttavia è stato effettuato un esperimento similare utilizzando un nuovo ceppo, isolato in anni recenti; per C. monotis invece non sono presenti molti studi in letteratura, in particolare nessuno riguardante ceppi italiani. La valutazione della crescita è stata effettuata attraverso conteggio delle cellule, misura dell'efficienza fotosintetica e consumo dei macronutrienti. Quindi, visto che le due specie vivono in associazione nell'ambiente marino, si è cercato di evidenziare l'instaurarsi di eventuali processi competitivi o di fenomeni di allelopatia. Dall'analisi dei risultati è emerso che, se coltivate individualmente, sia C. monotis che O. ovata mostrano un optimum di crescita alla temperatura di 20°C, con tasso di crescita, numero di cellule e rendimento fotosintetico raggiunti più elevati, seppure non di molto rispetto alle colture a 25°C. Le colture a 30°C al contrario hanno mostrato valori sensibilmente inferiori. Se fatte crescere assieme, invece, C. monotis mantiene lo stesso pattern riscontrato nella monoculture a 20 e 25°C, seppur raggiungendo numeri di cellule inferiori, mentre a 30°C ha una crescita bassissima. Al contrario, O. ovata alla temperatura più elevata raggiunge lo stesso numero di cellule della monocultura, alla temperatura intermedia registra il tasso di crescita, ma non il numero di cellule, più elevato, mentre alla temperatura più bassa (che era l'optimum per la monocultura) si ha il maggior stress per la specie, evidenziando forti fenomeni di competizione. Esperimenti su C. monotis fatta crescere in un filtrato di O. ovata non hanno invece chiarito l'esistenza o meno di eventuali effetti allelopatici di Ostreopsis su Coolia, dato che non sono apparse differenze evidenti tra il controllo e il filtrato, mentre hanno messo in luce l'importanza dei batteri associati alle microalghe come supporto alla loro crescita, poiché le colture cresciute in filtrato sterile hanno manifestato tutte quante un rendimento quantico fotosintetico inferiore.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Considerando la figura di Orfeo, si mette in luce la ricezione del mito della morte di questo personaggio leggendario nell’arte simbolista, con particolare attenzione per Gustave Moreau. Il lavoro di ricerca vuole approfondire anche la natura epistemologica e metodologica dello studio della sopravvivenza dei classici, prediligendo i processi di tipo comparatistico e quelli che si rifanno alla grande categoria dei Cultural Studies, intendendo attraversare i confini, le barriere, le frontiere, i limiti delle discipline tradizionalmente intese. Viene cosí presa in considerazione anche l’interazione tra cultura verbale, scritta, letteraria e cultura visuale, sottolineando i meccanismi di transtestualità, nelle loro valenze e potenzialità di ibridazione e contaminazione. Si punta, dunque, non solo sulla superificie tematica specifica ma anche sulla filigrana dei procedimenti di legittimazione scientifica e della prasseologia di questa specifica area filologica transdisciplinare.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il progetto di tesi, inizialmente, è stato concentrato sull’approfondimento, e studio, delle problematiche relative alla costruzione delle linee ad Alta Velocità, che hanno recentemente segnato il territorio italiano, da nord a sud e da ovest ad est. Proseguendo l’analisi sul sistema ferroviario, tramite il confronto con le altre realtà europee, ho compreso quali fossero le principali criticità e doti del trasporto su ferro in Italia, che è ancora molto lontano dalla sua miglior ottimizzazione, ma che comunque, ci tengo a dire, in rapporto a ciò che succede negli altri paesi d’Europa, non è così deficitario come si è portati a pensare. L’entrata in funzione delle linee ad Alta Velocità, infatti, ha cambiato lo scenario di relazioni tra infrastruttura, città e territorio, proprio in questo ambito nasce la volontà di proporre un modello di sviluppo urbano che comprenda, nella sua pianificazione originale, città, infrastruttura ed architettura, e che anzi rivendichi l’importanza di quest’ultima nelle scelte urbanistiche, al contrario di quanto purtroppo avviene oggi. Dopo uno studio dei contesti possibili in cui inserire un progetto di questa portata, è stata individuata la zona che meglio si adatta alle premesse iniziali, ad ovest di Milano tra Novara e l’aeroporto di Milano Malpensa. Qui la scarsa razionalizzazione dei trasporti pregiudica lo sfruttamento delle potenzialità dell’aeroporto da una parte, e della nuova linea ad Alta Velocità dell’altra, così aggiungendo una nuova tratta di ferrovia ad alte prestazioni e riorganizzando trasporti e territorio, ho tentato di dare risposta alle mancanze del sistema della mobilità. In questo quadro si inserisce la città lineare studiata per dimostrare la possibile integrazione tra trasporti, città ed architettura, il modello, partendo dallo studio del blocco milanese giunge a definire un piano di tipo composto, con un asse principale in cui sono concentrate le vie di trasporto, ed una serie di assi ortogonali secondari che individuano le emergenze architettoniche, punti notevoli che devono fungere da catalizzatori. In uno di questi punti, posto in posizione baricentrica è stato collocato il centro di ricerca avanzata, in particolare è stato inserito in una zona difficilmente raggiungibile, questo per enfatizzare l’isolamento e la riservatezza che sono necessarie alla funzione. Il campus avrebbe potuto trovarsi anche in un altro punto del piano e questo non avrebbe inficiato le premesse iniziali, il progetto dell’università è solo un pretesto per dimostrare l’ipotesi prima dichiarata, l’architettura può e deve svolgere un ruolo importante nella pianificazione anche infrastrutturale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il miglioramento dell’ambiente urbano e, in particolare, della qualità di vita dei cittadini, così come lo scriteriato consumo di territorio in favore della barbara cementificazione delle aree non edificate, sono diventate questioni di particolare rilievo nello scenario globale finalizzato al raggiungimento di un nuovo modello di sviluppo delle città. Gli abitanti dei centri urbani, oggi, sono costretti ad affrontare il sovraffollamento e i problemi ad esso connessi: il traffico, la congestione, l’inquinamento e gli effetti che questi fattori generano alla società. L’area oggetto di questa tesi, luogo a forte vocazione turistica, presenta questo tipo di problematiche soprattutto in corrispondenza della stagione estiva mentre, per il resto dell’anno, si trova ad affrontare il problema opposto di riduzione delle attività e dello spopolamento causate dalla stagionalità. L’espansione edilizia, avvenuta con estrema rapidità e durante un periodo caratterizzato da un forte sviluppo economico , non ha seguito gli indirizzi di un Piano che avrebbe se non altro evitato sprechi di territorio e una struttura così caotica. Tradizionalmente l’idea di densità è sempre stata considerata in maniera negativa rispetto alla questione urbana, in quanto simbolo di un uso intensivo e indiscriminato del territorio e causa della scarsa qualità di vita che caratterizza molte città. In realtà il concetto di densità può assumere un significato diverso: legato all’efficienza, alla qualità e alla sostenibilità. Densificare, infatti, secondo opportune linee guida e in relazione agli standard di qualità, significa sfruttare al meglio le risorse esistenti all’interno delle città, utilizzando il territorio senza sprechi e ricucendo le fratture in grado di generare situazioni di degrado ambientale. Un complesso e minuzioso processo di “densificazione” è in grado di apportare molti benefici al cittadino e alla comunità, come la trasformazione degli spazi inutilizzati o dismessi, la riduzione delle distanze e della mobilità veicolare, la limitazione dell’impatto energetico sull’ambiente e, non ultima, la promozione di una nuova immagine urbana connessa a nuove funzionalità e strutture. Densificare è però condizione necessaria ma non sufficiente per il miglioramento dell’ambiente urbano, infatti il termine “densità” non specifica nulla sul risultato qualitativo e quantitativo che si intende ottenere. “Creazione di un ambiente più propizio alla vita ed intenzionalità estetica sono i caratteri stabili dell’architettura; questi aspetti emergono da ogni ricerca positiva ed illuminano la città come creazione umana” . È in questo senso che deve essere letta la “densificazione” proposta da questa tesi per la riqualificazione di Misano Adriatico. Occorrerà riqualificare soprattutto quelle aree marginali del tutto prive dei requisiti urbani al fine di integrarle maggiormente al resto della città. A essa dovrà essere collegata una nuova visione di quelle che saranno le infrastrutture legate alla mobilità ed i servizi necessari alla vita della comunità. Essi non dovranno più essere visti come elementi di semplice collegamento o episodi isolati distribuiti a caso nel territorio, ma dovranno recuperare quell’importanza strategica che li portavano ad essere l’elemento catalizzatore e la struttura portante dell’espansione urbana. La riqualificazione della città sviluppata in questa tesi segue “la strategia dei luoghi complementari” teorizzata da O.M. Ungers secondo cui: “la città dei -luoghi complementari- è composta dal numero più grande possibile di aree diverse, nelle quali viene sviluppato un aspetto urbano particolare tenendo conto del tutto. In un certo senso è un sistema della -città nella città-. Ogni parte ha le sue proprie caratteristiche, senza però essere perfezionata e conclusa. […] Si cerca la molteplicità, la diversità, non l’unitarietà. La contraddizione, la conflittualità sono parte del sistema e rimangono insolute” . Il fine ultimo di questa tesi è quindi quello di proporre un’idea di città del nostro tempo, un prodotto complesso, non identificabile con un unico luogo ma con un insieme di luoghi che si sovrappongono e si integrano in maniera complementare mantenendo le peculiarità intrinseche del territorio a cui appartengono.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Total ankle arthroplasty (TAA) is still not as satisfactory as total hip and total knee arthroplasty. For the TAA to be considered a valuable alternative to ankle arthrodesis, an effective range of ankle mobility must be recovered. The disappointing clinical results of the current generation of TAA are mostly related to poor understanding of the structures guiding ankle joint mobility. A new design (BOX Ankle) has been developed, uniquely able to restore physiologic ankle mobility and a natural relationship between the implanted components and the retained ligaments. For the first time the shapes of the tibial and talar components in the sagittal plane were designed to be compatible with the demonstrated ligament isometric rotation. This resulted in an unique motion at the replaced ankle where natural sliding as well as rolling motion occurs while at the same time full conformity is maintained between the three components throughout the flexion arc. According to prior research, the design features a spherical convex tibial component, a talar component with radius of curvature in the sagittal plane longer than that of the natural talus, and a fully conforming meniscal component. After computer-based modelling and preliminary observations in several trial implantation in specimens, 126 patients were implanted in the period July 2003 – December 2008. 75 patients with at least 6 months follow-up are here reported. Mean age was 62,6 years (range 22 – 80), mean follow-up 20,2 months. The AOFAS clinical score systems were used to assess patient outcome. Radiographs at maximal dorsiflexion and maximal plantar flexion confirmed the meniscalbearing component moves anteriorly during dorsiflexion and posteriorly during plantarflexion. Frontal and lateral radiographs in the patients, show good alignment of the components, and no signs of radiolucency or loosening. The mean AOFAS score was observed to go from 41 pre-op to 74,6 at 6 month follow-up, with further improvement at the following follow-up. These early results reveal satisfactory clinical scores, with good recovery of range of motion and reduction of pain. Radiographic assessment reveals good osteointegration. All these preliminary results confirm biomechanical studies and the validity of this novel ligamentcompatible prosthesis design. Surely it will be important to re-evaluate these patients later.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro di tesi si è incentrato sull’analisi dei frammenti di manoscritti ebraici medievali rinvenuti in alcuni archivi e biblioteche dell’area emiliano-romagnola ossia, come è noto, la regione italiana che vanta il maggior numero di frammenti rinvenuti; ben 6.000 frammenti sui circa 10.000 censiti sino ad oggi in tutta l’Italia, vale a dire un numero pari al 60% del totale. Nello specifico è stato esaminato il materiale pergamenaceo ebraico conservato in Archivi e Biblioteche delle città di Cesena, Faenza ed Imola, per un totale di 230 frammenti ebraici. Ho, quindi, proceduto all’identificazione di tutti i frammenti che, se dal punto di vista testuale ci documentano parti delle principali opere ebraiche diffuse nel Medioevo, sotto l’aspetto paleografico ci attestano le tre principali tradizioni scrittorie ebraiche utilizzate in Occidente, ossia: quella italiana, la sefardita e quella ashkenazita, oltre che ad alcuni rari esempi di grafia sefardita di tipo provenzale, una tipologia rara, se si considera che fra i quasi 10.000 frammenti finora scoperti in Italia, il numero di quelli vergati in questa grafia è davvero piccolo. Successivamente ho preso in esame le caratteristiche codicologiche e paleografiche dei frammenti, in particolar modo quelle relative a rigatura, foratura, mise en page e alle varianti grafiche individuali dello scriba, fra cui abbreviazioni, segni grafici di riempimento e resa del tetragramma sacro del nome di Dio, elementi che mi hanno consentito di identificare i frammenti smembrati da uno stesso manoscritto. Ciò ha permesso di individuare ben 80 manoscritti dai quali furono smembrati i 230 frammenti ebraici rinvenuti. Infine, sulla base dei dati raccolti, è stato realizzato un catalogo di tutti i frammenti, all’interno del quale i frammenti sono stati ricomposti per manoscritto. A loro volta, i vari manoscritti, suddivisi per soggetto, sono stati ordinati per secolo, dal più antico al più recente, in base alla grafia in cui sono vergati, ossia: Italiana, Sefardita (Provenzale) o Ashkenazita e per stile: quadrata, semicorsiva e corsiva. A motivo, poi, di nuovi ritrovamenti in diverse località italiane, mi sono dedicata ad un aggiornamento della mia ricerca compiuta per la tesi di Laurea, pubblicata nel 2004, sui frammenti talmudici e midrashici scoperti negli archivi e nelle biblioteche italiani; un genere di letteratura i cui rinvenimenti, per vari motivi, sono estremamente rari. In quell’occasione furono catalogati 475 frammenti talmudici, appartenenti a 151 manoscritti diversi, databili su base paleografica tra i secc. X e XV, e 54 frammenti midrashici appartenenti ad 8 manoscritti databili tra i secc. XII e XV. Ad oggi, dopo 4 anni, sono stati scoperti 21 nuovi frammenti talmudici ed un nuovo frammento midrashico. Nello specifico di questi 21 frammenti: 17 contengono parti tratte dal Talmud babilonese e 4 dal Sefer ha-Halakot di Alfasi (un noto compendio talmudico); mentre il frammento midrashico, rinvenuto presso la Sezione di Archivio di Stato di Foligno, contiene una parte del Midrash haggadah a Deuteronomio, costituendo pertanto già di per se stesso un rinvenimento molto importante. Questo frammento, ad una prima analisi, sembrerebbe completare alcune lacune del Midrash Haggadah ai cinque libri della Torah pubblicato a Vienna nel 1894 da S. Buber sulla base del solo manoscritto esistente che, tuttavia, presentava delle lacune, come riferisce lo stesso autore nella prefazione all’opera.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il progetto è incentrato sulla riqualificazione dell’area occupata dai vecchi stabilimenti dell’Eridania a Forlì risalenti al 1900, ora di proprietà della Cooperativa Muratori di Verucchio. L’area è situata in una zona a Nord del centro storico, adiacente alla linea ferroviaria. Attualmente verte in stato di forte abbandono dal 1973, anno della chiusura dello stabilimento: è la più vasta area dismessa in prossimità del centro storico, una ferita aperta nel cuore della città. Le dimensioni e la vicinanza al centro cittadino costituiscono il maggiore potenziale dell’area che si presta per questo all’introduzione di funzioni di pubblico interesse, spazi per la cultura e lo svago, edifici residenziali e commerciali; inoltre, essendo caratterizzata da una prevalenza di spazi verdi, nasce spontanea l’ipotesi di un nuovo grande parco urbano al servizio della comunità. Oltre al valore dell’area è da sottolineare il pregio architettonico di alcuni degli edifici che possiamo considerare come grandiosi esempi di archeologia industriale. Gli edifici, attualmente, versano in un notevole stato di degrado dovuto all’abbandono dello stabilimento e al grave incendio che nel 1989 ha distrutto i capannoni di deposito, risparmiando però il corpo principale dell’intervento. Nonostante ciò, gli edifici hanno conservato pressoché intatta la loro struttura e, di conseguenza, l’immagine originaria nel suo complesso. È quindi possibile ipotizzarne il mantenimento, una volta effettuati i necessari interventi di consolidamento strutturale e ristrutturazione architettonica. Il progetto di recupero dell’area nasce quindi da un’esigenza concreta e fortemente sentita dalla cittadinanza. Si deve inoltre considerare che, senza un intervento tempestivo, si va incontro all’aggravamento dello stato delle strutture superstiti, fino ad un possibile collasso, rischiando così di perdere definitivamente un prezioso bene del patrimonio architettonico della città. Il dibattito sull’ex Eridania e le sue possibilità di trasformazione si è riacceso negli ultimi anni, soprattutto in seguito all’incendio dell’89. In particolare, il PRG di Forlì del 2003, successivamente adeguato alla legge regionale 20/2000 nel 2007, definisce un nuovo piano di riqualificazione per le aree dismesse e le aree ferroviarie, con nuovi contenuti e procedure d’intervento. Nel 2008 la Cooperativa Muratori di Verucchio, proprietaria dell’area e degli stabilimenti, ha proposto un accordo di programma che prevedeva per il corpo centrale dello zuccherificio la destinazione a caserma delle forze dell’ordine, e per gli spazi circostanti la costruzione di case popolari, di un centro sportivo, di residenze private, edifici per uffici e negozi, oltre al mantenimento di ampie aree verdi. Il progetto non è stato finora realizzato a causa degli alti costi d’intervento per la messa in sicurezza degli edifici preesistenti. Nello steso anno l’associazione Italia Nostra ha proposto l’organizzazione di un concorso di idee per il recupero dell’area, ipotizzando per lo stabilimento principale la trasformazione in un ampio spazio coperto, aperto a diverse e numerose possibilità di destinazione rivolte alla collettività. Gli alti costi di recupero, insieme all’immobilismo amministrativo e ai limiti legati a una burocrazia complessa, e spesso inefficace, hanno finora invalidato qualsiasi tipo d’intervento e, ad oggi, la questione del riutilizzo dello zuccherificio rimane una domanda aperta ancora senza risposta. E’ quindi importante continuare ad interrogarsi sul futuro dell’area progredendo, se non con fatti concreti, con nuove idee e proposte, in attesa che si creino le condizioni necessarie ad intervenire e ridare alla città una parte di sé, arricchita di nuovo valore.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’introduzione massiccia dell’elettronica di potenza nel campo degli azionamenti elettrici negli ultimi decenni ha sostanzialmente rivoluzionato la tipologia di alimentazione dei motori elettrici. Da un lato ciò ha migliorato la qualità del controllo della velocità, ma dall’altro ha aggravato le sollecitazioni che gli isolanti delle macchine devono sopportare. Si è infatti passati da tecniche di controllo tradizionali, che consistevano nell’alimentare i motori in alternata direttamente con la rete sinusoidale a 50 Hz (o a 60 Hz), ad alimentazioni indirette, cioè realizzate interponendo tra la rete e la macchina un convertitore elettronico (inverter). Tali dispositivi operano una conversione di tipo ac/dc e dc/ac che permette, come nella modulazione Pulse Width Modulation (PWM), di poter variare la frequenza di alimentazione della macchina, generando una sequenza di impulsi di larghezza variabile. Si è quindi passati dalle tradizionali alimentazioni con forme d’onda alternate sinusoidali a forme di tensione impulsive e ad elevata frequenza, cioè caratterizzate da rapidi fronti di salita e di discesa (dell’ordine di qualche kV/µs). La natura impulsiva di queste forme d’onda ha aggravato la sollecitazione elettrica a cui sono sottoposti i materiali impiegati per l’isolamento dei conduttori degli avvolgimenti delle macchine. E’ importante notare che l’utilizzo dei dispositivi elettronici, che ormai si trovano sparsi nelle reti di bassa tensione, assorbono correnti ad elevato contenuto armonico sul lato di prelievo, hanno quindi un effetto distorcente che altera l’andamento sinusoidale della rete stessa. Quindi, senza opportuni filtri, anche tutte le altre utenze connesse nelle vicinanze, dimensionate per alimentazioni sinusoidali di tipo tradizionale, possono risentire di queste distorsioni armoniche. Per tutti questi motivi è sorta la necessità di verificare l’adeguatezza dei tradizionali isolamenti ad essere in grado di sopportare le sollecitazioni che derivano dall’utilizzo di convertitori elettronici. In particolare, per i motori elettrici tale interrogativo è stato posto in seguito al verificarsi di un elevato numero di guasti inaspettati (precoci), probabilmente imputabile alla diversa sollecitazione elettrica applicata ai materiali. In questa tesi ci si è occupati della progettazione di un inverter di media tensione, che verrà impiegato per eseguire prove sugli avvolgimenti di statore di motori (formette), al fine di condurre successivamente uno studio sull’invecchiamento dei materiali che compongono gli isolamenti. Tale inverter è in grado di generare sequenze di impulsi con modulazione PWM. I parametri caratteristici delle sequenze possono essere modificati in modo da studiare i meccanismi di degradazione in funzione della tipologia delle sollecitazioni applicate. Avendo a che fare con provini di natura capacitiva, il cui isolamento può cedere durante la prova, il sistema deve essere intrinsecamente protetto nei confronti di tutte le condizioni anomale e di pericolo. In particolare deve essere in grado di offrire rapide ed efficaci protezioni per proteggere l’impianto stesso e per salvaguardare la sicurezza degli operatori, dato l’elevato livello delle tensioni in gioco. Per questo motivo è stata pensata un’architettura di sistema ad hoc, in grado di fronteggiare le situazioni anomale in modo ridondante. E’ infatti stato previsto l’inserimento di un sistema di controllo basato sul CompactRIO, sul quale è stato implementato un software in grado di monitorare le grandezze caratteristiche del sistema e le protezioni che affiancheranno quelle hardware, realizzate con dispositivi elettronici. I dispositivi elettronici di protezione e di interfacciamento sono stati studiati, implementati e simulati con PSpice, per poi essere successivamente dimensionati e realizzati su schede elettroniche, avvalendosi del software OrCAD. La tesi è strutturata come segue: - Il primo capitolo tratta, in maniera generale, i motori asincroni trifase, gli inverter e l’invecchiamento dei sistemi isolanti, con particolare interesse alle sollecitazioni meccaniche, termiche ed elettriche nel caso di sollecitazioni impulsive; - Il secondo capitolo riguarda il sistema realizzato nel suo complesso. Inizialmente verrà descritto lo schema elettrico generale, per poi analizzare più nello specifico le varie parti di cui il sistema è composto, come l’inverter di media tensione, il generatore di media tensione, la scheda di disaccoppiamento ottico, la scheda di controllo del generatore di media tensione, la scheda OCP; - Il terzo capitolo descrive le lavorazioni meccaniche eseguite sulle scatole contenti i rami di inverter, la realizzazione delle fibre ottiche e riporta le fasi di collaudo dell’intero sistema. Infine, verranno tratte le conclusioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente Tesi di Laurea si colloca nell’ambito di un progetto strategico di ateneo chiamato OpIMA. Tale progetto mira a sviluppare codificatori innovativi per segnali di tipo impulsivo, discreti nei livelli, con riferimento soprattutto all’attuazione, alla sintesi di forme d’onda e all’amplificazione audio. L’obiettivo del progetto è di sviluppare nuove generazioni di codificatori, simili nell’uso a quelli tradizionali ed in qualche modo compatibili con essi e pure basati su principi operativi radicalmente diversi. La Tesi di Laurea è stata svolta presso il Dipartimento di Ingegneria Elettrica (DIE) nel laboratorio di Compatibilità Elettromagnetica (LACEM). Il lavoro tratta di uno studio nel dominio tempo-frequenza sulle emissioni condotte prodotte da un convertitore statico DC/AC progettato presso il DIE. Tale studio risulta utile per capire come e quando vengono generati questi disturbi e per migliorare la compatibilità elettromagnetica del convertitore. La Tesi inizialmente richiama con il Capitolo 1 i concetti che stanno alla base della compatibilità elettromagnetica, soprattutto per quanto riguarda le emissioni condotte. Con il Capitolo 2 si descrive in dettaglio il banco prova in ogni sua parte; nel Capitolo 3 vengono riportati i dati teorici di carica e scarica del BUS DC del convertitore. Nel Capitolo 4, 5, 6 vengono riportati i risultati delle prove effettuate sul convertitore per quanto riguarda le emissioni condotte; in particolare nel Capitolo 4 le prove sono state eseguite sul convertitore originale, nel Capitolo 5 si sono ripetute le prove separando elettricamente il circuito di potenza del convertitore da quello di controllo (ovviamente in questa fase abbiamo utilizzato due fonti di alimentazione separate) e nel Capitolo 6 si è voluto eliminare il rumore generato dall’alimentatore presente all’interno del circuito di controllo e per far ciò sono stati costruiti cinque alimentatori lineari esterni con determinate caratteristiche. Infine nell’ultimo Capitolo si sono tratte le conclusioni sui risultati delle misure effettuate.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The use of scaffolds for Tissue Engineering (TE) is increasing due to their efficacy in helping the body rebuild damaged or diseased tissue. Hydroxyapatite (HA) is the most suitable bioactive ceramic to be used in orthopaedic reconstruction since it replicates the mineral component of the hard tissues, and it has therefore excellent biocompatibility properties. The temporal and spatial control of the tissue regeneration process is the limit to be overcome in order to treat large bone and osteochondral defects. In this thesis we describe the realization of a magnetic scaffolds able to attract and take up growth factors or other bio-agents in vivo via a driving magnetic force. This concept involves the use of magnetic nanoparticles (MNP) functionalized with selected growth factors or stem cells. These functionalized MNP act as shuttles transporting the bio-agents towards and inside the scaffold under the effect of the magnetic field, enhancing the control of tissue regeneration processes. This scaffold can be imagined as a fixed “station” that provides a unique possibility to adjust the scaffold activity to the specific needs of the healing tissue. Synthetic bone graft substitutes, made of collagen or biomineralized collagen (i.e. biomimetic Hydroxyapatite/collagen composites) were used as starting materials for the fabrication of magnetic scaffolds. These materials are routinely used clinically to replace damaged or diseased cartilaginous or bone tissue. Our magnetization technique is based on a dip-coating process consisting in the infilling of biologically inspired porous scaffolds with aqueous biocompatible ferrofluids’ suspensions. In this technique, the specific interconnected porosity of the scaffolds allows the ferrofluids to be drawn inside the structure by capillarity. A subsequent freeze-drying process allows the solvent elimination while keeping very nearly the original shape and porosity of the scaffolds. The remaining magnetic nanoparticles, which are trapped in the structure, lead to the magnetization of the HA/Collagen scaffold. We demonstrate here the possibility to magnetize commercially available scaffolds up to magnetization values that are used in drug delivery processes. The preliminary biocompatibility test showed that the investigated scaffolds provide a suitable micro-environment for cells. The biocompatibility of scaffold facilitates the growth and proliferation of osteogenic cells.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La risposta emodinamica all'esercizio dinamico è stata oggetto di numerosi studi scientifici. Poca attenzione è stata invece rivolta agli aggiustamenti cardiovascolari che si verificano quando si interrompe uno sforzo dinamico. Al cessare dell' esercizio, la frequenza cardiaca e la contrattilità miocardica subiscono un decremento repentino e vengono rilasciati in quantità i prodotti finali del metabolismo muscolare, come lattato, ioni idrogeno, adenosina, sostanze in grado di indurre vasodilatazione nei gruppi muscolari precedentemente attivati determinando una riduzione del precarico, post-carico cardiaco, contrattilità miocardica e una dilatazione delle arteriole periferiche, così da mantenere le resistenze vascolari periferiche a un basso livello. Inoltre, si verificano alterazioni della concentrazione ematica di elettroliti, diminuzione delle catecolamine circolanti e si verifica un ipertono vagale : tutti questi fenomeni possono avere un effetto significativo sullo stato emodinamico. In questo studio si voleva valutare in che misura l’eventuale effetto ipotensivo dovuto all’esercizio fosse legato all’intensità del carico lavorativo applicato ed alla sua durata. Il campione esaminato comprendeva 20 soggetti maschi attivi. I soggetti venivano sottoposti a quattro test in giornate diverse. La prova da sforzo preliminare consisteva in una prova da sforzo triangolare massimale eseguita al cicloergometro con un protocollo incrementale di 30 Watt al minuto. Il test si articolava in una prima fase della durata di 3 minuti nei quali venivano registrati i dati basali, in una seconda fase della durata di tre minuti in cui il soggetto compiva un riscaldamento al cicloergometro, che precedeva l’inizio dello sforzo, ad un carico di 20 W. Al termine della prova venivano calcolati il massimo carico lavorativo raggiunto (Wmax) ed il valore di soglia anaerobica (SA). Dopo la prova da sforzo preliminare il soggetto effettuava 3 esercizi rettangolari di diversa intensità in maniera randomizzata così strutturati: test 70% SA; test 130% SA, 130% Wmax : prove da sforzo rettangolari ad un carico lavorativo pari alla percentuale indicatain relazione ai valori di SA e Wmax ottenuti nella prova da sforzo preliminare. Tali test duravano dieci minuti o fino all'esaurimento del soggetto. Le prova erano precedute da tre minuti di riposo e da tre minuti di riscaldamento. Il recupero aveva una durata di 30 minuti. La PA veniva misurata ogni 5 minuti durante lo sforzo, ogni minuto nei primi 5 minuti di recupero e successivamente ogni 5 minuti fino alla conclusione del recupero. Dai risultati emerge come l'effetto ipotensivo sia stato più marcato nel recupero dall'intensità di carico lavorativo meno elevata, cioè dopo il test 70%SA. C'è da considerare che la più bassa intensità di sforzo permetteva di praticare un esercizio significativamente più lungo rispetto ai test 130%SA e 130%Wmax. È quindi verosimile che anche la durata dell'esercizio e non solo la sua intensità abbia avuto un ruolo fondamentale nel determinare l'ipotensione nel recupero evidenziata in questo studio. L’effetto ipotensivo più evidente si è manifestato nelle prove a più bassa intensità ma con carico lavorativo totale più elevato. I dati supportano la tendenza a considerare non tanto l’intensità e la durata dell’esercizio in modo isolato, quanto piuttosto il carico lavorativo totale (intensità x durata). L'effetto ipotensivo registrato nello studio è da ascriversi soprattutto ad una persistente vasodilatazione susseguente allo sforzo. Infatti, nel recupero dal test 70%SA, le RVP si mantenevano basse rispetto ai valori di riposo. Tale dato potrebbe avere un grande valore clinico nella prescrizione dell'attività fisica più idonea nei soggetti ipertesi,che potrebbero beneficiare di un eventuale effetto ipotensivo successivo all'attività praticata. Pertanto in futuro bisognerà estendere lo studio ai soggetti ipertesi. La conferma di tale risultato in questi soggetti permetterebbe di scegliere correttamente l'intensità e la durata del carico lavorativo, in modo da calibrare lo sforzo al grado di patologia del soggetto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the recent years, consumers became more aware and sensible in respect to environment and food safety matters. They are more and more interested in organic agriculture and markets and tend to prefer ‘organic’ products more than their traditional counterparts. To increase the quality and reduce the cost of production in organic and low-input agriculture, the 6FP-European “QLIF” project investigated the use of natural products such as bio-inoculants. They are mostly composed by arbuscular mycorrhizal fungi and other microorganisms, so-called “plant probiotic” microorganisms (PPM), because they help keeping an high yield, even under abiotic and biotic stressful conditions. Italian laws (DLgs 217, 2006) have recently included them as “special fertilizers”. This thesis focuses on the use of special fertilizers when growing tomatoes with organic methods in open field conditions, and the effects they induce on yield, quality and microbial rhizospheric communities. The primary objective was to achieve a better understanding of how plant-probiotic micro-flora management could buffer future reduction of external inputs, while keeping tomato fruit yield, quality and system sustainability. We studied microbial rhizospheric communities with statistical, molecular and histological methods. This work have demonstrated that long-lasting introduction of inoculum positively affected micorrhizal colonization and resistance against pathogens. Instead repeated introduction of compost negatively affected tomato quality, likely because it destabilized the ripening process, leading to over-ripening and increasing the amount of not-marketable product. Instead. After two years without any significant difference, the third year extreme combinations of inoculum and compost inputs (low inoculum with high amounts of compost, or vice versa) increased mycorrhizal colonization. As a result, in order to reduce production costs, we recommend using only inoculum rather than compost. Secondly, this thesis analyses how mycorrhizal colonization varies in respect to different tomato cultivars and experimental field locations. We found statistically significant differences between locations and between arbuscular colonization patterns per variety. To confirm these histological findings, we started a set of molecular experiments. The thesis discusses preliminary results and recommends their continuation and refinement to gather the complete results.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract L’utilizzo dei dati satellitari per la gestione dei disastri naturali è fondamentale nei paesi in via di sviluppo, dove raramente esiste un censimento ed è difficile per i governi aggiornare le proprie banche dati con le tecniche di rilevamento e metodi di mappatura tradizionali che sono entrambe lunghe e onerose. A supporto dell’importanza dell’impiego del telerilevamento e per favorirne l’uso nel caso di catastrofi, vi è l’operato di diverse organizzazioni internazionali promosse da enti di ricerca, da agenzie governative o da organismi sopranazionali, le quali svolgono un lavoro di cruciale valore, fornendo sostegno tecnico a chi si occupa di far giungere alle popolazioni colpite gli aiuti umanitari e i soccorsi nel più breve tempo possibile. L’attività di tesi è nata proprio dalla collaborazione con una di esse, ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action), organizzazione no-profit, fondata dal Politecnico di Torino e SiTI (Istituto Superiore sui Sistemi Territoriali per l’Innovazione), la quale a sua volta collabora con il WFP (World Food Programme) delle Nazioni Unite, realizzando cartografie speditive necessarie per la valutazione delle conseguenze di un evento catastrofico, attraverso l’impiego di dati acquisiti da satellite. Su questo tema si è inserito il presente lavoro che ha come obiettivo quello di dimostrare la valenza dei dati telerilevati, siano essi di tipo ottico o Radar, nel caso di alcuni dei disastri naturali più catastrofici, le alluvioni. In particolare è stata studiata la vulnerabilità del Bangladesh, il quale annualmente si trova ad affrontare eventi alluvionali, spesso di grave intensità. Preliminarmente allo studio, è stata condotta una ricerca bibliografica al fine di avere una buona conoscenza dell’area sia in termini geografici e fisici che di sviluppo e tipologia di urbanizzazione. E’stata indagata in particolare l’alluvione che ha colpito il paese nel Luglio del 2004, attraverso delle immagini satellitari multispettrali, in particolare Landsat 7, per un inquadramento pre-evento, ed ASTER per studiare la situazione a distanza di tre mesi dall’accaduto (immagine rilevata il 20 Ottobre 2004). Su tali immagini sono state condotte delle classificazioni supervisionate con il metodo della massima verosimiglianza che hanno portato la suddivisione del territorio in quattro classi di destinazione d’uso del suolo: urbano (Build-up), campi e vegetazione (Crops&Vegetation), sabbia e scavi (Sand&Excavation), idrografia e zone alluvionate (Water). Dalla sperimentazione è emerso come tali immagini multispettrali si prestino molto bene per l’analisi delle differenti caratteristiche del territorio, difatti la validazione condotta sulla mappa tematica derivata dall’immagine Landsat 7 ha portato ad un’accuratezza del 93% circa, mentre la validazione dell’immagine ASTER è stata solo di tipo qualitativo, in quanto, considerata l’entità della situazione rilevata, non è stato possibile avere un confronto con dei punti da assumere come verità a terra. Un’interpretazione della mappa tematica derivante dalla classificazione dell’immagine ASTER è stata elaborata incrociandola in ambiente GIS con dati forniti dal CEGIS (Center for Environmental and Geographic Information Services) riguardanti il landuse della zona in esame; da ciò è emerso che le zone destinate alla coltivazione del riso sono più vulnerabili alle inondazioni ed in particolare nell’Ottobre 2004 il 95% delle aree esondate ha interessato tali colture. Le immagini ottiche presentano un grosso limite nel caso delle alluvioni: la rilevante copertura nuvolosa che spesso accompagna siffatti eventi impedisce ai sensori satellitari operanti nel campo dell’ottico di rilevare il territorio, e per questo di frequente essi non si prestano ad essere impiegati per un’indagine nella fase di prima emergenza. In questa circostanza, un valido aiuto giunge dall’impiego di immagini Radar, le quali permettono osservazioni ad ogni ora del giorno e della notte, anche in presenza di nuvole, rendendole di fondamentale importanza nelle situazioni descritte. Per dimostrare la valididi questi sensori si sono analizzati due subset derivanti da un mosaico di immagini della nuova costellazione italiana ad alta risoluzione CosmoSkymed: il primo va dalla città di Dhaka al Golfo del Bengala ed il secondo copre la zona più a Nord nel distretto di Sylhet. Dalla sperimentazione condotta su tali immagini radar, che ha comportato come ovvio problematiche del tutto differenti rispetto alle elaborazioni tradizionalmente condotte su immagini nel campo dell’ottico, si è potuto verificare come l’estrazione dei corpi d’acqua e più in generale dell’idrografia risulti valida e di veloce computazione. Sono emersi tuttavia dei problemi, per esempio per quanto riguarda la classificazione dell’acqua in presenza di rilievi montuosi; tali complicazioni sono dovute alla presenza di zone d’ombra che risultano erroneamente assegnate alla classe water, ma è stato possibile correggere tali errori di attribuzione mascherando i rilievi con l’ausilio di una mappa delle pendenze ricavata da modelli di elevazione SRTM (Shuttle Radar Topographic Mission). La validazione dei risultati della classificazione, condotta con un grande numero di check points, ha fornito risultati molto incoraggianti (ca. 90%). Nonostante le problematiche riscontrate, il Radar, in sé o in accoppiamento con altri dati di diversa origine, si presta dunque a fornire in breve tempo informazioni sull’estensione dell’esondazione, sul grado di devastazione, sulle caratteristiche delle aree esondate, sulle vie di fuga più adatte, diventando un’importante risorsa per chi si occupa di gestire l’emergenza in caso di eventi calamitosi. L’integrazione con i dati di tipo ottico è inoltre essenziale per pervenire ad una migliore caratterizzazione del fenomeno, sia in termini di change detection che di monitoraggio post-evento.