807 resultados para metastasi blastiche,proprietà meccaniche,nanoindentazione


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le ricerche di carattere eustatico, mareografico, climatico, archeologico e geocronologico, sviluppatesi soprattutto nell’ultimo ventennio, hanno messo in evidenza che gran parte delle piane costiere italiane risulta soggetta al rischio di allagamento per ingressione marina dovuta alla risalita relativa del livello medio del mare. Tale rischio è la conseguenza dell’interazione tra la presenza di elementi antropici e fenomeni di diversa natura, spesso difficilmente discriminabili e quantificabili, caratterizzati da magnitudo e velocità molto diverse tra loro. Tra le cause preponderanti che determinano l’ingressione marina possono essere individuati alcuni fenomeni naturali, climatici e geologici, i quali risultano fortemente influenzati dalle attività umane soprattutto a partire dal XX secolo. Tra questi si individuano: - la risalita del livello del mare, principalmente come conseguenza del superamento dell’ultimo acme glaciale e dello scioglimento delle grandi calotte continentali; - la subsidenza. Vaste porzioni delle piane costiere italiane risultano soggette a fenomeni di subsidenza. In certe zone questa assume proporzioni notevoli: per la fascia costiera emiliano-romagnola si registrano ratei compresi tra 1 e 3 cm/anno. Tale subsidenza è spesso il risultato della sovrapposizione tra fenomeni naturali (neotettonica, costipamento di sedimenti, ecc.) e fenomeni indotti dall’uomo (emungimenti delle falde idriche, sfruttamento di giacimenti metaniferi, escavazione di materiali per l’edilizia, ecc.); - terreni ad elevato contenuto organico: la presenza di depositi fortemente costipabili può causare la depressione del piano di campagna come conseguenza di abbassamenti del livello della falda superficiale (per drenaggi, opere di bonifica, emungimenti), dello sviluppo dei processi di ossidazione e decomposizione nei terreni stessi, del costipamento di questi sotto il proprio peso, della carenza di nuovi apporti solidi conseguente alla diminuita frequenza delle esondazioni dei corsi d’acqua; - morfologia: tra i fattori di rischio rientra l’assetto morfologico della piana e, in particolare il tipo di costa (lidi, spiagge, cordoni dunari in smantellamento, ecc. ), la presenza di aree depresse o comunque vicine al livello del mare (fino a 1-2 m s.l.m.), le caratteristiche dei fondali antistanti (batimetria, profilo trasversale, granulometria dei sedimenti, barre sommerse, assenza di barriere biologiche, ecc.); - stato della linea di costa in termini di processi erosivi dovuti ad attività umane (urbanizzazione del litorale, prelievo inerti, costruzione di barriere, ecc.) o alle dinamiche idro-sedimentarie naturali cui risulta soggetta (correnti litoranee, apporti di materiale, ecc. ). Scopo del presente studio è quello di valutare la probabilità di ingressione del mare nel tratto costiero emiliano-romagnolo del Lido delle Nazioni, la velocità di propagazione del fronte d’onda, facendo riferimento allo schema idraulico del crollo di una diga su letto asciutto (problema di Riemann) basato sul metodo delle caratteristiche, e di modellare la propagazione dell’inondazione nell’entroterra, conseguente all’innalzamento del medio mare . Per simulare tale processo è stato utilizzato il complesso codice di calcolo bidimensionale Mike 21. La fase iniziale di tale lavoro ha comportato la raccolta ed elaborazione mediante sistema Arcgis dei dati LIDAR ed idrografici multibeam , grazie ai quali si è provveduto a ricostruire la topo-batimetria di dettaglio della zona esaminata. Nel primo capitolo è stato sviluppato il problema del cambiamento climatico globale in atto e della conseguente variazione del livello marino che, secondo quanto riportato dall’IPCC nel rapporto del 2007, dovrebbe aumentare al 2100 mediamente tra i 28 ed i 43 cm. Nel secondo e terzo capitolo è stata effettuata un’analisi bibliografica delle metodologie per la modellazione della propagazione delle onde a fronte ripido con particolare attenzione ai fenomeni di breaching delle difese rigide ed ambientali. Sono state studiate le fenomenologie che possono inficiare la stabilità dei rilevati arginali, realizzati sia in corrispondenza dei corsi d’acqua, sia in corrispondenza del mare, a discapito della protezione idraulica del territorio ovvero dell’incolumità fisica dell’uomo e dei territori in cui esso vive e produce. In un rilevato arginale, quale che sia la causa innescante la formazione di breccia, la generazione di un’onda di piena conseguente la rottura è sempre determinata da un’azione erosiva (seepage o overtopping) esercitata dall’acqua sui materiali sciolti costituenti il corpo del rilevato. Perciò gran parte dello studio in materia di brecce arginali è incentrato sulla ricostruzione di siffatti eventi di rottura. Nel quarto capitolo è stata calcolata la probabilità, in 5 anni, di avere un allagamento nella zona di interesse e la velocità di propagazione del fronte d’onda. Inoltre è stata effettuata un’analisi delle condizioni meteo marine attuali (clima ondoso, livelli del mare e correnti) al largo della costa emiliano-romagnola, le cui problematiche e linee di intervento per la difesa sono descritte nel quinto capitolo, con particolare riferimento alla costa ferrarese, oggetto negli ultimi anni di continui interventi antropici. Introdotto il sistema Gis e le sue caratteristiche, si è passati a descrivere le varie fasi che hanno permesso di avere in output il file delle coordinate x, y, z dei punti significativi della costa, indispensabili al fine della simulazione Mike 21, le cui proprietà sono sviluppate nel sesto capitolo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questi ultimi anni il tema della sicurezza sismica degli edifici storici in muratura ha assunto particolare rilievo in quanto a partire soprattutto dall’ordinanza 3274 del 2003, emanata in seguito al sisma che colpì il Molise nel 2002, la normativa ha imposto un monitoraggio ed una classificazione degli edifici storici sotto tutela per quanto riguarda la vulnerabilità sismica (nel 2008, quest’anno, scade il termine per attuare quest’opera di classificazione). Si è posto per questo in modo più urgente il problema dello studio del comportamento degli edifici storici (non solo quelli che costituiscono monumento, ma anche e soprattutto quelli minori) e della loro sicurezza. Le Linee Guida di applicazione dell’Ordinanza 3274 nascono con l’intento di fornire strumenti e metodologie semplici ed efficaci per affrontare questo studio nei tempi previsti. Il problema si pone in modo particolare per le chiese, presenti in grande quantità sul territorio italiano e di cui costituiscono gran parte del patrimonio culturale; questi edifici, composti di solito da grandi elementi murari, non presentano comportamento scatolare, mancando orizzontamenti, elementi di collegamento efficace e muri di spina interni e sono particolarmente vulnerabili ad azioni sismiche; presentano inoltre un comportamento strutturale a sollecitazioni orizzontali che non può essere colto con un approccio globale basato, ad esempio, su un’analisi modale lineare: non ci sono modi di vibrare che coinvolgano una sufficiente parte di massa della struttura; si hanno valori dei coefficienti di partecipazione dei varii modi di vibrare minori del 10% (in generale molto più bassi). Per questo motivo l’esperienza e l’osservazione di casi reali suggeriscono un approccio di studio degli edifici storici sacri in muratura attraverso l’analisi della sicurezza sismica dei cosiddetti “macroelementi” in cui si può suddividere un edificio murario, i quali sono elementi che presentano un comportamento strutturale autonomo. Questo lavoro si inserisce in uno studio più ampio iniziato con una tesi di laurea dal titolo “Analisi Limite di Strutture in Muratura. Teoria e Applicazione all'Arco Trionfale” (M. Temprati), che ha studiato il comportamento dell’arco trionfale della chiesa collegiata di Santa Maria del Borgo a San Nicandro Garganico (FG). Suddividere un edificio in muratura in più elementi è il metodo proposto nelle Linee Guida, di cui si parla nel primo capitolo del presente lavoro: la vulnerabilità delle strutture può essere studiata tramite il moltiplicatore di collasso quale parametro in grado di esprimere il livello di sicurezza sismica. Nel secondo capitolo si illustra il calcolo degli indici di vulnerabilità e delle accelerazioni di danno per la chiesa di Santa Maria del Borgo, attraverso la compilazione delle schede dette “di II livello”, secondo quanto indicato nelle Linee Guida. Nel terzo capitolo viene riportato il calcolo del moltiplicatore di collasso a ribaltamento della facciata della chiesa. Su questo elemento si è incentrata l’attenzione nel presente lavoro. A causa della complessità dello schema strutturale della facciata connessa ad altri elementi dell’edificio, si è fatto uso del codice di calcolo agli elementi finiti ABAQUS. Della modellazione del materiale e del settaggio dei parametri del software si è discusso nel quarto capitolo. Nel quinto capitolo si illustra l’analisi condotta tramite ABAQUS sullo stesso schema della facciata utilizzato per il calcolo manuale nel capitolo tre: l’utilizzo combinato dell’analisi cinematica e del metodo agli elementi finiti permette per esempi semplici di convalidare i risultati ottenibili con un’analisi non-lineare agli elementi finiti e di estenderne la validità a schemi più completi e più complessi. Nel sesto capitolo infatti si riportano i risultati delle analisi condotte con ABAQUS su schemi strutturali in cui si considerano anche gli elementi connessi alla facciata. Si riesce in questo modo ad individuare con chiarezza il meccanismo di collasso di più facile attivazione per la facciata e a trarre importanti informazioni sul comportamento strutturale delle varie parti, anche in vista di un intervento di ristrutturazione e miglioramento sismico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è il calcolo dell'anello di coomologia di de Rham della varietà delle bandiere di uno spazio vettoriale complesso. Per prima cosa introduciamo la coomologia di de Rham e riassumiamo le sue principali proprietà. Definiamo poi la varietà delle bandiere di uno spazio vettoriale complesso, e, utilizzando la teoria delle classi di Chern, ne calcoliamo l'anello di coomologia di de Rham.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo tema è alquanto attuale per la città di Venezia e soprattutto per quanto riguarda proprio il ponte dell’Accademia che, nato come provvisorio, è rimasto tale fino ai giorni nostri. Per comprendere al meglio la natura di questi manufatti, ho analizzato i quattro ponti sul Canal Grande, partendo dal ponte di Rialto, poi Scalzi e Accademia e infine il ponte della Costituzione. L’analisi è stata compiuta sia dal punto di vista storico che costruttivo, ho esaminato tutte le vicende storiche che hanno caratterizzato la loro “immagine” attuale e infine ho deciso di scomporli e studiare ogni parte, partendo dalle fondazioni fino ad arrivare ai parapetti. Oltre a questa minuziosa analisi, abbiamo affrontato il tema dei materiali che compongono questi quattro manufatti e cioè: la pietra, il legno, l’acciaio e il cemento armato. Si è rilevato importante non studiare solo le caratteristiche fisiche e meccaniche, ma anche la loro evoluzione nel tempo e nella storia dell’architettura dei ponti. Queste analisi sono state importanti per realizzare un progetto che non rompesse il filo conduttore che li lega e cioè che sono tutti ad arco ribassato con una freccia sempre minore con l’aumento delle innovazioni tecnologiche. Il progetto, quindi, si evoluto mano a mano che le analisi venivano compiute e in base al bando per il ponte dell’Accademia del comune di Venezia, bandito nel giugno del 2009. Il bando è stato il punto cardine che ha fatto da perno al progetto, delineando i punti fondamentali da seguire e da sviluppare. La documentazione relativa al bando è stata sufficiente per iniziare uno studio approfondito della struttura precedente per comprenderla in tutte le sue parti. Anche l’analisi dei progetti redatti per la Terza Mostra Internazionale dell’Architettura è stata un’occasione per approfondire e sviluppare una forma nuova e nel contempo non invasiva per la città veneta. Tutto questo ha portato alla realizzazione di un progetto che rispetta tutti i punti che il bando impone, utilizzando sia materiali innovativi che tradizionali, creando un manufatto che non stravolge l’immagine di Venezia e che finalmente offre un volto al ponte dell’Accademia che da ottant’anni continua ad avere la “fama” di ponte provvisorio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi è stato studiato l’effetto dell’esposizione della diatomea Skeletonema marinoi, una specie molto comune nel Nord Adriatico e importante per il suo annuale contributo alla produzione primaria, agli erbicidi maggiormente utilizzati nella pianura Padana e riscontrati in acque dolci e salmastre di zone limitrofe al mare Adriatico. Gli erbicidi scelti consistono in terbutilazina e metolachlor, i più frequentemente riscontrati sia nelle acque superficiali che in quelle sotterranee dell’area Padana, noti per avere un effetto di inibizione su vie metaboliche dei vegetali; inoltre è stato valutato anche l’effetto di un prodotto di degradazione della terbutilazina, la desetilterbutilazina, presente anch’esso in concentrazioni pari al prodotto di origine e su cui non si avevano informazioni circa la tossicità sul fitoplancton. L’esposizione delle microalghe a questi erbicidi può avere effetti che si ripercuotono su tutto l’ecosistema: le specie fitoplanctoniche, in particolare le diatomee, sono i produttori primari più importanti dell’ecosistema: questi organismi rivestono un ruolo fondamentale nella fissazione del carbonio, rappresentando il primo anello della catena alimentari degli ambienti acquatici e contribuendo al rifornimento di ossigeno nell’atmosfera. L’effetto di diverse concentrazioni di ciascun composto è stato valutato seguendo l’andamento della crescita e dell’efficienza fotosintetica di S. marinoi. Per meglio determinare la sensibilità di questa specie agli erbicidi, l’effetto della terbutilazina è stato valutato anche al variare della temperatura (15, 20 e 25°C). Infine, dal momento che gli organismi acquatici sono solitamente esposti a una miscela di composti, è stato valutato l’effetto sinergico di due erbicidi, entrambi somministrati a bassa concentrazione. Le colture di laboratorio esposte a concentrazioni crescenti di diversi erbicidi e, in un caso, anche a diverse temperature, indicano che l’erbicida al quale la microalga mostra maggiore sensibilità è la Terbutilazina. Infatti a parità di concentrazioni, la sensibilità della microalga alla Terbutilazina è risultata molto più alta rispetto al suo prodotto di degradazione, la Desetilterbutilazina e all’erbicida Metolachlor. Attraverso l’analisi di densità algale, di efficienza fotosintetica, di biovolume e di contenuto intracellulare di Carbonio e Clorofilla, è stato dimostrato l’effetto tossico dell’erbicida Terbutilazina che, agendo come inibitore del trasporto degli elettroni a livello del PS-II, manifesta la sua tossicità nell’inibizione della fotosintesi e di conseguenza sulla crescita e sulle proprietà biometriche delle microalghe. E’ stato visto come la temperatura sia un parametro ambientale fondamentale sulla crescita algale e anche sugli effetti tossici di Terbutilazina; la temperatura ideale per la crescita di S. marinoi è risultata essere 20°C. Crescendo a 15°C la microalga presenta un rallentamento nella crescita, una minore efficienza fotosintetica, variazione nei valori biometrici, mostrando al microscopio forme irregolari e di dimensioni inferiori rispetto alle microalghe cresciute alle temperature maggiori, ed infine incapacità di formare le tipiche congregazioni a catena. A 25° invece si sono rivelate difficoltà nell’acclimatazione: sembra che la microalga si debba abituare a questa alta temperatura ritardando così la divisione cellulare di qualche giorno rispetto agli esperimenti condotti a 15° e a 20°C. Gli effetti della terbutilazina sono stati maggiori per le alghe cresciute a 25°C che hanno mostrato un calo più evidente di efficienza fotosintetica effettiva e una diminuzione di carbonio e clorofilla all’aumentare delle concentrazioni di erbicida. Sono presenti in letteratura studi che attestano gli effetti tossici paragonabili dell’atrazina e del suo principale prodotto di degradazione, la deetilatrazina; nei nostri studi invece non sono stati evidenziati effetti tossici significativi del principale prodotto di degradazione della terbutilazina, la desetilterbutilazina. Si può ipotizzare quindi che la desetilterbutilazina perda la propria capacità di legarsi al sito di legame per il pastochinone (PQ) sulla proteina D1 all’interno del complesso del PSII, permettendo quindi il normale trasporto degli elettroni del PSII e la conseguente sintesi di NADPH e ATP e il ciclo di riduzione del carbonio. Il Metolachlor non evidenzia una tossicità severa come Terbutilazina nei confronti di S. marinoi, probabilmente a causa del suo diverso meccanismo d’azione. Infatti, a differenza degli enzimi triazinici, metolachlor agisce attraverso l’inibizione delle elongasi e del geranilgeranil pirofosfato ciclasi (GGPP). In letteratura sono riportati casi studio degli effetti inibitori di Metolachlor sulla sintesi degli acidi grassi e di conseguenza della divisione cellulare su specie fitoplanctoniche d’acqua dolce. Negli esperimenti da noi condotti sono stati evidenziati lievi effetti inibitori su S. marinoi che non sembrano aumentare all’aumentare della concentrazione dell’erbicida. E’ interessante notare come attraverso la valutazione della sola crescita non sia stato messo in evidenza alcun effetto mentre, tramite l’analisi dell’efficienza fotosintetica, si possa osservare che il metolachlor determina una inibizione della fotosintesi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le wavelet sono una nuova famiglia di funzioni matematiche che permettono di decomporre una data funzione nelle sue diverse componenti in frequenza. Esse combinano le proprietà dell’ortogonalità, il supporto compatto, la localizzazione in tempo e frequenza e algoritmi veloci. Sono considerate, perciò, uno strumento versatile sia per il contenuto matematico, sia per le applicazioni. Nell’ultimo decennio si sono diffuse e imposte come uno degli strumenti migliori nell’analisi dei segnali, a fianco, o addirittura come sostitute, dei metodi di Fourier. Si parte dalla nascita di esse (1807) attribuita a J. Fourier, si considera la wavelet di A. Haar (1909) per poi incentrare l’attenzione sugli anni ’80, in cui J. Morlet e A. Grossmann definiscono compiutamente le wavelet nel campo della fisica quantistica. Altri matematici e scienziati, nel corso del Novecento, danno il loro contributo a questo tipo di funzioni matematiche. Tra tutti emerge il lavoro (1987) della matematica e fisica belga, I. Daubechies, che propone le wavelet a supporto compatto, considerate la pietra miliare delle applicazioni wavelet moderne. Dopo una trattazione matematica delle wavalet, dei relativi algoritmi e del confronto con il metodo di Fourier, si passano in rassegna le principali applicazioni di esse nei vari campi: compressione delle impronte digitali, compressione delle immagini, medicina, finanza, astonomia, ecc. . . . Si riserva maggiore attenzione ed approfondimento alle applicazioni delle wavelet in campo sonoro, relativamente alla compressione audio, alla rimozione del rumore e alle tecniche di rappresentazione del segnale. In conclusione si accenna ai possibili sviluppi e impieghi delle wavelet nel futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi è uno studio di alcuni aspetti della nuova metodologia “deep inference”, abbinato ad una rivisitazione dei concetti classici di proof theory, con l'aggiunta di alcuni risultati originali orientati ad una maggior comprensione dell'argomento, nonché alle applicazioni pratiche. Nel primo capitolo vengono introdotti, seguendo un approccio di stampo formalista (con alcuni spunti personali), i concetti base della teoria della dimostrazione strutturale – cioè quella che usa strumenti combinatoriali (o “finitistici”) per studiare le proprietà delle dimostrazioni. Il secondo capitolo focalizza l'attenzione sulla logica classica proposizionale, prima introducendo il calcolo dei sequenti e dimostrando il Gentzen Hauptsatz, per passare poi al calcolo delle strutture (sistema SKS), dimostrando anche per esso un teorema di eliminazione del taglio, appositamente adattato dall'autore. Infine si discute e dimostra la proprietà di località per il sistema SKS. Un percorso analogo viene tracciato dal terzo ed ultimo capitolo, per quanto riguarda la logica lineare. Viene definito e motivato il calcolo dei sequenti lineari, e si discute del suo corrispettivo nel calcolo delle strutture. L'attenzione qui è rivolta maggiormente al problema di definire operatori non-commutativi, che mettono i sistemi in forte relazione con le algebre di processo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Campagna sperimentale e ricerca bibliografica su elementi rinforzati con fibre naturali, in particolare fibre di canapa. Definizione delle caratteristiche meccaniche e comportamento a trazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il primo capitolo espone nozioni generali sulle varietà e sulle curve algebriche, sulle mappe fra di esse e su alcune proprietà geometriche importanti per caratterizzare le curve ellittiche. Il secondo capitolo propone un'introduzione allo studio geometrico e algebrico di tali curve. Il terzo e il quarto capitolo affrontano lo studio dei punti a coordinate razionali, per curve definite prima su campi locali e poi su campi globali: l'insieme di tali punti è un gruppo. Il risultato fondamentale, contenuto nel teorema di Mordell-Weil, è che tale gruppo è finitamente generato. Tutto il quarto capitolo propone i risultati necessari per la dimostrazione di tale affermazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si studia in modo formale una specifica proprietà della Computazione Quantistica. In particolare, il modello di calcolo che si utilizzerà (circuito quantistico) può essere rappresentato da una sequenza di operazioni. Una sequenza è detta mista (circuito misto) se si presentano operazioni classiche e quantistiche in modo alternato (sequenze del tipo Q-C-C-Q-Q-C). Una sequenza in Forma Normale, invece, ammette operazioni classiche solamente all'inizio o alla fine, mentre in mezzo possono esserci solamente operazioni quantistiche (sequenze del tipo C-C-Q-Q-Q-C). Una sequenza di operazioni esclusivamente quantistiche porta numerosi vantaggi, per questo la forma normale è molto importante. Essa infatti separa le operazioni classiche da quelle quantistiche, concentrandole tutte all'interno. Quello che si farà in questa tesi sarà fornire un modo operativo (mediante riscritture) per ottenere la forma normale di una qualsiasi sequenza di operazioni classiche o quantistiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Data la forte prolificazione culturale, sbocciata a Faenza all’inizio del XIX secolo, nasce intorno al 1830, nel pieno centro storico della città, un giardino di stampo romantico. Si affacciano a questo piccolo parco due edifici: uno è il convento di Santa Caterina, l’altro è il palazzo più importante per il neoclassicismo in Romagna, palazzo Milzetti. La sua forte caratteristica è un nucleo centrale costituito da ponticelli, vasche e una particolarissima piccola costruzione di legno con tetto in paglia, affrescata all’interno con tempere di Romolo Liverani, risalente al 1851. Nel passare degli anni il parco subirà notevoli modifiche e nel 1947 sarà incautamente diviso a metà, tramite una recinzione. In questo modo il complesso romantico rimarrà di proprietà non più di palazzo Milzetti, ma del circolo del Dopo Lavoro Ferroviario. Attorno a questo nucleo all’inglese verranno nel tempo costruiti molte strutture a servizio del circolo, e demolite le aiuole e il verde che un tempo caratterizzavano questo luogo. Anche il capanno di legno rimarrà per anni abbandonato e senza la manutenzione necessaria per la sua sopravvivenza. Solo nel 1981 saranno condotti i primi lavori di restauro, con l’intento di recuperare il manufatto e il suo intorno. Ma solo un decennio dopo, una grossa nevicata crea grossi danni alla copertura del capanno, il quale verrà poi protetto da una struttura in tubi metallici, esteticamente poco congrua al carattere del sito. Il progetto di restauro, che viene qui presentato, riguarda in primo luogo il recupero dell’assetto originario del giardino, eliminando quindi la barriera che separa le due parti, per far acquisire una ritrovata spazialità e una originaria interezza. Dopo un rilievo dell’area, sono state quindi esaminate, una ad una, le piante del giardino e catalogate per capirne l’importanza estetica, storica o progettuale. In questo modo è stata scelta la vegetazione che dovrà essere rimossa per creare un ambiente più lineare, pulito e organizzato. Anche per gli elementi artificiali che sono stati incautamente aggiunti, è stata pensata la rimozione: pavimentazioni, palco, campo coperto da bocce, servizi igienici. L’area è stata risarcita tenendo in considerazione il tessuto originario dell’Ottocento, caratterizzato da aiuole verdi sinuose e sentieri in ghiaia. Sono stati utilizzati materiali conformi e già presenti nel parco, come la ghiaia, pavimentazione in ciottolato e aiuole erbose, ma al tempo stesso gli elementi di nuova costruzione non si vogliono del tutto mimetizzare con il resto ma denunciare, anche se sottovoce, la loro contemporaneità. Come secondo passo, si è pensato al restauro del capanno rustico. La prima necessaria operazione è stata quella di compiere il rilievo del manufatto e capire così in che modo fosse possibile intervenire. Il lavoro è stato quindi condotto su due registri: il primo quello dell’analisi dello stato di conservazione dei materiali, l’altro per capire la sua resistenza strutturale. Grazie ad un restauratore del legno, si è compreso quali trattamenti fossero più idonei, a seconda dell’essenza, dell’età e della collocazione. Per quanto riguarda la verifica strutturale si è giunti alla conclusione che l’edificio non è in uno stato di rischio e che quindi è necessaria la sola sostituzione degli elementi della copertura, ormai deteriorata. Proprio lo stato terminale del tetto, in paglia, è in condizioni precarie ed è necessario sostituirlo. Per quel che riguarda il complesso romantico, vengono ristuccate e impermeabilizzate le vasche e vengono poi sostituiti i parapetti lignei con altri che si avvicinano maggiormente alle forme riprodotte nella tela di Tancredi Liverani (1851) dove immortala l’edificio subito dopo la sua costruzione. Il nuovo progetto non vuole essere un intervento invasivo, ma desidera invece riprendere le linee e i punti di vista di un parco in stile romantico. Come infatti è noto, sono gli scorci, le pause e i percorsi le fondamenta del progetto, che vuole ridare a Faenza un’ area verde nel suo pieno centro storico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro della tesi riguarda lo studio del comportamento di solai compositi, realizzati con tre strati di materiale. Questa metodologia costruttiva li fa ricadere nella tipologia strutturale del PANNELLO SANDWICH. Sono state condotte delle prove su campioni di materiali estratti da un provino di solaio, per determinare le caratteristiche meccaniche dei materiali stessi, poi sono state condotte le prove di carico su provini di solai integri, dai quali si sono ottenuti i diagrammi carico-spostamento. Successivamente sono state applicate due teorie sui pannelli sandwich, la teoria di Pantema e la teoria di Allen, allo scopo di vedere come riescano ad interpretare il comportamento sperimentale. Infine sono stati studiati i comportamenti agli SLE in termini di tensioni e frecce, e agli SLU in termini di capacità portante (taglio e momento flettente) secondo quanto dettato dal D.M. 14/01/2008.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro riguarda il recupero di una ferrovia dismessa per la realizzazione di una "greenway", ovvero un percorso per la mobilità lenta. Per mobilità lenta si intende mobilità alternativa al traffico veicolare motorizzato e riguarda il muoversi su un territorio a piedi in bicicletta o con altro mezzo di trasporto senza l’ausilio di un motore. La lentezza è una caratteristica che permette una visione nuova dei paesaggi che si attraversano, siano essi naturali o urbani. In alcuni casi si parla anche di circolazione dolce. Questo tipo di circolazione necessita di infrastrutture con caratteristiche adatte a questa funzione, attrezzate in modo da consentire il più alto grado di fruibilità e comodità d’uso. Esse devono servire a muoversi nel territorio in maniera comoda e sicura. Una ferrovia dismessa si presta ad essere riconvertita in un percorso per la mobilità lenta in quanto presenta caratteristiche compatibili con questo nuovo utilizzo. In primo luogo le caratteristiche geometriche come ad esempio le pendenze ridotte, la larghezza e la regolarità del tracciato e la pubblica proprietà. Una ferrovia dismessa rappresenta una opportunità per l’intero territorio attraversato in quanto può rappresentare un importante elemento di connessione fra le popolazioni e le risorse del territorio. La connessione richiama il concetto di rete che è formata da punti e da linee che li collegano fra di loro. Questo concetto è importante per capire come questo percorso possa interagire con le altre risorse territoriali. Ad esempio in alcuni casi una greenway può costituire un corridoio ecologico ed entrare a far parte di una rete ecologica, diventando così una importante risorsa per la diffusione della biodiversità. Nell’affrontare un argomento complesso come la riconversione di una ferrovia dismessa è stata fondamentale l’esperienza fatta sul campo visitando casi di greenway già realizzate in Italia, dalla quale è stato possibile estrapolare una serie di soluzioni da adottare per analogia al caso in esame. E’ stato importante inoltre tutto il lavoro di conoscenza riguardante la storia della ferrovia e le tecniche realizzative dei fabbricati e manufatti, che ha permesso di studiare soluzioni progettuali adatte ad un nuovo utilizzo compatibile alla funzione originaria degli stessi. Le analisi territoriali hanno permesso poi di ricavare importanti informazioni riguardanti il tipo di utenza potenziale, le risorse del territorio attraversate dal tracciato storico, nonché le previsioni future ricavate dagli strumenti urbanistici vigenti. Tutte queste informazioni sono state sintetizzate in una analisi criticità/potenzialità che ha permesso di individuare le azioni progettuali necessarie. Mentre l’analisi territoriale è svolta a tavolino, la successiva analisi del percorso invece è stata portata a termine con un rilievo diretto sul campo al fine di verificare le informazioni raccolte in precedenza. Dividendo il percorso in tratti omogenei è stato possibile assegnare ad ogni tratto un corrispondente tipo di intervento. La verifica di criticità e potenzialità ha permesso poi di programmare corrispondenti azioni progettuali al fine di risolvere le prime ed assecondare le seconde. Le tipologie di intervento individuate sono tre: gli Interventi sul percorso che riguardano la sistemazione del fondo stradale per renderlo adatto ad un utilizzo ciclopedonale e la sistemazione a verde di alcuni tratti urbani; gli interventi di nuova realizzazione che riguardano la realizzazione di nuove infrastrutture per la risoluzione di criticità oppure la realizzazione di padiglioni per assecondare le potenzialità; ed infine gli interventi sul patrimonio storico che riguardano il riutilizzo degli edifici e manufatti della ex ferrovia. Vi è infine un caso applicativo che riassume tutte queste tipologie di intervento: la ex area ferroviaria di Rimini Marina, che è ritenuta un’area dalle alte potenzialità per la sua propensione a diventare punto di partenza dell’intero sistema lineare, ma anche luogo accentratore di servizi per l’intero quartiere che risulta a carattere prevalentemente turistico-residenziale. In questo modo si ritiene possibile fare rivivere la ex ferrovia facendola diventare cioè un insieme di luoghi connessi a servizio della comunità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi si prefiggeva la produzione di nuovi materiali geopolimerici a partire da meta-caolino, come fonte allumino-silicatica, e silicato di sodio o potassio, come soluzione attivante. L’ambito di applicazione di questi materiali era il restauro di beni culturali, sia come riempimento di lacune che come adesivo nella giunzione di parti, che richiedeva un consolidamento a temperatura ambiente ed una trascurabile cessione di sali solubili da parte del materiale d’apporto, caratteristiche non facilmente realizzabili con i materiali tradizionali. Il progetto può essere temporalmente suddiviso in tre fasi principali: 1) caratterizzazione di tre caolini commerciali utilizzati come materie prime, analizzando la loro composizione chimica e mineralogica, la granulometria, la superficie specifica ed il comportamento termico. Sulla base dell’analisi termica è stato individuato l’intervallo di temperatura ottimale per la trasformazione in meta-caolini, mantenendo buone proprietà superficiali. 2) Caratterizzazione dei meta-caolini ottenuti, analizzando la composizione mineralogica, la granulometria, la superficie specifica ed il contenuto di Al(V). E’ stata inoltre valutata la loro attività pozzolanica, scegliendo sulla base di tutti i dati raccolti sei campioni per la fase successiva. 3) Preparazione di paste geopolimeriche utilizzando quantità di soluzione attivante (silicato di sodio o potassio) tali da raggiungere un rapporto molare SiO2/Al2O3 nella miscela di reazione pari a 3,6 e 4,0; sui prodotti così ottenuti sono state effettuate alcune prove di leaching in acqua. Sulla base risultati ottenuti in questo lavoro di tesi è stato possibile correlare le caratteristiche del caolino di partenza alla reattività nella reazione di geopolimerizzazione. È stato inoltre identificato l’intervallo di calcinazione per massimizzare la suddetta reattività e le condizioni per ridurre la cessione di sali solubili da parte del materiale geopolimerico. Sono stati inoltre evidenziati possibili effetti sinergici, legati alla presenza contemporanea di Na e K.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi si colloca nell’ambito della valutazione del rischio di incidente rilevante. Ai sensi della normativa europea (direttive Seveso) e del loro recepimento nella legislazione nazionale (D.Lgs. 334/99 e s.m.i.) un incidente rilevante è costituito da un evento incidentale connesso al rilascio di sostanze pericolose in grado di causare rilevanti danni all’uomo e/o all’ambiente. Ora, se da un lato esistono indici di rischio quantitativi per il bersaglio ”uomo” da tempo definiti e universalmente adottati nonché metodologie standardizzate e condivise per il loro calcolo, dall’altro non vi sono analoghi indici di rischio per il bersaglio “ambiente” comunemente accettati né, conseguentemente, procedure per il loro calcolo. Mancano pertanto anche definizioni e metodologie di calcolo di indici di rischio complessivo, che tengano conto di entrambi i bersagli citati dalla normativa. Al fine di colmare questa lacuna metodologica, che di fatto non consente di dare pieno adempimento alle stesse disposizioni legislative, è stata sviluppata all’interno del Dipartimento di Ingegneria Chimica, Mineraria e delle Tecnologie Ambientali dell’Università degli Studi di Bologna una ricerca che ha portato alla definizione di indici di rischio per il bersaglio “ambiente” e alla messa a punto di una procedura per la loro stima. L’attenzione è stata rivolta in modo specifico al comparto ambientale del suolo e delle acque sotterranee (falda freatica) ed ai rilasci accidentali da condotte di sostanze idrocarburiche immiscibili e più leggere dell’acqua, ovvero alle sostanze cosiddette NAPL – Non Acqueous Phase Liquid, con proprietà di infiammabilità e tossicità. Nello specifico si sono definiti per il bersaglio “ambiente” un indice di rischio ambientale locale rappresentato, punto per punto lungo il percorso della condotta, dai volumi di suolo e di acqua contaminata, nonché indici di rischio ambientale sociale rappresentati da curve F/Vsuolo e F/Sacque, essendo F la frequenza con cui si hanno incidenti in grado di provocare contaminazioni di volumi di suolo e di superfici di falda uguali o superiori a Vsuolo e Sacque. Tramite i costi unitari di decontaminazione del suolo e delle acque gli indici di rischio ambientale sociale possono essere trasformati in indici di rischio ambientale sociale monetizzato, ovvero in curve F/Msuolo e F/Macque, essendo F la frequenza con cui si hanno incidenti in grado di provocare inquinamento di suolo e di acque la cui decontaminazione ha costi uguali o superiori a Msuolo ed Macque. Dalla combinazione delle curve F/Msuolo e F/Macque è possibile ottenere la curva F/Mambiente, che esprime la frequenza degli eventi incidentali in grado di causare un danno ambientale di costo uguale o superiore a Mambiente. Dalla curva di rischio sociale per l’uomo ovvero dalla curva F/Nmorti, essendo F la frequenza con cui si verificano incidenti in grado di determinare un numero di morti maggiore o uguale ad Nmorti, tramite il costo unitario della vita umana VSL (Value of a Statistical Life), è possibile ottenete la curva F/Mmorti, essendo F la frequenza con cui si verificano incidenti in grado di determinare un danno monetizzato all’uomo uguale o superiore ad Mmorti. Dalla combinazione delle curve F/Mambiente ed F/Mmorti è possibile ottenere un indice di rischio sociale complessivo F/Mtotale, essendo F la frequenza con cui si verifica un danno economico complessivo uguale o superiore ad Mtotale. La procedura ora descritta è stata implementata in un apposito software ad interfaccia GIS denominato TRAT-GIS 4.1, al fine di facilitare gli onerosi calcoli richiesti nella fase di ricomposizione degli indici di rischio. La metodologia è stata fino ad ora applicata ad alcuni semplici casi di studio fittizi di modeste dimensioni e, limitatamente al calcolo del rischio per il bersaglio “ambiente”, ad un solo caso reale comunque descritto in modo semplificato. Il presente lavoro di tesi rappresenta la sua prima applicazione ad un caso di studio reale, per il quale sono stati calcolati gli indici di rischio per l’uomo, per l’ambiente e complessivi. Tale caso di studio è costituito dalla condotta che si estende, su un tracciato di 124 km, da Porto Marghera (VE) a Mantova e che trasporta greggi petroliferi. La prima parte del lavoro di tesi è consistita nella raccolta e sistematizzazione dei dati necessari alla stima delle frequenze di accadimento e delle conseguenze per l’uomo e per l’ambiente degli eventi dannosi che dalla condotta possono avere origine. In una seconda fase si è proceduto al calcolo di tali frequenze e conseguenze. I dati reperiti hanno riguardato innanzitutto il sistema “condotta”, del quale sono stati reperiti da un lato dati costruttivi (quali il diametro, la profondità di interramento, la posizione delle valvole sezionamento) e operativi (quali la portata, il profilo di pressione, le caratteristiche del greggio), dall’altro informazioni relative alle misure di emergenza automatiche e procedurali in caso di rilascio, al fine di stimare le frequenze di accadimento ed i termini “sorgente” (ovvero le portate di rilascio) in caso di rotture accidentali per ogni punto della condotta. In considerazione delle particolarità della condotta in esame è stata sviluppata una procedura specifica per il calcolo dei termini sorgente, fortemente dipendenti dai tempi degli interventi di emergenza in caso di rilascio. Una ulteriore fase di raccolta e sistematizzazione dei dati ha riguardato le informazioni relative all’ambiente nel quale è posta la condotta. Ai fini del calcolo del rischio per il bersaglio “uomo” si sono elaborati i dati di densità abitativa nei 41 comuni attraversati dall’oleodotto. Il calcolo dell’estensione degli scenari incidentali dannosi per l’uomo è stato poi effettuato tramite il software commerciale PHAST. Allo scopo della stima del rischio per il bersaglio “ambiente” è stata invece effettuata la caratterizzazione tessiturale dei suoli sui quali corre l’oleodotto (tramite l’individuazione di 5 categorie di terreno caratterizzate da diversi parametri podologici) e la determinazione della profondità della falda freatica, al fine di poter calcolare l’estensione della contaminazione punto per punto lungo la condotta, effettuando in tal modo l’analisi delle conseguenze per gli scenari incidentali dannosi per l’ambiente. Tale calcolo è stato effettuato con il software HSSM - Hydrocarbon Spill Screening Model gratuitamente distribuito da US-EPA. La ricomposizione del rischio, basata sui risultati ottenuti con i software PHAST e HSSM, ha occupato la terza ed ultima fase del lavoro di tesi; essa è stata effettuata tramite il software TRAT-GIS 4.1, ottenendo in forma sia grafica che alfanumerica gli indici di rischio precedentemente definiti. L’applicazione della procedura di valutazione del rischio al caso dell’oleodotto ha dimostrato come sia possibile un’analisi quantificata del rischio per l’uomo, per l’ambiente e complessivo anche per complessi casi reali di grandi dimensioni. Gli indici rischio ottenuti consentono infatti di individuare i punti più critici della condotta e la procedura messa a punto per il loro calcolo permette di testare l’efficacia di misure preventive e protettive adottabili per la riduzione del rischio stesso, fornendo al tempo gli elementi per un’analisi costi/benefici connessa all’implementazione di tali misure. Lo studio effettuato per la condotta esaminata ha inoltre fornito suggerimenti per introdurre in alcuni punti della metodologia delle modifiche migliorative, nonché per facilitare l’analisi tramite il software TRAT-GIS 4.1 di casi di studio di grandi dimensioni.