984 resultados para Metodo


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio ha come obiettivi l’analisi, la modellazione numerica e la caratterizzazione del rischio idrogeologico di due siti dell’Appennino bolognese interessati negli ultimi due anni da colate detritiche, Serraglio (Comune di Castiglione dei Pepoli) e Chiapporato (Comune di Camugnano). Lo studio è stato condotto in collaborazione con il Servizio Tecnico di Bacino Reno della Regione Emilia-Romagna, che ha reso disponibile la documentazione relativa ai due eventi analizzati. I predetti eventi possono esser definiti “anomali” in relazione sia alla loro collocazione – essendo il fenomeno delle colate detritiche diffuso principalmente in aree montuose caratterizzate da un’altitudine media rilevante, come l’arco alpino – sia al fatto che non sono né catalogati né ricordati a memoria d’uomo eventi, in tali località, precedenti a quelli in esame. Il rischio idrogeologico, indotto dalla possibilità non remota di nuovi eventi, è dato non dal volume o dall’area interessata dai fenomeni, ma piuttosto dall’estrema velocità caratterizzante le colate detritiche, appunto definite come manifestazioni parossistiche lungo la rete idrografica secondaria con trasporto in massa di sedimenti. L’analisi effettuata ha anche fornito l’occasione per effettuare un confronto tra due realtà, quella di Serraglio e quella di Chiapporato, accomunate dalla stessa tipologia di evento, ma differenti in relazione all’uso del suolo, alle caratteristiche geomorfologiche e alle modalità di propagazione nel corso dell’evento. L’abitato di Serraglio, sito nella frazione di Baragazza, è stato colpito da una colata detritica il 20 gennaio 2009. Da un punto di vista geologico e geomorfologico la località è sovrastata da un versante boscato notevolmente acclive, caratterizzato dall’affioramento della cosiddetta Formazione di Cervarola: tali rocce, appartenenti alla categoria delle arenarie e solitamente presenti in strati compatti, in seguito alla naturale degradazione dovuta agli agenti atmosferici hanno dato luogo ad un detrito composto da blocchi e ciottoli di varia dimensione immersi in una matrice sabbiosa. Il distacco è avvenuto proprio in questo materiale detritico, reso instabile dal notevole apporto pluviometrico verificatosi nei giorni precedenti. La colata, sviluppatasi in seguito alla fluidificazione del materiale coinvolto in uno scivolamento di detrito di ridotta volumetria, si è incanalata in uno dei rii effimeri che drenano il versante con traiettorie tra loro pseudo parallele. Il debris flow, accelerato da un dislivello complessivo di 125 m, ha poi raggiunto due abitazioni, fortunatamente non abitate al momento dell’evento, depositando uno spessore detritico di oltre 1,5 m nella zona di transito prima di proseguire verso valle nella sua frazione più fine, incanalandosi di fatto lungo lo stradello asfaltato di accesso alle abitazioni e interessando la strada provinciale che collega Castiglione dei Pepoli all’uscita autostradale di Roncobilaccio. Da un punto di vista meteo-climatico il mese di gennaio 2009 è stato caratterizzato da precipitazioni fortemente superiori alla media, accompagnate da una ridotta insolazione. La continua oscillazione dello zero termico tra 0 e 900 m ha dato luogo alla formazione di uno spessore nivale al suolo di circa 20 cm tre giorni prima dell’evento e poi al suo rapido scioglimento contestualmente all’aumento termico, dato dalla risalita di aria calda umida di origine africana, accompagnata da quella perturbazione che ha poi di fatto innescato il fenomeno. Nelle 48 ore precedenti l’evento sono stati registrati apporti nivo-pluviometrici corrispondenti ad oltre 130 mm, che hanno causato la completa saturazione del detrito superficiale, l’innesco dello scivolamento di detrito e la sua successiva fluidificazione. Il distacco del materiale detritico, la sua movimentazione e la notevole erosione che ha caratterizzato l’alveo del rio durante il fenomeno – quantificata mediamente in 20 cm – sono state favorite dalle mediocri condizioni di salute del castagneto che copre il versante interessato dall’evento: la totale assenza di manutenzione e l’abbandono della coltivazione “a pali” del bosco hanno inibito la naturale funzione stabilizzante del boscato, trasformatosi da fattore inibente a fattore predisponente il fenomeno. La seconda colata detritica analizzata ha invece interessato la strada comunale che collega la frazione di Stagno all’abitato di Chiapporato, splendida borgata cinquecentesca, frequentata soprattutto da turisti ed escursionisti durante la stagione estiva. Il versante sede della colata, occorsa in data 8 novembre 2010, è caratterizzato da numerosi affioramenti della cosiddetta Formazione di Stagno, arenarie intervallate da strati marnoso-pelitici. Tale litotipo, soggetto alla naturale degradazione indotta dagli agenti atmosferici, origina un detrito composto da massi e ciottoli, raccoltisi, nell’area in esame, in un canalone posto ai piedi di una scarpata pseudo verticale delimitante il pianoro di “Val di Sasso”. Tale materiale detritico è stato poi fluidificato dalle abbondanti piogge, depositando, dopo oltre 320 metri di dislivello, circa un metro di detrito sul piano stradale per poi proseguire la sua corsa verso il Torrente Limentra e il Bacino di Suviana. L’evento è stato innescato da precipitazioni intense e persistenti che hanno depositato al suolo oltre 69 mm di pioggia in 25 ore. Nel mese precedente il fenomeno sono stati misurati oltre 530 mm di pioggia, quantitativi superiori alla media climatologica, che hanno sicuramente accelerato anche la degradazione della scarpata e l’accumulo di detriti nell’area sorgente. Le colate sopra descritte sono state poi simulate utilizzando il modello DAN-W (Dynamic ANalysis) del prof. Oldrich Hungr della University of British Columbia (Canada). Tale modello si basa su una discretizzazione della massa movimentata tramite il metodo degli “elementi di contorno” e sulla soluzione alle differenze finite di tipo Lagrangiano dell’equazione di De Saint Venant. L’equazione del moto, integrata verticalmente, è applicata a colonne strette di flusso (elementi di contorno). L’equazione di continuità è invece risolta riferendosi agli elementi di massa delimitati dai predetti elementi di contorno. Il numero di incognite principali eguaglia il numero di equazioni disponibili ed il problema è quindi completamente determinato. Gli altri parametri caratterizzanti la colata sono determinati tramite interpolazioni basate sull’ipotesi che sia la superficie del flusso sia quella della traiettoria siano ragionevolmente lisce. La soluzione è esplicita ed avviene per step temporali successivi. Al fine della determinazione dei parametri l’utilizzatore ha la possibilità di scegliere tra vari modelli reologici, quantificanti il termine di resistenza caratterizzante il moto. Su indicazione dell’autore del modello sono stati utilizzati il modello frizionale e quello di Voellmy, che, in casi simili, forniscono risultati più realistici (in relazione alla modellizzazione di colate di detrito). I parametri utilizzati per la calibrazione sono lo spessore di detrito depositato sul piano stradale, nel caso di Chiapporato, e a tergo della prima abitazione investita dalla colata nel caso di Serraglio, unitamente alla massima distanza raggiunta dai detriti. I risultati ottenuti utilizzando il modello reologico frizionale mostrano profili di velocità scarsamente rappresentativi, con una costante sovrastima della stessa, a fronte di una migliore capacità descrittiva degli spessori accumulatisi. Il modello di Voellmy ha invece prodotto andamenti di velocità più realistici, confrontabili con i valori forniti dalla letteratura internazionale, riuscendo al contempo a quantificare con precisione l’accumulo di detrito rilevato a seguito degli eventi. I valori dei parametri utilizzati nella modellazione sono stati ricavati dalle indicazioni dell’autore del modello affiancate dai range resi disponibili dalla letteratura. Entrambe le caratterizzazioni reologiche sono poi state oggetto di un’analisi di sensitività ai fini di quantificare il peso dei parametri utilizzati. Il modello frizionale si è rivelato particolarmente sensibile all’andamento del coefficiente di attrito basale e al coefficiente di pressione dei pori, con un lieve preponderanza del primo, mentre il modello reologico di Voellmy si è mostrato fortemente influenzato dal coefficiente di turbolenza e dal coefficiente di attrito, pressoché paritari nell’effettivo condizionamento dei risultati. Gli output ottenuti simulando l’evento di Serraglio sono risultati generalmente meno realistici di quelli ricavati nel caso di Chiapporato: ciò è probabilmente dovuto alle caratteristiche reologiche proprie del fenomeno occorso a Serraglio, classificabile come un ibrido tra un mud flow e un debris flow. Sono state infine avanzate proposte di intervento e di monitoraggio dei siti indagati, al fine di una mitigazione del rischio idrogeologico gravante sulle aree esaminate. Il caso di Serraglio presenta, a parere dello scrivente, un rischio idrogeologico più elevato, se paragonato a quello presente a Chiapporato, dati la vicinanza ad un centro abitato e lo status quo caratterizzante il versante sede del dissesto. Nei circa 18 mesi trascorsi dopo l’evento è stato possibile rilevare un progressivo ampliamento della nicchia di distacco dello scivolamento, poi evolutosi in colata con andamento tipicamente retrogressivo. Lo stato della vegetazione permane in condizioni problematiche, con frequenti ribaltamenti e sradicamenti (processi noti in letteratura come chablis) dei castagni presenti, con un conseguente aumento dell’erosione superficiale del versante e l’apporto detritico all’interno del rio. Tale detrito è poi trattenuto all’interno dell’alveo da una serie di briglie naturali formatesi a seguito della caduta di varie piante all’interno del canale stesso a causa del passaggio del debris flow o a fenomeni di chablis. La forte sovraescavazione occorsa in occasione della colata ha poi favorito l’innesco di una serie di piccoli scivolamenti superficiali confluenti nel rio stesso, anch’essi apportatori di detrito, ingrediente principale per un nuovo debris flow. È inoltre da notare come la zona di runout è tuttora parzialmente occupata dal detrito depositatosi a seguito dell’evento: tale configurazione, causando di fatto una riduzione della potenziale area di “sfogo” di un nuovo debris flow, acuisce il rischio di un’estensione areale verso valle degli effetti di un nuovo fenomeno, con un conseguente possibile maggior coinvolgimento dell’abitato di Serraglio. È stato quindi proposto di attuare un’adeguata regimazione dell’area boschiva caratterizzante il versante, unitamente ad una regimazione fluviale del rio, tramite la realizzazione di briglie in legno e pietrame – essendo l’area non cantierabile – e la rimozione degli accumuli detritici in seno all’alveo stesso. La nicchia di distacco principale e le nicchie secondarie dovranno poi essere oggetto di opportuna stabilizzazione. Più a valle è stata suggerita la rimozione dell’accumulo detritico presente nell’area di runout e la realizzazione di un’adeguata opera di ricezione delle acque del rio e di eventuali nuove colate: a tal fine si è ipotizzato il ripristino dell’antico alveo, successivamente deviato e tombato per permettere l’edificazione dell’abitazione poi investita dalla colata. È stato inoltre proposto un monitoraggio attraverso l’installazione di un pluviometro, tarato con opportune soglie di allarme, dotato di datalogger e modem GPRS al fine di comunicare in tempo reale, ai tecnici incaricati e agli abitanti, un eventuale superamento della soglia di allarme. Il caso di Chiapporato è invece caratterizzato da problematiche connesse al rischio idrogeologico meno rilevanti di quelle presenti a Serraglio. Ciò è dovuto allo scarso traffico caratterizzante la strada comunale e all’assenza di altri edifici o infrastrutture potenzialmente coinvolgibili da un nuovo evento. La probabilità del verificarsi di una nuova colata è però concreta, considerata la forte erosione caratterizzante il versante: trascorsi sei mesi dall’evento, è stato possibile rilevare nell’area sorgente un accumulo medio di detrito di circa mezzo metro di spessore. Le cause del dissesto, a differenza di Serraglio, non sono in alcun modo imputabili all’azione antropica: si tratta infatti della naturale evoluzione del versante sovrastante il piano stradale. Si propone quindi la collocazione di cartelli stradali indicanti il pericolo di caduta massi e colate detritiche agli automobilisti e ai pedoni, unitamente all’installazione di un cavo a strappo posto lungo l’alveo torrentizio collegato ad un semaforo dislocato nei pressi del guado della strada comunale sul rio Casale. L’eventuale verificarsi di un nuovo evento comporterebbe la lacerazione del cavo installato e l’attivazione del semaforo – e di un eventuale allarme acustico – con conseguente inibizione del traffico stradale in occasione del transito del debris flow. Nel contesto geologico e geomorfologico dell’Appennino tosco-emiliano i debris flow rappresentano una tipologia di dissesto da frana poco diffusa, ma comunque potenzialmente presente nelle aree dove i processi di alterazione e degradazione degli ammassi rocciosi affioranti generino accumuli di detrito e in condizioni morfologiche caratterizzate da elevate pendenze dei versanti. Questo studio ha permesso di approfondire la conoscenza di questi fenomeni, che presentano una magnitudo notevolmente inferiore rispetto al contesto alpino, ma la cui interferenza con l’attività antropica acuisce notevolmente il rischio idrogeologico nelle zone interessate. Si sottolinea, inoltre, che nell’attuale contesto climatico caratterizzato da sempre più frequenti piogge brevi ed intense ed eventi cosiddetti di rain on snow, la frequenza sia temporale che spaziale di tali fenomeni di dissesto appare destinata ad aumentare, anche in aree in precedenza non interessate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

l’analiticità del metodo adottato ha permesso di ottenere una precisa e puntuale conoscenza del processo costruttivo, ottimo esempio per poter analizzare e confrontare i due programmi, Ms-Project 2007 e Primavera Project Planner P6.0, oggetto della presente trattazione; per comprendere quale software aiuta il Project Manager a gestire le complessità di un progetto per soddisfare i bisogni dei clienti, ad avere un controllo più stretto sulle strutture di progetto e sui suoi requisiti di rendicontazione, nonché la comprensione di tutto ciò che può ostacolare il corretto avanzamento del programma. Quale programma aiuta le aziende a pianificare e gestire sia i singoli progetti sia il programma complessivo, a implementare e monitorare i livelli di performance necessari e valutare agevolmente l’impatto delle modifiche di programma sui piani di lavoro, sui budget, sull’utilizzazione delle risorse. Un’efficace visione d’insieme dell’intero programma, combinata con la continua verifica delle metriche di produttività, consente ai program manager di mitigare proattivamente i rischi e ottenere come risultato il puntuale rispetto dei tempi e del budget.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggetto della ricerca è la tematica dell’opposizione parlamentare ed in particolare, il manifestarsi della stessa attraverso l’ostruzionismo praticato nelle assemblee legislative. La comprensione della funzione oppositoria è stata raggiunta assumendo come primigenio modello di riferimento l’esperienza presente nel sistema parlamentare inglese nel quale la dialettica democratica si svolge tra schieramenti nettamente contrapposti. L’approfondimento della figura oppositoria, poi, si è snodata nello studio delle diverse tipologie di opposizione conosciute nelle moderne democrazie, nonchè nella valutazione dei diversi livelli di riconoscimento che questa assume nei moderni contesti giuridici. Passando specificamente all’analisi dell’ostruzionismo parlamentare, la ricerca ha preliminarmente privilegiato lo studio dei soggetti che lo pongono in essere e del movente e delle finalità perseguite attraverso questa estrema forma di contestazione politica. Lo studio delle attività ostruzionistiche ha altresì valutato le modalità di esercizio ed i mezzi impiegati nella sua realizzazione, nonché le questioni di legittimità connesse a tale pratica. Ma è stata l’analisi dei regolamenti parlamentari, che com’è noto hanno subito le più incisive modificazioni quasi sempre in rapporto ad importanti episodi di ostruzionismo, a rappresentare il momento centrale del lavoro. Dopo la stagione di ostruzionismo esasperato degli anni settanta, all’interno del Parlamento sono cambiate le “regole del gioco” (considerate eccessivamente garantiste per le minoranze), in funzione dell’uso e non più dell’abuso del tempo da parte di tutti i soggetti istituzionali. L’effetto di tali riforme è stato quello di riqualificare la dialettica tra maggioranza ed opposizione, in particolare garantendo alla prima strumenti efficaci per conseguire il programma di Governo ed alla seconda strumenti che consentano di rendere visibili le proposte legislative alternative più qualificate. L’analisi dell’atteggiamento politico dell’opposizione parlamentare è stata altresì valutata alla luce degli effetti prodotti dalle ultime riforme elettorali e dalla loro incidenza sulle manifestazioni ostruzionistiche. La transizione (sia pure incompiuta) della forma di governo, attuata attraverso la trasformazione del sistema elettorale, ha segnato il passaggio da un sistema multipolare ad uno bipolare, con i conseguenti riflessi che si sono prodotti sui rapporti di forza tra maggioranza e opposizione. Nell’attuale logica bipolare, rimasta comunque immutata nonostante il ritorno ad un sistema elettorale nuovamente proporzionale caratterizzato dal premio di maggioranza, la riforma elettorale non ha lasciato indifferente l’atteggiarsi dell’ostruzionismo: il maggior potere, non solo numerico, che la maggioranza parlamentare è venuta ad assumere, ha spostato gli equilibri all’interno degli organi elettivi consentendo un’identificazione tra minoranza ed opposizione. Nel capitolo dedicato all’analisi dei regolamenti parlamentari è stata offerta una ricostruzione descrittiva dell’evoluzione subita dai regolamenti ed una di comparazione diacronica dei rimedi progressivamente adottati negli stessi per fronteggiare le possibili manifestazioni ostruzionistiche. Nella prospettiva di evidenziare le attuali dinamiche parlamentari, è stata affrontata una ricostruzione in chiave evolutiva subita dai regolamenti a partire dalla fase pre-repubblicana, fino ai regolamenti attualmente vigenti, ricomprendendo altresì le proposte di modifica allo stato in discussione in Parlamento. Dall’analisi complessiva è emerso che la debole razionalizzazione della forma di governo, il bicameralismo paritario ed indifferenziato, l’assenza di una riserva normativa a favore del governo e di strumenti giuridici per incidere sull’attività del Parlamento, hanno fatto sì che fossero i regolamenti parlamentari a dover supplire alla scarna disciplina costituzionale. A fronte della lenta ed incompiuta transizione della forma di governo parlamentare e dell’evolversi delle tecniche ostruzionistiche, si sono di conseguenza adeguate le misure di contenimento disciplinate nei regolamenti parlamentari. In questi ultimi dunque, è possibile rintracciare l’excursus storico delle misure adottate per regolare i possibili strumenti ostruzionistici previsti e disciplinati nelle procedure ed impiegati dalle minoranze per tentare di impedire la decisione finale. La comparazione, invece, ha evidenziato una progressiva opera di contenimento dei fenomeni ostruzionistici ottenuta essenzialmente con la razionalizzazione delle procedure parlamentari, l’introduzione del metodo della programmazione, del contingentamento dei tempi, nonché l’ampliamento dei poteri discrezionali dei Presidenti di assemblea nella loro opera di garanti della corretta dialettica parlamentare. A completamento del lavoro svolto è stato infine determinante la considerazione della concreta prassi parlamentare riscontrata nel corso delle legislature maggioritarie: la valutazione complessiva dei dati provenienti dal Servizio Studi della Camera, infatti, ha permesso di verificare come si sono manifestate in pratica le tecniche ostruzionistiche impiegate dall’opposizione per contrastare le politiche della maggioranza nel corso della XIII e della XIV Legislatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sebbene Anarsia lineatella sia un fitofago ormai da anni introdotto e diffuso in Italia, ancora poco si conosce circa le sue abitudini riproduttive. In considerazione della elevata dannosità di A. lineatella nei pescheti del nord Italia e delle scarse conoscenze sulla sua biologia, si è evidenziata la necessità di approfondire la conoscenza di questo fitofago. Pertanto gli scopi di questa ricerca hanno riguardato l’approfondimento delle conoscenze sui sistemi di comunicazione intraspecifici utilizzati da A. lineatella; la valutazione dell’efficacia di diverse miscele di feromone sintetico, in laboratorio utilizzando anche densità diverse di popolazioni di anarsia e in campo utilizzando gabbie di accoppiamento appositamente costruite, posizionate in frutteti a conduzione biologica nel nord Italia e messe a confronto con gabbie che utilizzavano come fonte attrattiva femmine vergini di tre giorni di età. Sono state condotte prove sul comportamento di maschi di A. lineatella di differenti età in risposta al feromone emesso da femmine vergini di tre giorni di età e al feromone emesso da erogatori di materiale plastico contenenti differenti miscele di feromone sintetico. Sono stati condotti studi per verificare l’influenza del contenuto di alcol ((E)5-10:OH) nella miscela feromonica sulla capacità di inibizione degli accoppiamenti, sottoponendo gli insetti a differenti concentrazioni di feromone in modo da verificare eventuali differenze di attività delle diverse miscele, differenze che emergerebbero con evidenza maggiore alle minori concentrazioni. Alcune prove sono state effettuate anche con differenti densità di popolazione, poiché una maggiore densità di popolazione determina una maggiore probabilità di accoppiamento, evidenziando più chiaramente i limiti di efficacia della miscela utilizzata. Inoltre sono state effettuate prove di campo per confrontare due modelli di erogatore per la confusione sessuale di anarsia contenenti miscele con differenti percentuali di alcol Inoltre, poiché nei pescheti la presenza di A. lineatella è pressoché sempre associata a quella di Cydia molesta e l’applicazione del metodo della confusione deve spesso essere applicato per controllare entrambi gli insetti, può risultare vantaggioso disporre di un unico erogatore contenente entrambi i feromoni; è stato quindi valutato un erogatore contenente una miscela dei due feromoni per verificare eventuali interazioni che possano ridurre l’efficacia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obbiettivo della presente tesi curriculare è una lettura di alcuni esami in relazione all'idea di ar-chitettura che la nostra Scuola – la Facoltà di Architettura “Aldo Rossi” – porta avanti: l'architettura come progetto collettivo e unitario nel tempo fondato sui fatti architettonici, ovvero l'architettura come scienza: Noi raccogliamo questa strada dell'architettura come scienza, della formulazione logica dei principi, della meditazione sui fatti architettonici e quindi principalmente sui monumenti e pensiamo di verificarla attraverso una serie di architetti e di opere antiche e moderne che noi scegliamo, su cui operiamo un certo tipo di scelta . Ciò che caratterizza l'architettura come scienza è il metodo progettuale: l'obbiettivo della tesi è pertanto una riflessione sulla teoria della progettazione insegnata nella nostra Scuola – intesa come momento della più generale teoria dell'architettura di Aldo Rossi – ovvero su come essa sia stata seguita per realizzare i progetti presentati. La tesi è così ordinata: una prima parte dedicata alla teoria dell'architettura di Aldo Rossi nella quale vengono indicati i principi, cioè lo scopo che la nostra Scuola di architettura persegue; una seconda parte dedicata alla teoria della progettazione nella quale viene indicato il metodo, cioè lo strumento eminente che la nostra Scuola di architettura utilizza; infine sono presentati i progetti –Laboratorio di sintesi finale: l'architettura del museo; Disegno dell'architettura II; Laboratorio di progettazione architettonica IV; – scelti per mettere in luce le distinte parti di cui il metodo consiste.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Environmental Management includes many components, among which we can include Environmental Management Systems (EMS), Environmental Reporting and Analysis, Environmental Information Systems and Environmental Communication. In this work two applications are presented: the developement and implementation of an Environmental Management System in local administrations, according to the European scheme "EMAS", and the analysis of a territorial energy system through scenario building and environmental sustainability assessment. Both applications are linked by the same objective, which is the quest for more scientifically sound elements; in fact, both EMS and energy planning are oftec carachterized by localism and poor comparability. Emergy synthesis, proposed by ecologist H.T. Odum and described in his book "Environmental Accounting: Emergy and Environmental Decision Making" (1996) has been chosen and applied as an environmental evaluation tool, in order complete the analysis with an assessment of the "global value" of goods and processes. In particular, eMergy syntesis has been applied in order to improve the evaluation of the significance of environmental aspects in an EMS, and in order to evaluate the environmental performance of three scenarios of future evolution of the energy system. Regarding EMS, in this work an application of an EMS together with the CLEAR methodology for environmental accounting is discussed, in order to improve the identification of the environmental aspects; data regarding environmental aspects and significant ones for 4 local authorities are also presented, together with a preliminary proposal for the integration of the assessment of the significance of environmental aspects with eMergy synthesis. Regarding the analysis of an energy system, in this work the carachterization of the current situation is presented together with the overall energy balance and the evaluation of the emissions of greenhouse gases; moreover, three scenarios of future evolution are described and discussed. The scenarios have been realized with the support of the LEAP software ("Long Term Energy Alternatives Planning System" by SEI - "Stockholm Environment Institute"). Finally, the eMergy synthesis of the current situation and of the three scenarios is shown.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La depurazione è un processo finalizzato a ridurre in modo significativo le sostanze inquinanti presenti nelle acque reflue prima del loro rilascio in ambiente. L’uso delle alghe in impianti di depurazione di acque reflue prende il nome di ficorimedio e potrebbe rappresentare un’alternativa o una integrazione alla depurazione tradizionale dei reflui per il fatto che le alghe operano la rimozione di nutrienti e metalli pesanti dalle acque e al tempo stesso possono fornire biomassa utilizzabile come nuova fonte di energia. Lo scopo principale di questo lavoro è stato di saggiare la capacità depurativa di microalghe idonee per la depurazione dei reflui, questo è stato fatto tramite due esperimenti. Il primo esperimento è stato realizzato in modo tale da simulare un sistema continuo di crescita di Scenedesmus sp. andando a ricreare le stesse condizioni di un sistema all’aperto come negli open ponds, in particolare prelevando periodicamente una parte di biomassa e sostituendola con terreno nuovo. Sono state applicate tre diverse condizioni per analizzare quale metodo permetteva di ottenere maggiori valori di produttività di biomassa e per valutare come questa si diversifica nel tempo nella sua componente biochimica, inoltre si è valutata anche la componente fisiologica, attraverso la misura dell’efficienza fotosintetica. Nel successivo esperimento è stata utilizzata una popolazione algale naturale, proveniente dalla vasca di sedimentazione terziaria del depuratore di Ravenna, e fatta crescere nell’effluente primario. L’esperimento era volto a comprendere i processi di successione delle microalghe in un sistema aperto attraverso uno studio della composizione delle specie nel tempo e a confrontare la crescita e l’efficienza di fitodepurazione della popolazione mista con quelle di Scenedesmus sp. Nelle colture di Scenedesmus sp. in semicontinuo si è visto che il tempo di residenza idraulica minore determina una concentrazione di biomassa inferiore a quella che si ottiene nelle colture con tempi di residenza idraulica maggiori. La produttività dei polisaccaridi (g/L/day) risulta più elevata all’aumentare dei tempi di residenza idraulica, mentre per le proteine l’andamento è inverso. I valori di efficienza fotosintetica evidenziano fenomeni di fotoinibizione nella coltura con minor tempo di residenza idraulica senza che vi sia un danno dell’apparato fotosintetico. L’esperimento basato sulla crescita di una popolazione naturale in coltura batch ha mostrato che la velocità di crescita e la densità di biomassa raggiunta sono di poco inferiori a quelle della monocoltura di Scenedesmus sp. La popolazione è in grado di rimuovere i nutrienti presenti nell’effluente primario dopo 7 giorni, in un tempo maggiore rispetto a quello impiegato da Scenedesmus sp. Questo esperimento ha evidenziato che, sebbene Scenedesmus sp. fosse presente in scarsa quantità all’inizio dell’esperimento, la sua concentrazione aumenta nel tempo dimostrando così di essere maggiormente competitiva rispetto alle altre microalghe presenti nella coltura e di resistere a grazers e patogeni. I risultati ottenuti in questo studio sono importanti per la conduzione di esperimenti di ficodepurazione su scala più ampia e ha permesso di comprendere come la biomassa algale si caratterizza nel tempo andando a simulare le condizioni di crescita in un sistema continuo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi di dottorato è la comparazione di metodi per redarre mappe della vulnerabilità degli acquiferi all’inquinamento. Sono state redatte le mappe di vulnerabilità dell’acquifero della conoide del Reno utilizzando i metodi parametrici SINTACS (Civita e De Maio, 1997) e DRASTIC (Aller et al., 1987). E' stato elaborato un modello tridimensionale del flusso tramite l'utilizzo del software di modellistica numerica FEFLOW. I risultati ottenuti sono stati confrontati con le mappe derivanti dall'appllicazione dei PCSM. E’ stato, inoltre, approfondito lo sviluppo di un modello inverso, che, partendo dalla distruzione del carico piezometrico, fornisce la distribuzione della conducibilità idraulica dell’acquifero.La conoscenza di questo parametro è, infatti, il punto di partenza per lo sviluppo di un nuovo metodo per la definizione della vulnerabilità basato sulla caratterizzazione dell'area di acquifero potenzialmente inquinabile rispetto ad uno sversamento in superficie di un inquinante.L’indice di vulnerabilità viene definito sulla lunghezza del cammino che un inquinante percorrere nell’arco di un anno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I copolimeri derivanti da acido lattico, hanno attirato una grande attenzione, negli ultimi decenni, per le loro caratteristiche di biodegradabilità e biocompatibilità e per questo sono stati ampiamente studiati i loro metodi di sintesi e le loro proprietà. Il lavoro presentato parte dalla sintesi dei due monomeri trimetilene carbonato (TMC) e p-diossanone (PDO) da utilizzare poi nella formazione di copolimeri a blocchi con il lattide commerciale racemo e levogiro. Tali copolimeri dovrebbero presentare la proprietà di memoria di forma. Nell’elaborato sono presentate le diverse tecniche di polimerizzazione sperimentate per ognuno dei copolimeri sintetizzati: la prima parte riguarderà i copolimeri TMC-lattide, inizialmente con lattide racemo (DL-lattide) e poi, trovato un metodo di sintesi appropriato, approfondito con esempi di polimerizzazione TMC-L-lattide; la seconda parte esaminerà invece i copolimeri PDO-DL-lattide.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis presents the outcomes of a Ph.D. course in telecommunications engineering. It is focused on the optimization of the physical layer of digital communication systems and it provides innovations for both multi- and single-carrier systems. For the former type we have first addressed the problem of the capacity in presence of several nuisances. Moreover, we have extended the concept of Single Frequency Network to the satellite scenario, and then we have introduced a novel concept in subcarrier data mapping, resulting in a very low PAPR of the OFDM signal. For single carrier systems we have proposed a method to optimize constellation design in presence of a strong distortion, such as the non linear distortion provided by satellites' on board high power amplifier, then we developed a method to calculate the bit/symbol error rate related to a given constellation, achieving an improved accuracy with respect to the traditional Union Bound with no additional complexity. Finally we have designed a low complexity SNR estimator, which saves one-half of multiplication with respect to the ML estimator, and it has similar estimation accuracy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Cloud Storage è un modello di conservazione dati su computer in rete, dove i dati stessi sono memorizzati su molteplici server, reali e/o virtuali, generalmente ospitati presso strutture di terze parti o su server dedicati. Tramite questo modello è possibile accedere alle informazioni personali o aziendali, siano essi video, fotografie, musica, database o file in maniera “smaterializzata”, senza conoscere l’ubicazione fisica dei dati, da qualsiasi parte del mondo, con un qualsiasi dispositivo adeguato. I vantaggi di questa metodologia sono molteplici: infinita capacita’ di spazio di memoria, pagamento solo dell’effettiva quantità di memoria utilizzata, file accessibili da qualunque parte del mondo, manutenzione estremamente ridotta e maggiore sicurezza in quanto i file sono protetti da furto, fuoco o danni che potrebbero avvenire su computer locali. Google Cloud Storage cade in questa categoria: è un servizio per sviluppatori fornito da Google che permette di salvare e manipolare dati direttamente sull’infrastruttura di Google. In maggior dettaglio, Google Cloud Storage fornisce un’interfaccia di programmazione che fa uso di semplici richieste HTTP per eseguire operazioni sulla propria infrastruttura. Esempi di operazioni ammissibili sono: upload di un file, download di un file, eliminazione di un file, ottenere la lista dei file oppure la dimensione di un dato file. Ogniuna di queste richieste HTTP incapsula l’informazione sul metodo utilizzato (il tipo di richista, come GET, PUT, ...) e un’informazione di “portata” (la risorsa su cui effettuare la richiesta). Ne segue che diventa possibile la creazione di un’applicazione che, facendo uso di queste richieste HTTP, fornisce un servizio di Cloud Storage (in cui le applicazioni salvano dati in remoto generalmene attraverso dei server di terze parti). In questa tesi, dopo aver analizzato tutti i dettagli del servizio Google Cloud Storage, è stata implementata un’applicazione, chiamata iHD, che fa uso di quest’ultimo servizio per salvare, manipolare e condividere dati in remoto (nel “cloud”). Operazioni comuni di questa applicazione permettono di condividere cartelle tra più utenti iscritti al servizio, eseguire operazioni di upload e download di file, eliminare cartelle o file ed infine creare cartelle. L’esigenza di un’appliazione di questo tipo è nata da un forte incremento, sul merato della telefonia mobile, di dispositivi con tecnologie e con funzioni sempre più legate ad Internet ed alla connettività che esso offre. La tesi presenta anche una descrizione delle fasi di progettazione e implementazione riguardanti l’applicazione iHD. Nella fase di progettazione si sono analizzati tutti i requisiti funzionali e non funzionali dell’applicazione ed infine tutti i moduli da cui è composta quest’ultima. Infine, per quanto riguarda la fase di implementazione, la tesi presenta tutte le classi ed i rispettivi metodi presenti per ogni modulo, ed in alcuni casi anche come queste classi sono state effettivamente implementate nel linguaggio di programmazione utilizzato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le celle a combustibile ad ossido solido (SOFC) sono reattori elettrochimici che convertono l’energia chimica di un gas combustibile direttamente in energia elettrica con un’alta efficienza e con basse emissioni. Il materiale più comunemente usato come anodo, il Ni/YSZ cermet, mostra però numerosi svantaggi nell’applicazione quali la suscettibilità all’avvelenamento da zolfo e la deposizione di coke per cracking degli idrocarburi usati come combustibile. E’ perciò necessario sviluppare materiali alternativi che sopperiscano a questi problemi. Il titanato di stronzio drogato con lantanio con stechiometria La0.4Sr0.4TiO3 (LST) è stato scelto come anodo alternativo per le ottime proprietà possedute. Lo scopo del lavoro di tesi è stato quindi lo studio dell’influenza della natura dei precursori, delle condizioni di sintesi e dell’aggiunta di agenti porizzanti necessari per l’ottenimento della fase perovskitica pura e con porosità controllata. In un primo tempo è stata verificata la possibilità di ottenere la fase La0.4Sr0.4TiO3 pura mediante sintesi allo stato solido, trattando termicamente miscele di precursori diversi. I risultati ottenuti hanno evidenziato che l’utilizzo di nitrati metallici porta a risultati migliori rispetto all’utilizzo di carbonati ed ossidi poiché permette la formazione della fase perovskite a temperature inferiori e con una purezza maggiore. Poiché l’analisi elementare sui materiali preparati in questa prima fase ha evidenziato un problema sulla stechiometria, il metodo di sintesi è stato ottimizzato solubilizzando preventivamente i precursori di lantanio e stronzio e determinandone il titolo mediante ICP. Inoltre, sono state effettuate delle sintesi utilizzando TiO2 a diversa area superficiale, per verificare l’effetto sulle fasi formate di una maggior reattività di questo componente. Per completezza la perovskite è stata sintetizzata anche tramite sintesi sol-gel, utilizzando il metodo Pechini, ottenendo a 700°C la fase pura. L’analisi morfologica ha evidenziato che le polveri con caratteristiche migliori per la formatura sono quelle ottenute tramite sintesi allo stato solido. Le pastiglie prodotte, miscelando tali polveri e agenti porizzanti opportuni, hanno evidenziato la stabilità della fase perovskitica voluta ma anche la necessità di ottimizzare l’aggiunta del porizzante per avere una porosità adeguata all’applicazione del sistema quale anodo SOFC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Protocollo di Montreal, che succede alla Convenzione di Vienna per la protezione dello strato di ozono richiede l’eliminazione di idrocarburi contenenti cloro (CFC). Nel corso degli ultimi decenni ha quindi assunto importanza la reazione di idrodeclorurazione di clorofluorocarburi, in particolare rivolta alla produzione di idrocarburi fluorurati che sono risultati interessanti per la produzione di polimeri con specifiche caratteristiche di resistenza meccanica, termica e chimica. In questo lavoro di tesi, svolto in collaborazione con SOLVAY SPECIALTY POLYMERS ITALY, sono stati studiati catalizzatori innovativi per la produzione di perfluorometilviniletere (MVE), mediante idrodeclorurazione di perfluorometilcloroviniletere (AM). Attualmente la reazione di produzione industriale dell’MVE, condotta con l'utilizzo di quantità stechiometriche di Zn e dimetilformammide (DMF), presenta il notevole problema dello smaltimento di grandi quantità di zinco cloruro e di DMF. La reazione studiata, condotta in catalisi eterogenea, in presenta di H2, presenta una forte dipendenza dalla natura dei metalli utilizzati oltre che dal tipo di sintesi dei catalizzatori impiegati. Nell'ambito di questo lavoro è stato sviluppato un metodo, a basso impatto ambientale, per la sintesi si nanoparticelle preformate da utilizzare per la preparazione di catalizzatori supportati si TiO2 e SiO2. Le nanosospensioni ed i sistemi catalitici prodotti sono stati caratterizzati utilizzando diverse metodologie di analisi quali: XRD, XRF, TEM, TPR-MS, che hanno permesso di ottimizzare le diverse fasi della preparazione. Allo scopo di osservare effetti sinergici tra le specie utilizzate sono stati confrontati sistemi catalitici monometallici con sistemi bimetallici, rivelando interessanti implicazioni derivanti dall’utilizzo di fasi attive nanoparticellari a base di Pd e Cu. In particolare, è stato possibile apprezzare miglioramenti significativi nelle prestazioni catalitiche in termini di selettività a perfluorometilviniletere all’aumentare del contenuto di Cu. La via di sintesi ottimizzata e impiegata per la produzione di nanoparticelle bimetalliche è risultata una valida alternativa, a basso impatto ambientale, ai metodi di sintesi normalmente usati, portando alla preparazione di catalizzatori maggiormente attivi di quelli preparati con i metalli standard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Perché L’Aquila? A seguito del sisma del 2009, L’Aquila offre un’occasione per riflessioni su temi urbanistici e di composizione urbana, oltre che un reale campo di sperimentazione architettonica. Perché il centro storico? Come cuore culturale ed economico dell’intera vallata dell’Aterno, il centro storico rappresenta una priorità per la Ricostruzione; il suo valore storico è la sintesi consolidata nel tempo del rapporto di una società con i luoghi della propria residenza. Una memoria da difendere attraverso l’elaborazione di strategie di intervento e idee di progetto. Qual è l’obiettivo? Il lavoro di ricerca e di progettazione mira ad individuare degli scenari e proporre delle idee di ricostruzione per tornare ad abitare il centro storico. Qual è il metodo? Per affrontare una situazione così complessa è indispensabile una conoscenza storica della struttura urbana della città prima del sisma. Inoltre è necessario comprendere l’evoluzione degli eventi (da aprile del 2009 al luglio 2011) al fine di riconoscere quali direzioni possibili può prendere un progetto che si inserisce, oggi, in un sistema ancora in cerca di un equilibrio. La Ricostruzione, intesa come processo strategico e progettuale di ridefinizione degli equilibri e delle prospettive, consente, ma forse ancor meglio esige, un ripensamento complessivo ed organico dell’intera struttura urbana. Si tratta quindi di ridefinire le relazioni tra la città storica e la sua periferia comprendendo il rapporto che un progetto di Ricostruzione può avere nel medio e lungo termine, il tutto in un contesto economico e soprattutto sociale in forte trasformazione. Il progetto propone così un nuovo complesso di residenze universitarie che potrà accogliere settantadue studenti insieme a diversi servizi quali sale lettura, sale polivalenti e una mensa. Si prevede inoltre il potenziamento della struttura di accoglienza dei salesiani con 8 nuovi alloggi per professori e una nuova Biblioteca. Il progetto vuole ricreare una continuità nel sistema del verde urbano come mezzo più appropriato e idoneo per relazionare la prima periferia alla città murata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella prima parte si analizza il metodo dell'entropia delle parole in un testo per recuperare quelle più rilevanti in base alla distribuzione delle stesse all'interno dell'opera. Nella seconda parte viene studiata l'analisi della semantica latente e le sue basi statistiche, algebriche e analitiche. Infine vengono effettuati degli esperimenti con l'utilizzo del software InfomapNLP sulla Divina Commedia.