628 resultados para ingressione marina scenari di inondazione erosione costiera modellazione matematica
Resumo:
I materiali plastici trovano ampie applicazioni in ogni aspetto della vita e delle attivit industriali. La maggior parte delle plastiche convenzionali non sono biodegradabili e il loro accumulo una minaccia per il pianeta. I biopolimeri presentano vantaggi quali: la riduzione del consumo delle risorse e la riduzione delle emissioni CO2, offrendo un importante contributo allo sviluppo sostenibile. Tra i biopolimeri pi interessanti troviamo il poliidrossibutirrato (PHB), loggetto di questo studio, che il pi noto dei poliidrossialcanoati. Questo polimero biodegradabile mostra molte somiglianze con il polipropilene. La tesi consiste nellapplicazione del Life Cycle Assessment a processi di estrazione del PHB da colture batteriche. In essa sono valutate le prestazioni ambientali di 4 possibili processi alternativi, sviluppati dal CIRI EA, che utilizzano il dimetilcarbonato (DMC) e di 3 processi che utilizzano solventi alogenati (cloroformio, diclorometano, dicloroetano). Per quanto riguarda i processi che utilizzano come solvente di estrazione il DMC, due sono gli aspetti indagati e per i quali differiscono le alternative: la biomassa di partenza (secca o umida), e il metodo di separazione del polimero dal solvente (per evaporazione del DMC oppure per precipitazione). I dati primari di tutti gli scenari sono di laboratorio per cui stato necessario realizzare un up scaling industriale di tutti i processi. Lup scaling stato realizzato in collaborazione con il Dipartimento di Ingegneria Civile Chimica Ambientale e dei Materiali. La valutazione delle prestazioni ambientali stata fatta rispetto a tutte le categorie dimpatto raccomandate dallHandbook della Commissione Europea, di queste solo alcune sono state analizzate nel dettaglio. Tutti i risultati mostrano un andamento simile, in cui gli impatti dei processi che utilizzano DMC sono inferiori a quelli dei solventi alogenati. Fra i processi che impiegano DMC, lalternativa pi interessante appare quella che impiega biomassa di partenza secca e raccolta del PHB per precipitazione.
Resumo:
Nel campo dellindustria chimica la ricerca si mossa in direzione di rendere i processi pi sostenibili. Ci viene effettuato considerando le linee guida della green chemistry. In questo contesto si colloca la metodologia LCA che valuta limpatto ambientale associato ad un processo o un prodotto, comprendendo tutto il suo ciclo di vita. Nel presente lavoro di tesi si studia lapplicazione della LCA alla sintesi industriale di anidride maleica (AM), che viene ottenuta tramite reazione di ossidazione del benzene o delln-butano. Nello studio si sono modellate tre diverse vie di sintesi dellAM considerando il processo di produzione che parte da benzene e il processo di produzione da butano con due diversi tipi di reattore: il letto fisso e il letto fluido (processo ALMA). Negli scenari si considerano le fasi di produzione dei reagenti e si modellata la fase della reazione di ossidazione e lincenerimento dei sottoprodotti e del reagente non convertito. Confrontando i tre processi, emerge che al processo che parte da benzene sono associati gli impatti globali maggiori mentre il processo ALMA ha un minore carico ambientale. Il processo da benzene risulta avere maggiori impatti per le categorie Cambiamento climatico, Formazione di particolato e Consumo dei metalli. Il processo da butano a tecnologia a letto fisso presenta invece maggiori impatti per le categorie Tossicit umana e Consumo di combustibili fossili, dovuti alla maggiore richiesta energetica effettuata dal processo di ossidazione del butano con tecnologia a letto fisso e alla richiesta di combustibile ausiliario per la fase di incenerimento. Tale risultato emerge anche dallanalisi effettuata con il Cumulative Energy Demand. Al processo ALMA sono associati gli impatti inferiori in assoluto, nonostante abbia una resa inferiore al processo che utilizza il letto fisso. I risultati dellanalisi LCA sono stati confermati dallanalisi delle incertezze, realizzata con il metodo statistico Monte Carlo.
Resumo:
Questa tesi si pone lobiettivo di effettuare unanalisi aggiornata sulla recente evoluzione del Cloud Computing e dei nuovi modelli architetturali a sostegno della continua crescita di richiesta di risorse di computazione, di storage e di rete all'interno dei data center, per poi dedicarsi ad una fase sperimentale di migrazioni live singole e concorrenti di macchine virtuali, studiandone le prestazioni a livello di risorse applicative e di rete allinterno della piattaforma open source di virtualizzazione QEMU-KVM, oggi alla base di sistemi cloud-based come Openstack. Nel primo capitolo, viene effettuato uno studio dello stato dellarte del Cloud Computing, dei suoi attuali limiti e delle prospettive offerte da un modello di Cloud Federation nel futuro immediato. Nel secondo capitolo vengono discusse nel dettaglio le tecniche di live migration, di recente riferimento per la comunit scientifica internazionale e le possibili ottimizzazioni in scenari inter e intra data center, con lintento di definire la base teorica per lo studio approfondito dellimplementazione effettiva del processo di migrazione su piattaforma QEMU-KVM, che viene affrontato nel terzo capitolo. In particolare, in questultimo sono descritti i principi architetturali e di funzionamento dell'hypervisor e viene definito il modello di progettazione e lalgoritmo alla base del processo di migrazione. Nel quarto capitolo, infine, si presenta il lavoro svolto, le scelte configurative e progettuali per la creazione di un ambiente di testbed adatto allo studio di sessioni di live migration concorrenti e vengono discussi i risultati delle misure di performance e del comportamento del sistema, tramite le sperimentazioni effettuate.
Resumo:
Analisi dell'introduzione di tecniche additive nel processo produttivo di airbox nel settore automotive, attraverso lo studio della tecnologia additiva e delle principali tecniche che ne fanno parte. Valutazione delle capacit delle tecniche additive per confrontarle con tecniche di produzione tradizionale, attraverso l'analisi prestazionale, dei costi e dei tempi di produzione.
Resumo:
L'obiettivo di questo lavoro di tesi quello di implementare un codice di calcolo, attraverso l'algoritmo di Lubachevsky-Stillinger, in modo da poter prevedere la frazione volumetrica occupata dalle particelle solide che costituiscono il grain negli endoreattori a propellente solido. Particolare attenzione verr rivolta al problema dell'impacchettamento sferico random (Random-Close Packing) che tale algoritmo cerca di modellare, e le ipotesi per cui tale modellazione pu essere applicata al tipo di problema proposto. Inoltre saranno descritte le procedure effettuate per l'ottenimento dei risultati numerici delle simulazioni e la loro motivazione, oltre ai limiti del modello utilizzato e alle migliorie apportate per un'esecuzione pi efficiente e veloce.
Resumo:
Lelaborato incentrato sul problema dello Human Blockage, e lo si analizzato utilizzando tecniche di copertura radio, per ambienti indoor, basate sulluso di array di antenne. In particolare si dato enfasi alle tecniche Radiale, Single Beamforming e Multi Beamforming che sono state utilizzate per ottenere le performance in termini di CINR che hanno evidenziato le differenze tra scenari "statici" in cui le ostruzioni sono solo oggetti e "dinamici" i blockage sono costituiti da corpi umani.
Resumo:
La tesi si propone di individuare per la citt di Cavezzo ed il suo centro urbano, colpito dal sisma del 20 maggio 2012, le strategie per la ricostruzione e la definizione delle proprie forme urbane. In particolare, ci si concentrer sul nuovo luogo dell'identit urbana, ovvero piazza Matteotti, da sempre spazio pubblico riconosciuto, per il quale si propone un intervento di riqualificazione. Questo avverr tramite il progetto dello spazio teatrale, che, si inserisce nel contesto, come nuovo elemento di lettura e connessione. Il primo capitolo di questo volume raccoglie alcune informazioni relative al territorio della citt di Cavezzo, necessarie alla comprensione delle scelte progettuali, descritte per la scala urbana, nel capitolo secondo. Infine, la seconda parte del volume affronta i temi progettuali per piazza Matteotti e gli approfondimenti, ad essa legati, sullo spazio teatrale, sulle sue forme e sulla sua struttura.
Resumo:
Con il termine tetti verdi si intendono vere e proprie coperture vegetate, che fungono da valida alterativa alle tipologie convenzionali a coppi oppure in guaina impermeabilizzante. Per quanto questi possano essere considerati una soluzione moderna relativa alle diverse Best Management Practices (BMP), in realt sono stati realizzati e sfruttati fin dall'antichit. Dagli anni Settanta ad oggi hanno preso sempre pi piede in Europa e negli altri continenti a causa dei molteplici benefici che li accompagnano a livello ambientale. All'interno di questo studio ci si pone lobiettivo di valutarne i vantaggi, principalmente a livello energetico ed idraulico, riscontrati in letteratura, direttamente sul campo, grazie al sito di studio presso la sede di Ingegneria di via Terracini, Bologna. Sulle coperture del LAGIRN (Laboratorio di Geoingegneria e Risorse Naturali), infatti, nellestate 2013 sono stati realizzati due tetti verdi (uno a Sedum, che sar indicato con la sigla GR, e uno con piante autoctone, identificato con la sigla NA). Tramite il confronto tra le temperature registrate grazie a diversi tipi di strumentazione, stato possibile quantificare i comportamenti delle coperture su scala annuale, non solo luna rispetto laltra, ma anche in rapporto a una porzione di tetto lasciata a guaina bituminosa (indicato con la sigla RR). Considerando il ruolo della vegetazione come strumento per la mitigazione del fenomeno disola di calore urbana, infine, con lausilio del software CFD denominato ENVI-met si modellata lintera area del Lazzaretto e si sono simulati tre diversi scenari: 1) Lo stato attuale 2) Una situazione ipotetica con tutte coperture a Sedum 3) Una situazione ipotetica con tutte coperture con specie autoctone per la giornata estiva pi calda e per un comune giorno di Ottobre, a seguito di una minuziosa calibrazione. Il confronto tra la situazione reale e quelle supposte dimostra la validit dei green roofs nella lotta al riscaldamento delle grandi citt.
Resumo:
Le variabili ambientali e lo sfruttamento della pesca sono dei possibili fattori nel determinare la struttura della comunit demersale. Larea di studio il Golfo di Antalya, con un area aperta ed una chiusa ad ogni attivit di pesca, il periodo di studio ha coperto tre stagioni (primavera, estate, autunno). Lo scopo quello di delineare un quadro generale sulla distribuzione spaziale e temporale delle risorse alieutiche demersali in questarea. In questo lavoro di tesi la PCA stata usata al fine di determinare le variabili ambientali (ossigeno, salinit, temperatura, pH, materia sospesa) che determinano maggiormente la differenza tra le stazioni, tecniche di analisi multivariata hanno invece indagato una possibile variazione su scala spaziale e temporale dei parametri abiotici. La Cluster Analysis effettuata sui dati di abbondanza ha delineato quattro raggruppamenti principali, due ad una profondit minore di 100 m e due ad una profondit maggiore (40% di similarit). Questi risultati sono confermati dallanalisi MDS. Lanalisi SIMPER ha messo in evidenza le specie che maggiormente incidono sulla differenza tra strati di profondit. Gli indici di biodiversit sono stati calcolati per indagare la diversit e la variabilit temporale e spaziale della comunit demersale. Due procedure la BIO-ENV e la DistLM (Distance-based linear models) sono state effettuate per individuare le variabili abiotiche che potrebbero essere responsabili dei diversi raggruppamenti nella struttura del popolamento demersale. Le specie commerciali: Mullus barbatus, Upeneus moluccensis, Upeneus pori sono state prese come oggetto per la ricerca di possibili effetti della pesca a livello di popolazione. Per i dati di abbondanza e di biomassa di queste specie stata eseguita lanalisi multivariata MANOVA (Multivariate Analysis of Variance) al fine di trovare eventuali variazioni dovute ai fattori profondit, stagione e transetto. Per ogni specie stata valutata la sex ratio. Il metodo Bhattacharya ha permesso di determinare le classi di et e la loro abbondanza. In ultimo la relazione peso-lunghezza stata ricavata separatamente per gli individui maschi e femmine al fine di determinare il tipo di crescita per ogni sesso.
Resumo:
Il grande sviluppo a cui stiamo assistendo negli ultimi anni nell'ambito delle tecnologie mobile e del wearable computing apre le porte a scenari innovativi e interessanti per quanto riguarda sistemi distribuiti collaborativi. Le persone possono sempre pi facilmente cooperare e scambiarsi informazioni grazie a queste nuove tecnologie e si pu pensare allo sviluppo di sistemi che permettano forme molto avanzate di collaborazione facendo leva sull'aspetto hands-free, ovvero sulla possibilit di utilizzare dispositivi che liberino le mani, come i moderni smart-glasses. Per lo sviluppo di tali sistemi necessario per studiare nuove tecniche e architetture, in quanto gli strumenti ad oggi a disposizione a supporto della realt aumentata non sembrano essere del tutto adeguati per tale scopo. Infatti piattaforme come Wikitude o Layar, seppure offrano potenti tecniche di riconoscimento di markers e immagini e di rendering, non offrono quella dinamicit fondamentale per un sistema distribuito collaborativo. Questo scritto ha lo scopo di esplorare questi aspetti mediante l'ideazione, l'analisi, la progettazione e la prototipazione di un semplice caso di studio ispirato a sistemi collaborativi distribuiti basati su realt aumentata. In particolare in questo lavoro si porr l'attenzione sul livello delle comunicazioni e delle infrastrutture di rete.
Resumo:
Traduzione dal Russo in Italiano di alcuni testi provenienti dalla rivista specializzata "Vestnik Welsh Corgi"
Resumo:
Problematiche della traduzione di fiabe russe in italiano e proposta di traduzione di Perysko Finista jasna sokola.
Resumo:
Lo sviluppo di questa tesi nato dalla mia volont di intraprendere un cammino nel campo dellanimazione computerizzata e della grafica in generale. La tesi tratta in generale della nascita dellanimazione, del suo sviluppo, delle principali tecniche e ne applica i principi nella realizzazione di unanimazione. Il progetto consiste nella modellazione di un personaggio di un cartone animato attraverso il programma Autodesk Maya, e nella sua successiva animazione, ossia nel rendere il movimento del personaggio in una scena realizzata sempre con gli strumenti di Maya. Nel primo capitolo viene presentata una breve storia della computer grafica, come e dove nata e i ricercatori che hanno contribuito a svilupparla. Si parla del suo sviluppo, di cortometraggi e film danimazione che hanno reso possibile il suo sviluppo sia nel cinema, sia in altri settori. In breve vengono descritte anche alcune applicazioni e uno schema che racchiude i rami della grafica. Nel secondo capitolo viene messa in rilievo una differenza tra animazione tradizionale e animazione computerizzata. Inoltre vengono elencati i principi cardini dellanimazione, particolare rilievo viene dato alle figure articolate e alle principali articolazioni importanti per lanimazione. Viene trattata la cinematica che permette lo studio del moto del corpo e viene descritta la differenza tra cinematica diretta e inversa, i tre approcci per utilizzarla e un confronto finale tra le due. Infine viene fatta una breve descrizione dellanimazione interattiva, della dinamica dei corpi e dellanimazione automatizzata. Il terzo capitolo tratta del software utilizzato per la realizzazione del progetto Autodesk Maya. stata inserita una breve guida base sugli strumenti di Maya. Nel quarto capitolo vengono esposti i passi seguiti per la realizzazione del progetto. Il personaggio che stato modellato Olaf, il pupazzo di neve del film danimazione Frozen. In questo capitolo vengono presentati anche i passi per lo sviluppo della scena, e le tecniche utilizzate per animare il personaggio.
Resumo:
Per lo sviluppo di un modello realistico di formazione ed evoluzione delle galassie necessario un confronto sistematico con le osservazioni in modo da verificare che i dati vengano ben riprodotti. Lo scopo che si prefigge questo lavoro di Tesi un confronto tra le caratteristiche delle galassie presenti nei cataloghi simulati (mock), costruiti sulla base di alcuni modelli, e quelle evinte dai dati osservativi di campioni di galassie (surveys) con l'obbiettivo di far luce su quali siano le maggiori discrepanze e quindi sulla direzione in cui i modelli andrebbero perfezionati. Per far questo, si scelto di far uso della funzione di massa stellare delle galassie (MF), in quanto strumento statistico pi indicativo di una popolazione di galassie, considerando sia la totalit delle galassie, sia separatamente le star-forming e le quiescenti. Questo lavoro di Tesi attua un confronto tra le MF a 0<z<3 ricavate dalle osservazioni e quelle ottenute dai campioni di galassie simulate con i modelli teorici, per capire a quali redshift, a quali masse e per quali sottocampioni di galassie la riproduzione dei dati avviene in maniera migliore e dove invece risiedono i maggiori problemi. Si vede come le funzioni di massa cambino al variare del tasso di formazione stellare nei modelli e le differenze che vi sono nella loro distribuzione in base a colore e SFR. Infine si studia come varia col redshift la densit numerica delle galassie quiescenti osservate e teoriche di diversa massa. Anche questo tipo di confronto ha come scopo quello di sondare le differenze tra modelli ed osservazioni su quali siano le modalit e le tempistiche di evoluzione delle galassie a seconda della loro massa e su cosa sia quello che, dai modelli, costruiti sulla base dei processi fisici che conosciamo, non riesce ancora ad essere riprodotto.
Resumo:
La presente tesi vuole colmare le conoscenze biologiche ed ecologiche dello squalo di profondit Dalatias licha. Attualmente le conoscenze riguardanti le popolazioni di questo squalo nel Mediterraneo sono scarse dato il numero limitato di studi affrontati. La biologia e lecologia di questo squalo stata studiata attraverso la stima di alcune caratteristiche importanti come la sex ratio, la maturit sessuale degli individui, gli indici di condizione (epatosomatico e gonadosomatico) e le analisi dei contenuti stomacali. I 78 esemplari (16 femmine e 62 maschi) osservati sono stati campionati tra il 2001 e il 2003 dal bycatch di motopescherecci a strascico della marineria di Genova porto, operanti sul piano batiale del Golfo di Genova (Mar Ligure). Le catture sono state eseguite ad una batimetria compresa tra -450 e -800 m, tra Genova e Sestri Levante. I risultati, sebbene basati su un numero limitato di individui, sono di particolare interesse visto il deficit conoscitivo inerente a questa specie in ambito nazionale e mediterraneo