996 resultados para indirizzo :: 711 :: Curriculum C: Ambiente marino
Resumo:
Agricoltura ed Energia sono le due parole cardine attorno a cui ruota questa tesi. La prima si trova ad oggi ad essere investita da enormi aspettative: ha implicazioni economiche, sociali, ambientali e territoriali. Offre opportunità occupazionali nelle aree rurali, favorisce il mantenimento di un tessuto sociale, ha funzioni produttive e di tutela ambientale. In Italia è profondamente diffusa ma mantiene caratteristiche molto differenti legate ai prodotti, al territorio e al paesaggio agrario. Andrebbe quindi meglio conosciuta, tutelata, ma soprattutto rinnovata per essere efficientemente inserita nel contesto dello sviluppo del nostro Paese. Ricercando nuove soluzioni e nuove idee, che dovrebbero essere alla base della ripresa dal periodo di crisi, ci si collega al secondo termine, meglio definito con un aggettivo descrittivo: rinnovabile. L'utilizzo di queste fonti è alla base delle odierne necessità di risparmio energetico e dell'uso razionale delle energie. Il primo passo è annullare gli sprechi incrementando lʼefficienza dei dispositivi che producono energia. Vengono qui analizzate diversi impianti ad energie rinnovabili proposti in un luogo specifico che si presta a vedere le diverse fonti agire in sinergia ed a servizio dell'agricoltura che rimane la vocazione principale del luogo in esame. La sinergia diventa quindi la chiave di lettura della tesi in quanto le rinnovabili sono caratterizzate da una imprevedibile variabilità per cui risulta funzionale un sistema integrativo che porti il progetto finale ad avere una maggiore continuità nel servizio in ogni periodo dell'anno.
Resumo:
Scopo della tesi è di estendere un celebre teorema di Montel, sulle famiglie normali di funzioni olomorfe, all'ambiente sub-ellittico delle famiglie di soluzioni u dell'equazione Lu=0, dove L appartiene ad un'ampia classe di operatori differenziali alle derivate parziali reali del secondo ordine in forma di divergenza, comprendente i sub-Laplaciani sui gruppi di Carnot, i Laplaciani sub-ellittici su arbitrari gruppi di Lie, oltre all'operatore di Laplace-Beltrami su varietà di Riemann. A questo scopo, forniremo una versione sub-ellittica di un altro notevole risultato, dovuto a Koebe, che caratterizza le funzioni armoniche come punti fissi di opportuni operatori integrali di media con nuclei non banali. Sarà fornito anche un adeguato sostituto della formula integrale di Cauchy.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
In questo elaborato si esplora ed estende la teoria sugli spazi di funzioni spline generalizzate utili nell'ambito della modellazione geometrica. In particolare si è analizzata la vasta letteratura e i diversi frammentati approcci, provenienti da paesi e epoche differenti con lo scopo di definire una teoria unica e completa effettivamente utilizzabile nelle applicazioni, in particolare nell'ambito della modellazione geometrica. In questo ambiente infatti lo spazio spline in cui si decide di lavorare deve necessariamente possedere una base con ben precise proprietà, sulle quali si focalizza la nostra trattazione. Supportati dalla sperimentazione numerica e simbolica, abbiamo dimostrato la proprietà di Variation Diminishing e trovato diversi spazi spline con le caratteristiche volute.
Resumo:
Il raffreddamento stratosferico associato alla riduzione dell’ozono nelle regioni polari induce un rafforzamento dei venti occidentali nella bassa stratosfera, uno spostamento verso il polo e un’intensificazione del jet troposferico delle medie latitudini. Si riscontra una proiezione di questi cambiamenti a lungo termine sulla polarità ad alto indice di un modo di variabilità climatica, il Southern Annular Mode, alla superficie, dove i venti occidentali alle medie latitudini guidano la Corrente Circumpolare Antartica influenzando la circolazione oceanica meridionale e probabilmente l’estensione del ghiaccio marino ed i flussi di carbonio aria-mare nell’Oceano Meridionale. Una limitata rappresentazione dei processi stratosferici nei modelli climatici per la simulazione del passato e la previsione dei cambiamenti climatici futuri, sembrerebbe portare ad un errore nella rappresentazione dei cambiamenti troposferici a lungo termine nelle rispettive simulazioni. In questa tesi viene condotta un’analisi multi-model mettendo insieme i dati di output derivati da diverse simulazioni di modelli climatici accoppiati oceano-atmosfera, che partecipano al progetto CMIP5, con l'obiettivo di comprendere come le diverse rappresentazioni della dinamica stratosferica possano portare ad una differente rappresentazione dei cambiamenti climatici alla superficie. Vengono utilizzati modelli “High Top” (HT), che hanno una buona rappresentazione della dinamica stratosferica, e modelli “Low Top” (LT), che invece non ne hanno. I risultati vengono confrontati con le reanalisi meteorologiche globali disponibili (ERA-40). Viene mostrato come la rappresentazione e l’intensità del raffreddamento radiativo iniziale e di quello dinamico nella bassa stratosfera, nei modelli, siano i fattori chiave che controllano la successiva risposta troposferica, e come il raffreddamento stesso dipenda dalla rappresentazione della dinamica stratosferica. Si cerca inoltre di differenziare i modelli in base alla loro rappresentazione del raffreddamento radiativo e dinamico nella bassa stratosfera e alla risposta del jet troposferico. Nei modelli, si riscontra che il trend del jet nell'intera troposfera è significativamente correlato linearmente al raffreddamento stesso della bassa stratosfera.
Resumo:
Si mostra l’evoluzione di un modello fisico-matematico atto alla ricostruzione dei fussi nell’intera regione Emilia Romagna partendo da due sorgenti di dati: dati sparsi con bassa risoluzione spaziale senza errore e dati distribuiti in tutta la regione con percentuale rispetto alla totalità di autoveicoli ignota. Si descrive l’elaborazione dei dati e l’evoluzione del modello nella sua storicità fino ad ottenere un buon risultato nella ricostruzione dei fussi. Inoltre si procede ad analizzare la natura dei dati e la natura del problema per ottenere una buona soluzione in grado di descrivere il sistema e per essere facilmente estesa ad altre regioni. Dopo aver definito un metodo di validazione si confrontano svariati risultati di modelli differenti mostrando un’evoluzione nella ricerca di un modello che risolva il problema con tempi computazionali accettabili in modo da ottenere un sistema real-time.
Resumo:
Si mostrano i passi seguiti nello sviluppo di un modello matematico e simulativo che mira a ricostruire il campo di flusso veicolare della rete stradale della regione Emilia Romagna. Si descrivono le fonti di dati utilizzate per la ricostruzione: dispositivi GPS a bassa capillarità e spire induttive su strada; si discute delle caratteristiche dei dati e dei problemi intrinseci e contingenti da cui sono affetti, nonché delle metodologie adottate nel tentativo di risolvere questi problemi. Si illustra l’idea centrale alla base delle ricostruzioni, e si descrive un criterio di validazione del modello. Si mostrano i risultati dei vari algoritmi ideati, ognuno affiancato dal parametro di validità, evidenziando quale metodo produca risultati migliori. Si conclude discutendo delle potenzialità del modello in termini di applicabilità in altre regioni o zone geografiche.
Resumo:
La finalità di questa tesi, oltre l’analisi sulla valorizzazione energetica delle biomasse e la loro conversione con processi termochimici, sarà quella di compiere uno studio di fattibilità di un impianto di cogenerazione di piccola taglia per la produzione di energia elettrica da biomasse lignocellulosiche, in particolare di scarti di potatura (sarmenti) delle viti.
Resumo:
In questo lavoro di tesi si vuole illustrare, a titolo di caso di studio e come possibile esempio da seguire in materia di acque reflue urbane, la soluzione adottata dal Comune di Ostuni (BR): un impianto terziario di affinamento, a valle del depuratore comunale, avente il fine di rendere riutilizzabili tali acque per altri scopi, essenzialmente agricoli.
Implementazione di un modulatore sigma-delta digitale per la sintesi di segnali pwm ad alta fedelta.
Resumo:
La modulazione a durata d'impulso (PWM) è utilizzata soprattutto perchè permette di ottenere alta efficenza energetica. In ambito accademico è stato proposto un modulatore PWM che sfrutta la tecnica di noise shaping, Sigma Delta, per avere elevata fedeltà. Il lavoro di questa tesi è stato l'implementazione su FPGA del modulatore Sigma DeltaDigitale utilizzato: quarto ordine, con quantizzatore a 4 bit e SNR in banda di 60 dB. Il dimensionamento è stato fatto determinando l'effetto che la lunghezza delle parole dei segnali ha sul rumore prodotto dal sistema. Questo studio è stato svolto con analisi euristiche ed algoritmi di ricerca implementati in ambiente MATLAB. Lo studio fatto è di carattere generale ed estendibile a generiche architetture Sigma Delta.
Resumo:
Il presente lavoro si colloca in un ampio percorso che ha visto diversi studi interessati nella problematica del traffico urbano, e quindi delle congestioni stradali, il cui impatto nella qualità della vita nelle grandi città è diventato sempre più rilevante con il processo di urbanizzazione. Dalle prime ricerche compiute, risalenti alla prima metà del 900, e aventi come oggetto di studio la singola strada, il ricorso alla modellizzazione matematica di recente si è sviluppato in particolar modo per quel che concerne la rete urbana. Le problematiche che si incontrano affrontando il contesto delle reti urbane si possono riassumere sinteticamente innanzitutto nella mutevolezza del flusso del traffico nell'arco della giornata. In secondo luogo nell'esistenza di punti critici variabili nel corso del tempo. Incidentalmente può accadere che si verifichino eventi eccezionali dovuti tanto all'ambiente naturale, quanto sociale. Ogni modello nella sua natura riduzionista consente di prendere in esame alcune problematiche specifiche e la scelta di operare in modo selettivo risponde alla complessità del fenomeno. Con queste indicazioni di metodo si è pensato di concentrarsi sullo studio degli effetti delle fluttuazioni endogene dei flussi di traffico in una stradale di tipo Manhattan. Per modellizzare il traffico utilizzeremo un sistema dinamico, nel quale la velocità ottimale si basa sulla relazione del Diagramma Fondamentale postulato da Greenshields (1935).
Resumo:
Le tecniche di next generation sequencing costituiscono un potente strumento per diverse applicazioni, soprattutto da quando i loro costi sono iniziati a calare e la qualità dei loro dati a migliorare. Una delle applicazioni del sequencing è certamente la metagenomica, ovvero l'analisi di microorganismi entro un dato ambiente, come per esempio quello dell'intestino. In quest'ambito il sequencing ha permesso di campionare specie batteriche a cui non si riusciva ad accedere con le tradizionali tecniche di coltura. Lo studio delle popolazioni batteriche intestinali è molto importante in quanto queste risultano alterate come effetto ma anche causa di numerose malattie, come quelle metaboliche (obesità, diabete di tipo 2, etc.). In questo lavoro siamo partiti da dati di next generation sequencing del microbiota intestinale di 5 animali (16S rRNA sequencing) [Jeraldo et al.]. Abbiamo applicato algoritmi ottimizzati (UCLUST) per clusterizzare le sequenze generate in OTU (Operational Taxonomic Units), che corrispondono a cluster di specie batteriche ad un determinato livello tassonomico. Abbiamo poi applicato la teoria ecologica a master equation sviluppata da [Volkov et al.] per descrivere la distribuzione dell'abbondanza relativa delle specie (RSA) per i nostri campioni. La RSA è uno strumento ormai validato per lo studio della biodiversità dei sistemi ecologici e mostra una transizione da un andamento a logserie ad uno a lognormale passando da piccole comunità locali isolate a più grandi metacomunità costituite da più comunità locali che possono in qualche modo interagire. Abbiamo mostrato come le OTU di popolazioni batteriche intestinali costituiscono un sistema ecologico che segue queste stesse regole se ottenuto usando diverse soglie di similarità nella procedura di clustering. Ci aspettiamo quindi che questo risultato possa essere sfruttato per la comprensione della dinamica delle popolazioni batteriche e quindi di come queste variano in presenza di particolari malattie.
Resumo:
Simulazione di dispersioni di petrolio in mare tramite software specialistico
Resumo:
Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.