947 resultados para Bitumi ad “alta lavorabilità”, Reologia, Dynamic Shear Rheometer, Master Curve, Zero-Shear Viscosity
Resumo:
Il task del data mining si pone come obiettivo l'estrazione automatica di schemi significativi da grandi quantità di dati. Un esempio di schemi che possono essere cercati sono raggruppamenti significativi dei dati, si parla in questo caso di clustering. Gli algoritmi di clustering tradizionali mostrano grossi limiti in caso di dataset ad alta dimensionalità, composti cioè da oggetti descritti da un numero consistente di attributi. Di fronte a queste tipologie di dataset è necessario quindi adottare una diversa metodologia di analisi: il subspace clustering. Il subspace clustering consiste nella visita del reticolo di tutti i possibili sottospazi alla ricerca di gruppi signicativi (cluster). Una ricerca di questo tipo è un'operazione particolarmente costosa dal punto di vista computazionale. Diverse ottimizzazioni sono state proposte al fine di rendere gli algoritmi di subspace clustering più efficienti. In questo lavoro di tesi si è affrontato il problema da un punto di vista diverso: l'utilizzo della parallelizzazione al fine di ridurre il costo computazionale di un algoritmo di subspace clustering.
Resumo:
The research activities described in the present thesis have been oriented to the design and development of components and technological processes aimed at optimizing the performance of plasma sources in advanced in material treatments. Consumables components for high definition plasma arc cutting (PAC) torches were studied and developed. Experimental activities have in particular focussed on the modifications of the emissive insert with respect to the standard electrode configuration, which comprises a press fit hafnium insert in a copper body holder, to improve its durability. Based on a deep analysis of both the scientific and patent literature, different solutions were proposed and tested. First, the behaviour of Hf cathodes when operating at high current levels (250A) in oxidizing atmosphere has been experimentally investigated optimizing, with respect to expected service life, the initial shape of the electrode emissive surface. Moreover, the microstructural modifications of the Hf insert in PAC electrodes were experimentally investigated during first cycles, in order to understand those phenomena occurring on and under the Hf emissive surface and involved in the electrode erosion process. Thereafter, the research activity focussed on producing, characterizing and testing prototypes of composite inserts, combining powders of a high thermal conductibility (Cu, Ag) and high thermionic emissivity (Hf, Zr) materials The complexity of the thermal plasma torch environment required and integrated approach also involving physical modelling. Accordingly, a detailed line-by-line method was developed to compute the net emission coefficient of Ar plasmas at temperatures ranging from 3000 K to 25000 K and pressure ranging from 50 kPa to 200 kPa, for optically thin and partially autoabsorbed plasmas. Finally, prototypal electrodes were studied and realized for a newly developed plasma source, based on the plasma needle concept and devoted to the generation of atmospheric pressure non-thermal plasmas for biomedical applications.
Resumo:
Sommario Il polo chimico di Ferrara, situato nella periferia nord occidentale del territorio comunale, rappresenta un’area ad alta concentrazione di stabilimenti, ai sensi dell’art. 13 del D.Lgs. 334/99 e s.m.i., ovvero un’area in cui sono presenti diversi stabilimenti a rischio di incidente rilevante, così definiti in base alle caratteristiche di pericolosità e dei quantitativi delle sostanze chimiche presenti. Per tali aree la norma di legge prevede la realizzazione di uno Studio di Sicurezza Integrato d’Area o SSIA. Allo SSIA del polo chimico ferrarese è stato dato avvio nel corso del 2012, in seguito ad un accordo tra la Regione Emilia Romagna, l’Agenzia Regionale di Protezione Civile, la Provincia di Ferrara, l’Ufficio Territoriale del Governo, il Comune di Ferrara, la Direzione Regionale dei Vigili del Fuoco, l’Agenzia Regionale Prevenzione e Ambiente e le stesse aziende presenti nel polo. La realizzazione dello SSIA prevede 6 fasi: 1) la definizione dei criteri metodologici da adottare per l’analisi del rischio; 2) la raccolta e l’analisi critica dei dati necessari all'analisi del rischio; 3) l’individuazione e la caratterizzazione delle sorgenti di rischio; 4) l’analisi delle conseguenze e la stima della frequenza di accadimento degli scenari incidentali che possono scaturire da ogni sorgente di rischio; 5) la ricomposizione, per tutti gli scenari di ogni sorgente e per tutte le sorgenti, delle frequenze e delle conseguenze negli indici di rischio; 6) l’analisi e la valutazione dei risultati ottenuti, al fine di interventi eventuali interventi per la riduzione e la mitigazione del rischio stesso. Il presente lavoro di tesi si inserisce nello Studio di Sicurezza Integrato d’Area del polo chimico di Ferrara ed in particolare nelle fasi 2), 3) e 4) sopra citate. Esso ha preso avvio durante un tirocinio svolto presso l’Agenzia Regionale di Protezione Civile ed ha avuto ad oggetto il trasporto di sostanze pericolose via strada e ferrovia nell'area dello SSIA. Il lavoro di tesi è così strutturato: a valle del capitolo 1 avente carattere introduttivo, si è descritta nel dettaglio l’area oggetto dello SSIA, con particolare riferimento alle vie di trasporto delle sostanze pericolose (capitolo 2). Successivamente (capitolo 3) si è illustrata la metodologia utilizzata per effettuare il censimento dei dati di trasporto delle sostanze pericolose forniti dalle aziende del polo e si sono presentati i risultati ottenuti. Infine (capitolo 4) si è eseguita l’analisi delle conseguenze degli scenari incidentali associati al trasporto di alcune delle sostanze movimentate per strada e ferrovia.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
In questa tesi viene descritto il funzionamento delle sorgenti di luce LED (Light Emitting Diode) a confinamento quantico, che rappresentano la nuova frontiera dell'illuminazione ad alta efficienza e durata. Nei capitoli introduttivi è descritta brevemente la storia dei LEDs dalla loro invenzione agli sviluppi più recenti. Il funzionamento di tali dispositivi fotonici è spiegato a partire dal concetto di sorgente di luce per elettroluminescenza, con particolare riferimento alle eterostrutture a confinamento quantico bidimensionale (quantum wells). I capitoli centrali riguardano i nitruri dei gruppi III-V, le cui caratteristiche e proprietà hanno permesso di fabbricare LEDs ad alta efficienza e ampio spettro di emissione, soprattutto in relazione al fatto che i LEDs a nitruri dei gruppi III-V emettono luce anche in presenza di alte densità di difetti estesi, nello specifico dislocazioni. I capitoli successivi sono dedicati alla presentazione del lavoro sperimentale svolto, che riguarda la caratterizzazione elettrica, ottica e strutturale di LEDs a confinamento quantico basati su nitruri del gruppo III-V GaN e InGaN, cresciuti nei laboratori di Cambridge dal Center for Gallium Nitride. Lo studio ha come obiettivo finale il confronto dei risultati ottenuti su LEDs con la medesima struttura epitassiale, ma differente densità di dislocazioni, allo scopo di comprendere meglio il ruolo che tali difetti estesi ricoprono nella determinazione dell'effcienza delle sorgenti di luce LED. L’ultimo capitolo riguarda la diffrazione a raggi X dal punto di vista teorico, con particolare attenzione ai metodi di valutazioni dello strain reticolare nei wafer a nitruri, dal quale dipende la densità di dislocazioni.
Resumo:
L’acceleratore di protoni e ioni pesanti LHC costruito presso i laboratori del CERN di Ginevra permette sviluppi straordinari nel campo della fisica delle particelle alle alte energie. Tra le diverse linee di ricerca attualmente operative lo studio del quark top riveste un ruolo di particolare rilevanza. Infatti, l’elevata energia accessibile alla macchina rende possibile la raccolta di campioni di elevata statistica necessari per uno studio dettagliato delle proprietà del quark top, la particella più pesante fino ad oggi nota. In particolare in questa tesi viene studiato, e confrontato con l'analisi standard, un nuovo metodo, chiamato “template overlap method”, per la selezione di quark top prodotti ad alta energia. L'obiettivo è valutare se questo nuovo metodo permetterà una migliore precisione nella misura della sezione d'urto differenziale di produzione di coppie tt nelle prossime prese dati dove l'energia nel centro di massa raggiungerà i 13 TeV. L'analisi, per ora, è stata svolta su dati montecarlo simulati per l'esperimento ATLAS ad una energia del centro di massa di 8 TeV. I risultati ottenuti sono incoraggianti perchè mostrano un'alta efficienza di selezione all'aumentare dell'energia dei prodotti di decadimento del top.
Resumo:
L'epilessia frontale notturna (EFN) è caratterizzata da crisi motorie che insorgono durante il sonno. Scopo del progetto è studiare le cause fisiopatologiche e morfo-funzionali che sottendono ai fenomeni motori nei pazienti con EFN e identificare alterazioni strutturali e/o metaboliche mediante tecniche avanzate di Risonanza Magnetica (RM). Abbiamo raccolto una casistica di pazienti con EFN afferenti al Centro Epilessia e dei Disturbi del Sonno del Dipartimento di Scienze Neurologiche, Università di Bologna. Ad ogni paziente è stato associato un controllo sano di età (± 5 anni) e sesso corrispondente. Tutti sono stati studiati mediante tecniche avanzate di RM comprendenti Spettroscopia del protone (1H-MRS), Tensore di diffusione ed imaging 3D ad alta risoluzione per analisi morfometriche. In particolare, la 1H-MRS è stata effettuata su due volumi di interesse localizzati nei talami e nel giro del cingolo anteriore. Sono stati inclusi nell’analisi finale 19 pazienti (7 M), età media 34 anni (range 19-50) e 14 controlli (6 M) età media 30 anni (range 19-40). A livello del cingolo anteriore il rapporto della concentrazione di N-Acetil-Aspartato rispetto alla Creatina (NAA/Cr) è risultato significativamente ridotto nei pazienti rispetto ai controlli (p=0,021). Relativamente all’analisi di correlazione, l'analisi tramite modelli di regressione multipla ha evidenziato che il rapporto NAA/Cr nel cingolo anteriore nei pazienti correlava con la frequenza delle crisi (p=0,048), essendo minore nei pazienti con crisi plurisettimanali/plurigiornaliere. Per interpretare il dato ottenuto è possibile solo fare delle ipotesi. L’NAA è un marker di integrità, densità e funzionalità neuronale. E’ possibile che alla base della EFN ci siano alterazioni metaboliche tessutali in precise strutture come il giro del cingolo anteriore. Questo apre nuove possibilità sull’utilizzo di strumenti di indagine basati sull’analisi di biosegnali, per caratterizzare aree coinvolte nella genesi della EFN ancora largamente sconosciute e chiarire ulteriormente l’eziologia di questo tipo di epilessia.
Resumo:
Lo studio dell’intelligenza artificiale si pone come obiettivo la risoluzione di una classe di problemi che richiedono processi cognitivi difficilmente codificabili in un algoritmo per essere risolti. Il riconoscimento visivo di forme e figure, l’interpretazione di suoni, i giochi a conoscenza incompleta, fanno capo alla capacità umana di interpretare input parziali come se fossero completi, e di agire di conseguenza. Nel primo capitolo della presente tesi sarà costruito un semplice formalismo matematico per descrivere l’atto di compiere scelte. Il processo di “apprendimento” verrà descritto in termini della massimizzazione di una funzione di prestazione su di uno spazio di parametri per un ansatz di una funzione da uno spazio vettoriale ad un insieme finito e discreto di scelte, tramite un set di addestramento che descrive degli esempi di scelte corrette da riprodurre. Saranno analizzate, alla luce di questo formalismo, alcune delle più diffuse tecniche di artificial intelligence, e saranno evidenziate alcune problematiche derivanti dall’uso di queste tecniche. Nel secondo capitolo lo stesso formalismo verrà applicato ad una ridefinizione meno intuitiva ma più funzionale di funzione di prestazione che permetterà, per un ansatz lineare, la formulazione esplicita di un set di equazioni nelle componenti del vettore nello spazio dei parametri che individua il massimo assoluto della funzione di prestazione. La soluzione di questo set di equazioni sarà trattata grazie al teorema delle contrazioni. Una naturale generalizzazione polinomiale verrà inoltre mostrata. Nel terzo capitolo verranno studiati più nel dettaglio alcuni esempi a cui quanto ricavato nel secondo capitolo può essere applicato. Verrà introdotto il concetto di grado intrinseco di un problema. Verranno inoltre discusse alcuni accorgimenti prestazionali, quali l’eliminazione degli zeri, la precomputazione analitica, il fingerprinting e il riordino delle componenti per lo sviluppo parziale di prodotti scalari ad alta dimensionalità. Verranno infine introdotti i problemi a scelta unica, ossia quella classe di problemi per cui è possibile disporre di un set di addestramento solo per una scelta. Nel quarto capitolo verrà discusso più in dettaglio un esempio di applicazione nel campo della diagnostica medica per immagini, in particolare verrà trattato il problema della computer aided detection per il rilevamento di microcalcificazioni nelle mammografie.
Resumo:
Una delle aree di maggiore innovazione nella diagnostica per immagini è rappresentata dalla possibilità di fondere le scansioni PET e TC in un sistema di acquisizione ibrido che realizza entrambi gli studi in un'unica seduta. Questa tecnica abbina infatti la capacità di raccogliere le immagini ad alta definizione della TC che può essere eseguita anche con il mezzo di contrasto tradizionale, con informazioni metaboliche estremamente dettagliate raccolte dalla PET, unificandole in un sistema di immagini ibride. Attualmente la PET ha un preminente utilizzo in campo oncologico, tanto che circa l’80% degli esami effettuati è mirato a monitorare la risposta dei pazienti a trattamenti contro il cancro e a discriminare o caratterizzare lesioni dubbie evidenziate in studi morfologici effettuati con CT e MRI. Oltre all’ambito delle patologie neoplastiche, le tecniche di imaging PET/CT hanno dimostrato una importanza rilevante anche in applicazioni di cardiologia e neurologia.
Resumo:
In questo elaborato viene studiato un nuovo strumento satellitare chiamato MIPAS2k: uno spettrometro a trasformata di Fourier, in grado di misurare gli spettri di emissione dei gas atmosferici attraverso la tecnica di misure al lembo. Lo scopo di MIPAS2k è quello di determinare la distribuzione spaziale di quantità atmosferiche tra cui il VMR delle specie chimiche: ozono, acqua, acido nitrico e protossido di azoto. La necessità di idearne un successore è nata dopo la perdita di contatto con lo strumento MIPAS da cui MIPAS2k, pur preservandone alcune caratteristiche, presenta differenze fondamentali quali: i parametri osservazionali, il tipo di detector utilizzato per eseguire le scansioni al lembo e la logica attraverso cui vengono ricavate le distribuzioni dei parametri atmosferici. L’algoritmo attraverso cui viene effettuata l’inversione dei dati di MIPAS2k, chiamato FULL2D, usa la stessa logica di base di quello utilizzato per MIPAS chiamato Geo-Fit. La differenza fondamentale tra i due metodi risiede nel modo in cui i parametri sono rappresentati. Il Geo-Fit ricostruisce il campo atmosferico delle quantità da determinare tramite profili verticali mentre il FULL2D rappresenta i valori del campo atmosferico all’interno degli elementi della discretizzazione bidimensionale dell’atmosfera. Non avendo a disposizione misure del nuovo strumento si è dovuto valutarne le performance attraverso l’analisi su osservati simulati creati ricorrendo al modello diretto del trasferimento radiativo e utilizzando un’atmosfera di riferimento ad alta risoluzione. Le distribuzioni bidimensionali delle quantità atmosferiche di interesse sono state quindi ricavate usando il modello di inversione dei dati FULL2D applicato agli osservati simulati di MIPAS2k. I valori dei parametri ricavati sono stati confrontati con i valori dell’atmosfera di riferimento e analizzati utilizzando mappe e quantificatori. Con i risultati di queste analisi e' stato possibile determinare la risoluzione spaziale e la precisione dei prodotti di MIPAS2k per due diverse risoluzioni spettrali.
Resumo:
La Tesi presenta uno studio sulla distribuzione dei raggi di Einsten compiuta su campioni di ammassi simulati. Il codice utilizzato, MOKA, consente la costruzione di vasti campioni di ammassi in differenti cosmologie e con differenti parametri strutturali. I risultati ottenuti sono stati confrontati con quelli ottenuti dalla simulazione cosmologica N-body ad alta risoluzione MUSIC. Sono stati quindi prodotti campioni di ammassi per sette valori diversi della normalizzazione dello spettro di potenza e 7 valori diversi del parametro di densità della materia mantenendo la geometria piatta
Resumo:
In questo lavoro, dopo un'introduzione sul panorama contemporaneo, si è analizzato lo standard IEEE 802.21, illustrandone i motivi che hanno portato al suo sviluppo, la timeline del processo di standardizzazione, gli obbiettivi del working group, l'architettura del sistema specificato e le sue funzionalità, con particolare riguardo all'utilità in applicazioni reali, al fine di darne un giudizio completo sulla sua effettiva efficacia. Dopo aver citato qualche esempio di possibile applicazione dello standard e descritto lo stato attuale dell'arte, si è studiata una sua implementazione cross-platform chiamata ODTONE, descrivendone i vari componenti e le loro funzionalità, ma anche sottolineando le attuali mancanze per arrivare ad una implementazione completa sotto tutti i punti di vista. Successivamente si è studiata ed implementata un'applicazione, MIH-proxy, che potesse sfruttare in modo costruttivo i servizi specificati dallo standard per creare un proxy che potesse scegliere su quale interfaccia instradare i pacchetti a seconda dello stato attuale di tutti i collegamenti, realizzato in versione unidirezionale e bidirezionale. In particolare questa applicazione è in grado di restare in ascolto di cambiamenti di stato delle interfacce di rete, e.g. quando viene stabilita una connessione oppure cade, e, di conseguenza, stabilire di volta in volta quali collegamenti utilizzare per inviare dati. Nella versione bidirezionale è anche possibile far comunicare tra loro applicazioni che normalmente utilizzerebbero il protocollo di trasporto TCP attraverso un ulteriore componente, phoxy, che si preoccupa di convertire, in modo trasparente, un flusso TCP in datagrammi UDP eventualmente cifrati. Sarà quindi possibile creare un collegamento criptato ad alta affidabilità tra le applicazioni che possa sfruttare tutte le interfacce disponibili, sia per inviare, sia per ricevere.
Resumo:
Dal punto di vista geometrico, il tracciato delle linee AV/AC è determinato in funzione delle velocità di progetto, attualmente variabili tra 250 e 300 km/h, e in modo da limitare i parametri cinematici. In questa maniera è assicurata la corretta qualità di marcia dei treni ad alta velocità. La sovrastruttura ferroviaria è realizzata in modo da sopportare i carichi dinamici trasmessi dai convogli transitanti a elevate velocità, e da garantire la sicurezza della circolazione e il comfort di marcia. In particolare, la qualità del binario ferroviario è determinata attraverso una serie di parametri geometrici fondamentali, definiti da Rete Ferroviaria Italiana. A seconda dei valori assunti da tali parametri, il binario rientra in un livello di qualità geometrica: sono definiti tre livelli per i quali la circolazione ferroviaria avviene senza limitazioni e un livello che richiede l’imposizione di vincoli all’esercizio (rallentamenti o interruzioni). L’introduzione dei parametri geometrici e dei rispettivi valori di riferimento ha lo scopo di mantenere elevati livelli qualitativi e di sicurezza per l’infrastruttura ferroviaria, in materia di geometria dell’armamento. Infatti, il superamento di certe soglie da parte dei parametri, implica l’intervento manutentivo sul binario, al fine di ripristinare la corretta geometria e di garantire così la qualità della marcia dei treni. La politica è quella d’intervento prima del raggiungimento del quarto livello di qualità, per il quale sono necessarie restrizioni alla circolazione e interventi correttivi immediati.
Resumo:
Tesi svolta in collaborazione con Officine Maccaferri S.p.A e con il LIDR (Laboratorio di Ingegneria Idraulica) dell’Università di Bologna. Descrive caratteristiche tecniche di condotte in acciaio, polietilene ad alta densità (PEAD) e resina poliestere rinforzata con fibre di vetro (PRFV), evidenziando vantaggi/svantaggi del loro impiego. Fornisce una descrizione delle modalità di posa delle condotte in relazione ai fattori che condizionano la scelta della tecnica più idonea. Affronta il problema della stabilizzazione e protezione delle condotte soggette all’azione idrodinamica di onde e correnti nelle zona sotto costa e a possibili fattori di rischio esterni. Descrive tecniche di protezione delle condotte sottomarine: interramento (trenching), ricoprimento con materiale roccioso (rock dumping), stabilizzazione con elementi puntuali di appesantimento (concrete collars).Sono descritte le soluzioni di protezione offerte da Officine Maccaferri: materassi articolati in blocchi di calcestruzzo (ACBM) e materassi in geotessuto riempiti di materiale bituminoso (SARMAC). Essi vengono posati sopra la condotta, in posizione longitudinale o trasversale al suo asse, e hanno duplice scopo: (i) incrementarne il peso e la stabilità ai carichi idrodinamici esercitati da onde e correnti e (ii) proteggere la condotta da urti. Partendo dai risultati del modello sperimentale descritto in Gaeta et al. (2012) che evidenziano problemi di erosione localizzata intorno a condotta posata su fondale mobile protetta con materasso ACBM dovuti alla discontinuità materiale del mezzo si valuta, attraverso uno studio numerico, la opportunità di modificare il materasso, ponendo sotto i blocchetti un geotessile. Utilizzando un modello numerico, COBRAS, per la simulazione 2DV del campo idrodinamico si analizza l’effetto di smorzamento del campo di velocità e di vorticità indotto dall’aggiunta del geotessuto simulato come mezzo poroso. I dati sono stati elaborati con MATLAB per ricavare le mappature attorno alla condotta. I test numerici riguardano 3 configurazioni: SARMAC, ACBM, GEO (ACBM+Geotessuto) poggiate su una condotta di diametro costante e sono state analizzate per 2 condizioni di onde regolari di diversa altezza e periodo. Dagli studi emerge che, per casi di condotta posata su fondo mobile, si consiglia l’utilizzo di materassi SARMAC o materassi ACBM modificati con aggiunta di geotessuto. Inoltre il geotessuto svolge anche funzione filtrante, per cui permette il passaggio dell’acqua ma allo stesso tempo trattiene il materiale solido movimentato, senza pericolo di erosione. La presenza dello strato di geotessile non incide sui parametri caratteristici di stabilità globale del materasso ACBM. Si è compiuta un’analisi comparativa tra SARMAC e ACBM per valutare la convenienza delle due soluzioni. Si propone un esempio di dimensionamento nel caso di protezione di un cavo sottomarino comparando caratteristiche tecniche dei materassi SARMAC e ACBM senza geotessile e facendo valutazioni economiche di massima da cui emerge la maggiore convenienza dei materassi ACBM.
Resumo:
L'elaborato affronta in primo luogo la progettazione e il design CAD del sistema di misura impedenziometrico ad alta risoluzione. La seconda parte tratta un'upgrade del software per implementare una funzione di risparmio energetico.