990 resultados para indirizzo :: 790 :: Curriculum D: Fisica della terra


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio indaga le relazioni tra la scelta del percorso dei ciclisti e le caratteristiche operativo – funzionali delle diverse dotazioni ciclabili, partendo dall’ osservazione che alcuni archi realizzati in promiscuità con pedoni vengono esclusi dalla scelta del percorso di alcuni utenti. Uno dei fattori cui viene posta maggiore, soprattutto tra coloro che utilizzano la bicicletta per spostamenti sistematici casa-lavoro o scuola, è la velocità media. Se su un arco tale velocità risulta bassa l'utente può associare a tale arco una bassa utilità ed escluderlo quindi durante la fase di scelta del percorso. La condivisione dello spazio con pedoni determina interferenze e conflitti, che possono indurre una riduzione della velocità media, che può determinare una minore attrattività della dotazione. È stata condotta una campagna di indagine su tre archi ciclabili della rete ciclabile del Comune di Bologna, che ha visto l’utilizzo di telecamera portatile montata su casco di sicurezza, consentendo di poter usufruire di diversi vantaggi nel verificare l’entità delle interferenze e quantificarne l’ effetto sulla prestazione di velocità. Attraverso l’analisi statistica, non solo della velocità media mantenuta dagli operatori su pista e su strada, ma anche della sua variazione percentuale, si definisce il peso che viene attribuito alla presenza di altri utenti, pedoni, nell’ utilizzo delle infrastrutture ciclabili condivise attraverso la determinazione di un coefficiente di equivalenza bici-pedoni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dal punto di vista geometrico, il tracciato delle linee AV/AC è determinato in funzione delle velocità di progetto, attualmente variabili tra 250 e 300 km/h, e in modo da limitare i parametri cinematici. In questa maniera è assicurata la corretta qualità di marcia dei treni ad alta velocità. La sovrastruttura ferroviaria è realizzata in modo da sopportare i carichi dinamici trasmessi dai convogli transitanti a elevate velocità, e da garantire la sicurezza della circolazione e il comfort di marcia. In particolare, la qualità del binario ferroviario è determinata attraverso una serie di parametri geometrici fondamentali, definiti da Rete Ferroviaria Italiana. A seconda dei valori assunti da tali parametri, il binario rientra in un livello di qualità geometrica: sono definiti tre livelli per i quali la circolazione ferroviaria avviene senza limitazioni e un livello che richiede l’imposizione di vincoli all’esercizio (rallentamenti o interruzioni). L’introduzione dei parametri geometrici e dei rispettivi valori di riferimento ha lo scopo di mantenere elevati livelli qualitativi e di sicurezza per l’infrastruttura ferroviaria, in materia di geometria dell’armamento. Infatti, il superamento di certe soglie da parte dei parametri, implica l’intervento manutentivo sul binario, al fine di ripristinare la corretta geometria e di garantire così la qualità della marcia dei treni. La politica è quella d’intervento prima del raggiungimento del quarto livello di qualità, per il quale sono necessarie restrizioni alla circolazione e interventi correttivi immediati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’emissione spontanea di fluidi profondi in superficie è stata storicamente oggetto d’interesse, soprattutto per le informazioni che può fornire per l’esplorazione d’idrocarburi presenti in diverse tipologie di reservoirs associati a tale fenomeno. In questo lavoro di tesi è stato esplorato il fenomeno legato all’emissione spontanea di fluidi ricchi di metano in ambiente sottomarino che genera la precipitazione di carbonati autigeni metano-derivati (MDAC), come conseguenza dell’ossidazione anaerobica del metano da parte di consorzi formati da batteri solfato-riducenti e Archaea. In particolar modo sono state studiate le caratteristiche geochimiche e mineralogiche di una concrezione carbonatica (camino EN5) fossile campionata nell’Appennino settentrionale e dei sedimenti incassanti, che sono peliti di ambiente di piattaforma continentale. Questo perché è stato dimostrato che le concrezioni carbonatiche possono avere relazioni con i sedimenti in cui sono contenute. La scansione XRD ha evidenziato che il camino è composto all’80% da dolomite, poi contiene quarzo, plagioclasi e calcite ma soltanto nella fascia esterna (a contatto con il sedimento). Il sedimento invece è composto da quarzo, plagioclasi (in quantità maggiori rispetto al camino), calcite (di origine biogenica) e dolomite soltanto in tracce. L’analisi elementare del TOC mostra una concentrazione media di 0,5% comune sia al camino sia al sedimento. Le concentrazioni assolute degli altri elementi investigati sono minori nel camino che nei sedimenti, anche se i valori normalizzati all’Al mostrano un arricchimento di alcuni elementi nella parte interna del camino. Questo studio ha permesso di stabilire che la formazione di carbonati autigeni metano-derivati in un ambiente di piattaforma, è possibile solo quando sono presenti le giuste condizioni sedimentarie e un flusso di metano piuttosto intenso. Inoltre la formazione dei carbonati non risente, se non in minima parte, della composizione dei sedimenti ospitanti, ma è regolata dai processi accoppiati di solfato-riduzione e ossidazione del metano.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato affronta le varie fasi progettuali relative alle opere di riqualifica delle infrastrutture di volo dell'aeroporto Marco Polo di venezia. Partendo da nozioni di carattere teorico, come i vari metodi di dimensionamento di una sovrastruttura aeroportuale, si è arrivati ad affrontare in modo pratico il calcolo di verifica delle pavimentazioni esistenti e quello di dimensionamento di due soluzioni progettuali ipotizzate. Infine è stato considerato anche l'aspetto ecosostenibile della progettazione, ipotizzando la possibilità di riutilizzare il materiale fresato dalla vecchia pavimentazione esistente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Descrizione della metodologia e dei principali calcoli svolti per la valutazione della sicurezza di Palazzo Giolo Golfarelli attuale facoltà di Lettere e Filosofia, via Zamboni 38.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tesi svolta in collaborazione con Officine Maccaferri S.p.A e con il LIDR (Laboratorio di Ingegneria Idraulica) dell’Università di Bologna. Descrive caratteristiche tecniche di condotte in acciaio, polietilene ad alta densità (PEAD) e resina poliestere rinforzata con fibre di vetro (PRFV), evidenziando vantaggi/svantaggi del loro impiego. Fornisce una descrizione delle modalità di posa delle condotte in relazione ai fattori che condizionano la scelta della tecnica più idonea. Affronta il problema della stabilizzazione e protezione delle condotte soggette all’azione idrodinamica di onde e correnti nelle zona sotto costa e a possibili fattori di rischio esterni. Descrive tecniche di protezione delle condotte sottomarine: interramento (trenching), ricoprimento con materiale roccioso (rock dumping), stabilizzazione con elementi puntuali di appesantimento (concrete collars).Sono descritte le soluzioni di protezione offerte da Officine Maccaferri: materassi articolati in blocchi di calcestruzzo (ACBM) e materassi in geotessuto riempiti di materiale bituminoso (SARMAC). Essi vengono posati sopra la condotta, in posizione longitudinale o trasversale al suo asse, e hanno duplice scopo: (i) incrementarne il peso e la stabilità ai carichi idrodinamici esercitati da onde e correnti e (ii) proteggere la condotta da urti. Partendo dai risultati del modello sperimentale descritto in Gaeta et al. (2012) che evidenziano problemi di erosione localizzata intorno a condotta posata su fondale mobile protetta con materasso ACBM dovuti alla discontinuità materiale del mezzo si valuta, attraverso uno studio numerico, la opportunità di modificare il materasso, ponendo sotto i blocchetti un geotessile. Utilizzando un modello numerico, COBRAS, per la simulazione 2DV del campo idrodinamico si analizza l’effetto di smorzamento del campo di velocità e di vorticità indotto dall’aggiunta del geotessuto simulato come mezzo poroso. I dati sono stati elaborati con MATLAB per ricavare le mappature attorno alla condotta. I test numerici riguardano 3 configurazioni: SARMAC, ACBM, GEO (ACBM+Geotessuto) poggiate su una condotta di diametro costante e sono state analizzate per 2 condizioni di onde regolari di diversa altezza e periodo. Dagli studi emerge che, per casi di condotta posata su fondo mobile, si consiglia l’utilizzo di materassi SARMAC o materassi ACBM modificati con aggiunta di geotessuto. Inoltre il geotessuto svolge anche funzione filtrante, per cui permette il passaggio dell’acqua ma allo stesso tempo trattiene il materiale solido movimentato, senza pericolo di erosione. La presenza dello strato di geotessile non incide sui parametri caratteristici di stabilità globale del materasso ACBM. Si è compiuta un’analisi comparativa tra SARMAC e ACBM per valutare la convenienza delle due soluzioni. Si propone un esempio di dimensionamento nel caso di protezione di un cavo sottomarino comparando caratteristiche tecniche dei materassi SARMAC e ACBM senza geotessile e facendo valutazioni economiche di massima da cui emerge la maggiore convenienza dei materassi ACBM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio affrontato riguarda la tecnica della ristilatura armata dei giunti, quale metodologia di intervento atta a ripristinare la resistenza della muratura, depauperata dalla continua azione esercitata dal peso proprio delle strutture massive. La presenza di forze di compressione ha causato la creazione di fessure diffuse su tutta la muratura, che ha danneggiato oltre che la vita stessa dell’opera e quindi la sicurezza delle persone, anche l’aspetto architettonico come fonte di bellezza e ricordo di antiche civiltà. In questa ottica si inserisce la Tecnica di Repointing perchè riesca a soddisfare i requisiti richiesti di autenticità strutturale, durabilità, compatibilità e bassa invasività dell'intervento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi riguarda la formula di Eulero per i poliedri: F - S + V = 2 dove F indica il numero di facce, S il numero di spigoli e V quello dei vertici di un poliedro. Nel primo capitolo tratteremo i risultati ottenuti da Cartesio: egli fu il primo a considerare non solo le caratteristiche geometriche ma anche metriche di un solido. Partendo dall'analogia con le figure piane, riuscì a ricavare importanti relazioni nei solidi convessi, riguardanti il numero e la misura degli angoli piani, degli angoli solidi e delle facce. Non arrivò mai alla formulazione conosciuta oggi ma ne intuì le caratteristiche topologiche, che però non dimostrò mai. Nel secondo capitolo invece ci occuperemo di ciò che scoprì Eulero. Il manoscritto contenente i risultati di Cartesio era scomparso e quindi questi non erano più conosciuti dai matematici; Eulero, in accordo con quanto avviene per i poligoni, desiderava ottenere un metodo di classificazione per i poliedri e si mise a studiare le loro proprietà. Oltre alla sua formula, in un primo articolo ricavò importanti relazioni, e in un secondo lavoro ne propose una dimostrazione. Riportiamo in breve anche un confronto tra il lavoro di Cartesio e quello di Eulero. Il terzo capitolo invece riguarda il metodo e il rigore nella formulazione di teoremi e dimostrazioni: I. Lakatos ne fa un esame critico nel libro "Dimostrazioni e Confutazioni - la logica della scoperta matematica", simulando una lezione dove a tema compaiono la Formula di Eulero e le sue dimostrazioni. Noi cercheremo di analizzare questo suo lavoro. Su questi tre autori e i loro lavori riportiamo alcune considerazioni biografiche e storiche che possono offrire interessanti spunti didattici: infatti nel quarto e ultimo capitolo ci occuperemo di alcune considerazioni didattiche a proposito della Formula. La struttura sarà quella di un'ipotetica lezione a studenti di Scuola Media Inferiore e utilizzeremo i risultati ottenuti nei precedenti capitoli e una personale esperienza di tirocinio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analizzeremo dati di metilazione di diversi gruppi di pazienti, mettendoli in relazione con le loro età, intesa in senso anagrafico e biologico. Adatteremo metodi di regressione che sono già stati usati in altri studi, in particolare di tipo statistico, cercando di migliorarli e proveremo ad applicare a questi dati anche dei metodi nuovi, non solo di tipo statistico. La nostra analisi vuole essere innovativa soprattutto perché, oltre a guardare i dati in maniera locale attraverso lo studio della metilazione di particolari sequenze genetiche più o meno note per essere collegate all’invecchiamento, andremo a considerare i dati anche in maniera globale, analizzando le proprietà della distribuzione di tutti i valori di metilazione di un paziente attraverso la trasformata di Fourier.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si è studiato un metodo per modellare e virtualizzare tramite algoritmi in Matlab le distorsioni armoniche di un dispositivo audio non lineare, ovvero uno “strumento” che, sollecitato da un segnale audio, lo modifichi, introducendovi delle componenti non presenti in precedenza. Il dispositivo che si è scelto per questo studio il pedale BOSS SD-1 Super OverDrive per chitarra elettrica e lo “strumento matematico” che ne fornisce il modello è lo sviluppo in serie di Volterra. Lo sviluppo in serie di Volterra viene diffusamente usato nello studio di sistemi fisici non lineari, nel caso in cui si abbia interesse a modellare un sistema che si presenti come una “black box”. Il metodo della Nonlinear Convolution progettato dall'Ing. Angelo Farina ha applicato con successo tale sviluppo anche all'ambito dell'acustica musicale: servendosi di una tecnica di misurazione facilmente realizzabile e del modello fornito dalla serie di Volterra Diagonale, il metodo permette di caratterizzare un dispositivo audio non lineare mediante le risposte all'impulso non lineari che il dispositivo fornisce a fronte di un opportuno segnale di test (denominato Exponential Sine Sweep). Le risposte all'impulso del dispositivo vengono utilizzate per ricavare i kernel di Volterra della serie. L'utilizzo di tale metodo ha permesso all'Università di Bologna di ottenere un brevetto per un software che virtualizzasse in post-processing le non linearità di un sistema audio. In questa tesi si è ripreso il lavoro che ha portato al conseguimento del brevetto, apportandovi due innovazioni: si è modificata la scelta del segnale utilizzato per testare il dispositivo (si è fatto uso del Synchronized Sine Sweep, in luogo dell'Exponential Sine Sweep); si è messo in atto un primo tentativo di orientare la virtualizzazione verso l'elaborazione in real-time, implementando un procedimento (in post-processing) di creazione dei kernel in dipendenza dal volume dato in input al dispositivo non lineare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi è incentrata sull'analisi dell'arbitraggio statistico, strategia di trading che cerca di trarre profitto dalle fluttuazioni statistiche di prezzo di uno o più asset sulla base del loro valore atteso. In generale, si creano opportunità di arbitraggio statistico quando si riescono ad individuare delle componenti sistematiche nelle dinamiche dei prezzi di alcuni asset che si muovono con regolarità persistenti e prevalenti. Perturbazioni casuali della domanda e dell’offerta nei mercati possono causare divergenze nei prezzi, dando luogo a opportunità di intermarket spread, ossia simultanei acquisto e vendita di commodities correlate tra loro. Vengono approfonditi vari test econometrici, i test unit root utilizzati per verificare se una serie storica possa essere modellizzata con un processo random walk. Infine viene costruita una strategia di trading basata sull'arbitraggio statistico e applicata numericamente alle serie storiche dal 2010 al 2014 di due titoli azionari sul petrolio: Brent e WTI.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro è motivato dal problema della constituzione di unità percettive a livello della corteccia visiva primaria V1. Si studia dettagliatamente il modello geometrico di Citti-Sarti con particolare attenzione alla modellazione di fenomeni di associazione visiva. Viene studiato nel dettaglio un modello di connettività. Il contributo originale risiede nell'adattamento del metodo delle diffusion maps, recentemente introdotto da Coifman e Lafon, alla geometria subriemanniana della corteccia visiva. Vengono utilizzati strumenti di teoria del potenziale, teoria spettrale, analisi armonica in gruppi di Lie per l'approssimazione delle autofunzioni dell'operatore del calore sul gruppo dei moti rigidi del piano. Le autofunzioni sono utilizzate per l'estrazione di unità percettive nello stimolo visivo. Sono presentate prove sperimentali e originali delle capacità performanti del metodo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo stretch film è una diffusa applicazione per imballaggio dei film in polietilene (PE), utilizzato per proteggere diversi prodotti di vari dimensioni e pesi. Una caratteristica fondamentale del film è la sua proprietà adesiva in virtù della quale il film può essere facilmente chiuso su se stesso. Tipicamente vengono scelti gradi lineari a bassa densità (LLDPE) con valori relativamente bassi di densità a causa delle loro buone prestazioni. Il mercato basa la scelta del materiale adesivo per tentativi piuttosto che in base alla conoscenza delle caratteristiche strutturali ottimali per l’applicazione. Come per i pressure sensitive adhesives, le proprietà adesive di film stretch in PE possono essere misurati mediante "peel testing". Esistono molti metodi standard internazionali ma i risultati di tali prove sono fortemente dipendenti dalla geometria di prova, sulla possibile deformazione plastica che si verificano nel peel arm(s), e la velocità e temperatura. Lo scopo del presente lavoro è quello di misurare l'energia di adesione Gc di film stretch di PE, su se stessi e su substrati diversi, sfruttando l'interpretazione della meccanica della frattura per tener conto dell'elevata flessibilità e deformabilità di tali film. Quindi, la dipendenza velocità/temperatura di Gc sarà studiata con riferimento diretto al comportamento viscoelastico lineare dei materiali utilizzati negli strati adesivi, per esplorare le relazioni struttura-proprietà che possono mettere in luce i meccanismi molecolari coinvolti nei processi di adesione e distacco. Nella presente caso, l’adesivo non è direttamente disponibile come materiale separato che può essere messo tra due superfici di prova e misurato per la determinazione delle sue proprietà. Il presupposto principale è che una parte, o fase, della complessa struttura semi-cristallina del PE possa funzionare come adesivo, e un importante risultato di questo studio può essere una migliore identificazione e caratterizzazione di questo "fase adesiva".

Relevância:

100.00% 100.00%

Publicador:

Resumo:

General Relativity is one of the greatest scientific achievementes of the 20th century along with quantum theory. These two theories are extremely beautiful and they are well verified by experiments, but they are apparently incompatible. Hints towards understanding these problems can be derived studying Black Holes, some the most puzzling solutions of General Relativity. The main topic of this Master Thesis is the study of Black Holes, in particular the Physics of Hawking Radiation. After a short review of General Relativity, I study in detail the Schwarzschild solution with particular emphasis on the coordinates systems used and the mathematical proof of the classical laws of Black Hole "Thermodynamics". Then I introduce the theory of Quantum Fields in Curved Spacetime, from Bogolubov transformations to the Schwinger-De Witt expansion, useful for the renormalization of the stress energy tensor. After that I introduce a 2D model of gravitational collapse to study the Hawking radiation phenomenon. Particular emphasis is given to the analysis of the quantum states, from correlations to the physical implication of this quantum effect (e.g. Information Paradox, Black Hole Thermodynamics). Then I introduce the renormalized stress energy tensor. Using the Schwinger-De Witt expansion I renormalize this object and I compute it analytically in the various quantum states of interest. Moreover, I study the correlations between these objects. They are interesting because they are linked to the Hawking radiation experimental search in acoustic Black Hole models. In particular I find that there is a characteristic peak in correlations between points inside and outside the Black Hole region, which correpsonds to entangled excitations inside and outside the Black Hole. These peaks hopefully will be measurable soon in supersonic BEC.