989 resultados para indirizzo :: 714 :: Curriculum C: Risorse sotterranee fluide
Resumo:
L’installazione di smorzatori viscosi sulle strutture permette di dissipare l’energia che il sisma trasmette, senza provocare danni o rotture degli elementi strutturali principali. Questi dispositivi sono stati l'oggetto di numerosi lavori di ricerca dal 1980 fino ad oggi e l'efficacia nel mitigare gli effetti dell’azione sismica su strutture edilizie è stata ampiamente dimostrata. La maggior parte delle teorie scientifiche per la progettazione e l'ottimizzazione degli smorzatori si basano sofisticati algoritmi, portando talvolta a complessi procedure. L'applicazione di tali algoritmi richiede spesso competenze computazionali e di tempo eccessive. Il fine della tesi è quello di proporre un metodo pratico, cioè diretto e immediato per aiutare gli ingegneri per effettuare analisi sismiche su strutture intelaiate dotate di smorzatori viscosi e di dimensionare tali dispositivi. Tale metodo è stato l’oggetto del lavoro di ricerca scientifica trattato nell’articolo: “Equivalent Static Analyses of framed structures with added viscous dampers” di Palermo et al., 2015. Si riesce così ad estendere così il concetto di analisi statica equivalente anche per strutture dotate di smorzatori viscosi, definendo in maniera intuitiva sia le configurazioni di idealizzazione della strutture durante il sisma sia l’ idealizzazione dell’effetto del sisma sulla struttura. In questi anni di lavoro di ricerca, sono stati proposti vari metodi per il dimensionamento degli smorzatori viscosi. Tra questi, il prof. Ing. Silvestri (Silvestri et al., 2010) ha proposto un approccio progettuale diretto, chiamato "five step procedure” che mira a guidare l'ingegnere professionista, dalla scelta del target di prestazioni alle identificazioni della caratteristiche meccaniche di smorzatori viscosi trovabili in commercio. La procedura originale (Silvestri et al., 2010, Silvestri et al., 2011, Palermo et al., 2013), anche se per lo più basata su espressioni analitiche, richiede ancora lo sviluppo di analisi numeriche Time-History di modelli FEM, al fine di valutare le forze massime negli smorzatori aggiunti. Verrà spiegato e proposto un metodo semplificato (“Direct five step procedure for the dimensioning of added viscous dampers” Palermo et al., 2015) che consente ottenere direttamente, tramite una semplice formula, le forze massime degli smorzatori (spesso un parametro chiave della valutazione del costo degli smorzatori), senza eseguire simulazioni numeriche. Infine, si è applicato il metodo semplificato proposto di analisi statica equivalente per strutture equipaggiate di smorzatori viscosi ad un edificio reale.
Resumo:
Negli ultimi quindici anni il traffico aereo passeggeri in Italia è stato interessato da un cospicuo incremento: si è passati dai 91 milioni di passeggeri nel 2000 ai 150 milioni nel 2014. Le previsioni di crescita per il Paese indicano il possibile raddoppio del traffico entro il 2030, quando si dovrebbe raggiungere la soglia dei 300 milioni di passeggeri, con un aumento soprattutto della quota parte internazionale. Non vi può essere sviluppo economico di uno Stato senza crescita del traffico aereo, la quale si può realizzare solo con un adeguamento e un potenziamento delle capacità delle infrastrutture aeroportuali compatibile con le condizioni ambientali e un’efficace interconnessione degli scali con gli altri modi di trasporto. Infatti la pianificazione e la progettazione degli aeroporti non può prescindere da un’analisi approfondita sugli impatti ambientali prodotti dalle attività svolte all’interno degli scali. Inoltre l’incremento del numero medio di passeggeri per movimento (dal 75 pax/mov nel 2000 a 106 pax/mov nel 2011, dato riferito al traffico nazionale) rappresenta un dato positivo dal punto di vista ambientale: nei cieli vola un minor numero di aeromobili, ma in grado di trasportare un maggior numero di passeggeri, con conseguente diminuzione del numero dei movimenti, quindi del rumore, delle emissioni e dell’inquinamento ambientale provocato dalle operazioni necessarie a garantire l’operatività di ciascun volo. La salvaguardia dell’ambiente per un aeroporto è un compito difficile e oneroso, poiché può creare problemi ambientali come inquinamento acustico, dell’aria, delle acque fondiarie e trattamento dei rifiuti. In particolare, scopo di questo elaborato è studiare l’impatto che le operazioni svolte in air-side provocano sulla qualità delle acque di dilavamento, osservando e analizzando le attività che avvengono presso l’Aeroporto G. Marconi di Bologna. Si intende svolgere un censimento delle operazioni che influenzano la qualità delle acque (sia direttamente sia a seguito del dilavamento delle pavimentazioni aeroportuali), indagando quali siano i soggetti coinvolti, le procedure da eseguire, la frequenza e gli eventuali mezzi impiegati. Poi si vogliono eseguire analisi chimiche e granulometriche con un duplice obiettivo: conoscere la qualità delle acque raccolte dalle caditoie presenti nel piazzale e a bordo pista e verificare l’efficacia delle operazioni eseguite anche per ridurre il build up, cioè il tasso di accumulo in tempo secco e, di conseguenza, l’apporto di inquinanti riversato nelle acque di dilavamento. Infine si propongono interventi volti a incrementare la sostenibilità ambientale dell’infrastruttura aeroportuale, con particolare attenzione alla riduzione dell’inquinamento idrico.
Resumo:
Il lavoro di questa tesi riguarda principalmente l'upgrade, la simulazione e il test di schede VME chiamate ReadOut Driver (ROD), che sono parte della catena di elaborazione ed acquisizione dati di IBL (Insertable B-Layer). IBL è il nuovo componente del Pixel Detector dell'esperimento ATLAS al Cern che è stato inserito nel detector durante lo shut down di LHC; fino al 2012 infatti il Pixel Detector era costituito da tre layer, chiamati (partendo dal più interno): Barrel Layer 0, Layer 1 e Layer 2. Tuttavia, l'aumento di luminosità di LHC, l'invecchiamento dei pixel e la richiesta di avere misure sempre più precise, portarono alla necessità di migliorare il rivelatore. Così, a partire dall'inizio del 2013, IBL (che fino a quel momento era stato un progetto sviluppato e finanziato separatamente dal Pixel Detector) è diventato parte del Pixel Detector di ATLAS ed è stato installato tra la beam-pipe e il layer B0. Questa tesi fornirà innanzitutto una panoramica generale dell'esperimento ATLAS al CERN, includendo aspetti sia fisici sia tecnici, poi tratterà in dettaglio le varie parti del rivelatore, con particolare attenzione su Insertable B-Layer. Su quest'ultimo punto la tesi si focalizzerà sui motivi che ne hanno portato alla costruzione, sugli aspetti di design, sulle tecnologie utilizzate (volte a rendere nel miglior modo possibile compatibili IBL e il resto del Pixel Detector) e sulle scelte di sviluppo e fabbricazione. La tesi tratterà poi la catena di read-out dei dati, descrivendo le tecniche di interfacciamento con i chip di front-end, ed in particolare si concentrerà sul lavoro svolto per l'upgrade e lo sviluppo delle schede ReadOut Drivers (ROD) introducendo le migliorie da me apportate, volte a eliminare eventuali difetti, migliorare le prestazioni ed a predisporre il sistema ad una analisi prestazionale del rivelatore. Allo stato attuale le schede sono state prodotte e montate e sono già parte del sistema di acquisizione dati del Pixel Detector di ATLAS, ma il firmware è in continuo aggiornamento. Il mio lavoro si è principalmente focalizzato sul debugging e il miglioramento delle schede ROD; in particolare ho aggiunto due features: - programmazione parallela delle FPGA} delle ROD via VME. IBL richiede l'utilizzo di 15 schede ROD e programmandole tutte insieme (invece che una alla volta) porta ad un sensibile guadagno nei tempi di programmazione. Questo è utile soprattutto in fase di test; - reset del Phase-Locked Loop (PLL)} tramite VME. Il PLL è un chip presente nelle ROD che distribuisce il clock a tutte le componenti della scheda. Avere la possibilità di resettare questo chip da remoto permette di risolvere problemi di sincronizzazione. Le ReadOut Driver saranno inoltre utilizzate da più layer del Pixel Detector. Infatti oltre ad IBL anche i dati provenienti dai layer 1 e 2 dei sensori a pixel dell’esperimento ATLAS verranno acquisiti sfruttando la catena hardware progettata, realizzata e testata a Bologna.
Resumo:
Le attività riguardanti la mia tesi sono state svolte presso Hera S.p.A.. Hera ha iniziato nel 2013 un progetto sperimentale di implementazione di tecnologie cosiddette smart grid su una porzione di rete gestita. Il progetto di Hera si focalizza su diversi aspetti riguardanti sia l’automazione della rete MT, ai fini della riduzione del tempo necessario per individuare il guasto in linea, sia su aspetti riguardanti la regolazione della tensione. In particolare la mia attività di tesi si è incentrata sugli aspetti riguardanti la regolazione della tensione, partendo da una panoramica di quelli che sono ad oggi i metodi più diffusi di regolazione della tensione agendo essenzialmente sul regolatore sotto carico del trasformatore AT/MT presente in cabina primaria e descrivendo quello che è invece il metodo analizzato nel dimostrativo di Hera. In particolare mi sono soffermato sulla regolazione di tensione realizzata con il supporto dei generatori distribuiti connessi alla rete MT di Hera i quali possono, nei limiti delle loro capability, intervenire all’occorrenza assorbendo od erogando potenza reattiva. Il supporto dei generatori distribuiti può essere richiesto qualora la regolazione realizzata con la variazione del commutatore sottocarico del trasformatore in cabina primaria non sia sufficiente per ottenere il risultato desiderato. Appare sin d’ora evidente che questo tipo di regolazione presuppone l’esistenza di una infrastruttura di comunicazione tra il centro operativo del distributore e il campo, inteso come i nodi su cui sono connessi i generatori. Nell’ambito del dimostrativo Hera ha quindi progettato e sta ora realizzando l’infrastruttura di comunicazione che permette la comunicazione del centro di telecontrollo con i generatori. Questa infrastruttura ha caratteristiche particolarmente performanti non tanto per conseguire gli scopi della regolazione, che comunque non necessitano di tempi di latenza eccessivamente stringenti, quanto piuttosto per implementare un’automazione di rete veloce che permette di evitare la disalimentazione degli utenti a monte di guasto attraverso una selezione rapida e intelligente del ramo guasto.
Resumo:
Conversione delle interfaccie grafiche legay di un gestionale ERP verso più moderne interfaccie grafiche Windows Form. Si descrive inoltre come realizzare un interfaccia web alternativa che si basa su Ajax.
Resumo:
L’obiettivo di questa tesi è la trasposizione del gioco da tavolo “Mahjong” su un’applicazione mobile. Essa è sviluppata in Android, ma l’idea è quella di estenderla anche alle altre piattaforme. Col passare del tempo il Mahjong si è diffuso in molti paesi e per questo ne sono nate molte varianti. In questo caso si adotta il regolamento ravennate 200-400, opportunamente modificato per adattarlo all’applicazione. Il nome dell’applicativo nasce dal fatto che esso dovrà gestire un numero molto elevato di lingue e che nessuno ha ancora sviluppato un gioco multiplayer sul Mahjong, per cui sarà il primo a livello mondiale. Nell’applicazione un utente dovrà creare il tavolo di gioco e solo allora gli altri potranno visualizzarlo. Dopo che tutti si saranno seduti, chiunque potrà chiedere di iniziare una partita, che comincerà non appena tutti avranno accettato la richiesta. È stato progettato un database, in modo da salvare lo stato attuale di tutti i tavoli. Le informazioni sullo stato di ogni partita, invece, sono salvate in un file diverso per ciascuna. L’architettura utilizzata per lo sviluppo dell’applicativo è del tipo client-server. Per la parte server dell’applicazione si è scelto di usare il linguaggio java, utilizzando le socket e instaurando connessioni SSL. Il server utilizza inoltre connessioni non persistenti. Tutte le richieste inviate e ricevute dal server sono create in un formato adatto all'interscambio di dati fra applicazioni client-server, chiamato JSON. Nel server si è creato, inoltre, un servizio di “caching” delle partite, in modo da incrementare le prestazioni e la velocità di elaborazione delle richieste. Per connettere in modo corretto il server al database si utilizza JDBC.
Resumo:
In questa tesi sono le descritte le fasi progettuali e costruttive del Beam Halo Monitor (BHM), un rivelatore installato sull'esperimento CMS, durante il primo lungo periodo di shutdown di LHC, che ha avuto luogo tra il 2013 ed il 2015. BHM è un rivelatore ad emissione di luce Cherenkov ed ha lo scopo di monitorare le particelle di alone prodotte dai fasci di LHC, che arrivano fino alla caverna sperimentale di CMS, ad ogni bunch crossing (25 ns). E' composto da 40 moduli, installati alle due estremità di CMS, attorno alla linea di fascio, ad una distanza di 1.8 m da questa. Ciascun modulo è costituito da un cristallo di quarzo, utilizzato come radiatore ed un fotomoltiplicatore. Sono descritte in maniera particolare le prove eseguite sui moduli che lo compongono: la caratterizzazione dei fotomoltiplicatori ed i test di direzionalità della risposta. Queste costituiscono la parte di lavoro che ho svolto personalmente. Inoltre sono descritte le fasi di installazione del rivelatore nella caverna sperimentale, a cui ho preso parte ed alcuni test preliminari per la verifica del funzionamento.
Resumo:
Il concetto di inflazione e' stato introdotto nei primi anni ’80 per risolvere alcuni problemi del modello cosmologico standard, quali quello dell’orizzonte e quello della piattezza. Le predizioni dei piu' semplici modelli inflazionari sono in buon accordo con le osservazioni cosmologiche piu'recenti, che confermano sezioni spaziali piatte e uno spettro di fluttuazioni primordiali con statistica vicina a quella gaussiana. I piu' recenti dati di Planck, pur in ottimo accordo con una semplice legge di potenza per lo spettro a scale k > 0.08 Mpc−1 , sembrano indicare possibili devi- azioni a scale maggiori, seppur non a un livello statisticamente significativo a causa della varianza cosmica. Queste deviazioni nello spettro possono essere spiegate da modelli inflazionari che includono una violazione della condizione di lento rotolamento (slow-roll ) e che hanno precise predizioni per lo spettro. Per uno dei primi modelli, caratterizzato da una discontinuita' nella derivata prima del potenziale proposto da Starobinsky, lo spettro ed il bispettro delle fluttuazioni primordiali sono noti analiticamente. In questa tesi estenderemo tale modello a termini cinetici non standard, calcolandone analiticamente il bispettro e confrontando i risultati ottenuti con quanto presente in letteratura. In particolare, l’introduzione di un termine cinetico non standard permettera' di ottenere una velocita' del suono per l’inflatone non banale, che consentira' di estendere i risultati noti, riguardanti il bispettro, per questo modello. Innanzitutto studieremo le correzioni al bispettro noto in letteratura dovute al fatto che in questo caso la velocita' del suono e' una funzione dipendente dal tempo; successivamente, cercheremo di calcolare analiticamente un ulteriore contributo al bispettro proporzionale alla derivata prima della velocita' del suono (che per il modello originale e' nullo).
Resumo:
In questa tesi viene presentato un nuovo metaeuristico per la risoluzione del Traveling Salesman Problem (TSP) simmetrico. Tale metodo, detto algoritmo bionomico, è una variante dell'algoritmo genetico che usa un metodo innovativo di generazione del parents set. Nella tesi vengono proposti diversi metodi di crossover specifici per il TSP ma che possono essere facilmente estesi per altri problemi di ottimizzazione combinatoria. Tali metodi sono stati sperimentati su un insieme di problemi test, i risultati computazionali mostrano l'efficienza dei metodi proposti. In particolare uno dei metodi domina gli altri sia per la miglior qualità delle soluzioni prodotte che per il minor tempo di calcolo impiegato.
Resumo:
Le superfici di suddivisione sono un ottimo ed importante strumento utilizzato principalmente nell’ambito dell’animazione 3D poichè consentono di definire superfici di forma arbitraria. Questa tecnologia estende il concetto di B-spline e permette di avere un’estrema libertà dei vincoli topologici. Per definire superfici di forma arbitraria esistono anche le Non-Uniform Rational B-Splines (NURBS) ma non lasciano abbastanza libertà per la costruzione di forme libere. Infatti, a differenza delle superfici di suddivisione, hanno bisogno di unire vari pezzi della superficie (trimming). La tecnologia NURBS quindi viene utilizzata prevalentemente negli ambienti CAD mentre nell’ambito della Computer Graphics si è diffuso ormai da più di 30 anni, l’utilizzo delle superfici di suddivisione. Lo scopo di questa tesi è quello di riassumere, quindi, i concetti riguardo questa tecnologia, di analizzare alcuni degli schemi di suddivisione più utilizzati e parlare brevemente di come questi schemi ed algoritmi vengono utilizzati nella realt`a per l’animazione 3D.
Resumo:
Il presente lavoro di tesi per la Laurea Specialistica in Geologia e Territorio è stato concepito come ricostruzione, approfondimento e verifica dell’insieme di interventi finalizzati alla stabilizzazione di versante che hanno coinvolto il tratto della ferrovia Porretta-Pistoia ubicato tra la progressiva 50 + 730 e la progressiva 50 + 650. In quest’area, alle prime ore del giorno 5 Gennaio 2014, è avvenuto l’innesco di un evento franoso che ha coinvolto il rilevato su cui transita la via ferrata: la causa della mobilizzazione è stata ricondotta fin da subito all’intenso evento piovoso occorso nei giorni precedenti la mobilizzazione. La zona coinvolta nel dissesto è situata nei pressi della frazione di Corbezzi, in località Casciano, nel territorio nord-orientale della provincia di Pistoia: il bacino idrografico è quello del torrente Brana, tributario del Fiume Ombrone. L’urgenza e l’importanza della realizzazione di questi interventi non era da attribuirsi alla pericolosità nei confronti delle vite dei residenti, ma piuttosto al fatto che l’opera ferroviaria è da considerarsi come un bene di importanza strategica non solo per la provincia di Pistoia, ma anche per le regioni Toscana ed Emilia-Romagna, in quanto mezzo efficace di collegamento e spostamento di pendolari e merce tra le due. L’elaborato che viene proposto è il risultato delle analisi dei dati acquisiti in fase di progettazione, dello studio effettuato direttamente in campo e di una fase finale di verifica sulla stabilità del versante a seguito della realizzazione delle opere e sulla correttezza del dimensionamento previsto per le stesse. Infine, ma non di minor importanza, viene proposto un approfondimento della coerenza dell’intervento nei confronti del contesto paesaggistico.
Resumo:
In questa tesi viene esposto il modello EU ETS (European Union Emission Trading Scheme) per la riduzione delle emissoni di gas serra, il quale viene formalizzato matematicamente da un sistema di FBSDE (Forward Backward Stochastic Differential Equation). Da questo sistema si ricava un'equazione differenziale non lineare con condizione al tempo finale non continua che viene studiata attraverso la teoria delle soluzioni viscosità. Inoltre il modello viene implementato numericamente per ottenere alcune simulazioni dei processi coinvolti.
Resumo:
In questo lavoro viene presentato un modello matematico per l'aggregazione e la diffusione della beta-amiloide nel cervello umano affetto dalla malattia di Alzheimer, con la particolarità di considerare coefficienti di diffusione variabili e non costanti. Il modello è basato sull'equazione di Smoluchowski discreta per l'aggregazione, modificata in modo opportuno per considerare anche il fenomeno di diffusione.
Resumo:
Seguendo l'approccio di M. Hairer si dà una dimostrazione della versione probabilistica del Teorema di ipoellitticità di Hormander che utilizza un calcolo di Malliavin "ridotto".
Resumo:
In questa tesi abbiamo studiato le forme reali di algebre e superalgebre di Lie. Il lavoro si suddivide in tre capitoli diversi, il primo è di introduzione alle algebre di Lie e serve per dare le prime basi di questa teoria e le notazioni. Nel secondo capitolo abbiamo introdotto le algebre compatte e le forme reali. Abbiamo visto come sono correlate tra di loro tramite strumenti potenti come l'involuzione di Cartan e relativa decomposizione ed i diagrammi di Vogan e abbiamo introdotto un algoritmo chiamato "push the button" utile per verificare se due diagrammi di Vogan sono equivalenti. Il terzo capitolo segue la struttura dei primi due, inizialmente abbiamo introdotto le superalgebre di Lie con relativi sistemi di radici e abbiamo proseguito studiando le relative forme reali, diagrammi di Vogan e abbiamo introdotto anche qua l'algoritmo "push the button".