955 resultados para indirizzo :: 655 :: Curriculum B (ambiente terrestre)
Resumo:
La tesi ha avuto ad oggetto l'evoluzione dell’onda di piena del fiume Fiora nella mattinata del 12/11/2012, a monte dello sbarramento di Vulci (Enel S.p.a.), la quale ha determinato il superamento della quota di massimo invaso dell’impianto e ha messo in evidenza come le equazioni descrittive, presenti all’interno del Foglio di Condizione e Manutenzione dell’Impianto (F.C.E.M), non siano rappresentative della reale capacità di scarico della diga. Sulle base di queste osservazioni è stato adottato un modello matematico sfruttando il codice di calcolo HEC-RAS per la valutazione della massima portata scaricabile dagli scarichi dell’impianto in occasione di eventi di piena particolarmente intensi. Dallo studio si è ricavato che la portata massima scaricata della diga durante l’evento suddetto è risultata circa 1430 m3/s, mentre la massima portata affluita all’impianto è risultata circa 1450 m3/s, valore potenzialmente sfruttabile per una revisione della sicurezza idraulica dello sbarramento.
Resumo:
Analisi strutturale dell’ala di un UAV (velivolo senza pilota a bordo), sviluppata usando varie metodologie: misurazioni sperimentali statiche e dinamiche, e simulazioni numeriche con l’utilizzo di programmi agli elementi finiti. L’analisi statica è stata a sua volta portata avanti seguendo due differenti metodi: la classica e diretta determinazione degli spostamenti mediante l’utilizzo di un catetometro e un metodo visivo, basato sull’elaborazione di immagini e sviluppato appositamente a tale scopo in ambiente Matlab. Oltre a ciò è stata svolta anche una analisi FEM volta a valutare l’errore che si ottiene affrontando il problema con uno studio numerico. Su tale modello FEM è stata svolta anche una analisi di tipo dinamico con lo scopo di confrontare tali dati con i dati derivanti da un test dinamico sperimentale per ottenere informazioni utili per una seguente possibile analisi aeroelastica.
Resumo:
Studi per verificare la vulnerabilità sismica del padiglione n.14 del complesso ospedaliero Sant'Orsola di Bologna
Resumo:
La quantum biology (QB) è un campo di ricerca emergente che cerca di affronta- re fenomeni quantistici non triviali all’interno dei contesti biologici dotandosi di dati sperimentali di esplorazioni teoriche e tecniche numeriche. I sistemi biologici sono per definizione sistemi aperti, caldi,umidi e rumorosi, e queste condizioni sono per loro imprenscindibili; si pensa sia un sistema soggetto ad una veloce decoerenza che sopprime ogni dinamica quantistica controllata. La QB, tramite i principi di noise assisted transport e di antenna fononica sostiene che la presenza di un adeguato livello di rumore ambientale aumenti l’efficienza di un network di trasporto,inoltre se all’interno dello spettro ambientale vi sono specifici modi vibrazionali persistenti si hanno effetti di risonanza che rigenerano la coerenza quantistica. L’interazione ambiente-sistema è di tipo non Markoviano,non perturbativo e di forte non equi- librio, ed il rumore non è trattato come tradizionale rumore bianco. La tecnica numerica che per prima ha predetto la rigenerazione della coerenza all’interno di questi network proteici è stato il TEBD, Time Evolving Block Decimation, uno schema numerico che permette di simulare sistemi 1-D a molti corpi, caratterizzati da interazioni di primi vicini e leggermente entangled. Tramite gli algoritmi numerici di Orthopol l’hamiltoniana spin-bosone viene proiettata su una catena discreta 1-D, tenendo conto degli effetti di interazione ambiente-sistema contenuti nello spettro(il quale determina la dinamica del sistema).Infine si esegue l’evoluzione dello stato.
Resumo:
E’ stata indagata dal punto di vista stratigrafico, geochimico e petrografico la successione di vulcaniti appartenenti alle formazioni Rocce di Barcone (Tufi Grigi dei Porri o Grey Porri Tuffs – GPT), Punta Sallustro, Punta di Megna e Serro dello Sciarato (Lucchi et al., 2013a, b), riferibili all’Epoca Eruttiva 5 (~70 - 57 ka) dell’evoluzione vulcanologica dell’isola Salina (isole Eolie), durante la quale si realizza l’edificazione della porzione medio-basale dello stratocono del Monte dei Porri. Attraverso un approccio basato sull’integrazione e correlazione di metodologie stratigrafiche, petrografiche e geochimiche si è giunti ad una ricostruzione dei meccanismi eruttivi, deposizionali e petrogenetici che sottendono la successione di eventi vulcanici responsabili dell’edificazione dello stratocono suddetto. Utilizzando l’analisi di litofacies si è giunti, anche attraverso le correlazioni stratigrafiche estese sull’isola di Lipari, alla definizione di cinque unità eruttive (EU1-EU5), rappresentanti il riferimento stratigrafico per la campionatura necessaria per caratterizzarle sia petrograficamente che geochimicamente. Il significato vulcanologico delle EU1-5 ha permesso di evidenziare che il Monte dei Porri è costituito, in larga parte, da un’articolata alternanza di depositi da caduta e da correnti piroclastiche (formati sia da pomici che da scorie), alla quale si intercalano colate laviche; all’interno dell’unità i prodotti analizzati evidenziano composizione dei magmi da trachi-dacitica (EU1), a basaltica e andesitico basaltica (EU2), a francamente andesitico basaltica (EU3); quest’ultima composizione caratterizza la EU4 (che evolve anche verso termini andesitici), e la EU5. In conclusione, l’integrazione di tutti i dati (stratigrafici, petrografici e geochimici) permette di affermare che l’attività vulcanica responsabile della messa in posto delle EU1-5 cominci con una fase di apertura del condotto eruttivo (fase esplosiva pliniana) accompagnata dall’emissione dei magmi più evoluti (EU1), residenti al top di una camera magmatica zonata. Ad essa presumibilmente segue il coinvolgimento dei livelli più profondi del reservoir magmatico dove risiedono i magmi più mafici (EU2 e EU3). La ripresa dell’attività vulcanica (dopo una stasi durante il quale i magmi mafici evolvono verso composizioni mediamente evolute) vede infatti l’emissione di prodotti andesitici (EU4) seguita da magmi meno evoluti (EU5) che porta ad un progressivo svuotamento del sistema.
Resumo:
The thesis presents a probabilistic approach to the theory of semigroups of operators, with particular attention to the Markov and Feller semigroups. The first goal of this work is the proof of the fundamental Feynman-Kac formula, which gives the solution of certain parabolic Cauchy problems, in terms of the expected value of the initial condition computed at the associated stochastic diffusion processes. The second target is the characterization of the principal eigenvalue of the generator of a semigroup with Markov transition probability function and of second order elliptic operators with real coefficients not necessarily self-adjoint. The thesis is divided into three chapters. In the first chapter we study the Brownian motion and some of its main properties, the stochastic processes, the stochastic integral and the Itô formula in order to finally arrive, in the last section, at the proof of the Feynman-Kac formula. The second chapter is devoted to the probabilistic approach to the semigroups theory and it is here that we introduce Markov and Feller semigroups. Special emphasis is given to the Feller semigroup associated with the Brownian motion. The third and last chapter is divided into two sections. In the first one we present the abstract characterization of the principal eigenvalue of the infinitesimal generator of a semigroup of operators acting on continuous functions over a compact metric space. In the second section this approach is used to study the principal eigenvalue of elliptic partial differential operators with real coefficients. At the end, in the appendix, we gather some of the technical results used in the thesis in more details. Appendix A is devoted to the Sion minimax theorem, while in appendix B we prove the Chernoff product formula for not necessarily self-adjoint operators.
Resumo:
Il presente lavoro è stato finalizzato all’analisi delle caratteristiche spettrali delle acque sia da dati in situ che telerilevati, attraverso l’implementazione di algoritmi semi-empirici e modelli bio-ottici dedicati. Inoltre prende in considerazione la correzione delle immagini ottiche per la mappatura delle concentrazioni del particellato sospeso per osservarne la distribuzione nelle acque costiere dell’Alto Adriatico. Le acque costiere sono caratterizzate da un'alta variabilità di proprietà ottiche che dipende dalle specifiche ambientali e stagionali, dai processi idrodinamici e dalle componenti che contiene. Lo studio della dinamica di dispersione del materiale totale sospeso, analizzato in questo lavoro, è stato possibile proprio grazie alle proprietà ottiche del particellato sospeso che, assieme alla clorofilla, è annoverato tra le sostanze otticamente attive. E’ stata svolta un’analisi pluriennale al fine di valutare quali fossero i diversi fattori che influenzano le dinamiche e la distribuzione del particellato sospeso presente nelle acque costiere nell’area prospiciente il delta del Po. La dinamica di dispersione del materiale sospeso in acque superficiali è modulato da variazioni spazio-temporali legate a diversi fattori, tra i quali sono stati considerati l’influenza dell’apporto fluviale del Po e il contributo derivante da diverse condizioni meteomarine. L’analisi effettuata e i risultati ottenuti sono un contributo preliminare a supporto di una gestione costiera, e può fornire una visuale d’insieme dei principali fattori che determinano la presenza di materiale sospeso nella regione costiera esaminata. Tali informazioni sono utili ad una gestione più informata al fine di ridurre gli impatti legati alla presenza di materiale sospeso nelle acque dell’area presa in esame. Le attività svolte sono incluse nel progetto CYAN IS WAS all’interno del programma esecutivo sulla cooperazione scientifica e tecnologica tra la Repubblica d’Italia e il Regno di Svezia per gli anni 2010-2013 e nell’ambito del progetto bandiera RITMARE.
Resumo:
La crescente espansione del traffico aereo degli ultimi anni obbliga i progettisti delle infrastrutture aeroportuali ad analizzare nel dettaglio i vari processi presenti negli aeroporti. Tali processi possono essere relativi al terminal, e quindi legati ai passeggeri, e relativi alle operazioni di volo, e pertanto legati agli aeromobili. Una delle aree più critiche dell’infrastruttura aeroportuale è il Terminal, in quanto è l’edificio che permette il trasferimento dei passeggeri dal sistema di trasporto terrestre a quello aeronautico e viceversa. All’interno del Terminal si hanno diversi processi, intesi come procedure, azioni o misure, che il passeggero è tenuto a sostenere prima, durante e dopo la partenza. L’aspetto più critico, per ciò che concerne i rischi di congestione dovuti alla molteplicità di processi, è il viaggio del passeggero in partenza. Il passaggio tra processi successivi deve essere visto con l’obiettivo di rendere il percorso del passeggero il più facile e semplice possibile. Nel presente elaborato si vuole focalizzare l’attenzione sui processi di gestione dei passeggeri presenti nei terminal aeroportuali valutandone le rispettive criticità. Per una buona analisi di questi processi bisognerebbe valutare il sistema reale. Per far fronte a questa necessità si fa uso della simulazione del sistema reale attraverso software specifici. La simulazione è il processo di progettazione e creazione di un modello computerizzato di un sistema reale. In questo lavoro di tesi, si vogliono, quindi, riportare le peculiarità dei processi che caratterizzano il viaggio dei passeggeri in partenza all’interno dei terminal aeroportuali, e valutarne le criticità attraverso l’applicazione ad un caso reale mediante l’utilizzo di uno dei maggiori software di simulazione in commercio, ovvero Arena Simulation Software della casa americana Rockwell. Pertanto nei primi capitoli vengono descritte le caratteristiche dei processi presenti in un terminal aeroportuale e le proprietà della simulazione. Mentre nei successivi capitoli si è riportato la simulazione di un caso reale effettuata con il software Arena.
Resumo:
Il fine ultimo di questo lavoro è di analizzare ed interpretare alcuni parametri morfometrici che riguardano bacini in roccia e canali di colate detritiche nelle Dolomiti, estrapolati tramite l’analisi di un DEM derivato da rilievo LiDAR. La procedura, implementata in ambiente GIS, è basata sull’analisi di mappe raster morfometriche derivate dalla rappresentazione digitale del terreno. L’elevata risoluzione di questi modelli digitali del terreno (1m) ha permesso uno studio approfondito della morfologia delle colate detritiche nell’area alpina. L’area di studio, nel comune di Cortina D’Ampezzo, è caratterizzata da frequenti eventi di colata detritica a causa della particolare e caratteristica morfologia dolomitica che si sviluppa in altezza con imponenti testate rocciose ed alla loro base con conoidi detritici. I bacini di roccia sono di piccole dimensioni, mentre la lunghezza dei canaloni può variare in base alla pendenza e alla litologia del luogo. In questo tipo di ambiente la causa principale di innesco di tali fenomeni sono i temporali ad elevata intensità i quali trasformano il materiale di deposito in un fluido che scende, grazie alla pendenza, con velocità elevate attraverso i canali. Raggiunte pendenze basse il fluido si arresta e il materiale viene depositato. In questo studio le zone d’innesco di colata detritica sono state indagate con metodologie quali la fotointerpretazione confrontata con il DEM e la modellazione spazialmente distribuita, una procedura automatica volta ad identificare i possibili punti d’innesco e basata sulla relazione tra pendenza locale e area contribuente. Tramite i punti d’innesco individuati con fotointerpretazione sono stati estratti i relativi bacini di colata. In principio sono stati analizzati e interpretati i parametri morfologici e idrologici che caratterizzano i bacini in roccia e i loro rispettivi canali di colata tramite istogrammi di frequenza. Successivamente sono stati confrontati i parametri più significativi attraverso l’uso di grafici a dispersione. Nello studio è stata posta particolare attenzione soprattutto a quei bacini considerati attivi tramite la raccolta di fonti storiche, con l’obbiettivo di analizzare dettagliatamente i parametri morfometrici che risultano essere direttamente legati all’attività dei bacini.
Resumo:
Il rilascio di detriti d’usura metallici è una grave problematicità connessa ai sistemi protesici, e principalmente riguarda le protesi d’anca ad accoppiamento metallo su metallo in lega CoCr. La presenza di un livello di ioni Co nel siero che supera la soglia di tossicità è correlata a metallosi periprotesica eal fallimento del l’impianto. Recentemente è emersa un’altra casistica, presumibilmente connessa alla distribuzione e accumulo di questi ioni in tessuti di organi anche lontani dall’impianto, che si manifesta con una sintomatologia sistemica analoga a casi noti di avvelenamento da Cobalto. Nel contesto di questa nuova patologia sarebbe di grande interesse la possibilità di monitorare in-vivo la distribuzione del Cobalto rilasciato da protesi articolari, in organi o tessuti di pazienti che manifestano alti ivelli ionici di Co nel siero utilizzando metodiche non invasive come l’NMR. L’ipotesi sperimentale di applicabilità prende spunto dalle proprietà magnetiche che alcuni composti del Cobalto possono presentare nell’organismo. In questo lavoro sperimentale, nato dalla collaborazione tra il laboratorio NMR del DIFA dell’Università di Bologna e l’Istituto Ortopedico Rizzoli (IOR) di Bolgna, si presentano i risultati relativi allo studio di fattibilità condotto con diverse metodiche di rilassometria NMR su campioni biologici in presenza di Co. L’obiettivo riguarda la caratterizzazione delle proprietà di rilassamento con elettromagnete a temperatura ambiente e fisiologica, e la valutazione delle dinamiche molecolari dai profili NMRD ottenuti alle basse frequenze con metodica Fast Field Cycling, dei nuclei 1H di tali sistemi in presenza di Co.
Resumo:
This thesis is dedicated to the Tits-Kantor-Koecher (TKK) construction which establishes a bijective correspondence between unital Jordan algebras and shortly graded Lie algebras with Z-grading induced by an sl_2-triple. It is based on the observation that if g is a Lie algebra with a short Z-grading and f lies in g_1, then the formula ab=[[a,f],b] defines a structure of a Jordan algebra on g_{-1}. The TKK construction has been extended to Jordan triple systems and, more recently, to the so-called Kantor triple systems. These generalizations are studied in the thesis.
Resumo:
Scopo della tesi è illustrare l'origine della nozione di logaritmo nei suoi primi decenni dalla nascita, partendo dalle opere di J. Napier (Nepero, 1550-1617) fino a B. Cavalieri (1598-1647), che insieme a J. Keplero (1571-1630) concludono la cosiddetta età pioneristica. Nel primo capitolo sono esposti alcuni mezzi di calcolo usati nel XVI secolo, come i "bastoncini di Nepero"; e il confronto della progressione geometrica con quella aritmetica, che con la conoscenza delle leggi esponenziali, porterà all'invenzione dei logaritmi. Il secondo capitolo è dedicato interamente a Napier (fatto salvo un cenno all'opera di Burgi), con lo scopo di illustrare i suoi due maggiori trattati sui logaritmi: il primo fu sostanzialmente una tavola di numeri da lui inizialmente chiamati "numeri artificiali" e successivamente definiti "logaritmi"; il secondo, curato e pubblicato dal figlio, è un trattato nel quale giustifica il nuovo concetto da lui ottenuto ed i metodi usati per il calcolo delle tavole. Con Henry Briggs (capitolo III) la teoria del logaritmo giunge a maturazione. Egli stesso definì una propria funzione logaritmica Bl_1 che, in seguito, mutò dopo un paio di incontri con Napier. Nelle tavole di Briggs il logaritmo da lui introdotto avrà base 10 e il logaritmo di 1 sarà nullo, definendo così il nostro usuale logaritmo decimale. Nel quarto capitolo mi occupo della diffusione in Italia e in Germania delle nozioni di logaritmo, da parte, rispettivamente di B. Cavalieri e J. Keplero. Cavalieri scrisse parecchio sui logaritmi, pubblicando anche proprie tavole, ma non sembra che abbia raggiunto risultati di grande rilevanza nel campo, tuttavia seppe usare la teoria dei logaritmi in campo geometrico giungendo a formule interessanti. La parte storica della tesi si conclude con alcune notizie sul contributo di Keplero e la diffusione della nozione dei logaritmi neperiani in Germania. La mia esposizione si conclude con qualche notizia sull'uso dei logaritmi e sul regolo calcolatore dalla fine del XIX secolo fin verso gli anni ’70 del secolo scorso.
Resumo:
I paradigmi di programmazione più utilizzati nella realizzazione di sistemi embedded presentano delle limitazioni, in quanto non consentono di modellare alcuni aspetti fondamentali. Il paradigma ad agenti presenta delle caratteristiche che consentono di modellare alcuni aspetti fondamenetali di un sistema embedded, oltre a fornire un livello di astrazione più elevato. All'interno di questa tesi verranno mostrati i concetti fondamentali di questo paradigma, mostrando inoltre i costrutti di base di un linguaggio ad agenti come Jason. Nella programmazione ad agenti, l'ambiente riveste un ruolo fondomentale. All'interno di questa trattazione verrà introdotto un paradigma per la programmazione di ambienti, descrivendo inoltre il framework di riferimento: CArtAgo. Dopo aver descritto i concetti e gli strumenti per applicare il paradigma ad agenti, verrà proposto un metodo per la realizzazione di sistemi embedded tramite l'applicazione di Jason sulla scheda di prototipazione Arduino.
Resumo:
La tesi ha lo scopo di indagare le tecnologie disponibili per la realizzazione di linguaggi di programmazione e linguaggi domain specific in ambiente Java. In particolare, vengono proposti e analizzati tre strumenti presenti sul mercato: JavaCC, ANTLR e Xtext. Al termine dell’elaborato, il lettore dovrebbe avere un’idea generale dei principali meccanismi e sistemi utilizzati (come lexer, parser, AST, parse trees, etc.), oltre che del funzionamento dei tre tools presentati. Inoltre, si vogliono individuare vantaggi e svantaggi di ciascuno strumento attraverso un’analisi delle funzionalità offerte, così da fornire un giudizio critico per la scelta e la valutazione dei sistemi da utilizzare.
Resumo:
Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.