5 resultados para commemorative events
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
A regional envelope curve (REC) of flood flows summarises the current bound on our experience of extreme floods in a region. RECs are available for most regions of the world. Recent scientific papers introduced a probabilistic interpretation of these curves and formulated an empirical estimator of the recurrence interval T associated with a REC, which, in principle, enables us to use RECs for design purposes in ungauged basins. The main aim of this work is twofold. First, it extends the REC concept to extreme rainstorm events by introducing the Depth-Duration Envelope Curves (DDEC), which are defined as the regional upper bound on all the record rainfall depths at present for various rainfall duration. Second, it adapts the probabilistic interpretation proposed for RECs to DDECs and it assesses the suitability of these curves for estimating the T-year rainfall event associated with a given duration and large T values. Probabilistic DDECs are complementary to regional frequency analysis of rainstorms and their utilization in combination with a suitable rainfall-runoff model can provide useful indications on the magnitude of extreme floods for gauged and ungauged basins. The study focuses on two different national datasets, the peak over threshold (POT) series of rainfall depths with duration 30 min., 1, 3, 9 and 24 hrs. obtained for 700 Austrian raingauges and the Annual Maximum Series (AMS) of rainfall depths with duration spanning from 5 min. to 24 hrs. collected at 220 raingauges located in northern-central Italy. The estimation of the recurrence interval of DDEC requires the quantification of the equivalent number of independent data which, in turn, is a function of the cross-correlation among sequences. While the quantification and modelling of intersite dependence is a straightforward task for AMS series, it may be cumbersome for POT series. This paper proposes a possible approach to address this problem.
Resumo:
Un problema comune agli Ingegneri Gestionali è quello legato alla necessità di dover sempre spiegare in cosa consista veramente il proprio campo di studi. Amici, conoscenti e parenti non dimostrano mai, infatti, familiarità con il termine. Chi scrive è costretto addirittura ad ammettere di avere una madre che, a pochi giorni dalla discussione dalla Tesi Magistrale, continui ad affermare di non aver ancora capito quale lavoro andrà poi a fare il figlio. Medicina, Giurisprudenza ed Economia sono concetti facili da comprendere; “studiare con approccio quantitativo l'organizzazione e i processi produttivi delle imprese costruendo e applicando modelli per la soluzione dei loro problemi” in effetti lo è un po’ meno. Accade così che si debbano quindi aggiungere altri termini, spiegando l’ingegneria gestionale come insieme di altre discipline: produzione, logistica, marketing, economia aziendale, risorse umane, gestione, progetti... Si dà il caso che questo insieme di altre discipline coincida in larga parte con una branca ancora più oscura ai più: l’event management. Questo lavoro di Tesi è incentrato proprio sulla gestione di un evento: gli FPA Worlds 2012, i Mondiali di Frisbee Freestyle 2012 tenutisi a Riccione dal 2 al 5 agosto. L’autore, nell’ambito del suo percorso di Tirocinio, ne è stato l’event manager, ovvero il massimo responsabile e organizzatore, andando a far confluire esperienze, conoscenze e passioni personali con la coronazione degli studi universitari. L’intero progetto lo ha coinvolto dal luglio 2010 al settembre 2012, all’interno di un’azienda riminese con cui già collaborava dal 2009. La Tesi, di carattere prettamente sperimentale, va quindi ad esporre i processi gestionali “nascosti” dietro ad un evento che ha riscosso successo di pubblico e mediatico, affiancando in ognuno dei capitoli tematici modelli teorici e risultati pratici. La vastità di conoscenze, competenze e strumenti utilizzati ha reso quest’esperienza altamente stimolante, così come le numerose sfide che si sono succedute nel difficile percorso per organizzare il miglior Mondiale di Frisbee Freestyle di sempre.
Resumo:
Il progetto QRPlaces - Semantic Events, oggetto di questo lavoro, focalizza l’attenzione sull’analisi, la progettazione e l’implementazione di un sistema che sia in grado di modellare i dati, relativi a diversi eventi facenti parte del patrimonio turistico - culturale della Regione Emilia Romagna 1, rendendo evidenti i vantaggi associati ad una rappresentazione formale incentrata sulla Semantica. I dati turistico - culturali sono intesi in questo ambito sia come una rappresentazione di “qualcosa che accade in un certo punto ad un certo momento” (come ad esempio un concerto, una sagra, una raccolta fondi, una rappresentazione teatrale e quant’altro) sia come tradizioni e costumi che costituiscono il patrimonio turistico-culturale e a cui si fa spesso riferimento con il nome di “Cultural Heritage”. Essi hanno la caratteristica intrinseca di richiedere una conoscenza completa di diverse informa- zioni correlata, come informazioni di geo localizzazione relative al luogo fisico che ospita l’evento, dati biografici riferiti all’autore o al soggetto che è presente nell’evento piuttosto che riferirsi ad informazioni che descrivono nel dettaglio tutti gli oggetti, come teatri, cinema, compagnie teatrali che caratterizzano l’evento stesso. Una corretta rappresentazione della conoscenza ad essi legata richiede, pertanto, una modellazione in cui i dati possano essere interconnessi, rivelando un valore informativo che altrimenti resterebbe nascosto. Il lavoro svolto ha avuto lo scopo di realizzare un dataset rispondente alle caratteristiche tipiche del Semantic Web grazie al quale è stato possibile potenziare il circuito di comunicazione e informazione turistica QRPlaces 2. Nello specifico, attraverso la conversione ontologica di dati di vario genere relativi ad eventi dislocati nel territorio, e sfruttando i principi e le tecnologie del Linked Data, si è cercato di ottenere un modello informativo quanto più possibile correlato e arricchito da dati esterni. L’obiettivo finale è stato quello di ottenere una sorgente informativa di dati interconnessi non solo tra loro ma anche con quelli presenti in sorgenti esterne, dando vita ad un percorso di collegamenti in grado di evidenziare una ricchezza informativa utilizzabile per la creazione di valore aggiunto che altrimenti non sarebbe possibile ottenere. Questo aspetto è stato realizzato attraverso un’in- terfaccia di MashUp che utilizza come sorgente il dataset creato e tutti i collegamenti con la rete del Linked Data, in grado di reperire informazioni aggiuntive multi dominio.
Resumo:
La massa del quark top è qui misurata per mezzo dei dati raccolti dall’esperimento CMS in collisioni protone-protone ad LHC, con energia nel centro di massa pari ad 8 TeV. Il campione di dati raccolto corrisponde ad una luminosità integrata pari a 18.2 /fb. La misura è effettuata su eventi con un numero di jet almeno pari a 6, di cui almeno due b-taggati (ovvero identificati come prodotto dell’adronizzazione di due quark bottom). Il valore di massa trovato è di (173.95 +- 0.43 (stat)) GeV/c2, in accordo con la media mondiale. The top quark mass is here measured by using the data that have been collected with the CMS experiment in proton-proton collisions at the LHC, at a center-of-mass energy of 8 TeV. The dataset which was used, corresponds to an integrated luminosiy of 18.2 /fb. The mass measurement is carried out by using events characterized by six or more jets, two of which identified as being originated by the hadronization of bottom quarks. The result of the measurement of the top quark mass performed here is: (173.95 +- 0.43 (stat)) GeV/c2, in accordance with the recently published world average.
Resumo:
We present here a characterization of the Monte Carlo samples used at CMS in the current LHC run (Run 2, sqrt(s)=13 TeV) and we compare them to the ones used in the previous run (Run 1, sqrt(s)=8 TeV). We then use these samples to reconstruct the top quark mass from the all-hadronic decay products and we compare the efficiencies of the standard reconstruction method when applied to the two different samples. We finally find a way to improve the efficiency for 13 TeV samples by using jets reconstructed with a different algorithm, the Cambridge-Aachen algorithm.