944 resultados para Algoritmi genetici, Progettazione, Metodi di ottimizzazione
Resumo:
The present work concerns with the study of debris flows and, in particular, with the related hazard in the Alpine Environment. During the last years several methodologies have been developed to evaluate hazard associated to such a complex phenomenon, whose velocity, impacting force and inappropriate temporal prediction are responsible of the related high hazard level. This research focuses its attention on the depositional phase of debris flows through the application of a numerical model (DFlowz), and on hazard evaluation related to watersheds morphometric, morphological and geological characterization. The main aims are to test the validity of DFlowz simulations and assess sources of errors in order to understand how the empirical uncertainties influence the predictions; on the other side the research concerns with the possibility of performing hazard analysis starting from the identification of susceptible debris flow catchments and definition of their activity level. 25 well documented debris flow events have been back analyzed with the model DFlowz (Berti and Simoni, 2007): derived form the implementation of the empirical relations between event volume and planimetric and cross section inundated areas, the code allows to delineate areas affected by an event by taking into account information about volume, preferential flow path and digital elevation model (DEM) of fan area. The analysis uses an objective methodology for evaluating the accuracy of the prediction and involve the calibration of the model based on factors describing the uncertainty associated to the semi empirical relationships. The general assumptions on which the model is based have been verified although the predictive capabilities are influenced by the uncertainties of the empirical scaling relationships, which have to be necessarily taken into account and depend mostly on errors concerning deposited volume estimation. In addition, in order to test prediction capabilities of physical-based models, some events have been simulated through the use of RAMMS (RApid Mass MovementS). The model, which has been developed by the Swiss Federal Institute for Forest, Snow and Landscape Research (WSL) in Birmensdorf and the Swiss Federal Institute for Snow and Avalanche Research (SLF) takes into account a one-phase approach based on Voellmy rheology (Voellmy, 1955; Salm et al., 1990). The input file combines the total volume of the debris flow located in a release area with a mean depth. The model predicts the affected area, the maximum depth and the flow velocity in each cell of the input DTM. Relatively to hazard analysis related to watersheds characterization, the database collected by the Alto Adige Province represents an opportunity to examine debris-flow sediment dynamics at the regional scale and analyze lithologic controls. With the aim of advancing current understandings about debris flow, this study focuses on 82 events in order to characterize the topographic conditions associated with their initiation , transportation and deposition, seasonal patterns of occurrence and examine the role played by bedrock geology on sediment transfer.
Resumo:
Con la presente tesi si è inteso studiare le possibilità applicative di una particolare tipologia strutturale dotata di isolamento sismico “di piano”, intendendosi con ciò una struttura in cui l'intero piano terra, tramite l'inserimento di opportuni elementi dissipativi isteretici ed in analogia al consueto isolamento sismico di base, agisce da “strato” di protezione passiva per i piani sovrastanti. A riguardo, fra le possibili soluzioni per realizzare effettivamente tale isolamento "di piano" è stata considerata la disposizione di particolari elementi dissipativi isteretici di controvento detti Crecent-Shaped Braces, caratterizzati da una forma bilatera o curva, tale comunque da presentare un'eccentricità non nulla fra l'asse del controvento stesso e la linea congiungente gli estremi.
Resumo:
L’acceleratore di protoni e ioni pesanti LHC costruito presso i laboratori del CERN di Ginevra permette sviluppi straordinari nel campo della fisica delle particelle alle alte energie. Tra le diverse linee di ricerca attualmente operative lo studio del quark top riveste un ruolo di particolare rilevanza. Infatti, l’elevata energia accessibile alla macchina rende possibile la raccolta di campioni di elevata statistica necessari per uno studio dettagliato delle proprietà del quark top, la particella più pesante fino ad oggi nota. In particolare in questa tesi viene studiato, e confrontato con l'analisi standard, un nuovo metodo, chiamato “template overlap method”, per la selezione di quark top prodotti ad alta energia. L'obiettivo è valutare se questo nuovo metodo permetterà una migliore precisione nella misura della sezione d'urto differenziale di produzione di coppie tt nelle prossime prese dati dove l'energia nel centro di massa raggiungerà i 13 TeV. L'analisi, per ora, è stata svolta su dati montecarlo simulati per l'esperimento ATLAS ad una energia del centro di massa di 8 TeV. I risultati ottenuti sono incoraggianti perchè mostrano un'alta efficienza di selezione all'aumentare dell'energia dei prodotti di decadimento del top.
Resumo:
Il presente studio si colloca nell’ambito del progetto europeo (FP7) THESEUS, fra i cui scopi c’è quello di fornire informazioni su vulnerabilità e resilienza degli habitat costieri in seguito all’aumento di frequenza delle inondazioni dovuto al sea level rise. E’ stata indagata la zona intertidale di spiagge sabbiose, come recettore di cambiamenti climatici. All’interno dell’habitat intertidale le comunità macrobentoniche sono di solito individuate come indicatori delle variazioni dei parametri fisico-chimici e morfodinamici. Lo scopo di questo lavoro è consistito nell’analisi delle comunità macrobentoniche e della loro interazioni con le variabili ambientali lungo tre spiagge del Nord Adriatico sottoposte a fenomeni di erosione e differenti fra di loro per caratteristiche morfodinamiche: Lido di Spina, Bellocchio e la zona della Bassona di Lido di Dante. La risposta delle comunità bentoniche è stata indagata utilizzando i dati tassonomici delle specie e raggruppando le stesse nei rispettivi gruppi trofici. Le variabili ambientali considerate sono state quelle relative alla tipologia del sedimento e quelle relative alla morfodinamica Le comunità macrobentoniche delle spiagge di Lido di Spina e di Lido di Dante sono risultate relativamente più simili tra loro, nonostante i due siti fossero i più distanti. A Lido di Spina e Lido di Dante sono state rinvenute associazioni di specie, come Scolelepis squamata ed Eurydice spinigera, tipiche delle spiagge sabbiose europee esposte al moto ondoso. In questi due siti, è risultato dominante il bivalve Lentidium mediterraneum, la cui ecologia e modalità di distribuzione aggregata permette di evidenziare il maggiore idrodinamismo che caratterizza i due siti. A Bellocchio, invece, è stato riscontrato un maggior numero di specie. Questo sito è caratterizzato dalla presenza di patch di giovanili del bivalve Mytilus galloprovincialis che sembrerebbe determinare il pattern del resto della comunità fungendo da ecosystem engineer. In termini di gruppi trofici, a Lido di Spina e a Lido di Dante prevalgono Filtratori, Carnivori e Detritivori di Superficie mentre Bellocchio è dominato da Filtratori e Misti discostandosi dagli altri siti per le sue condizioni del tutto particolari. Per quanto riguarda i descrittori abiotici, Lido di Spina e Lido di Dante, rispetto a Bellocchio, presentano una fascia intertidale più corta, pendenze maggiori, granulometrie più grossolane e risultando quindi, in generale, meno dissipative.
Resumo:
La proteinuria è un marker di danno renale nel cane. L’obiettivo dello studio è di valutare la capacità del dipstick urinario e dell’UPC di diagnosticare precocemente l’albuminuria nel cane. Sono stati raccolti 868 campioni di urina, con sedimento spento e assenza di ematuria, nell’Ospedale Didattico Veterinario della Facoltà di Medicina Veterinaria di Bologna. Per 550 campioni è stata effettuata l’analisi delle urine, la misurazione dell’UPC e dell’UAC, mentre UPC e UAC sono stati misurati in tutti gli 868 campioni. I campioni di urina sono stati analizzati con il metodo dipstick mediante lettura automatizzata. Utilizzando come valore di riferimento l’UAC è stata valutata l’accuratezza diagnostica del dipstick urinario e dell’UPC. L’intervallo di riferimento dell’UAC (0-0,024) è stato determinato utilizzando 60 cani sani. I dati raccolti sono stati classificati utilizzando differenti cut-off per il peso specifico urinario (1012 o 1030), per la proteinuria al dipstick (30 o 100 mg/dl), per l’UPC (0,2) e per l’UAC (0,024). Sono stati valutati l’agreement diagnostico e la correlazione di Spearman tra dipstick, UPC e UAC. E’ stata stimata l’accuratezza diagnostica misurando l’area al di sotto della curva di ROC nell’analisi dell’UAC. Il livello di significatività è stato definito per p < 0,05. Indipendentemente dal peso specifico urinario, l’agreement diagnostico tra dipstick, UPC e UAC è risultato forte (k=0,62 e k=0,61, rispettivamente; p<0,001) con valori di dipstick ≥30 mg/dl, debole (k=0,27 e k=0,26, rispettivamente; p<0,001) con valori di dipstick ≥100 mg/dl. L’accuratezza diagnostica del dipstick messa a confronto con UPC e con UAC è molto buona (AUC 0,84 e 0,84, rispettivamente; p<0,001) e i risultati negativi al dipstick presentano il 100% di sensitività. UPC e UAC sono fortemente correlate (r=0,90; p<0,001). Mettendo a confronto UPC e UAC, l’accuratezza diagnostica è risultata eccellente (AUC 0,94; p<0,001), con massima sensitività e specificità per UPC≥0.3.
Resumo:
Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.