737 resultados para Analisi di vulnerabilità sismica strutture esistenti


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi riguarda lo studio degli effetti indotti dal deposito di terreno che si trova sopra il substrato roccioso. la Valutazione è stata condotta con riferimento al sito del Duomo di Modena. Il segnale sismico che giunge dagli strati rocciosi profonfi, attraversando il deposito ed interagendo con il terreno soffice che lo compone, si modifica fino a giungere in superficie. Sono state condotte analisi in campo libero e con interazione suolo-struttura, facendo riferimento a 63 eventi sismici scelti in funzione dei risultati di specifiche analisi di pericolosità sismica condotte per il Duomo. Sono stati impiegati tre approcci di calcolo: monodimensionale lineare, tramite script implementato in Matlab a cura dello scrivente, monodimensionale lineare-equivalente, a mezzo del codice EERA, bidimensionale ad elementi finiti con software PLAXIS. Si sono ottenuti i periodi propri di vibrazione del deposito, i coefficienti di amplificazione stratigrafica, gli accelerogrammi e gli spettri di risposta elastici a livello del piano campagna utilizzabili direttamente per la verifica sismica di strutture poste in superficie nel centro di Modena. E' stato infine condotto un confronto scientifico tra gli spettri di risposta calcolati e quelli proposti dal D.M. 14/01/2008.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi tratta il tema delle reti complesse, mostrando i principali modelli di rete complessa quali: il modello Random, il modello Small-World ed il modello Scale-free; si introdurranno alcune metriche usate per descrivere le reti complesse quali la Degree centrality, la Closeness centrality e la Betweenness centrality; si descriveranno i problemi da tenere in considerazione durante la definizione e l’implementazione di algoritmi su grafi; i modelli di calcolo su cui progettare gli algoritmi per risolvere i problemi su grafi; un’analisi prestazionale degli algoritmi proposti per calcolare i valori di Beweenness centrality su grafi di medio-grandi dimensioni. Parte di questo lavoro di tesi è consistito nello sviluppo di LANA, LArge-scale Network Analyzer, un software che permette il calcolo e l’analisi di varie metriche di centralità su grafo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract L’utilizzo dei dati satellitari per la gestione dei disastri naturali è fondamentale nei paesi in via di sviluppo, dove raramente esiste un censimento ed è difficile per i governi aggiornare le proprie banche dati con le tecniche di rilevamento e metodi di mappatura tradizionali che sono entrambe lunghe e onerose. A supporto dell’importanza dell’impiego del telerilevamento e per favorirne l’uso nel caso di catastrofi, vi è l’operato di diverse organizzazioni internazionali promosse da enti di ricerca, da agenzie governative o da organismi sopranazionali, le quali svolgono un lavoro di cruciale valore, fornendo sostegno tecnico a chi si occupa di far giungere alle popolazioni colpite gli aiuti umanitari e i soccorsi nel più breve tempo possibile. L’attività di tesi è nata proprio dalla collaborazione con una di esse, ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action), organizzazione no-profit, fondata dal Politecnico di Torino e SiTI (Istituto Superiore sui Sistemi Territoriali per l’Innovazione), la quale a sua volta collabora con il WFP (World Food Programme) delle Nazioni Unite, realizzando cartografie speditive necessarie per la valutazione delle conseguenze di un evento catastrofico, attraverso l’impiego di dati acquisiti da satellite. Su questo tema si è inserito il presente lavoro che ha come obiettivo quello di dimostrare la valenza dei dati telerilevati, siano essi di tipo ottico o Radar, nel caso di alcuni dei disastri naturali più catastrofici, le alluvioni. In particolare è stata studiata la vulnerabilità del Bangladesh, il quale annualmente si trova ad affrontare eventi alluvionali, spesso di grave intensità. Preliminarmente allo studio, è stata condotta una ricerca bibliografica al fine di avere una buona conoscenza dell’area sia in termini geografici e fisici che di sviluppo e tipologia di urbanizzazione. E’stata indagata in particolare l’alluvione che ha colpito il paese nel Luglio del 2004, attraverso delle immagini satellitari multispettrali, in particolare Landsat 7, per un inquadramento pre-evento, ed ASTER per studiare la situazione a distanza di tre mesi dall’accaduto (immagine rilevata il 20 Ottobre 2004). Su tali immagini sono state condotte delle classificazioni supervisionate con il metodo della massima verosimiglianza che hanno portato la suddivisione del territorio in quattro classi di destinazione d’uso del suolo: urbano (Build-up), campi e vegetazione (Crops&Vegetation), sabbia e scavi (Sand&Excavation), idrografia e zone alluvionate (Water). Dalla sperimentazione è emerso come tali immagini multispettrali si prestino molto bene per l’analisi delle differenti caratteristiche del territorio, difatti la validazione condotta sulla mappa tematica derivata dall’immagine Landsat 7 ha portato ad un’accuratezza del 93% circa, mentre la validazione dell’immagine ASTER è stata solo di tipo qualitativo, in quanto, considerata l’entità della situazione rilevata, non è stato possibile avere un confronto con dei punti da assumere come verità a terra. Un’interpretazione della mappa tematica derivante dalla classificazione dell’immagine ASTER è stata elaborata incrociandola in ambiente GIS con dati forniti dal CEGIS (Center for Environmental and Geographic Information Services) riguardanti il landuse della zona in esame; da ciò è emerso che le zone destinate alla coltivazione del riso sono più vulnerabili alle inondazioni ed in particolare nell’Ottobre 2004 il 95% delle aree esondate ha interessato tali colture. Le immagini ottiche presentano un grosso limite nel caso delle alluvioni: la rilevante copertura nuvolosa che spesso accompagna siffatti eventi impedisce ai sensori satellitari operanti nel campo dell’ottico di rilevare il territorio, e per questo di frequente essi non si prestano ad essere impiegati per un’indagine nella fase di prima emergenza. In questa circostanza, un valido aiuto giunge dall’impiego di immagini Radar, le quali permettono osservazioni ad ogni ora del giorno e della notte, anche in presenza di nuvole, rendendole di fondamentale importanza nelle situazioni descritte. Per dimostrare la valididi questi sensori si sono analizzati due subset derivanti da un mosaico di immagini della nuova costellazione italiana ad alta risoluzione CosmoSkymed: il primo va dalla città di Dhaka al Golfo del Bengala ed il secondo copre la zona più a Nord nel distretto di Sylhet. Dalla sperimentazione condotta su tali immagini radar, che ha comportato come ovvio problematiche del tutto differenti rispetto alle elaborazioni tradizionalmente condotte su immagini nel campo dell’ottico, si è potuto verificare come l’estrazione dei corpi d’acqua e più in generale dell’idrografia risulti valida e di veloce computazione. Sono emersi tuttavia dei problemi, per esempio per quanto riguarda la classificazione dell’acqua in presenza di rilievi montuosi; tali complicazioni sono dovute alla presenza di zone d’ombra che risultano erroneamente assegnate alla classe water, ma è stato possibile correggere tali errori di attribuzione mascherando i rilievi con l’ausilio di una mappa delle pendenze ricavata da modelli di elevazione SRTM (Shuttle Radar Topographic Mission). La validazione dei risultati della classificazione, condotta con un grande numero di check points, ha fornito risultati molto incoraggianti (ca. 90%). Nonostante le problematiche riscontrate, il Radar, in sé o in accoppiamento con altri dati di diversa origine, si presta dunque a fornire in breve tempo informazioni sull’estensione dell’esondazione, sul grado di devastazione, sulle caratteristiche delle aree esondate, sulle vie di fuga più adatte, diventando un’importante risorsa per chi si occupa di gestire l’emergenza in caso di eventi calamitosi. L’integrazione con i dati di tipo ottico è inoltre essenziale per pervenire ad una migliore caratterizzazione del fenomeno, sia in termini di change detection che di monitoraggio post-evento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si propone di indagare l'impatto di alcuni scenari di sviluppo aeroportuale legati alla prevista implementazione di un sistema di trasporto APM - People Mover, in termini di performance del terminal passeggeri dell'Aeroporto `G.Marconi' di Bologna, per fornire soluzioni efficaci alla mobilità. Il background teorico è rappresentato dai risultati ottenuti dalla ricerca sperimentale e ormai acquisiti dalla trattazione classica per code markoviane avanzate (bulk queus), mentre il metodo messo a punto, del tutto generale,parte dagli arrivi schedulati e attraverso una serie di considerazioni econometriche costruisce una serie di scenari differenti,implementati poi attraverso la simulazione dinamica con l'utilizzo del software ARENA. Le principali grandezze di stato descrittive dei processi modellizzati ottenute in output vengono confrontate e valutate nel complesso, fornendo in prima approssimazione previsioni sull'efficacia del sistema previsto. Da ultimo, vengono proposti e confrontati i due approcci forniti tanto dalla manualistica di settore quanto da contributi di ricerca per arrivare a definire un dimensionamento di massima di strutture per la mobilità (una passerella di collegamento del terminal alla stazione APM) e una verifica della piattaforma per l'attesa ad essa contigua.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene presentata un’analisi dettagliata sulla struttura di profili recettori di neuroni coinvolti nell’elaborazione visiva, con particolare attenzione per le cellule appartenenti alla corteccia visiva primaria (V1). Dopo aver illustrato brevemente il percorso effettuato dall’informazione visiva, costituito da retina, nucleo genicolato laterale e V1, vengono descritte la struttura e le principali caratteristiche di profili recettori dei neuroni appartenenti ad ognuno di questi livelli di elaborazione. Per modellare i profili recettori di cellule corticali in V1 si è deciso di utilizzare filtri bidimensionali realizzati mediante funzioni di Gabor nel dominio spaziale. Questo modello ha, infatti, il grande vantaggio di possedere alcune tra le maggiori proprietà dei profili recettori di neuroni appartenenti a V1: struttura del profilo recettore nello spazio (x,y), selettività in orientazione e in frequenza spaziale, indipendenza dalla fase dello stimolo. Viene successivamente presentato il concetto di campo di associazione visivo, mediante il quale sono determinate le caratteristiche principali (posizione spaziale ed orientazione) che diversi oggetti devono possedere per essere percepiti non come unità singole, ma come un unico elemento. I campi di associazione possono essere modellati mediante l’utilizzo del sistema di equazioni differenziali proposto da Citti-Sarti, le cui soluzioni sono curve integrali adatte a ricostruire la struttura dei campi di associazione, come proposti da Field, Hayes ed Hess. Diverse ipotesi sono state presentate su come cellule appartenenti a V1 siano in grado di realizzare simili campi di associazione, ed in particolare, da dove queste possano prendere le informazioni necessarie per farlo. Una di queste è quella sostenuta dai dati di Bosking et al., secondo i quali le connessioni intracorticali più fitte sono quelle tra neuroni non adiacenti tra loro, i cui profili recettori sono co-orientati (con la stessa orientazione preferenziale) e co-assiali (disposti lungo un asse del campo visivo che corrisponde all’orientazione preferenziale). L’analisi effettuata in questa tesi ha come obbiettivo proprio quello di ottenere informazioni utili su come cellule corticali siano legate alla fenomenologia dei campi di associazione. Come già detto, un filtro di Gabor bidimensionale può essere considerato un buon modello per profili recettori di questo tipo di cellule e quindi è possibile definirlo in maniera astratta come l’unità fondamentale nel processo di elaborazione visiva. Per questo motivo viene effettuata un’analisi di cross-correlazione tra un filtro di Gabor con una determinata orientazione e una famiglia di filtri di Gabor aventi n orientazioni. I risultati ottenuti sono stati trattati utilizzando la tecnica di soppressione dei non massimi, in modo da estrarre per ogni punto dell’immagine l’orientazione per la quale si ottiene la risposta massima. Successivamente, dai dati è stato possibile calcolare delle curve integrali simili a quelle ottenute dal modello differenziale proposto da Citti-Sarti. I risultati ottenuti da questa analisi si sono rivelati utili per comprendere più nel dettaglio i processi di elaborazione dei neuroni corticali, ed in particolare, per capire in che modo le informazioni necessarie per la realizzazione di strutture complesse ed articolate come quelle dei campi di associazione, siano già contenute intrinsecamente all’interno di ogni cellula corticale, unità fondamentale dell’elaborazione visiva.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente studio si colloca nell’ambito del progetto europeo (FP7) THESEUS, fra i cui scopi c’è quello di fornire informazioni su vulnerabilità e resilienza degli habitat costieri in seguito all’aumento di frequenza delle inondazioni dovuto al sea level rise. E’ stata indagata la zona intertidale di spiagge sabbiose, come recettore di cambiamenti climatici. All’interno dell’habitat intertidale le comunità macrobentoniche sono di solito individuate come indicatori delle variazioni dei parametri fisico-chimici e morfodinamici. Lo scopo di questo lavoro è consistito nell’analisi delle comunità macrobentoniche e della loro interazioni con le variabili ambientali lungo tre spiagge del Nord Adriatico sottoposte a fenomeni di erosione e differenti fra di loro per caratteristiche morfodinamiche: Lido di Spina, Bellocchio e la zona della Bassona di Lido di Dante. La risposta delle comunità bentoniche è stata indagata utilizzando i dati tassonomici delle specie e raggruppando le stesse nei rispettivi gruppi trofici. Le variabili ambientali considerate sono state quelle relative alla tipologia del sedimento e quelle relative alla morfodinamica Le comunità macrobentoniche delle spiagge di Lido di Spina e di Lido di Dante sono risultate relativamente più simili tra loro, nonostante i due siti fossero i più distanti. A Lido di Spina e Lido di Dante sono state rinvenute associazioni di specie, come Scolelepis squamata ed Eurydice spinigera, tipiche delle spiagge sabbiose europee esposte al moto ondoso. In questi due siti, è risultato dominante il bivalve Lentidium mediterraneum, la cui ecologia e modalità di distribuzione aggregata permette di evidenziare il maggiore idrodinamismo che caratterizza i due siti. A Bellocchio, invece, è stato riscontrato un maggior numero di specie. Questo sito è caratterizzato dalla presenza di patch di giovanili del bivalve Mytilus galloprovincialis che sembrerebbe determinare il pattern del resto della comunità fungendo da ecosystem engineer. In termini di gruppi trofici, a Lido di Spina e a Lido di Dante prevalgono Filtratori, Carnivori e Detritivori di Superficie mentre Bellocchio è dominato da Filtratori e Misti discostandosi dagli altri siti per le sue condizioni del tutto particolari. Per quanto riguarda i descrittori abiotici, Lido di Spina e Lido di Dante, rispetto a Bellocchio, presentano una fascia intertidale più corta, pendenze maggiori, granulometrie più grossolane e risultando quindi, in generale, meno dissipative.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La telemedicina è uno strumento in grado fornire assistenza ad un paziente o monitorarne le condizioni di salute, impiegando dispositivi di telecomunicazione avanzati i quali rendono possibile la trasmissione a distanza di informazioni mediche dal paziente alla struttura sanitaria o viceversa. Questo elaborato si propone di illustrare come la telemedicina sia utilizzata nel trattamento dello scompenso cardiaco a prescindere dalla distanza tra le strutture sanitarie e il luogo di residenza del malato ottenendo risultati incoraggianti sia dal punto di vista del quadro di salute psico-fisico dei pazienti sia dal punto di vista economico per il Sistema Sanitario Nazionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I problemi di sicurezza nel software sono in crescita e gli strumenti di analisi adottati nei sistemi GNU/Linux non permettono di evidenziare le finestre di vulnerabilità a cui un pacchetto è stato soggetto. L'obiettivo di questa tesi è quello di sviluppare uno strumento di computer forensics in grado di ricostruire, incrociando informazioni ottenute dal package manager con security advisory ufficiali, i problemi di sicurezza che potrebbero aver causato una compromissione del sistema in esame.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli ammassi di galassie (galaxy clusters) sono aggregati di galassie legate dalla forza di attrazione gravitazionale. Essi sono le più grandi strutture virializzate dell’Universo e la loro luminosità è dovuta alle galassie che li compongono e al cosiddetto intracluster medium (ICM), gas intergalattico in grado di raggiungere temperature di milioni di gradi. L’ICM è caratterizzato da emissioni sia di tipo termico che non termico, rispettivamente nella banda X e nella banda Radio, dovute soprattutto al meccanismo di bremsstrahlung termica e all’emissione di sincrotrone. Lo studio delle radiazioni emesse da questo gas primordiale ha permesso di studiare alcuni processi caratteristici nella dinamica degli ammassi di galassie, come i fenomeni di merger e cooling flow , e di ottenere quindi una maggiore comprensione della formazione ed evoluzione degli ammassi. Essendo le più grandi strutture dell’Universo che abbiano raggiunto l’equilibrio viriale, il loro studio risulta infatti molto importante, in quanto fornisce un valido strumento per la formulazione di un Modello Cosmologico. Lo scopo di questo lavoro di tesi consiste in particolare nell'analisi di Aloni e Relitti radio, con maggiore approfondimento sui primi, e sulla ricerca di una correlazione della potenza Radio dei clusters sia con la loro luminosità nella banda X, che con la loro dimensione spaziale. La raccolta e l’elaborazione dei dati è stata svolta presso l’osservatorio di radioastronomia (ORA) situato nel CNR di Bologna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente attività di tesi è stata svolta presso la Divisione di Sicurezza Nucleare dell’ENEA di Bologna ed è stata finalizzata ad analizzare, mediante il codice MELCOR 2.1, le conseguenze di tre incidenti severi non mitigati di tipo LBLOCA in un generico reattore nucleare ad acqua leggera pressurizzata (PWR) da 900 MWe. In particolare sono stati confrontati gli scenari incidentali relativi a tre distinti eventi iniziatori nel circuito di refrigerazione primario: la rottura a ghigliottina della gamba fredda (CL) del loop 1, della gamba calda (HL) del loop 1 e della surge line di connessione con il pressurizzatore. Le analisi MELCOR hanno indagato la progressione incidentale in-vessel, con particolare riferimento alle fenomenologie termoidrauliche e di degradazione del core. MELCOR infatti è un codice integrato che simula le principali fenomenologie riguardanti sequenze incidentali di tipo severo in reattori ad acqua leggera. Durante la prima fase dei tre transitori incidentali risultano predominanti fenomenologie di carattere termoidraulico. In particolare MELCOR predice la rapida depressurizzazione e il conseguente svuotamento del sistema di refrigerazione primario. I tre transitori sono poi caratterizzati dallo scoprimento completo del core a causa dell’indisponibilità del sistema di refrigerazione di emergenza. Il conseguente riscaldamento del core per il calore di decadimento e per ossidazione delle strutture metalliche conduce inevitabilmente alla sua degradazione e quindi al fallimento della lower head del recipiente in pressione del reattore nei tre scenari incidentali in tempi diversi. Durante la prima fase incidentale, di carattere prevalentemente termoidraulico, sono state rilevate le principali differenze fenomenologiche causate dalle differenti posizioni e dimensioni delle rotture. Il transitorio causato dalla rottura della CL si è confermato come il più gravoso, con fallimento anticipato della lower head rispetto agli altri due transitori considerati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato di tesi si occupa dell’analisi di sistemi di produzione dell’idrogeno mediante elettrolisi, con un particolare approfondimento sugli elettrolizzatori di tipo PEM. L’elaborato si concentra sullo studio delle fonti rinnovabili non programmabili per la produzione di energia elettrica, con il relativo utilizzo di sistemi di accumulo. Dopo un accurato studio sui vari sistemi di accumulo esistenti viene elaborato un modello al fine di poter effettuare un analisi di tipo black box su varie tipologie di elettrolizzatori PEM presenti sul mercato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi verrà affrontato uno studio sugli ammassi di galassie che costituiscono le strutture virializzate più grandi dell’Universo. L’analisi delle emissioni provenienti dall’ICM (Intracluster Medium) consente di ottenere informazioni su alcuni dei processi che caratterizzano la dinamica degli ammassi di galassie, come merger e cooling flow, e in particolare di testare le attuali ipotesi sulla formazione ed evoluzione degli ammassi. Le radiazioni provenienti dal gas extragalattico possono essere sia di tipo termico che non termico: le prime causate dal meccanismo di Bremsstrahlung termica e appartenenti alla banda X, le seconde invece dovute prevalentemente dall’emissione di Sincrotrone in banda Radio. Durante lo studio degli ammassi di galassie verranno approfondite le principali radiosorgenti diffuse: Aloni, mini-Aloni e Relitti, focalizzando lo studio su questi ultimi e analizzando un campione di dati ad essi relativi, con lo scopo di trovare un’eventuale correlazione tra alcune delle loro proprietà. La ricerca sugli ammassi di galassie risulta importante in quanto, trattandosi delle più grandi strutture dell’Universo che abbiano raggiunto l’equilibrio viriale, il loro studio risulta un valido strumento per la verifica dell’attuale Modello Cosmologico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.