301 resultados para vulnerabilità sismica, aggregati edilizi storici, Pergola
Resumo:
Questo studio cerca di individuare e descrivere gli elementi che contraddistinguono la coppia del tango dal punto di vista coreografico e strutturale e vedere in che modo questi fondamenti vengono trasposti sul palcoscenico. Come introduzione viene presentato il percorso della coppia lungo la storia approfondendo i rapporti e le influenze reciproci fra il ballo e i diversi contesti sociali e norme di tipo morale dei singoli momenti storici. Viene affrontata anche la dimensione tecnica del ballo e i codici che la governano attraverso le testimonianze di consolidati ballerini e maestri della generazione attuale e quelle precedenti. In conclusione vengono fornite le analisi di tre spettacoli teatrali prodotti da quattro coreografi diversi che mettono in chiaro gli approcci distintivi nella rappresentare scenica del tango e nel suo utilizzo come linguaggio teatrale.
Resumo:
L'RCMT (Regional Centroid Moment Tensor), realizzato e gestito dai ricercatori dell'INGV (Istituto Nazionale di Geofisica e Vulcanologia), è dal 1997 il catalogo di riferimento per gli eventi sismici avvenuti nell'area Europea-Mediterranea, ossia nella regione avente longitudine compresa tra 10° W e 40° E e latitudine compresa tra 25° N e 60° N. Tale regione è caratterizzata da un'attività tettonica complessa, legata non soltanto alla convergenza delle placche Euroasiatica ed Africana, ma anche al movimento di altre placche minori (ad esempio, la placca Arabica), che tutte insieme danno origine ad una vasta gamma di regimi tettonici. Col termine RCMT si indica un particolare tipo di tensore momento sismico, la cui determinazione avviene su scala regionale, per eventi sismici aventi M_w >= 4.5 (M_w >= 4.0 per gli eventi che avvengono nella penisola italica). Il tensore momento sismico è uno strumento fondamentale per caratterizzare natura ed entità di un terremoto. Da esso, infatti, oltre alla magnitudo momento M_w, si ricava anche il meccanismo focale. Comunemente rappresentato sotto forma di beach ball, consente di individuare il tipo di movimento (distensivo, compressivo o trascorrente, o anche una combinazione del primo o del secondo con il terzo) avvenuto sulla faglia che ha provocato il terremoto. I tensori momento sismico permettono, quindi, di identificare le faglie che si attivano durante una sequenza sismica, di comprendere la loro cinematica e di ipotizzare la successiva evoluzione a breve termine. Scopo di questa relazione di laurea è stato derivare le relazioni che intercorrono fra le M_w dell'RCMT e le M_w del CMT (Centroid Moment Tensor della Columbia University), del GFZ (Deutsches GeoForschungsZentrum di Postdam) e del TDMT (Time Domain Moment Tensor). Le relazioni sono state ottenute applicando il metodo dei minimi quadrati agli eventi comuni, che sono stati selezionati utilizzando alcuni semplici programmi scritti in Fortran.
Resumo:
Il lavoro di questa tesi è frutto dell’esperienza maturata in quattro mesi di tirocinio presso l’U.S. Geological Survey di Menlo Park, da ottobre 2015 a gennaio 2016. Durante questo periodo sono state eseguite quattro campagne di raccolta dati sismici e geotecnici presso la città di Napa, ove, il 24 agosto 2014, si è verificato un terremoto di magnitudo momento pari a 6.0. Quest’area è stata interessata in precedenza da terremoti minori, il più significativo dei quali risulta essere il terremoto di Yountville del 2000 di magnitudo momento pari a 5.1. I rilievi macrosismici, effettuati immediatamente dopo il terremoto di Napa del 2014, hanno fornito una classificazione dettagliata delle strutture danneggiate nel distretto colpito. Obiettivo di questa tesi è comprendere se la distribuzione dei danni osservata sia legata anche alle caratteristiche geologiche locali (effetti di sito), oltre che alla vicinanza all’epicentro. A questo scopo sono state acquisite 63 misure sismiche passive a stazione singola e 4 prove di sismica attiva multicanale, la cui inversione congiunta ha permesso di creare mappe dei riflettori sismici principali sotto le zone interessate dal terremoto. Allo stesso tempo tali mappe, interpretate alla luce della cartografia geologica, hanno permesso di costruire sezioni geologiche e di identificare le corrispondenze tra riflettori geologici e riflettori sismici. Si è così potuto osservare che le zone più pesantemente danneggiate dal terremoto sono quelle che ricadono ove si sono misurate amplificazioni per risonanza in medio-alta frequenza (> 3 Hz) mentre scarsi danni si sono registrati nelle aree caratterizzate da roccia affiorante (e curve di amplificazione per risonanza piatte) e danni minori nelle zone contraddistinte solo da bedrock sismico profondo. La distribuzione del danno, evidenziatosi prevalentemente dove le frequenze proprie di vibrazione del suolo sono mediamente sopra 3 Hz, risulta compatibile con gli intervalli di frequenza attesi per le strutture residenziali tipiche di Napa Valley, che sono costituite da 2-3 piani fuori terra, in legno e di altezza non superiore ai 10 metri.
Resumo:
Il presente elaborato di tesi tratta la valutazione di differenti sistemi di controventatura, sia dal punto di vista di risposta ad un evento sismico che in termini di perdite economiche legate al danneggiamento delle varie componenti. Tra di esse è presentata anche una nuova tipologia strutturale, ideata per ridurre il comportamento “soft-story” e “weak-story”, tipico delle strutture controventate convenzionali. In questo caso, è integrata alla struttura una trave reticolare metallica, che funge da supporto verticale ed è progettata per rimanere in campo elastico. Tale sostegno garantisce una distribuzione più uniforme degli sforzi lungo l’intera altezza della struttura, anziché concentrarli in un unico piano. La ricerca tratta lo studio della fattibilità economica di questa nuova tecnologia, rispetto alle precedenti soluzioni di controventatura adottate, confrontando le perdite economiche delle diverse soluzioni, applicate ad un unico prototipo di edificio collocato a Berkeley, CA. L’analisi sismica tiene in considerazione di tre diversi livelli di intensità, riferiti a un periodo di ritorno di 50 anni, corrispondente alla vita dell’edificio: questi sono caratterizzati dalla probabilità di ricorrenza, rispettivamente del 2%, 10% e 50% ogni 50 anni. L’ambito di ricerca presentato è estremamente innovativo e di primario interesse per lo sviluppo di uno studio sulla resilienza, che può essere adattato anche in un modello di urbanizzazione futura.
Analisi termiche sull'impiego di materiali a cambiamento di fase (PCM) nelle pavimentazioni stradali
Resumo:
Il presente lavoro di tesi mira a studiare l’utilizzo di aggregati artificiali (PLA) costituiti da aggregati leggeri (LWA) impregnati di materiali a cambiamento di fase (Phase-Change Materials, PCM) nei conglomerati bituminosi. L’obiettivo della tesi è quello di dimostrare che l’utilizzo di questi materiali nelle sovrastrutture stradali, grazie alla proprietà di cambiare fase (da solida a liquida e viceversa) in funzione della temperatura, induce una liberazione di calore. La conseguenza immediata dell’utilizzo di questi materiali è la ridotta necessità di manutenzione invernale, abbattendo i costi di ripristino della pavimentazione. Inoltre l’utilizzo di PLA non deve pregiudicare l’aspetto prestazionale e la vita utile dell’infrastruttura.
Resumo:
Gli impianti industriali moderni sono di tipo automatizzato, i processi sono cioè pilotati da un’unità di calcolo che fornisce i comandi necessari atti al corretto funzionamento dell’impianto. Queste tecnologie espongono le apparecchiature a problemi di Security, dunque attacchi volontari provenienti dall’esterno, al sistema di controllo. Esso può diventare la variabile manipolabile del terrorista informatico il quale può causare lo shut down del segnale o cambiare l’impostazione dei parametri di processo.Lo studio esposto si propone di identificare le possibili modalità di attacco e di individuare uno strumento sistematico che permetta di valutarne la vulnerabilità ad un possibile atto di sabotaggio. La procedura proposta è la PSC-SHaRP (Process System Cyber-Security Hazard Review Procedure) essa consta di due strutture chiamate rispettivamente Alpha e Beta. La metodologia è volta a individuare i potenziali pericoli posti dagli attacchi informatici piuttosto che a stimarne un profilo di rischio e/o probabilità di successo. La ShaRP Alpha, viene utilizzata per analizzare le conseguenze di deviazioni cyber su singole macchine presenti in impianto o sistemi modulari. La ShaRP Beta viene utilizzata per analizzare le conseguenze di attacchi cyber sul sistema costituito dall’impianto di processo. Essa è quindi in grado di analizzare le ripercussioni che manipolazioni su una o più apparecchiature possono avere sull’impianto nel suo complesso. Nell’ultima parte dell’elaborato sono state trattate le possibilità di accesso da parte del ‘’terrorista’’ al sistema di controllo e sicurezza, dunque i sistemi di gestione del DCS e del SIS e le barriere software e hardware che possono essere presenti.
Resumo:
Il caso studio del vestibolo ottagonale di Villa Adriana ha dato la possibilità di applicare ad un edificio di notevole valore storico e artistico tecniche di restituzione digitale e di modellazione tridimensionale basate su applicativi di modellazione geometrica, con lo scopo di generarne il modello 3D digitale fotorealistico e polifunzionale. Nel caso specifico del vestibolo, un modello tridimensionale di questo tipo risulta utile a fini documentativi, a sostegno di ipotesi costruttive e come strumento per la valutazione di interventi di restauro. Il percorso intrapreso ha permesso di valutare le criticità nelle tecniche di acquisizione, modellazione e foto-modellazione tridimensionale applicate in ambito archeologico, tecniche usate abitualmente anche in settori quali l’architettura, il design industriale ma anche nel cinema (effetti speciali e film d’animazione) e in ambito videoludico, con obiettivi differenti: nel settore del design e della progettazione industriale il Reverse Modeling viene impiegato per eseguire controlli di qualità e rispetto delle tolleranze sul prodotto finale, mentre in ambito cinematografico e videoludico (in combinazione con altri software) permette la creazione di modelli realistici da inserire all’interno di film o videogiochi, (modelli non solo di oggetti ma anche di persone). La generazione di un modello tridimensionale ottenuto tramite Reverse Modeling è frutto di un processo opposto alla progettazione e può avvenire secondo diverse strategie, ognuna delle quali presenta vantaggi e svantaggi specifici che la rendono più indicata in alcuni casi piuttosto che in altri. In questo studio sono state analizzate acquisizioni tridimensionali effettuate tramite Laser Scan e tramite applicazioni Structure from Motion/Dense Stereo View.
Resumo:
Questo elaborato ha lo scopo di delineare gli eventi storici e i fattori sociali e culturali che hanno portato alla nascita e allo sviluppo di una certa percezione dell’Italia in Giappone. Tale percezione, sebbene a volte basata su una visione stereotipata del Bel Paese, è tendenzialmente molto positiva ed è la conseguenza del crescente interesse che i giapponesi nutrono per l’Italia. La tesi è strutturata in tre capitoli: il primo è dedicato alla storia delle relazioni tra il Giappone e l’Occidente; il secondo si focalizza sui rapporti tra l’Italia e il Giappone in particolare, dai primi contatti fino a oggi, e una parte consistente del capitolo è incentrata sull'analisi degli stereotipi; infine il terzo si concentra sui contatti Italia-Giappone da un punto di vista culturale, analizzando le reciproche influenze in ambiti specifici (quali l’arte, il cinema, la lingua e la cucina) e vengono forniti alcuni esempi di rappresentazione dell’immagine dell’Italia nella cultura nipponica.
Resumo:
Lo scopo del mio elaborato è stato quello di valutare se il denaro potesse essere un veicolo di trasmissione di microrganismi. Esistono infatti reperti storici che indicano che il denaro veniva visto come probabile portatore di infezioni fatali come la “morte nera”, la peste bubbonica e le pandemie di polmoniti descritte in Europa. Vi sono anche altri studi che hanno indicato come patogeni isolati con maggiore frequenza dalle banconote microrganismi quali enterobatteri e stafilococchi. In questa sperimentazione mi sono occupato del campionamento microbiologico di banconote di vario taglio, raccolte prevalentemente in piccoli esercizi alimentari, sulle quali è stato fatto un tampone al fine di determinare la presenza di: coliformi totali, E. coli, S. aureus, altri stafilococchi, muffe, lieviti, carica batterica totale. Le analisi condotte hanno mostrato che nelle banconote non sono mai stati isolati ceppi di S. aureus, a differenza di quanto riportato nella letteratura. Simili considerazioni si possono fare anche per E. coli. Per quel che riguarda la carica batterica totale, le banconote più contaminate sono risultate essere quelle da 20 euro (valore medio 474 UFC/cm2). I tamponi microbiologici effettuati sui tagli da 50 euro sono stati gli unici ad essere caratterizzati da una elevata presenza di coliformi totali. In conclusione possiamo affermare che le banconote posso effettivamente costituire un importante veicolo di contaminazione microbica, che può poi trasferirsi anche su altri matrici, come prodotti alimentari. Considerando la pressione che viene esercitata dalle Autorità di controllo su tutte le fasi della catena alimentare, dalla produzione alla vendita al dettaglio, la variabile posta dalle possibili contaminazioni attraverso il maneggiamento e la circolazione delle banconote potrebbe quindi costituire un rischio reale, sia pure non ancora quantificato e forse non quantificabile.
Resumo:
Il Building Information Modelling nasce da un processo di integrazione sostenibile, basato sull'interoperabilità dei processi. La caratteristica vincente è la circolarietà delle informazioni: ogni informazione è gestita come parametro di un ricco e complesso modello parametrico dell'edificio; la geometria, i materiali, i costi ed i tempi sono gestiti come parametri internamente collegati e quindi variabili di uno stesso sistema. Nel caso di beni storici, la maggior parte degli edifici possiede vincoli intrinseci che influenzano tali parametri. I materiali non possono essere scelti liberamente, in quanto parte di un organismo esistente, la geometria dell'edificio è definita e difficilmente sarà variata negli interventi di recupero. Nella presente tesi si applica il metodo CLOUD2FEM al mondo dell'Historic Building Information Modelling (HBIM) concentrandosi sullo studio della Rocca Estense di San Felice sul Panaro, colpita dal sisma dell'Emilia e attualmente inagibile. La procedura CLOUD2FEM permette di trasformare le informazioni ricavate dal laser scanner in mesh chiuse e regolari, generando in modo semi-automatico un modello FEM 3D. Nel caso di costruzioni complesse, la cui geometria non può essere ricondotta a modelli semplificati, è necessario valutare l'attendibilità del modello strutturale. Nel caso in esame, la validazione è stata condotta mediante il confronto del danno rilevato con il danno simulato. La flessibilità del modello permette di aggiungere dettagli inizialmente non rilevati: ogni informazione è inserita nel modello attraverso un parametro differente, al fine di eseguire analisi sullo stato di fatto e su futuri stati di progetto con semplice aggiornamento dei parametri.
Resumo:
Lo scopo di tale progetto è creare, dal sistema hardware fino alla programmazione software, un sistema che permetta da una parte il controllo autonomo delle condizioni climatiche di un ambiente, il monitoraggio e dall’altra di essere versatile, portatile e di facile utilizzo. Come esempio applicativo per il controllo delle condizioni climatiche in una teca per la misura della rigidità dinamica si andranno ad evidenziare inizialmente in cosa consistono le prove della rigidità dinamica e a cosa servono, per poi passare alla spiegazione dei fenomeni che regolano il comportamento delle miscele di aria e vapor d’acqua che permetteranno di capire le connessioni tra i fattori principali che regolano i cambiamenti climatici quali temperatura e umidità. Successivamente si andranno poi a descrivere con quali meccanismi si regola la climatizzazione degli ambienti, fino ad arrivare alla creazione di un sistema autonomo che gestisca autonomamente temperatura e umidità all’interno di una cella.
Resumo:
Villa Adriana presenta un ampio spettro di possibili casi studio finalizzati ad approfondire il tema della documentazione e della catalogazione dei Beni Culturali. La diffusione della rete Internet ha oggi determinato la necessità di gestire le informazioni in forma distribuita. Nel settore dei B.C., per anni le informazioni relative agli stessi venivano riassunte in schede, “beni schedati” per l’appunto, in modo da facilitarne la consultabilità e l’organizzazione manuale. Nel primo periodo della informatizzazione il processo è stato perfettamente uguale: schede, unità di misura e campi rimasero gli stessi, ma digitalizzati. È chiaro che oggi un sistema del genere appare poco appropriato rispetto alle proprietà dei sistemi digitali, per consentirne lo studio e/o la fruizione. Quindi è nata l’esigenza di migliorare la gestione dei dati raccolti e aggiornare la scheda tenendo conto dell’esperienza sia di coloro che lavorano nel campo della catalogazione dei beni culturali sia di coloro che operano nelle Soprintendenze e nelle Università. Tutto ciò ha spinto il Ministero per i Beni e le Attività Culturali a pensare una soluzione al fine di creare un processo evolutivo dei cittadini. L’“innovazione tecnologica”, oltre ad essere un’implementazione di una nuova regola organizzativa, miglio9ra il supporto alla salvaguardia dei beni artistici e archeologici, mettendo a disposizione dei tecnici delle soprintendenze e delle forze dell’ordine strumenti che semplificano l’attività nella tutela del patrimonio culturale. È innegabile il fatto che oggi i nuovi “media” siano il fulcro di un “movimento” verso i modelli rinnovati di comunicazione della conoscenza che offrono le forme più rapide e immediate dell’offerta culturale. Il sistema informativo permette di incrociare le informazioni di carattere tecnico con i dati relativi alla conoscenza del bene e alla sua storia, mettendoli in relazione alla specifica area a cui si riferiscono.
Resumo:
Il presente elaborato, mediante una panoramica sull’intero processo di recupero della cartografia storica con le moderne tecniche geomatiche (con particolare attenzione rivolta alla fase di elaborazione in ambiente digitale), e l’applicazione ad un caso di studio (l’ Ichnoscenografia di Bologna del 1702) vuole mostrare l’importanza dell’utilizzo di tali tecniche, unitamente alla loro versatilità per la salvaguardia, lo studio e la diffusione del patrimonio cartografico storico. L’attività principale consiste nella creazione di un modello 3D georeferenziato della Bologna del 1702, a partire dalla carta del de’ Gnudi, e della sua successiva rappresentazione mediante modalità di Realtà Virtuale. L’immediatezza della comunicazione con varie forme di rappresentazione consente non solo di apprezzare e scoprire in modo nuovo una carta antica, ma anche di effettuare analisi più specifiche, ad esempio in merito all’evoluzione del tessuto storico della città, oppure studi sui metodi di rappresentazione che venivano utilizzati all’epoca della redazione della carta, completamente differenti dagli attuali, soprattutto in termini di precisione. La parte finale della trattazione esamina la possibilità per il fruitore della ricerca di interrogare un database multimediale sulla città e di immergersi in modo virtuale in ambientazioni non più esistenti.
La passivhaus in clima mediterraneo: caratteristiche costruttive e simulazioni energetiche dinamiche
Resumo:
Questa Tesi approfondisce lo standard Passivhaus, un metodo sviluppato originariamente in Germania nella seconda metà degli anni ’80 ed ora diffuso in tutta Europa, con l’obiettivo di favorire la realizzazione di edifici in grado di fornire ottimi livelli di comfort con consumi energetici pari quasi a zero. Questo standard abitativo mi ha appassionato a tal punto che ho deciso di farne oggetto della mia tesi di laurea. Da diversi anni stiamo assistendo ad una serie di mutamenti climatici che stanno modificando la vita sul nostro pianeta e portano a considerare tutta una serie di cambiamento sul nostro modo di vivere. La casa passiva, a mio parere, è un concetto valido e utile a contenere questa situazione. In altre zone d’Europa, con climi invernali rigidi ma condizioni estive meno gravose delle nostre, è uno standard piuttosto diffuso e qui cercherò di formulare un’analisi quanto più vicina alla realtà riguardo all’adattabilità della Passivhaus al nostro clima. Lo scopo è quello di capire come si comporta questo tipo di edifici in ambienti climatici diversi da quelli per cui lo standard è stato progettato. Per verificarne l’efficacia, verrà studiato nel dettaglio il primo edificio residenziale multipiano recentemente costruito a Cesena e certificato Passivhaus. Successivamente, sarà simulata la realizzazione dello stesso edificio in dieci diverse località italiane, con differenti condizioni climatiche, e ne saranno verificate le prestazioni energetiche tramite un software di modellazione in regime dinamico. Se risulterà necessario a seguito delle verifiche, saranno progettate le modifiche alle soluzioni costruttive che permettano di raggiungere i livelli previsti dallo standard Passivhaus in tutte le località. I risultati della simulazione saranno infine confrontati e commentati nella parte conclusiva della Tesi.
Resumo:
La salvaguardia e conservazione del Patrimonio Artistico ed Architettonico rappresentano un aspetto imprescindibile di ogni cultura, e trovano le loro fondamenta nella coscienza e conoscenza dei Beni. Il rilievo è l’operazione basilare per acquisire una conoscenza rigorosa di un oggetto nella sua geometria e in altre sue caratteristiche. Le finalità delle operazioni di rilevamento sono molteplici, dall’archiviazione a scopo di documentazione fino all’indagine conservativa volta alla diagnostica e alla progettazione di interventi. I modelli digitali, introdotti dallo sviluppo tecnologico degli ultimi decenni, permettono una perfetta conoscenza del bene, non necessitano di contatto diretto durante la fase di rilevamento e possono essere elaborati secondo le esigenze del caso. Le tecniche adottate nel Reverse Engineering si differenziano per il tipo di sensore utilizzato: quelle fotogrammetriche utilizzano sensori di tipo “passivo” e trovano oggi largo impiego nel settore dei Beni Culturali grazie agli strumenti di Structure from Motion, mentre strumenti basati su sensori di tipo “attivo” utilizzano Laser o proiezione di luce strutturata e sono in grado di rilevare con grande precisione geometrie anche molto complesse. La costruzione del modello della fontana del Nettuno e della torre Garisenda di Bologna costituiscono un valido esempio di applicazione delle tecniche di rilievo digitale, e dimostrano la validità delle stesse su oggetti di diversa dimensione in due diversi ambiti applicativi: il restauro e il monitoraggio. Gli sviluppi futuri del Reverse Engineering in questo ambito sono molteplici, e la Geomatica rappresenta senza dubbio una disciplina fondamentale per poterli realizzare.