926 resultados para dissipatori fluido viscosi, distribuzione proprietà di smorzamento, analisi non lineari
Resumo:
Il presente lavoro di tesi si pone l’obiettivo di studiare come un Cubesat 1U reagisce se sollecitato con vibrazioni di una certa banda di frequenze, corrispondenti a quelle generate durante il lancio del vettore VEGA, e cercare di sviluppare un modello virtuale che in futuro permetta di simulare in maniera più realistica il comportamento delle successive strutture che saranno progettate. Il campo dei nanosatelliti è in rapida espansione negli ultimi anni, bassi costi di produzione e lancio abbinati a tempi rapidi di sviluppo e progettazione li rendono un ottimo strumento per aziende di piccole dimensioni e università per aquisire esperienza nel campo delle tecnologie spaziali e permettere la formazione degli studenti. Grazie a questi fattori il corso di Ingegneria Aerospaziale di Forlì ha intrapreso la progettazione di un Cubesat che una volta ultimato potrà essere lanciato in orbita grazie al contributo dell’ESA, che si presta a fornire lanci gratuiti alle università europee. Questo progetto porta avanti il lavoro compiuto durante la fase di tirocinio in cui abbiamo cercato di progettare una struttura semplice e realizzabile completamente nei laboratori dell’università, che permettesse anche successivamente a studenti e dottorandi di cimentarsi nello studio e nella progettazione di un nanosatellite. Il mio compito in particolare consiste nell’esecuzione di una serie di prove sperimentali con uno shaker presente nei laboratori della Scuola e, raccogliendo, analizzando e interpretando la risposta della struttura, si cercherà di modificare il modello CAD realizzato finora (lavoro compiuto in un'altra tesi di laurea) in modo che rispecchi più fedelmente il comportamento di quello reale e fornire quindi una base ai futuri lavori in questo ambito. La struttura, ispirata a quelle già presenti sul mercato, è stata progettata utilizzando Solidworks un software CAD, successivamente è stata fatta un analisi tramite un altro software FEM, realizzato e poi testato mediante uno shaker presso i laboratori del corso di studi in ingegneria aerospaziale di Forlì. Per poter fare ciò si è anche realizzata quella che è stata usata come interfaccia per connettere il Cubesat allo shaker, infatti data la sua proprietà di esercitare spostamenti solo lungo l’asse verticale si è reso necessario trovare un modo per sollecitare il nanosatellite lungo tutti e tre gli assi per poter evidenziare i modi flessionali della struttura. I dati ottenuti riguardano le accelerazioni rilevate in vari punti del Cubesat e del supporto da parte di accelerometri piezometrici che sono stati analizzati per risalire al tipo di comportamento con cui ha risposto la struttura a vibrazioni di varia frequenza e intensità.
Resumo:
La Provincia di Ferrara ha avuto (ed ha tuttora) sul suo territorio, insediamenti produttivi di varia natura, che nel tempo hanno fatto uso di idrocarburi alifatici clorurati, per scopi diversi: solventi, sgrassanti, refrigeranti, supporti chimici e farmaceutici, ecc. Soprattutto nei decenni passati, a causa di normative poco restringenti sull’uso e sullo smaltimento di questi composti, si sono verificate le condizioni per provocare l’inquinamento delle falde del territorio provinciale. Nel corso degli anni, si sono svolti studi di diverso carattere, finalizzati ad individuare e caratterizzare siti (o raggruppamenti di siti) contaminati da idrocarburi clorurati. In questo lavoro si è allargata l’attenzione a tutti i siti presenti nel territorio definito dai limiti amministrativi della Provincia di Ferrara, che, nell‘arco temporale 2000 – 2015, hanno evidenziato contaminazioni da CAHs nell’acquifero superficiale A0 e/o nell’acquifero confinato A1. Si sono create, quindi, carte di distribuzione dei siti inquinati su scala provinciale, analizzandone principalmente caratteristiche idrogeologiche e variazioni di distribuzione chimica nello spazio e nel tempo, in relazione agli studi di caratterizzazione ed a eventuali messe in sicurezza e/o bonifiche. I dati necessari sono stati reperiti dagli atti amministrativi e dai relativi documenti tecnici, messi a disposizione dalla Provincia di Ferrara. L’attenzione è ricaduta in particolare sul cloruro di vinile (Vinyl Chloride, VC) ritrovato in alte concentrazioni e in un alto numero di siti. Il suo non utilizzo diretto nei processi produttivi in esame, ne esclude la presenza in qualità di contaminante primario, classificandolo come prodotto della degradazione di altri idrocarburi clorurati più complessi, in larga parte etileni clorurati. Si è inoltre appurato, come la presenza di VC non sia solo attribuibile a siti operanti nel settore metallurgico o chimico, ma riguardi in alcuni casi inquinamenti provocati da commercio o stoccaggio di carburanti, a cui, in passato, furono aggiunti solventi clorurati per migliorarne le caratteristiche chimico-fisiche. Si è concluso infine, come nel territorio della Provincia di Ferrara siano frequenti condizioni particolari, che favoriscono la degradazione di composti organo-clorurati complessi, ed agevolano l’accumulo di cloruro di vinile. Tali caratteristiche, sono state principalmente individuate nella diffusa presenza di livelli fini, anche torbosi, e nella altrettanto diffusa presenza di ambienti riducenti, non solo nel caso dell’acquifero confinato A1 ma anche nel caso dell’acquifero superficiale A0.
Resumo:
In questa tesi abbiamo provato a definire fino a che punto le misure di sensori siano affidabili, creando un simulatore che sia in grado di analizzare, qualitativamente e quantitativamente, le prestazioni di sensori inerziali facenti parte di sistemi di navigazione inerziale. Non ci siamo soffermati troppo sulle dinamiche dovute agli errori deterministici, che sono eliminabili facilmente mediante prove sperimentali e test, ma abbiamo puntato ad uno studio approfondito riguardante gli errori dovuti a processi stocastici casuali. Il simulatore, programmato sulla piattaforma MATLAB/Simulink, prende i dati grezzi contenuti all’interno dei datasheets dei sensori e li simula, riportando risultati numerici e grafici degli errori risultanti dall’utilizzo di quei specifici sensori; in particolare, esso mette in luce l’andamento degli errori di posizione, velocità ed assetto ad ogni istante di tempo della simulazione. L’analisi effettuata all’interno dell’elaborato ha successivamente condotto all’identificazione dei giroscopi laser come i sensori che soffrono meno di questi disturbi non-sistematici, portandoli ad un livello sopraelevato rispetto ai MEMS ed ai FOG.
Resumo:
Questa tesi si focalizza sullo studio dei modelli fisico-matematici attualmente in uso per la simulazione di fluidi al calcolatore con l’obiettivo di fornire nozioni di base e avanzate sull’utilizzo di tali metodi. La trattazione ha lo scopo di facilitare la comprensione dei principi su cui si fonda la simulazione di fluidi e rappresenta una base per la creazione di un proprio simulatore. E’ possibile studiare le caratteristiche di un fluido in movimento mediante due approcci diversi, l’approccio lagrangiano e l’approccio euleriano. Mentre l’approccio lagrangiano ha lo scopo di conoscere il valore, nel tempo, di una qualsiasi proprietà di ciascuna particella che compone il fluido, l’approccio euleriano, fissato uno o più punti del volume di spazio occupato da quest’ultimo, vuole studiare quello che accade, nel tempo, in quei punti. In particolare, questa tesi approfondisce lo studio delle equazioni di Navier-Stokes, approcciandosi al problema in maniera euleriana. La soluzione numerica del sistema di equazioni differenziali alle derivate parziali derivante dalle equazioni sopracitate, approssima la velocità del fluido, a partire dalla quale è possibile risalire a tutte le grandezze che lo caratterizzano. Attenzione viene riservata anche ad un modello facente parte dell’approccio semi-lagrangiano, il Lattice Boltzmann, considerato una via di mezzo tra i metodi puramente euleriani e quelli lagrangiani, che si basa sulla soluzione dell’equazione di Boltzmann mediante modelli di collisione di particelle. Infine, analogamente al metodo di Lattice Boltzmann, viene trattato il metodo Smoothed Particles Hydrodynamics, tipicamente lagrangiano, secondo il quale solo le proprietà delle particelle comprese dentro il raggio di una funzione kernel, centrata nella particella di interesse, influenzano il valore della particella stessa. Un resoconto pratico della teoria trattata viene dato mediante delle simulazioni realizzate tramite il software Blender 2.76b.
Resumo:
Si tratta di un'analisi della piattaforma di sviluppo per BPMN Activiti. Viene prima spiegata la notazione del Business Process Modeling e poi viene descritto il funzionamento e la struttura di Activiti. Infine viene spiegato come usare le API fornite insieme al motore.
Resumo:
In questo studio sono stati analizzati 11 campioni provenienti dalla zona vulcanica dell’arco Eoliano, gentilmente concessi da ISMAR-CNR Bologna. Lo scopo del lavoro è stato quello di ricercare arricchimenti di alcuni elementi critici, di grande importanza economica e a rischio di approvvigionamento. Lo scopo principale è verificare se la zona può contenere possibili risorse minerarie. La composizione degli elementi maggiori e in traccia dei campioni è stata ottenuta tramite XRF. I campioni analizzati, sono stati aggregati ad altri campioni del Tirreno meridionale (oggetto di altre tesi), ottenendo un database di 71 campioni. Questo set esteso di dati è stato utilizzato per costruire grafici composizionali e sono state evidenziate possibili relazioni tra gli elementi maggiori e una selezione di elementi in traccia. Dai grafici, è risultato che la maggior parte degli elementi in traccia presenta una relazione positiva con Si, Ti, Al, Fe e K, ad indicare che gli apporti detritici continentali costituiscono un fattore di arricchimento di elementi critici. Tutti gli elementi hanno una correlazione negativa con il Ca, indicando che carbonati o sedimenti ricchi in Ca non costituiscono un target per la ricerca di elementi critici. Le concentrazioni sono state confrontate con un valore di cut-off per giacimenti impoveriti. Dal confronto, l’unico elemento la cui soglia di cut-off viene superata in tutti i campioni, è il manganese (Mn). Elementi come ferro (Fe), uranio (U), vanadio (V) e scandio (Sc), presentano picchi di concentrazione in alcuni campioni, la cui popolazione è limitata a poco più di due o tre elementi provenienti dalla zona del Bacino di Paola. Pertanto non sono da considerare una possibile risorsa e possiamo quindi concludere che il Mn costituisce l’unica risorsa mineraria “valida” nella zona.
Resumo:
Le ultime ricerche in campo oncologico sulle cure antitumorali sono indirizzate verso una categoria definita target therapy. In particolare tra le più promettenti, le terapie antiangiogenetiche, il cui scopo primario è quello di limitare l’apporto di sangue al tumore. In questo contesto la Tomografia Computerizzata (TC) perfusionale rappresenta un’importante tecnica di imaging radiologico in grado, teoricamente, di fornire misure quantitative, che permettano una valutazione, anche precoce, della risposta alle terapie antiangiogenetiche. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, che determinano la scarsa riproducibilità dei risultati intra- ed inter-paziente, non consentendone l’uso nella pratica clinica. In letteratura sono presenti diversi studi riguardanti la perfusione dei tumori polmonari, ma vi sono pochi studi sull’affidabilità dei parametri perfusionali calcolati. Questa Tesi si propone di analizzare, quantificare e confrontare gli errori e l’affidabilità dei parametri perfusionali calcolati attraverso la TC perfusionale. In particolare, vengono generate delle mappe di errore ed effettuati dei confronti di diverse regioni del polmone sano. I risultati ottenuti dall’analisi dei casi reali sono discussi al fine di poter definire dei livelli di affidabilità dei parametri perfusionali e di quantificare gli errori che si commettono nella valutazione dei parametri stessi. Questo studio preliminare consentirà, quindi, un’analisi di riproducibilità, permettendo, inoltre, una normalizzazione dei valori perfusionali calcolati nella lesione, al fine di effettuare analisi intra- ed inter-paziente.
Resumo:
Nella Tesi viene riportata l’analisi genetica di un campione di 128 famiglie con Disturbo dello Spettro Autistico, tramite il sistema di SNP array “PsychArray” (Illumina ), contenente oltre 500.000 sonde sull’intero genoma. Questi dati sono stati utilizzati per individuare Copy Number Variants (CNVs) rari e rilevanti da un punto di vista clinico. Sono stati quindi selezionati tre CNVs per un ulteriore approfondimento: due microdelezioni già descritte come patologiche (rispettivamente nella regione 1p36.32 e 22q13.33 comprendente il gene SHANK3) sono risultate essere “de novo”, mentre una terza microdelezione nel gene CTNNA3 è ereditata dalla madre. Tutti e tre i CNV sono stati validati tramite Real Time-PCR, definendone i confini. Per quanto riguarda la microdelezione in CTNNA3, poiché difetti di questo gene sono stati implicati nell’autismo con un meccanismo recessivo, è stata anche condotta un’analisi di sequenza di tutti gli esoni del gene negli individui della famiglia interessata, al fine di ricercare eventuali mutazioni puntiformi sull’allele non deleto. Questa analisi non ha individuato nessuna variante potenzialmente dannosa, pertanto il difetto in CTNNA3 non risulta essere la causa principale del fenotipo autistico in questa famiglia, anche se potrebbe avere un ruolo come fattore di suscettibilità.
Resumo:
Il presente lavoro di tesi è finalizzato all'ottimizzazione della formulazione iniziale e delle condizioni di stagionatura per ottenere un materiale utilizzabile come refrattario in applicazioni che richiedono elevate temperature di esposizione. L’interesse della ricerca scientifica verso questa nuova classe di materiali nasce dai vantaggi ambientali ed economici che essi possono fornire. Inoltre, le buone proprietà di resistenza e stabilità termica evidenziate dagli studi condotti negli ultimi anni inducono a sperimentare l’impiego dei materiali geopolimerici in sostituzione dei materiali refrattari o cementiferi attualmente in commercio. A tal fine sono state determinate le caratteristiche fisico-meccaniche, microstrutturali e termiche di matrici geopolimeriche additivate con scarti refrattari. Lo studio svolto, si può suddividere in tre fasi successive. Inizialmente sono state ottimizzazione le formulazioni geopolimeriche. Successivamente i prodotti ottenuti sono stati oggetto di caratterizzazione fisico-meccanica, microstrutturale e termica. Tali caratterizzazioni sono state eseguite attraverso: analisi al microscopio ottico, assorbimento di acqua, determinazione della densità geometrica, prove ultrasoniche per la determinazione dell’omogeneità del materiale, resistenza meccanica a compressione, diffrattometria ai raggi X (XRD), microscopio riscaldante, ciclo termico in muffola e analisi dilatometriche. Nella terza fase sono stati analizzati ed elaborati i risultati ottenuti, evidenziando le soddisfacenti proprietà di stabilità e resistenza termica. È stata inoltre effettuata una analisi economica preliminare evidenziando la competitività nel marcato del sistema geopolimerico studiato. Se a questo si aggiungono i considerevoli benefici ambientali dovuti al fatto che il prodotto è ottenuto con sostanze di recupero, non sarebbe sorprendente che in un futuro prossimo i geopolimeri possano essere largamente prodotti e commercializzati.
Resumo:
In questa tesi cercherò di analizzare le funzioni di Sobolev su R}^{n}, seguendo le trattazioni Measure Theory and Fine Properties of Functions di L.C. Evans e R.F.Gariepy e l'elaborato Functional Analysis, Sobolev Spaces and Partial Differential Equations di H. Brezis. Le funzioni di Sobolev si caratterizzano per essere funzioni con le derivate prime deboli appartenenti a qualche spazio L^{p}. I vari spazi di Sobolev hanno buone proprietà di completezza e compattezza e conseguentemente sono spesso i giusti spazi per le applicazioni di analisi funzionale. Ora, come vedremo, per definizione, l'integrazione per parti è valida per le funzioni di Sobolev. È, invece, meno ovvio che altre regole di calcolo siano allo stesso modo valide. Così, ho inteso chiarire questa questione di carattere generale, con particolare attenzione alle proprietà puntuali delle funzioni di Sobolev. Abbiamo suddiviso il lavoro svolto in cinque capitoli. Il capitolo 1 contiene le definizioni di base necessarie per la trattazione svolta; nel secondo capitolo sono stati derivati vari modi di approssimazione delle funzioni di Sobolev con funzioni lisce e sono state fornite alcune regole di calcolo per tali funzioni. Il capitolo 3 darà un' interpretazione dei valori al bordo delle funzioni di Sobolev utilizzando l'operatore Traccia, mentre il capitolo 4 discute l' estensione su tutto R^{n} di tali funzioni. Proveremo infine le principali disuguaglianze di Sobolev nel Capitolo 5.
Resumo:
Gli ultimi 10 anni hanno visto un crescente aumento delle richieste di fornitura di servizi legati alla manutenzione edilizia da parte della Grande Distribuzione Organizzata; la domanda è quella di servizi riconducibili al Facility Management, ovvero rapporti basati sul raggiungimento di standard qualitativi predefiniti in sede contrattuale e garanzia di intervento 24h/24. Nella prima parte del progetto di tesi viene inquadrata la disciplina del FM, le motivazioni, gli strumenti e gli attori coinvolti. Dopo un excursus normativo sulla manutenzione in Italia, una classificazione delle tipologie di intervento manutentivo e una valutazione sull’incidenza della manutenzione nel Life Cycle Cost, viene effettuata un’analisi delle modalità interoperative del FM applicato alla manutenzione edilizia nel caso della GDO. La tesi è stata svolta nell'ambito di un tirocinio in azienda, il che ha permesso alla laureanda di affrontare il caso di studio di un contratto di Global Service con un’importante catena di grande distribuzione, e di utilizzare un software gestionale (PlaNet) con il quale viene tenuta traccia, per ogni punto vendita, degli interventi manutentivi e della loro localizzazione nell’edificio. Questo permette di avere un quadro completo degli interventi, con modalità di attuazione già note, e garantisce una gestione più efficace delle chiamate, seguite tramite un modulo di Call Center integrato. La tesi esamina criticamente i principali documenti di riferimento per l’opera collegati alla manutenzione: il Piano di Manutenzione e il Fascicolo dell’Opera, evidenziando i limiti legati alla non completezza delle informazioni fornite. L’obbiettivo finale della tesi è quello di proporre un documento integrativo tra il Piano di Manutenzione e il Fascicolo, al fine di snellire il flusso informativo e creare un documento di riferimento completo ed esaustivo, che integra sia gli aspetti tecnici delle modalità manutentive, sia le prescrizioni sulla sicurezza.
Resumo:
Lo scopo della tesi è analizzare gli aspetti principali del progetto People Mover di Bologna, toccando gli aspetti costruttivi, ambientali e trasportistici, esaminando lo studio della domanda di trasporto e svolgendo infine un analisi swot dei punti di forza o debolezza. Il People Mover di Bologna è un sistema innovativo di trasporto pubblico che collegherà in 7 minuti la stazione ferroviaria all’aeroporto Marconi, effettuando una sola fermata intermedia presso il Lazzaretto, un’area destinata ad ospitare un nuovo insediamento abitativo nonché nuovi spazi per l’Università di Bologna. Il People Mover è un sistema di trasporto pubblico che offre: certezza sui tempi di percorrenza, mobilità silenziosa, zero emissioni (trazione elettrica), sicurezza di esercizio, costi ridotti rispetto ad una metropolitana. Dopo aver valutato in sede di analisi swot, i pro e contro di tale opera è giusto fare un confronto tra il People Mover e il Servizio Ferroviario Metropolitano. In passato il confronto fra i sostenitori del People mover e del Sistema ferroviario metropolitano è stato in parte ideologico, in parte politico e solo limitatamente tecnico. La tesi analizza le differenze tecniche dei due sistemi di trasporto. Voler far convivere sulla stessa infrastruttura due utenze molto diverse (quella aeroportuale e quella pendolare) è difficile e porterebbe alla non soddisfazione di entrambe. Se l’utenza aeroportuale chiede rapidità e spazio per i bagagli, i pendolari chiedono maggiori posti a sedere e maggiore intensità del servizio. In conclusione lo scopo di questa tesi non è porre dei dubbi sul progetto dell’opera stessa, peraltro già in fase di cantierizzazione, ma fornire un analisi più completa sul progetto.
Resumo:
Le metodologie per la raccolta delle idee e delle opinioni si sono evolute a pari passo con il progresso tecnologico: dalla semplice comunicazione orale si è passati alla diffusione cartacea, fino a che l'introduzione e l'evoluzione di internet non hanno portato alla digitalizzazione e informatizzazione del processo. Tale progresso ha reso possibile l'abbattimento di ogni barriera fisica: se in precedenza la diffusione di un sondaggio era limitata dall'effettiva possibilità di distribuzione del sondaggio stesso, lo sviluppo della rete globale ha esteso tale possibilità (virtualmente) a tutto il mondo. Nonostante sia un miglioramento non indifferente, è importante notare come la valorizzazione della diffusione di un sondaggio abbia inevitabilmente portato a trascurarne le proprietà e i vantaggi intrinsechi legati alla sua diffusione prettamente locale. Ad esempio, un sondaggio che mira a valutare la soddisfazione degli utenti riguardo alla recente introduzione di una nuova linea di laptop ottiene un guadagno enorme dall'informatizzazione, e dunque delocalizzazione, del processo di raccolta dati; dall'altro lato, un sondaggio che ha come scopo la valutazione dell'impatto sui cittadini di un recente rinnovamento degli impianti di illuminazione stradale ha un guadagno pressoché nullo. L'idea alla base di QR-VEY è la ricerca di un ponte tra le metodologie classiche e quelle moderne, in modo da poter sfruttare le proprietà di entrambe le soluzioni. Tale ponte è stato identificato nella tecnologia del QR-Code: è possibile utilizzare un generico supporto che presenti proprietà di localizzazione, come un foglio cartaceo, ma anche un proiettore di una conferenza, come base per la visualizzazione di tale codice, ed associare alla scansione dello stesso funzionalità automatizzate di raccolta di dati e opinioni.
Resumo:
Il presente lavoro intende individuare le possibili configurazioni di Piano della Performance (PdP) utilizzabili dagli enti locali, provvedendo poi a delineare il livello di distribuzione e di allineamento dei PdP 2011-2013 dei Comuni medi e grandi rispetto alle suddette configurazioni. Inoltre, verrà valutato, tramite una griglia predisposta dagli autori, il livello di adeguatezza programmatica dei Piani della Performance dei Comuni medi e grandi, al fine di confermare le configurazioni esistenti o di proporne una nuova in caso di inadeguatezza delle prime.
Resumo:
The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.