966 resultados para Reazioni nucleari, supernovae, accrescimento gravitazionale, limite di luminosità di Eddington.


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il CTBT (Trattato di Bando Complessivo dei Test Nucleari) è un accordo multilaterale tra Stati, stilato nel 1996, che impone il divieto assoluto di effettuare esplosioni di tipo nucleare, sia per scopi civili che per scopi militari, in qualsiasi ambiente. Esso prevede l'istituzione di un sistema di verifica e monitoraggio che si prefigge lo scopo di rilevare tempestivamente se in una qualsiasi parte del mondo sia stato clandestinamente effettuato un test. Tra le varie tecniche utilizzate, la più decisiva per l'identificazione di un'esplosione è data dal monitoraggio di radionuclidi, che permette di fare ipotesi su di un eventuale evento illecito di origine nucleare se in una certa regione si rileva la presenza nell'ambiente di particolari isotopi radioattivi in quantità anomale. Attualmente, il metodo più efficace consiste nell'eventuale identificazione della presenza di quattro radioisotopi di gas nobili, ovvero xeno-131m, xeno-133, xeno-133m e xeno-135. Di recente, però, gli esperti hanno cominciato a valutare l'ipotesi di effettuare misurazioni anche di un altro radioisotopo di gas nobili, ovvero l'argon-37. L'efficacia nell'utilizzo di quest'ultimo è superiore a quella che caratterizza il monitoraggio dello xeno, anche se il motivo per cui il metodo di rilevazione dell'argon non è ancora sfruttato è dato dall'estrema difficoltà che la sua misurazione comporta. Obiettivo di questo lavoro è proprio quello di analizzare le potenzialità dell'utilizzo di tale radioisotopo dell'argon per gli scopi di verifica del CTBT, di descrivere l'attuale stato dell'arte delle tecnologie disponibili per la sua misurazione e di valutare quantitativamente il fondo di argon-37 naturalmente presente, in modo da stabilire i criteri con cui si possa dire se le quantità rilevate siano compatibili con la normale presenza di tale radioisotopo oppure se siano senza dubbio dovute a un'avvenuta esplosione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We present new optical and near-infrared (NIR) photometry and spectroscopy of the Type IIP supernova (SN), SN 2004et. In combination with already published data, this provides one of the most complete studies of optical and NIR data for any Type IIP SN from just after explosion to +500 d. The contribution of the NIR flux to the bolometric light curve is estimated to increase from 15 per cent at explosion to around 50 per cent at the end of the plateau and then declines to 40 per cent at 300 d. SN 2004et is one of the most luminous IIP SNe which has been well studied and characterized, and with a luminosity of log L = 42.3 erg s-1 and a 56Ni mass of 0.06 +/- 0.04 M-circle dot, it is two times brighter than SN 1999em. We provide parametrized bolometric corrections as a function of time since explosion for SN 2004et and three other IIP SNe that have extensive optical and NIR data. These can be used as templates for future events in optical and NIR surveys without full wavelength coverage. We compare the physical parameters of SN 2004et with those of other well-studied IIP SNe and find that the kinetic energies span a range of 1050-1051 erg. We compare the ejected masses calculated from hydrodynamic models with the progenitor masses and limits derived from pre-discovery images. Some of the ejected mass estimates are significantly higher than the progenitor mass estimates, with SN 2004et showing perhaps the most serious mass discrepancy. With the current models, it appears difficult to reconcile 100 d plateau lengths and high expansion velocities with the low ejected masses of 5-6 M-circle dot implied from 7-8 M-circle dot progenitors. The nebular phase is studied using very late-time Hubble Space Telescope photometry, along with optical and NIR spectroscopy. The light curve shows a clear flattening at 600 d in the optical and the NIR, which is likely due to the ejecta impacting on circumstellar material. We further show that the [O i] 6300, 6364 A line strengths in the nebular spectra of four Type IIP SNe imply ejected oxygen masses of 0.5-1.5 M-circle dot.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We present new data for five underluminous Type II-plateau supernovae (SNe IIP), namely SN 1999gn, SN 2002gd, SN 2003Z, SN 2004eg and SN 2006ov. This new sample of lowluminosity SNe IIP (LL SNe IIP) is analysed together with similar objects studied in the past. All of them show a flat light-curve plateau lasting about 100 d, an underluminous late-time exponential tail, intrinsic colours that are unusually red, and spectra showing prominent and narrow P Cygni lines. A velocity of the ejected material below 103 km s-1 is inferred from measurements at the end of the plateau. The 56Ni masses ejected in the explosion are very small (≤10-2 M⊙). We investigate the correlations among 56Ni mass, expansion velocity of the ejecta and absolute magnitude in the middle of the plateau, confirming the main findings of Hamuy, according to which events showing brighter plateau and larger expansion velocities are expected to produce more 56Ni. We propose that these faint objects represent the LL tail of a continuous distribution in parameters space of SNe IIP. The physical properties of the progenitors at the explosion are estimated through the hydrodynamical modelling of the observables for two representative events of this class, namely SN 2005cs and SN 2008in. We find that the majority of LL SNe IIP, and quite possibly all, originate in the core collapse of intermediate-mass stars, in the mass range 10-15 M⊙. 

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche évalue si l’intégration du programme d’agrément MIRE (Mesures implantées pour le renouveau de l’évaluation) d’Agrément Canada, anciennement Conseil canadien d’agrément des services de santé, engendre du changement et de l’apprentissage organisationnel. Elle étudie le cas de deux organismes de santé, la Health Authority of Anguilla (HAA) et la Ca’ Foncella Opetale de Treviso (CFOT). La recherche comporte trois niveaux d’analyse pour lesquels des données qualitatives et quantitatives ont été recueillies : 1) les membres des équipes d’agrément; 2) les équipes d’agrément; 3) l’organisme dans son ensemble. Des questionnaires individuels administrés aux membres des équipes, des entretiens semi-structurés avec les chefs des équipes et les coordonnateurs de la qualité, une revue de documentation et plusieurs mesures périodiques du niveau de compliance aux normes MIRE ont été les techniques de collecte de données utilisées. Les résultats indiquent que les organismes ont opéré des transformations : 1) stratégiques; 2) de l’organisation; 3) des relations avec son environnement. Ils ont amélioré leurs systèmes et leurs pratiques de gestion de même que leurs communications internes et externes. Il y a eu aussi des apprentissages utiles par les individus, les équipes et les organismes. Les apprentissages individuels concernaient les programmes qualité, l’approche centrée sur la clientèle, la gestion des risques, l’éthique professionnelle, la gestion participative et l’évaluation des services. Les étapes « autoévaluation » et « apporter des améliorations et donner suite aux recommandations » du cycle d’agrément ont contribué le plus au changement et à l’apprentissage organisationnel. Les équipes interdisciplinaires d’agrément ont été le véhicule privilégié pour réaliser ces changements et ces apprentissages. La HAA et la CFOT ont amélioré progressivement leur niveau de compliance aux normes dans toutes les dimensions de la qualité, au niveau des équipes d’agrément et pour l’ensemble de l’organisation. Néanmoins, l’amélioration du niveau global de compliance était en deçà de la limite minimum des exigences du programme pour l’obtention d’un statut d’agrément sans restrictions importantes. L’envergure des changements et des apprentissages réalisés soulève la question de la capacité des organismes d’institutionnaliser ces nouvelles connaissances. La CFOT pourrait y arriver étant donné les ressources et les compétences à sa disposition.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No Brasil os emissores de cartão de crédito realizam periodicamente aumento de limites do cartão, para clientes que possuem bom comportamento creditício. O objetivo do nosso estudo é analisar os efeitos desse aumento no uso que o cliente tem do seu cartão, com a hipótese de que o cliente passará a utilizar mais o cartão, seja por anchoring, visto que ele se importa em sempre ter uma reserva de limite para eventuais emergências, ou por se sentir priorizado pelo banco, ou até mesmo por demanda reprimida de crédito. Para isso, analisamos uma base de aumento de limite, com grupo de teste e controle, de clientes selecionados para aumento de limite, e observamos que o aumento fez com que os clientes aumentassem seus gastos, seu saldo devedor, passaram a fazer mais transações e timidamente passaram a rotativar. Após observar esses efeitos, dividimos o grupo em dois: Clientes com utilização média menor ou igual a 50% antes da ação e clientes com utilização média maior que 50% antes da ação. Para os clientes do teste dos dois grupos observamos um aumento no gasto mensal, no número de transações mensal, no saldo devedor e no número de clientes rotativando. Essa diferença foi maior no grupo de maior utilização pré tratamento, mas mesmo clientes que inicialmente pareciam ter uma demanda de crédito menor, mostraram-se sensíveis a utilizar mais devido ao aumento do limite.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Geologia Regional - IGCE

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Um novo método, simples e sensível para a determinação de arsênio em solo é proposto neste trabalho. Este método é baseado na redução de prata (I) e ferro (III) pela arsina seguida da reação de complexação do ferro (II) com o reagente espectrofotométrico 2-(5-bromo-2-piridilazo)-5-di-etilaminofenol (Br-PADAP). A determinação de arsênio apresentou uma sensitividade de Sandell de 3.1x10-4 cm-2, foi linear na faixa de 0.1 µg ml-1 to 2.0 µg ml-1 (r560 = 0.9995), apresentou uma absortividade molar de 2.45x105 l mol-1 cm-1 e um limite de detecção de 1.4 ng ml-1 (3s) estes dados foram obtidos para 10 ml de amostra. A seletividade foi melhorada com o uso de EDTA com agente mascarante. O método proposto foi aplicado na determinação do arsênio na presença de outros íons e em amostras de solo. Os resultados revelaram que antimônio (III), mercúrio (II), germânio (IV), platina (IV) interferem na análise em todas as proporções analisadas. As interferências podem ser facilmente removidas pelo uso do EDTA. A precisão e a exatidão deram resultados satisfatórios, com desvio padrão relativo abaixo de 5%. As recuperações de arsênio em solo variaram de 95,55 a 102,70% com uma média de 99,63%. Estes resultados demonstraram que o método proposto é aplicável para a análise do arsênio em diferentes amostras de solo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Embora os ftalatos sejam um dos poluentes mais frequentemente encontrados no meio ambiente, há escassez de dados na literatura sobre biorremediação de solos tropicais contaminados por esses compostos. Por esse motivo, este estudo avaliou a biorremediação de um solo contaminado com os plastificantes DEHP (Bis-2-etilhexilftalato), DIDP (Di-isodecilftalato) e álcool isobutílico, por uma indústria no Estado de São Paulo. A biorremediação ocorreu pela utilização de microrganismos presentes no solo e pela adição de inóculo adaptado em reator em fase de lama. O reator foi monitorado durante 120 dias, sendo corrigida apenas a umidade do solo. Os resultados indicaram que a biodegradação dos ftalatos seguiu uma cinética de primeira ordem e a biorremediação ocorreu na faixa de pH entre 7,4 e 8,4 e temperaturas entre 17 e 25 ºC, com eficiência de remoção de contaminantes acima de 70 %. Após 120 dias, o teor de DEHP estava abaixo de 4 mg kg-1, limite estipulado pela legislação brasileira para solo de uso residencial.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Embora os ftalatos sejam um dos poluentes mais frequentemente encontrados no meio ambiente, há escassez de dados na literatura sobre biorremediação de solos tropicais contaminados por esses compostos. Por esse motivo, este estudo avaliou a biorremediação de um solo contaminado com os plastificantes DEHP (Bis-2-etilhexilftalato), DIDP (Di-isodecilftalato) e álcool isobutílico, por uma indústria no Estado de São Paulo. A biorremediação ocorreu pela utilização de microrganismos presentes no solo e pela adição de inóculo adaptado em reator em fase de lama. O reator foi monitorado durante 120 dias, sendo corrigida apenas a umidade do solo. Os resultados indicaram que a biodegradação dos ftalatos seguiu uma cinética de primeira ordem e a biorremediação ocorreu na faixa de pH entre 7,4 e 8,4 e temperaturas entre 17 e 25 ºC, com eficiência de remoção de contaminantes acima de 70 %. Após 120 dias, o teor de DEHP estava abaixo de 4 mg kg-1, limite estipulado pela legislação brasileira para solo de uso residencial.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesi riguarda lo studio di procedimenti di ottimizzazione di sistemi smorzati. In particolare, i sistemi studiati sono strutture shear-type soggette ad azioni di tipo sismico impresse alla base. Per effettuare l’ottimizzazione dei sistemi in oggetto si agisce sulle rigidezze di piano e sui coefficienti di smorzamento effettuando una ridistribuzione delle quantità suddette nei piani della struttura. È interessante effettuare l’ottimizzazione di sistemi smorzati nell’ottica della progettazione antisismica, in modo da ridurre la deformata della struttura e, conseguentemente, anche le sollecitazioni che agiscono su di essa. Il lavoro consta di sei capitoli nei quali vengono affrontate tre procedure numerico-analitiche per effettuare l’ottimizzazione di sistemi shear-type. Nel primo capitolo si studia l’ottimizzazione di sistemi shear-type agendo su funzioni di trasferimento opportunamente vincolate. In particolare, le variabili di progetto sono le rigidezze di piano, mentre i coefficienti di smorzamento e le masse di piano risultano quantità note e costanti durante tutto il procedimento di calcolo iterativo; per effettuare il controllo dinamico della struttura si cerca di ottenere una deformata pressoché rettilinea. Tale condizione viene raggiunta ponendo le ampiezze delle funzioni di trasferimento degli spostamenti di interpiano pari all’ampiezza della funzione di trasferimento del primo piano. Al termine della procedura si ottiene una ridistribuzione della rigidezza complessiva nei vari piani della struttura. In particolare, si evince un aumento della rigidezza nei piani più bassi che risultano essere quelli più sollecitati da una azione impressa alla base e, conseguentemente, si assiste ad una progressiva riduzione della variabile di progetto nei piani più alti. L’applicazione numerica di tale procedura viene effettuata nel secondo capitolo mediante l’ausilio di un programma di calcolo in linguaggio Matlab. In particolare, si effettua lo studio di sistemi a tre e a cinque gradi di libertà. La seconda procedura numerico-analitica viene presentata nel terzo capitolo. Essa riguarda l’ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento e consta di due fasi. La prima fase ricerca il progetto ottimale della struttura per uno specifico valore della rigidezza complessiva e dello smorzamento totale, mentre la seconda fase esamina una serie di progetti ottimali in funzione di diversi valori della rigidezza e dello smorzamento totale. Nella prima fase, per ottenere il controllo dinamico della struttura, viene minimizzata la somma degli scarti quadratici medi degli spostamenti di interpiano. Le variabili di progetto, aggiornate dopo ogni iterazione, sono le rigidezze di piano ed i coefficienti di smorzamento. Si pone, inoltre, un vincolo sulla quantità totale di rigidezza e di smorzamento, e i valori delle rigidezze e dei coefficienti di smorzamento di ogni piano non devono superare un limite superiore posto all’inizio della procedura. Anche in questo caso viene effettuata una ridistribuzione delle rigidezze e dei coefficienti di smorzamento nei vari piani della struttura fino ad ottenere la minimizzazione della funzione obiettivo. La prima fase riduce la deformata della struttura minimizzando la somma degli scarti quadrarici medi degli spostamenti di interpiano, ma comporta un aumento dello scarto quadratico medio dell’accelerazione assoluta dell’ultimo piano. Per mantenere quest’ultima quantità entro limiti accettabili, si passa alla seconda fase in cui si effettua una riduzione dell’accelerazione attraverso l’aumento della quantità totale di smorzamento. La procedura di ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento viene applicata numericamente, mediante l’utilizzo di un programma di calcolo in linguaggio Matlab, nel capitolo quattro. La procedura viene applicata a sistemi a due e a cinque gradi di libertà. L’ultima parte della tesi ha come oggetto la generalizzazione della procedura che viene applicata per un sistema dotato di isolatori alla base. Tale parte della tesi è riportata nel quinto capitolo. Per isolamento sismico di un edificio (sistema di controllo passivo) si intende l’inserimento tra la struttura e le sue fondazioni di opportuni dispositivi molto flessibili orizzontalmente, anche se rigidi in direzione verticale. Tali dispositivi consentono di ridurre la trasmissione del moto del suolo alla struttura in elevazione disaccoppiando il moto della sovrastruttura da quello del terreno. L’inserimento degli isolatori consente di ottenere un aumento del periodo proprio di vibrare della struttura per allontanarlo dalla zona dello spettro di risposta con maggiori accelerazioni. La principale peculiarità dell’isolamento alla base è la possibilità di eliminare completamente, o quantomeno ridurre sensibilmente, i danni a tutte le parti strutturali e non strutturali degli edifici. Quest’ultimo aspetto è importantissimo per gli edifici che devono rimanere operativi dopo un violento terremoto, quali ospedali e i centri operativi per la gestione delle emergenze. Nelle strutture isolate si osserva una sostanziale riduzione degli spostamenti di interpiano e delle accelerazioni relative. La procedura di ottimizzazione viene modificata considerando l’introduzione di isolatori alla base di tipo LRB. Essi sono costituiti da strati in elastomero (aventi la funzione di dissipare, disaccoppiare il moto e mantenere spostamenti accettabili) alternati a lamine in acciaio (aventi la funzione di mantenere una buona resistenza allo schiacciamento) che ne rendono trascurabile la deformabilità in direzione verticale. Gli strati in elastomero manifestano una bassa rigidezza nei confronti degli spostamenti orizzontali. La procedura di ottimizzazione viene applicata ad un telaio shear-type ad N gradi di libertà con smorzatori viscosi aggiunti. Con l’introduzione dell’isolatore alla base si passa da un sistema ad N gradi di libertà ad un sistema a N+1 gradi di libertà, in quanto l’isolatore viene modellato alla stregua di un piano della struttura considerando una rigidezza e uno smorzamento equivalente dell’isolatore. Nel caso di sistema sheat-type isolato alla base, poiché l’isolatore agisce sia sugli spostamenti di interpiano, sia sulle accelerazioni trasmesse alla struttura, si considera una nuova funzione obiettivo che minimizza la somma incrementata degli scarti quadratici medi degli spostamenti di interpiano e delle accelerazioni. Le quantità di progetto sono i coefficienti di smorzamento e le rigidezze di piano della sovrastruttura. Al termine della procedura si otterrà una nuova ridistribuzione delle variabili di progetto nei piani della struttura. In tal caso, però, la sovrastruttura risulterà molto meno sollecitata in quanto tutte le deformazioni vengono assorbite dal sistema di isolamento. Infine, viene effettuato un controllo sull’entità dello spostamento alla base dell’isolatore perché potrebbe raggiungere valori troppo elevati. Infatti, la normativa indica come valore limite dello spostamento alla base 25cm; valori più elevati dello spostamento creano dei problemi soprattutto per la realizzazione di adeguati giunti sismici. La procedura di ottimizzazione di sistemi isolati alla base viene applicata numericamente mediante l’utilizzo di un programma di calcolo in linguaggio Matlab nel sesto capitolo. La procedura viene applicata a sistemi a tre e a cinque gradi di libertà. Inoltre si effettua il controllo degli spostamenti alla base sollecitando la struttura con il sisma di El Centro e il sisma di Northridge. I risultati hanno mostrato che la procedura di calcolo è efficace e inoltre gli spostamenti alla base sono contenuti entro il limite posto dalla normativa. Giova rilevare che il sistema di isolamento riduce sensibilmente le grandezze che interessano la sovrastruttura, la quale si comporta come un corpo rigido al di sopra dell’isolatore. In futuro si potrà studiare il comportamento di strutture isolate considerando diverse tipologie di isolatori alla base e non solo dispositivi elastomerici. Si potrà, inoltre, modellare l’isolatore alla base con un modello isteretico bilineare ed effettuare un confronto con i risultati già ottenuti per il modello lineare.