776 resultados para Eared Dove
Resumo:
Il presente lavoro ha lo scopo di comprendere i processi sottesi ai pattern di coesistenza tra le specie di invertebrati sorgentizi, distinguendo tra dinamiche stocastiche e deterministiche. Le sorgenti sono ecosistemi complessi e alcune loro caratteristiche (ad esempio l’insularità, la stabilità termica, la struttura ecotonale “a mosaico”, la frequente presenza di specie rare ed endemiche, o l’elevata diversità in taxa) le rendono laboratori naturali utili allo studio dei processi ecologici, tra cui i processi di assembly. Al fine di studiare queste dinamiche è necessario un approccio multi-scala, per questo motivi sono state prese in considerazione tre scale spaziali. A scala locale è stato compiuto un campionamento stagionale su sette sorgenti (quattro temporanee e tre permanenti) del Monte Prinzera, un affioramento ofiolitico vicino alla città di Parma. In questa area sono stati valutati l’efficacia e l’impatto ambientale di diversi metodi di campionamento e sono stati analizzati i drivers ecologici che influenzano le comunità. A scala più ampia sono state campionate per due volte 15 sorgenti della regione Emilia Romagna, al fine di identificare il ruolo della dispersione e la possibile presenza di un effetto di niche-filtering. A scala continentale sono state raccolte informazioni di letteratura riguardanti sorgenti dell’area Paleartica occidentale, e sono stati studiati i pattern biogeografici e l’influenza dei fattori climatici sulle comunità. Sono stati presi in considerazione differenti taxa di invertebrati (macroinvertebrati, ostracodi, acari acquatici e copepodi), scegliendo tra quelli che si prestavano meglio allo studio dei diversi processi in base alle loro caratteristiche biologiche e all’approfondimento tassonomico raggiungibile. I campionamenti biologici in sorgente sono caratterizzati da diversi problemi metodologici e possono causare impatti sugli ambienti. In questo lavoro sono stati paragonati due diversi metodi: l’utilizzo del retino con un approccio multi-habitat proporzionale e l’uso combinato di trappole e lavaggio di campioni di vegetazione. Il retino fornisce dati più accurati e completi, ma anche significativi disturbi sulle componenti biotiche e abiotiche delle sorgenti. Questo metodo è quindi raccomandato solo se il campionamento ha come scopo un’approfondita analisi della biodiversità. D’altra parte l’uso delle trappole e il lavaggio della vegetazione sono metodi affidabili che presentano minori impatti sull’ecosistema, quindi sono adatti a studi ecologici finalizzati all’analisi della struttura delle comunità. Questo lavoro ha confermato che i processi niche-based sono determinanti nello strutturare le comunità di ambienti sorgentizi, e che i driver ambientali spiegano una rilevante percentuale della variabilità delle comunità. Infatti le comunità di invertebrati del Monte Prinzera sono influenzate da fattori legati al chimismo delle acque, alla composizione e all’eterogeneità dell’habitat, all’idroperiodo e alle fluttuazioni della portata. Le sorgenti permanenti mostrano variazioni stagionali per quanto riguarda le concentrazioni dei principali ioni, mentre la conduttività, il pH e la temperatura dell’acqua sono più stabili. È probabile che sia la stabilità termica di questi ambienti a spiegare l’assenza di variazioni stagionali nella struttura delle comunità di macroinvertebrati. L’azione di niche-filtering delle sorgenti è stata analizzata tramite lo studio della diversità funzionale delle comunità di ostracodi dell’Emilia-Romagna. Le sorgenti ospitano più del 50% del pool di specie regionale, e numerose specie sono state rinvenute esclusivamente in questi habitat. Questo è il primo studio che analizza la diversità funzionale degli ostracodi, è stato quindi necessario stilare una lista di tratti funzionali. Analizzando il pool di specie regionale, la diversità funzionale nelle sorgenti non è significativamente diversa da quella misurata in comunità assemblate in maniera casuale. Le sorgenti non limitano quindi la diversità funzionale tra specie coesistenti, ma si può concludere che, data la soddisfazione delle esigenze ecologiche delle diverse specie, i processi di assembly in sorgente potrebbero essere influenzati da fattori stocastici come la dispersione, la speciazione e le estinzioni locali. In aggiunta, tutte le comunità studiate presentano pattern spaziali riconoscibili, rivelando una limitazione della dispersione tra le sorgenti, almeno per alcuni taxa. Il caratteristico isolamento delle sorgenti potrebbe essere la causa di questa limitazione, influenzando maggiormente i taxa a dispersione passiva rispetto a quelli a dispersione attiva. In ogni caso nelle comunità emiliano-romagnole i fattori spaziali spiegano solo una ridotta percentuale della variabilità biologica totale, mentre tutte le comunità risultano influenzate maggiormente dalle variabili ambientali. Il controllo ambientale è quindi prevalente rispetto a quello attuato dai fattori spaziali. Questo risultato dimostra che, nonostante le dinamiche stocastiche siano importanti in tutte le comunità studiate, a questa scala spaziale i fattori deterministici ricoprono un ruolo prevalente. I processi stocastici diventano più influenti invece nei climi aridi, dove il disturbo collegato ai frequenti eventi di disseccamento delle sorgenti provoca una dinamica source-sink tra le diverse comunità. Si è infatti notato che la variabilità spiegata dai fattori ambientali diminuisce all’aumentare dell’aridità del clima. Disturbi frequenti potrebbero provocare estinzioni locali seguite da ricolonizzazioni di specie provenienti dai siti vicini, riducendo la corrispondenza tra gli organismi e le loro richieste ambientali e quindi diminuendo la quantità di variabilità spiegata dai fattori ambientali. Si può quindi concludere che processi deterministici e stocastici non si escludono mutualmente, ma contribuiscono contemporaneamente a strutturare le comunità di invertebrati sorgentizi. Infine, a scala continentale, le comunità di ostracodi sorgentizi mostrano chiari pattern biogeografici e sono organizzate lungo gradienti ambientali principalmente collegati altitudine, latitudine, temperatura dell’acqua e conducibilità. Anche la tipologia di sorgente (elocrena, reocrena o limnocrena) è influente sulla composizione delle comunità. La presenza di specie rare ed endemiche inoltre caratterizza specifiche regioni geografiche.
Resumo:
La governance del settore alimentare si fonda su una struttura multilivello, ove poteri locali, nazionali, sovranazionali e globali interagiscono. In tale assetto, ogni regolatore è chiamato a proteggere interessi diversi tra loro, tra cui l'ambiente, la salute umana, il benessere animale e la libera concorrenza. La regolazione del settore alimentare, inoltre, impone la considerazione di aspetti etici e culturali, dotati di una forte matrice territoriale. In questo sistema, i valori che entrano in gioco non sono egualmente rappresentati, ma quelli considerati "minori" sono sovente sovrastati dalle esigenze di protezione di un unico interesse: la libera concorrenza su scala globale. Ne deriva che la regolazione del settore alimentare necessita di un nuovo equilibrio. Questo può richiedere sia l'adozione di nuove regole - soprattutto a livello sovranazionale - sia un'interpretazione maggiormente inclusiva dei principi e delle regole già esistenti da parte delle Corti. Tuttavia, risulta maggiormente urgente e di immediata efficacia permettere ai soggetti interessati, siano essi privati o pubblici, di partecipare alla formulazione delle politiche e delle decisioni inerenti il settore alimentare. La partecipazione procedurale è in grado di soddisfare esigenze differenti e talvolta opposte, pertanto essa è regolata dal legislatore a seconda dello scopo finale prefissato. Principalmente, essa è vista come una applicazione diretta dei principi di democrazia e trasparenza; tuttavia, il suo reale impatto sul risultato finale delle decisioni pubbliche può scostarsi considerevolemente da tale paradigma. Lo scopo di tale lavoro è analizzare i diversi modelli partecipativi implementati nei vari livelli di governo, al fine di determinarne il reale impatto sui soggetti interessati e sul bilanciamento degli interessi in gioco. La conclusione dimostra un certo livello di perplessità per ciò che riguarda l'assetto di tali garanzie nella regolazione del settore alimentare, dove lo sviluppo del concetto di democrazia partecipativa e di bilancio tra gli interessi rilevanti è ancora acerbo.
Resumo:
Studiamo l'operatore di Ornstein-Uhlenbeck e il semigruppo di Ornstein-Uhlenbeck in un sottoinsieme aperto convesso $\Omega$ di uno spazio di Banach separabile $X$ dotato di una misura Gaussiana centrata non degnere $\gamma$. In particolare dimostriamo la disuguaglianza di Sobolev logaritmica e la disuguaglianza di Poincaré, e grazie a queste disuguaglianze deduciamo le proprietà spettrali dell'operatore di Ornstein-Uhlenbeck. Inoltre studiamo l'equazione ellittica $\lambdau+L^{\Omega}u=f$ in $\Omega$, dove $L^\Omega$ è l'operatore di Ornstein-Uhlenbeck. Dimostriamo che per $\lambda>0$ e $f\in L^2(\Omega,\gamma)$ la soluzione debole $u$ appartiene allo spazio di Sobolev $W^{2,2}(\Omega,\gamma)$. Inoltre dimostriamo che $u$ soddisfa la condizione di Neumann nel senso di tracce al bordo di $\Omega$. Questo viene fatto finita approssimazione dimensionale.
Resumo:
La Sequenza Sismica Emiliana del 2012 ha colpito la zona compresa tra Mirandola e Ferrara con notevoli manifestazioni cosismiche e post-sismiche secondarie, soprattutto legate al fenomeno della liquefazione delle sabbie e alla formazione di fratturazioni superficiali del terreno. A fronte del fatto che la deformazione principale, osservata tramite tecniche di remote-sensing, ha permesso di individuare la posizione della struttura generatrice, ci si è interrogati sul rapporto tra strutture profonde e manifestazioni secondarie superficiali. In questa tesi è stato svolto un lavoro di integrazione di dati a varia scala, dalla superficie al sottosuolo, fino profondità di alcuni chilometri, per analizzare il legame tra le strutture geologiche che hanno generato il sisma e gli effetti superficiali percepiti dagli osservatori. Questo, non solo in riferimento allo specifico del sisma emiliano del 2012, ma al fine di trarre utili informazioni in una prospettiva storica e geologica sugli effetti di un terremoto “tipico”, in una regione dove le strutture generatrici non affiorano in superficie. Gli elementi analizzati comprendono nuove acquisizioni e rielaborazioni di dati pregressi, e includono cartografie geomorfologiche, telerilevamenti, profili sismici a riflessione superficiale e profonda, stratigrafie e informazioni sulla caratterizzazione dell’area rispetto al rischio sismico. Parte dei dati di nuova acquisizione è il risultato dello sviluppo e la sperimentazione di metodologie innovative di prospezione sismica in corsi e specchi d’acqua continentali, che sono state utilizzate con successo lungo il Cavo Napoleonico, un canale artificiale che taglia ortogonalmente la zona di massima deformazione del sisma del 20 Maggio. Lo sviluppo della nuova metodologia di indagine geofisica, applicata ad un caso concreto, ha permesso di migliorare le tecniche di imaging del sottosuolo, oltre a segnalare nuove evidenze co-sismiche che rimanevano nascoste sotto le acque del canale, e a fornire elementi utili alla stratigrafia del terreno. Il confronto tra dati geofisici e dati geomorfologici ha permesso di cartografare con maggiore dettaglio i corpi e le forme sedimentarie superficiali legati alla divagazione fluviale dall’VIII sec a.C.. I dati geofisici, superficiali e profondi, hanno evidenziato il legame tra le strutture sismogeniche e le manifestazioni superficiali seguite al sisma emiliano. L’integrazione dei dati disponibili, sia nuovi che da letteratura, ha evidenziato il rapporto tra strutture profonde e sedimentazione, e ha permesso di calcolare i tassi geologici di sollevamento della struttura generatrice del sisma del 20 Maggio. I risultati di questo lavoro hanno implicazioni in vari ambiti, tra i quali la valutazione del rischio sismico e la microzonazione sismica, basata su una caratterizzazione geomorfologico-geologico-geofisica dettagliata dei primi 20 metri al di sotto della superficie topografica. Il sisma emiliano del 2012 ha infatti permesso di riconoscere l’importanza del substrato per lo sviluppo di fenomeni co- e post-sismici secondari, in un territorio fortemente eterogeneo come la Pianura Padana.
Reformulation of a thermostable broadly protective recombinant vaccine against human papilloma virus
Resumo:
The causal relationship between Human Papilloma Virus (HPV) infection and cervical cancer has motivated the development, and further improvement, of prophylactic vaccines against this virus. 70% of cervical cancers, 80% of which in low-resources countries, are associated to HPV16 and HPV18 infection, with 13 additional HPV types, classified as high-risk, responsible for the remaining 30% of tumors. Current vaccines, Cervarix® (GlaxoSmithKline) and Gardasil®(Merk), are based on virus-like particles (VLP) obtained by self-assembly of the major capsid protein L1. Despite their undisputable immunogenicity and safety, the fact that protection afforded by these vaccines is largely limited to the cognate serotypes included in the vaccine (HPV 16 and 18, plus five additional viral types incorporated into a newly licensed nonavalent vaccine) along with high production costs and reduced thermal stability, are pushing the development of 2nd generation HPV vaccines based on minor capsid protein L2. The increase in protection broadness afforded by the use of L2 cross-neutralizing epitopes, plus a marked reduction of production costs due to bacterial expression of the antigens and a considerable increase in thermal stability could strongly enhance vaccine distribution and usage in low-resource countries. Previous studies from our group identified three tandem repeats of the L2 aa. 20-38 peptide as a strongly immunogenic epitope if exposed on the scaffold protein thioredoxin (Trx). The aim of this thesis work is the improvement of the Trx-L2 vaccine formulation with regard to cross-protection and thermostability, in order to identify an antigen suitable for a phase I clinical trial. By testing Trx from different microorganisms, we selected P. furiosus thioredoxin (PfTrx) as the optimal scaffold because of its sustained peptide epitope constraining capacity and striking thermal stability (24 hours at 100°C). Alternative production systems, such as secretory Trx-L2 expression in the yeast P. pastoris, have also been set-up and evaluated as possible means to further increase production yields, with a concomitant reduction of production costs. Limitations in immune-responsiveness caused by MHC class II polymorphisms –as observed, for example, in different mouse strains- have been overcome by introducing promiscuous T-helper (Th) epitopes, e.g., PADRE (Pan DR Epitope), at both ends of PfTrx. This allowed us to obtain fairly strong immune responses even in mice (C57BL/6) normally unresponsive to the basic Trx-L2 vaccine. Cross-protection was not increased, however. I thus designed, produced and tested a novel multi-epitope formulation consisting of 8 and 11 L2(20-38) epitopes derived from different HPV types, tandemly joined into a single thioredoxin molecule (“concatemers”). To try to further increase immunogenicity, I also fused our 8X and 11X PfTrx-L2 concatemers to the N-terminus of an engineered complement-binding protein (C4bp), capable to spontaneously assemble into ordered hepatmeric structures, previously validated as a molecular adjuvant. Fusion to C4bp indeed improved antigen presentation, with a fairly significant increase in both immunogenicity and cross-protection. Another important issue I addressed, is the reduction of vaccine doses/treatment, which can be achieved by increasing immunogenicity, while also allowing for a delayed release of the antigen. I obtained preliminary, yet quite encouraging results in this direction with the use of a novel, solid-phase vaccine formulation, consisting of the basic PfTrx-L2 vaccine and its C4bp fusion derivative adsorbed to mesoporus silica-rods (MSR).
Resumo:
Objective: The purpose of this study was to examine the effectiveness of a new analysis method of mfVEP objective perimetry in the early detection of glaucomatous visual field defects compared to the gold standard technique. Methods and patients: Three groups were tested in this study; normal controls (38 eyes), glaucoma patients (36 eyes), and glaucoma suspect patients (38 eyes). All subjects underwent two standard 24-2 visual field tests: one with the Humphrey Field Analyzer and a single mfVEP test in one session. Analysis of the mfVEP results was carried out using the new analysis protocol: the hemifield sector analysis protocol. Results: Analysis of the mfVEP showed that the signal to noise ratio (SNR) difference between superior and inferior hemifields was statistically significant between the three groups (analysis of variance, P<0.001 with a 95% confidence interval, 2.82, 2.89 for normal group; 2.25, 2.29 for glaucoma suspect group; 1.67, 1.73 for glaucoma group). The difference between superior and inferior hemifield sectors and hemi-rings was statistically significant in 11/11 pair of sectors and hemi-rings in the glaucoma patients group (t-test P<0.001), statistically significant in 5/11 pairs of sectors and hemi-rings in the glaucoma suspect group (t-test P<0.01), and only 1/11 pair was statistically significant (t-test P<0.9). The sensitivity and specificity of the hemifield sector analysis protocol in detecting glaucoma was 97% and 86% respectively and 89% and 79% in glaucoma suspects. These results showed that the new analysis protocol was able to confirm existing visual field defects detected by standard perimetry, was able to differentiate between the three study groups with a clear distinction between normal patients and those with suspected glaucoma, and was able to detect early visual field changes not detected by standard perimetry. In addition, the distinction between normal and glaucoma patients was especially clear and significant using this analysis. Conclusion: The new hemifield sector analysis protocol used in mfVEP testing can be used to detect glaucomatous visual field defects in both glaucoma and glaucoma suspect patients. Using this protocol, it can provide information about focal visual field differences across the horizontal midline, which can be utilized to differentiate between glaucoma and normal subjects. The sensitivity and specificity of the mfVEP test showed very promising results and correlated with other anatomical changes in glaucomatous visual field loss. The intersector analysis protocol can detect early field changes not detected by the standard Humphrey Field Analyzer test. © 2013 Mousa et al, publisher and licensee Dove Medical Press Ltd.
Resumo:
Ultraviolet (UV) radiation potentially damages the skin, the immune system, and structures of the eye. A useful UV sun protection for the skin has been established. Since a remarkable body of evidence shows an association between UV radiation and damage to structures of the eye, eye protection is important, but a reliable and practical tool to assess and compare the UV-protective properties of lenses has been lacking. Among the general lay public, misconceptions on eye-sun protection have been identified. For example, sun protection is mainly ascribed to sunglasses, but less so to clear lenses. Skin malignancies in the periorbital region are frequent, but usual topical skin protection does not include the lids. Recent research utilized exact dosimetry and demonstrated relevant differences in UV burden to the eye and skin at a given ambient irradiation. Chronic UV effects on the cornea and lens are cumulative, so effective UV protection of the eyes is important for all age groups and should be used systematically. Protection of children's eyes is especially important, because UV transmittance is higher at a very young age, allowing higher levels of UV radiation to reach the crystalline lens and even the retina. Sunglasses as well as clear lenses (plano and prescription) effectively reduce transmittance of UV radiation. However, an important share of the UV burden to the eye is explained by back reflection of radiation from lenses to the eye. UV radiation incident from an angle of 135°-150° behind a lens wearer is reflected from the back side of lenses. The usual antireflective coatings considerably increase reflection of UV radiation. To provide reliable labeling of the protective potential of lenses, an eye-sun protection factor (E-SPF®) has been developed. It integrates UV transmission as well as UV reflectance of lenses. The E-SPF® compares well with established skin-sun protection factors and provides clear messages to eye health care providers and to lay consumers. © 2014 Behar-Cohen et al, This work is published by Dove Medical Press Ltd.
Resumo:
Background: The aim of this study was to describe bilateral visual outcomes and the effect of incomplete follow-up after 3 years of ranibizumab therapy for neovascular age-related macular degeneration. Secondarily, the demands on service provision over a 3-year period were described. Methods: Data on visual acuity, hospital visits, and injections were collected over 36 months on consecutive patients commencing treatment over a 9-month period. Visual outcome was determined for 1) all patients, using last observation carried forward for missed visits due to early discontinuation and 2) only those patients completing full 36-month follow-up. Results: Over 3 years, 120 patients cumulatively attended hospital for 1,823 noninjection visits and 1,365 injection visits. A visual acuity loss of <15 letters (L) was experienced by 78.2% of patients. For all patients (n=120), there was a mean loss of 1.68 L using last observation carried forward for missing values. Excluding five patients who died and 30 who discontinued follow-up, mean gain was 1.47 L. In bilateral cases, final acuity was on average 9 L better in second eyes compared to first eyes. Also, 91% of better-seeing eyes continued to be the better-seeing eye. Conclusion: We have demonstrated our approach to describing the long-term service provision and visual outcomes of ranibizumab therapy for neovascular age-related macular degeneration in a consecutive cohort of patients. Although there was a heavy burden with very frequent injections and clinic visits, patients can expect a good level of visual stability and a very high chance of maintaining their better-seeing eye for up to 3 years. © 2014 Chavan et al. This work is published by Dove Medical Press Limited.
Resumo:
Vado, ma dove? W.A. Mozart (1756-1791) Auf dem Strom Franz Schubert (1797-1828) Canciones clásicas españolas Fernando Obradors (1897-1945) Del cabello más sutil La mi sola, Laureola Al amor INTERMISSION Quatre Poémes Hindous Maurice Delage (1879-1961) I. Madras II. Lahore III. Benares IV. Jeypur Wild Swans Ricky Ian Gordon (b. 1956) The Red Dress Once I Was
Resumo:
The exponential growth of studies on the biological response to ocean acidification over the last few decades has generated a large amount of data. To facilitate data comparison, a data compilation hosted at the data publisher PANGAEA was initiated in 2008 and is updated on a regular basis (doi:10.1594/PANGAEA.149999). By January 2015, a total of 581 data sets (over 4 000 000 data points) from 539 papers had been archived. Here we present the developments of this data compilation five years since its first description by Nisumaa et al. (2010). Most of study sites from which data archived are still in the Northern Hemisphere and the number of archived data from studies from the Southern Hemisphere and polar oceans are still relatively low. Data from 60 studies that investigated the response of a mix of organisms or natural communities were all added after 2010, indicating a welcomed shift from the study of individual organisms to communities and ecosystems. The initial imbalance of considerably more data archived on calcification and primary production than on other processes has improved. There is also a clear tendency towards more data archived from multifactorial studies after 2010. For easier and more effective access to ocean acidification data, the ocean acidification community is strongly encouraged to contribute to the data archiving effort, and help develop standard vocabularies describing the variables and define best practices for archiving ocean acidification data.
Resumo:
Fish stomach content records extracted from the DAPSTOM 4.5 database (held at the UK Centre for Environment, Fisheries and Aquaculture Science - CEFAS). Data collated as part of the EU Euro-Basin project and specifically concerning herring (Clupea harengus), mackerel (Scomber scombrus), blue whiting (Micromesistius poutassou), albacore (Thunnus alalunga) and bluefin tuna (Thunnus thynnus). The data set consist of 20720 records - collected throughout the northeast Atlantic, between 1906 and 2011 - mostly during routine fisheries monitoring research cruises.
Resumo:
Nella prima parte, dopo aver definito un sistema di scommesse e aver formalizzato in termini matematici l’andamento del capitale di un giocatore d’azzardo, si dimostrano risultati riguardanti giochi non favorevoli. Nella seconda parte, dove si considerano giochi favorevoli, si definisce il criterio di Kelly e se ne dimostrano alcune proprietà notevoli.
Resumo:
Il presente lavoro di tesi ha avuto lo scopo di valutare l’effetto dell’insorgenza dell’anomalia di destrutturazione, contestuale o meno al manifestarsi dell’anomalia white-striping, su alcune caratteristiche qualitative delle carni. L’anomalia di destrutturazione ha determinato una consistente diminuzione del contenuto di proteine ed un aumento del tenore di umidità. Al contrario, l’aumento del livello di lipidi è associato alla presenza della sola anomalia white-striping, i cui effetti sulla composizione sembrano essere in generale più moderati. Tuttavia, nel complesso, le modificazioni sulla composizione sono più marcate nella parte superficiale, mentre in profondità le differenze sono di entità più limitate. I petti destrutturati sono inoltre dotati di valori di pH ultimo più elevati, soprattutto nella parte superficiale, e non si discostano da quelli osservati per l’anomalia white-striping. Il colore risulta scarsamente modificato, mentre l’analisi rilassometrica (LR-NMR) ha permesso di evidenziare che i petti destrutturati possiedono un’abbondante quantità di acqua extra-miofibrillare, che più facilmente può essere persa durante le fasi di conservazione e trasformazione delle carni. In analogia con quanto osservato per la composizione chimica, tale risultato è particolarmente accentuato nello strato superficiale, mentre nello strato profondo tali modificazioni riguardano solo i campioni affetti da entrambe le anomalie. Pertanto questo studio ha permesso di stabilire che le modificazioni avvengono principalmente nella porzione superficiale del muscolo P. major, dove verosimilmente i processi degenerativi prendono avvio per poi coinvolgere in una seconda fase anche la parte profonda. Inoltre, è stato dimostrato che la presenza di destrutturazione superficiale dei muscoli pettorali comporta complessivamente una modificazione più accentuata della composizione e della distribuzione dell’acqua rispetto alla sola presenza dell’anomalia white-striping.
Resumo:
Il lavoro di questa tesi è frutto dell’esperienza maturata in quattro mesi di tirocinio presso l’U.S. Geological Survey di Menlo Park, da ottobre 2015 a gennaio 2016. Durante questo periodo sono state eseguite quattro campagne di raccolta dati sismici e geotecnici presso la città di Napa, ove, il 24 agosto 2014, si è verificato un terremoto di magnitudo momento pari a 6.0. Quest’area è stata interessata in precedenza da terremoti minori, il più significativo dei quali risulta essere il terremoto di Yountville del 2000 di magnitudo momento pari a 5.1. I rilievi macrosismici, effettuati immediatamente dopo il terremoto di Napa del 2014, hanno fornito una classificazione dettagliata delle strutture danneggiate nel distretto colpito. Obiettivo di questa tesi è comprendere se la distribuzione dei danni osservata sia legata anche alle caratteristiche geologiche locali (effetti di sito), oltre che alla vicinanza all’epicentro. A questo scopo sono state acquisite 63 misure sismiche passive a stazione singola e 4 prove di sismica attiva multicanale, la cui inversione congiunta ha permesso di creare mappe dei riflettori sismici principali sotto le zone interessate dal terremoto. Allo stesso tempo tali mappe, interpretate alla luce della cartografia geologica, hanno permesso di costruire sezioni geologiche e di identificare le corrispondenze tra riflettori geologici e riflettori sismici. Si è così potuto osservare che le zone più pesantemente danneggiate dal terremoto sono quelle che ricadono ove si sono misurate amplificazioni per risonanza in medio-alta frequenza (> 3 Hz) mentre scarsi danni si sono registrati nelle aree caratterizzate da roccia affiorante (e curve di amplificazione per risonanza piatte) e danni minori nelle zone contraddistinte solo da bedrock sismico profondo. La distribuzione del danno, evidenziatosi prevalentemente dove le frequenze proprie di vibrazione del suolo sono mediamente sopra 3 Hz, risulta compatibile con gli intervalli di frequenza attesi per le strutture residenziali tipiche di Napa Valley, che sono costituite da 2-3 piani fuori terra, in legno e di altezza non superiore ai 10 metri.