919 resultados para Storm surges.


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Natural cycles of irradiation during burial and bleaching due to solar exposure during transport increase the Optically Stimulated Luminescence (OSL) sensitivity of quartz sand grains. The relationship between the OSL sensitivity and sediment transport allows to discriminate quartz sand grains with different depositional histories. In this paper, we evaluate the variation of OSL sensitivity in quartz grains deposited during the progradation of the Ilha Comprida barrier on the southern Brazilian, coast. Changes in sand sensitivity recorded by barrier growth since 6 ka ago are controlled by the variation in the proportion of low versus high sensitivity quartz grains. Low sensitivity grains with short sedimentary history are supplied by the Ribeira de Iguape River and reach the barrier through southward alongshore currents during fair weather conditions. Storm conditions shift the alongshore currents to northeast and permit the transport of high sensitivity grains with long sedimentary history from distal southern coastal sectors to the barrier. Therefore, the input of distal sediments for the Ilha Comprida barrier depends on the frequency and intensity of storms. Thus, the OSL sensitivity can be used as proxy for storm activity. The variation of OSL sensitivity through time indicates that the Ilha Comprida barrier changed from a relatively stable to an unstable storm pattern around 2 ka ago. Periods with increased storm activity peaked around AD 500, AD 1500 and AD 1850, approximately on the boundaries of the Medieval Climate Anomaly and the Little Ice Age. (C) 2012 Elsevier B.V. All rights reserved.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Big data è il termine usato per descrivere una raccolta di dati così estesa in termini di volume,velocità e varietà da richiedere tecnologie e metodi analitici specifici per l'estrazione di valori significativi. Molti sistemi sono sempre più costituiti e caratterizzati da enormi moli di dati da gestire,originati da sorgenti altamente eterogenee e con formati altamente differenziati,oltre a qualità dei dati estremamente eterogenei. Un altro requisito in questi sistemi potrebbe essere il fattore temporale: sempre più sistemi hanno bisogno di ricevere dati significativi dai Big Data il prima possibile,e sempre più spesso l’input da gestire è rappresentato da uno stream di informazioni continuo. In questo campo si inseriscono delle soluzioni specifiche per questi casi chiamati Online Stream Processing. L’obiettivo di questa tesi è di proporre un prototipo funzionante che elabori dati di Instant Coupon provenienti da diverse fonti con diversi formati e protocolli di informazioni e trasmissione e che memorizzi i dati elaborati in maniera efficiente per avere delle risposte in tempo reale. Le fonti di informazione possono essere di due tipologie: XMPP e Eddystone. Il sistema una volta ricevute le informazioni in ingresso, estrapola ed elabora codeste fino ad avere dati significativi che possono essere utilizzati da terze parti. Lo storage di questi dati è fatto su Apache Cassandra. Il problema più grosso che si è dovuto risolvere riguarda il fatto che Apache Storm non prevede il ribilanciamento delle risorse in maniera automatica, in questo caso specifico però la distribuzione dei clienti durante la giornata è molto varia e ricca di picchi. Il sistema interno di ribilanciamento sfrutta tecnologie innovative come le metriche e sulla base del throughput e della latenza esecutiva decide se aumentare/diminuire il numero di risorse o semplicemente non fare niente se le statistiche sono all’interno dei valori di soglia voluti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The purpose of this research project is to continue exploring the Montandon Long-Term Hydrologic Research Site(LTHR) by using multiple geophysical methods to obtain more accurate and precise information regarding subsurface hydrologic properties of a local gravel ridge,which are important to both the health of surrounding ecosystems and local agriculture. Through using non-invasive geophysical methods such as seismic refraction, Direct Current resistivity and ground penetrating radar (GPR) instead of invasive methods such as boreholedrilling which displace sediment and may alter water flow, data collection is less likely to bias the data itself. In addition to imaging the gravel ridge subsurface, another important researchpurpose is to observe how both water table elevation and the moisture gradient (moisture content of the unsaturated zone) change over a seasonal time period and directly after storm events. The combination of three types of data collection allows the strengths of each method combine together and provide a relatively strongly supported conclusions compared to previous research. Precipitation and geophysical data suggest that an overall increase in precipitation during the summer months causes a sharp decrease in subsurface resistivity within the unsaturated zone. GPR velocity data indicate significant immediate increase in moisture content within the shallow vadose zone (< 1m), suggesting that rain water was infiltrating into the shallow subsurface. Furthermore, the combination of resistivity and GPR results suggest that the decreased resistivity within the shallow layers is due to increased ion content within groundwater. This is unexpected as rainwater is assumed to have a DC resistivity value of 3.33*105 ohm-m. These results may suggest that ions within the sediment must beincorporated into the infiltrating water.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

There is increasing recognition among those in higher education that it is no longer adequate to train students in a specific field or industry. Instead, the push is more towards producing well-rounded students. In order to do so, all of a university’s resources must come together and the climate on campus must be one that supportscollaboration. This report is a re-examination of the climate for collaboration on the campus of a private liberal arts university in the Mid-Atlantic region of the United States. It is a follow up to a similar investigation conducted on the same campus by Victor Arcelus(2008) five years earlier. In the interim, the university had re-configured its organizational structure, combining separate academic and student affairs divisions into a single unit overseen by the Provost. Additionally, the university had experienced turnover in several key leadership positions, including those of the President and the chief academic and student affairs officers. The purpose of this investigation, therefore, was to gauge the immediate impact of these changes on conditions for collaboration, which when present, advance student learning and development. Through interviews with six men and women, information was collected on the perceived climate for collaboration between academic and student affairs personnel.Analysis of the interview transcripts revealed that, depending on the position of the interviewee within the university, conditions on campus were seen as either improved or largely unchanged as a result of the transition in leadership and the structural merger of the two divisions.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In February 1962, Hamburg experienced its most catastrophic storm surge event of the 20th century. This paper analyses the event using the Twentieth Century Reanalysis (20CR) dataset. Responsible for the major flood was a strong low pressure system centred over Scandinavia that was associated with strong north-westerly winds towards the German North Sea coast – the ideal storm surge situation for the Elbe estuary. A comparison of the 20CR dataset with observational data proves the applicability of the reanalysis data for this extreme event.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A disastrous storm surge hit the coast of the Netherlands on 31 January and 1 February 1953. We examine the meteorological situation during this event using the Twentieth Century Reanalysis (20CR) data set. We find a strong pressure gradient between Ireland and northern Germany accompanied by strong north-westerly winds over the North Sea. Storm driven sea level rise combined with spring tide contributed to this extreme event. The state of the atmosphere in 20CR during this extreme event is in good agreement with historical observational data