13 resultados para storm surges

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

60.00% 60.00%

Publicador:

Resumo:

The Bora wind is a mesoscale phenomenon which typically affects the Adriatic Sea basin for several days each year, especially during winter. The Bora wind has been studied for its intense outbreak across the Dinaric Alps. The properties of the Bora wind are widely discussed in the literature and scientific papers usually focus on the eastern Adriatic coast where strong turbulence and severe gust intensity are more pronounced. However, the impact of the Bora wind can be significant also over Italy, not only in terms of wind speed instensity. Depending on the synoptic pressure pattern (cyclonic or anticyclonic Bora) and on the season, heavy snowfall, severe storms, storm surges and floods can occur along the Adriatic coast and on the windward flanks of the Apennines. In the present work five Bora cases that occurred in recent years have been selected and their evolution has been simulated with the BOLAM-MOLOCH model set, developed at ISAC-CNR in Bologna. Each case study has been addressed by a control run and by several sensitivity tests, performed with the purpose of better understanding the role played by air-sea latent and sensible heat fluxes. The tests show that the removal of the fluxes induces modifications in the wind approching the coast and a decrease of the total precipitation amount predicted over Italy. In order to assess the role of heat fluxes, further analysis has been carried out: column integrated water vapour fluxes have been computed along the Italian coastline and an atmospheric water balance has been evaluated inside a box volume over the Adriatic Sea. The balance computation shows that, although latent heat flux produces a significant impact on the precipitation field, its contribution to the balance is relatively minor. The most significant and lasting case study, that of February 2012, has been studied in more detail in order to explain the impressive drop in the total precipitation amount simulated in the sensitivity tests with removed heat fluxes with respect to the CNTRL run. In these experiments relative humidity and potential temperature distribution over different cross-sections have been examined. With respect to the CNTRL run a drier and more stable boundary layer, characterised by a more pronounced wind shear at the lower levels, has been observed to establish above the Adriatic Sea. Finally, in order to demonstrate that also the interaction of the Bora flow with the Apennines plays a crucial role, sensitivity tests varying the orography height have been considered. The results of such sensitivity tests indicate that the propagation of the Bora wind over the Adriatic Sea, and in turn its meteorological impact over Italy, is influenced by both the large air-sea heat fluxes and the interaction with the Apennines that decelerate the upstream flow.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Big data è il termine usato per descrivere una raccolta di dati così estesa in termini di volume,velocità e varietà da richiedere tecnologie e metodi analitici specifici per l'estrazione di valori significativi. Molti sistemi sono sempre più costituiti e caratterizzati da enormi moli di dati da gestire,originati da sorgenti altamente eterogenee e con formati altamente differenziati,oltre a qualità dei dati estremamente eterogenei. Un altro requisito in questi sistemi potrebbe essere il fattore temporale: sempre più sistemi hanno bisogno di ricevere dati significativi dai Big Data il prima possibile,e sempre più spesso l’input da gestire è rappresentato da uno stream di informazioni continuo. In questo campo si inseriscono delle soluzioni specifiche per questi casi chiamati Online Stream Processing. L’obiettivo di questa tesi è di proporre un prototipo funzionante che elabori dati di Instant Coupon provenienti da diverse fonti con diversi formati e protocolli di informazioni e trasmissione e che memorizzi i dati elaborati in maniera efficiente per avere delle risposte in tempo reale. Le fonti di informazione possono essere di due tipologie: XMPP e Eddystone. Il sistema una volta ricevute le informazioni in ingresso, estrapola ed elabora codeste fino ad avere dati significativi che possono essere utilizzati da terze parti. Lo storage di questi dati è fatto su Apache Cassandra. Il problema più grosso che si è dovuto risolvere riguarda il fatto che Apache Storm non prevede il ribilanciamento delle risorse in maniera automatica, in questo caso specifico però la distribuzione dei clienti durante la giornata è molto varia e ricca di picchi. Il sistema interno di ribilanciamento sfrutta tecnologie innovative come le metriche e sulla base del throughput e della latenza esecutiva decide se aumentare/diminuire il numero di risorse o semplicemente non fare niente se le statistiche sono all’interno dei valori di soglia voluti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Parametro indispensabile di valutazione di un qualsiasi prodotto o servizio, ai giorni nostri, è la web reputation. Sono sempre più numerose le aziende che monitorano la propria "reputazione online". Quest'ultima può esser definita come l'insieme dei messaggi, commenti e feedbacks, positivi, neutri o negativi che siano, di utenti che esprimono la loro opinione tramite il web su un determinato servizio o prodotto rivolto al pubblico. L’applicazione sviluppata, si pone l’obiettivo di analizzare in tempo reale tramite l’utilizzo di Apache Storm, dati provenienti da fonti eterogenee, classificarli tramite KNIME utilizzando tecniche di classificazione quali SVM, alberi decisionali e Naive Bayesian, renderli persistenti mediante l’utilizzo del database NoSQL HBASE e di visualizzarli in tempo reale attraverso dei grafici utilizzando delle servlet, al fine di costituire un valido strumento di supporto per i processi decisionali.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Con l’avvento di Internet, il numero di utenti con un effettivo accesso alla rete e la possibilità di condividere informazioni con tutto il mondo è, negli anni, in continua crescita. Con l’introduzione dei social media, in aggiunta, gli utenti sono portati a trasferire sul web una grande quantità di informazioni personali mettendoli a disposizione delle varie aziende. Inoltre, il mondo dell’Internet Of Things, grazie al quale i sensori e le macchine risultano essere agenti sulla rete, permette di avere, per ogni utente, un numero maggiore di dispositivi, direttamente collegati tra loro e alla rete globale. Proporzionalmente a questi fattori anche la mole di dati che vengono generati e immagazzinati sta aumentando in maniera vertiginosa dando luogo alla nascita di un nuovo concetto: i Big Data. Nasce, di conseguenza, la necessità di far ricorso a nuovi strumenti che possano sfruttare la potenza di calcolo oggi offerta dalle architetture più complesse che comprendono, sotto un unico sistema, un insieme di host utili per l’analisi. A tal merito, una quantità di dati così vasta, routine se si parla di Big Data, aggiunta ad una velocità di trasmissione e trasferimento altrettanto alta, rende la memorizzazione dei dati malagevole, tanto meno se le tecniche di storage risultano essere i tradizionali DBMS. Una soluzione relazionale classica, infatti, permetterebbe di processare dati solo su richiesta, producendo ritardi, significative latenze e inevitabile perdita di frazioni di dataset. Occorre, perciò, far ricorso a nuove tecnologie e strumenti consoni a esigenze diverse dalla classica analisi batch. In particolare, è stato preso in considerazione, come argomento di questa tesi, il Data Stream Processing progettando e prototipando un sistema bastato su Apache Storm scegliendo, come campo di applicazione, la cyber security.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A regional envelope curve (REC) of flood flows summarises the current bound on our experience of extreme floods in a region. RECs are available for most regions of the world. Recent scientific papers introduced a probabilistic interpretation of these curves and formulated an empirical estimator of the recurrence interval T associated with a REC, which, in principle, enables us to use RECs for design purposes in ungauged basins. The main aim of this work is twofold. First, it extends the REC concept to extreme rainstorm events by introducing the Depth-Duration Envelope Curves (DDEC), which are defined as the regional upper bound on all the record rainfall depths at present for various rainfall duration. Second, it adapts the probabilistic interpretation proposed for RECs to DDECs and it assesses the suitability of these curves for estimating the T-year rainfall event associated with a given duration and large T values. Probabilistic DDECs are complementary to regional frequency analysis of rainstorms and their utilization in combination with a suitable rainfall-runoff model can provide useful indications on the magnitude of extreme floods for gauged and ungauged basins. The study focuses on two different national datasets, the peak over threshold (POT) series of rainfall depths with duration 30 min., 1, 3, 9 and 24 hrs. obtained for 700 Austrian raingauges and the Annual Maximum Series (AMS) of rainfall depths with duration spanning from 5 min. to 24 hrs. collected at 220 raingauges located in northern-central Italy. The estimation of the recurrence interval of DDEC requires the quantification of the equivalent number of independent data which, in turn, is a function of the cross-correlation among sequences. While the quantification and modelling of intersite dependence is a straightforward task for AMS series, it may be cumbersome for POT series. This paper proposes a possible approach to address this problem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Although Recovery is often defined as the less studied and documented phase of the Emergency Management Cycle, a wide literature is available for describing characteristics and sub-phases of this process. Previous works do not allow to gain an overall perspective because of a lack of systematic consistent monitoring of recovery utilizing advanced technologies such as remote sensing and GIS technologies. Taking into consideration the key role of Remote Sensing in Response and Damage Assessment, this thesis is aimed to verify the appropriateness of such advanced monitoring techniques to detect recovery advancements over time, with close attention to the main characteristics of the study event: Hurricane Katrina storm surge. Based on multi-source, multi-sensor and multi-temporal data, the post-Katrina recovery was analysed using both a qualitative and a quantitative approach. The first phase was dedicated to the investigation of the relation between urban types, damage and recovery state, referring to geographical and technological parameters. Damage and recovery scales were proposed to review critical observations on remarkable surge- induced effects on various typologies of structures, analyzed at a per-building level. This wide-ranging investigation allowed a new understanding of the distinctive features of the recovery process. A quantitative analysis was employed to develop methodological procedures suited to recognize and monitor distribution, timing and characteristics of recovery activities in the study area. Promising results, gained by applying supervised classification algorithms to detect localization and distribution of blue tarp, have proved that this methodology may help the analyst in the detection and monitoring of recovery activities in areas that have been affected by medium damage. The study found that Mahalanobis Distance was the classifier which provided the most accurate results, in localising blue roofs with 93.7% of blue roof classified correctly and a producer accuracy of 70%. It was seen to be the classifier least sensitive to spectral signature alteration. The application of the dissimilarity textural classification to satellite imagery has demonstrated the suitability of this technique for the detection of debris distribution and for the monitoring of demolition and reconstruction activities in the study area. Linking these geographically extensive techniques with expert per-building interpretation of advanced-technology ground surveys provides a multi-faceted view of the physical recovery process. Remote sensing and GIS technologies combined to advanced ground survey approach provides extremely valuable capability in Recovery activities monitoring and may constitute a technical basis to lead aid organization and local government in the Recovery management.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le ricerche di carattere eustatico, mareografico, climatico, archeologico e geocronologico, sviluppatesi soprattutto nell’ultimo ventennio, hanno messo in evidenza che gran parte delle piane costiere italiane risulta soggetta al rischio di allagamento per ingressione marina dovuta alla risalita relativa del livello medio del mare. Tale rischio è la conseguenza dell’interazione tra la presenza di elementi antropici e fenomeni di diversa natura, spesso difficilmente discriminabili e quantificabili, caratterizzati da magnitudo e velocità molto diverse tra loro. Tra le cause preponderanti che determinano l’ingressione marina possono essere individuati alcuni fenomeni naturali, climatici e geologici, i quali risultano fortemente influenzati dalle attività umane soprattutto a partire dal XX secolo. Tra questi si individuano: - la risalita del livello del mare, principalmente come conseguenza del superamento dell’ultimo acme glaciale e dello scioglimento delle grandi calotte continentali; - la subsidenza. Vaste porzioni delle piane costiere italiane risultano soggette a fenomeni di subsidenza. In certe zone questa assume proporzioni notevoli: per la fascia costiera emiliano-romagnola si registrano ratei compresi tra 1 e 3 cm/anno. Tale subsidenza è spesso il risultato della sovrapposizione tra fenomeni naturali (neotettonica, costipamento di sedimenti, ecc.) e fenomeni indotti dall’uomo (emungimenti delle falde idriche, sfruttamento di giacimenti metaniferi, escavazione di materiali per l’edilizia, ecc.); - terreni ad elevato contenuto organico: la presenza di depositi fortemente costipabili può causare la depressione del piano di campagna come conseguenza di abbassamenti del livello della falda superficiale (per drenaggi, opere di bonifica, emungimenti), dello sviluppo dei processi di ossidazione e decomposizione nei terreni stessi, del costipamento di questi sotto il proprio peso, della carenza di nuovi apporti solidi conseguente alla diminuita frequenza delle esondazioni dei corsi d’acqua; - morfologia: tra i fattori di rischio rientra l’assetto morfologico della piana e, in particolare il tipo di costa (lidi, spiagge, cordoni dunari in smantellamento, ecc. ), la presenza di aree depresse o comunque vicine al livello del mare (fino a 1-2 m s.l.m.), le caratteristiche dei fondali antistanti (batimetria, profilo trasversale, granulometria dei sedimenti, barre sommerse, assenza di barriere biologiche, ecc.); - stato della linea di costa in termini di processi erosivi dovuti ad attività umane (urbanizzazione del litorale, prelievo inerti, costruzione di barriere, ecc.) o alle dinamiche idro-sedimentarie naturali cui risulta soggetta (correnti litoranee, apporti di materiale, ecc. ). Scopo del presente studio è quello di valutare la probabilità di ingressione del mare nel tratto costiero emiliano-romagnolo del Lido delle Nazioni, la velocità di propagazione del fronte d’onda, facendo riferimento allo schema idraulico del crollo di una diga su letto asciutto (problema di Riemann) basato sul metodo delle caratteristiche, e di modellare la propagazione dell’inondazione nell’entroterra, conseguente all’innalzamento del medio mare . Per simulare tale processo è stato utilizzato il complesso codice di calcolo bidimensionale Mike 21. La fase iniziale di tale lavoro ha comportato la raccolta ed elaborazione mediante sistema Arcgis dei dati LIDAR ed idrografici multibeam , grazie ai quali si è provveduto a ricostruire la topo-batimetria di dettaglio della zona esaminata. Nel primo capitolo è stato sviluppato il problema del cambiamento climatico globale in atto e della conseguente variazione del livello marino che, secondo quanto riportato dall’IPCC nel rapporto del 2007, dovrebbe aumentare al 2100 mediamente tra i 28 ed i 43 cm. Nel secondo e terzo capitolo è stata effettuata un’analisi bibliografica delle metodologie per la modellazione della propagazione delle onde a fronte ripido con particolare attenzione ai fenomeni di breaching delle difese rigide ed ambientali. Sono state studiate le fenomenologie che possono inficiare la stabilità dei rilevati arginali, realizzati sia in corrispondenza dei corsi d’acqua, sia in corrispondenza del mare, a discapito della protezione idraulica del territorio ovvero dell’incolumità fisica dell’uomo e dei territori in cui esso vive e produce. In un rilevato arginale, quale che sia la causa innescante la formazione di breccia, la generazione di un’onda di piena conseguente la rottura è sempre determinata da un’azione erosiva (seepage o overtopping) esercitata dall’acqua sui materiali sciolti costituenti il corpo del rilevato. Perciò gran parte dello studio in materia di brecce arginali è incentrato sulla ricostruzione di siffatti eventi di rottura. Nel quarto capitolo è stata calcolata la probabilità, in 5 anni, di avere un allagamento nella zona di interesse e la velocità di propagazione del fronte d’onda. Inoltre è stata effettuata un’analisi delle condizioni meteo marine attuali (clima ondoso, livelli del mare e correnti) al largo della costa emiliano-romagnola, le cui problematiche e linee di intervento per la difesa sono descritte nel quinto capitolo, con particolare riferimento alla costa ferrarese, oggetto negli ultimi anni di continui interventi antropici. Introdotto il sistema Gis e le sue caratteristiche, si è passati a descrivere le varie fasi che hanno permesso di avere in output il file delle coordinate x, y, z dei punti significativi della costa, indispensabili al fine della simulazione Mike 21, le cui proprietà sono sviluppate nel sesto capitolo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerosi studi hanno messo in evidenza che la struttura delle comunità macrobentoniche delle spiagge sabbiose dipende da una serie di forzanti fisiche; queste ultime interagendo tra loro determinano la morfodinamica della spiagge stesse. Lo scopo di questo lavoro consiste nell’analisi dei popolamenti macrobentonici di due siti presenti lungo la costa emiliano - romagnola, che differiscono per caratteristiche morfodinamiche, grado di antropizzazione e modalità gestionali di difesa dall’erosione costiera. I siti oggetto di studio sono Lido Spina e Bellocchio; il primo è soggetto ad interventi di ripascimento periodici, mentre il secondo rappresenta un’opportunità rara, per lo studio degli effetti del retreat, in quanto è in forte erosione da molti anni ma, essendo inserito all’interno di una riserva naturale, non è sottoposto ad alcuna misura di gestione. Sono state analizzate le comunità macrobentoniche e le variabili abiotiche (mediana e classazione del sedimento, ampiezza della zona intertidale, pendenza della spiaggia, contenuto di sostanza organica totale presente nel sedimento e i principali parametri chimico-fisici). I risultati del presente studio hanno evidenziato un’elevata eterogeneità della struttura di comunità all’interno del sito di Bellocchio rispetto a Spina; inoltre i popolamenti presenti a Bellocchio mostrano una netta differenza tra i due livelli mareali. Per quanto riguarda i descrittori abiotici, i due siti differiscono per ampiezza della zona intertidale e pendenza della spiaggia; in particolare Lido Spina presenta una condizione di minore dissipatività, essendo caratterizzata da un profilo più ripido e una granulometria più grossolana rispetto a Bellocchio. Nel complesso le caratteristiche granulometriche (mediana e classazione) e il contenuto di materia organica rappresentano le variabili ambientali maggiormente responsabili delle differenze osservate tra i popolamenti macrobentonici analizzati. Al fine di valutare la resistenza dell’habitat intertidale agli eventi naturali di disturbo (storm surge e flooding), sono state effettuare delle simulazioni considerando lo scenario attuale (SLR=0), mediante un modello ibrido fuzzy naive Bayes. I risultati indicano una maggiore resistenza delle comunità presenti nel sito di Spina, in quanto non si hanno variazioni significative del numero medio di taxa e di individui; viceversa le simulazioni relative a Bellocchio mostrano una diminuzione del numero medio di taxa e aumento del numero medio di individui, sottolineando una maggiore vulnerabilità delle comunità macrobentoniche presenti in questo sito. L’inasprimento dei fenomeni estremi potrebbe quindi avere un effetto negativo sulla diversità della componente macrobentonica, soprattutto per gli ambienti di transizione già interessati da fenomeni erosivi, come nel caso di Bellocchio. La perdita di specie, che svolgono processi ecosistemici particolarmente importanti, come il riciclo di nutrienti, potrebbe favorire l’aumento di abbondanza di specie opportunistiche, l’insediamento di specie alloctone, con la conseguente alterazione, se non scomparsa delle principali funzioni ecologiche svolte da questi ecosistemi costieri.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato tratta alcuni dei più noti framework di programmazione avanzata per la costruzione di piattaforme distribuite che utilizzano il linguaggio di programmazione avanzata Scala come fulcro principale per realizzare i propri protocolli. Le tecnologie analizzate saranno Finagle, Akka, Kafka e Storm. Per ciascuna di esse sarà presente una sezione di introduzione, documentazione e un esempio di codice. L’obiettivo dell’elaborato è l’analisi approfondita delle tecnologie sopraelencate per comprendere a fondo le tecniche di programmazione che le rendono uniche nel loro genere. Questo percorso fornisce una chiave di lettura obiettiva e chiara di ciascuna tecnologia, sarà cura del lettore proseguire nello studio individuale della specifica tecnica che ritiene essere più efficace o interessante. Alla fine della tesi è presente un aperto dibattito in cui le quattro tecnologie vengono messe a confronto e giudicate in base alle loro caratteristiche. Inoltre vengono ipotizzate realtà in cui si possa trovare collaborazione tra i vari framework ed, infine, è presente una mia personale opinione basata sulla mia esperienza in merito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Great Barrier Reef hosts the only known reliable aggregation of dwarf minke whale (Balaenoptera acutorostrata subspecies) in Australian waters. While this short seasonal aggregation is quite predictable, the distribution and movements of the whales during the rest of their annual cycle are poorly understood. In particular, feeding and resting areas on their southward migration which are likely to be important have not been described. Using satellite telemetry data, I modelled the habitat use of seven whales during their southward migration through waters surrounding Tasmania. The whales were tagged with LIMPET satellite tags in the GBR in July 2013 (2 individuals) and 2014 (5 individuals). The study area around Tasmania was divided into 10km² cells and the time spent by each individual in each cell was calculated and averaged based on the number of animals using the cell. Two areas of high residency time were highlighted: south-western Bass Strait and Storm Bay (SE Tasmania). Remotely sensed ocean data were extracted for each cell and averaged temporally during the entire period of residency. Using Generalised Additive Models I explored the influence of key environmental characteristics. Nine predictors (bathymetry, distance from coast, distance from shore, gradient of sea surface temperature, sea surface height (absolute and variance), gradient of current speed, wind speed and chlorophyll-a concentration) were retained in the final model which explained 68% of the total variance. Regions of higher time-spent values were characterised by shallow waters, proximity to the coast (but not to the shelf break), high winds and sea surface height but low gradient of sea surface temperature. Given that the two high residency areas corresponded with regions where other marine predators also forage in Bass Strait and Storm Bay, I suggest the whales were probably feeding, rather than resting in these areas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’aumento della frequenza di accadimento e dell’intensità di eventi di tempesta rappresenta una seria minaccia per gli ambienti costieri, in particolare per quelli dominati da spiagge sabbiose. Nel seguente lavoro di tesi si è voluto approfittare di un evento di flooding che ha interessato la spiaggia di Cesenatico (Febbraio 2015), provocando un lieve arretramento della linea di riva, per valutare la risposta del comparto macrobentonico a uno shift da zona intertidale a quella di primo subtidale. I dati relativi al periodo post-disturbo (after), mostrano variazioni sia dal punto di vista dell’ambiente fisico che delle comunità bentoniche ad esso associate; per quanto riguarda i campioni del 2015, si è osservata una diminuzione della media granulometrica e un aumento della materia organica rispetto al 2011 (before). Si evidenziano differenze anche tra le comunità bentoniche before e after l’evento, con valori di abbondanza, numero di taxa e diversità maggiori in after, nonché dell’intera struttura di comunità in cui si osservano variazioni di dominanza di particolari specie e l’insediamento di specie non presenti prima dell’evento. In before c’è una dominanza di S. squamata, un polichete fossatorio tipico dell’intertidale. In after è risultato che molte più specie concorrono nel determinare i pattern osservati, ed emerge una netta dominanza di L. mediterraneum e dei tanaidacei del genere Apseudes. I valori delle variabili ambientali e biotiche sono stati utilizzati per costruire un modello previsionale FNB (fuzzy naive Bayes) che è stato utilizzato con i dati abiotici relativi all’after per prevedere i pattern di comunità. Dalle simulazioni si osserva che i pattern spaziali del macrobenthos seguono l’evoluzione dell’intero sistema, confermando uno shift da intertidale a primo subtidale e può essere usato come base per comprendere gli effetti di un flooding costiero su sistemi vulnerabili qual è la spiaggia di Cesenatico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I Big Data hanno forgiato nuove tecnologie che migliorano la qualità della vita utilizzando la combinazione di rappresentazioni eterogenee di dati in varie discipline. Occorre, quindi, un sistema realtime in grado di computare i dati in tempo reale. Tale sistema viene denominato speed layer, come si evince dal nome si è pensato a garantire che i nuovi dati siano restituiti dalle query funcions con la rapidità in cui essi arrivano. Il lavoro di tesi verte sulla realizzazione di un’architettura che si rifaccia allo Speed Layer della Lambda Architecture e che sia in grado di ricevere dati metereologici pubblicati su una coda MQTT, elaborarli in tempo reale e memorizzarli in un database per renderli disponibili ai Data Scientist. L’ambiente di programmazione utilizzato è JAVA, il progetto è stato installato sulla piattaforma Hortonworks che si basa sul framework Hadoop e sul sistema di computazione Storm, che permette di lavorare con flussi di dati illimitati, effettuando l’elaborazione in tempo reale. A differenza dei tradizionali approcci di stream-processing con reti di code e workers, Storm è fault-tolerance e scalabile. Gli sforzi dedicati al suo sviluppo da parte della Apache Software Foundation, il crescente utilizzo in ambito di produzione di importanti aziende, il supporto da parte delle compagnie di cloud hosting sono segnali che questa tecnologia prenderà sempre più piede come soluzione per la gestione di computazioni distribuite orientate agli eventi. Per poter memorizzare e analizzare queste moli di dati, che da sempre hanno costituito una problematica non superabile con i database tradizionali, è stato utilizzato un database non relazionale: HBase.