998 resultados para Ballerina,Cloud Native,API,Linguaggio di Programmazione
Resumo:
Questa tesi tratta nello specifico lo studio di un impianto micro-ORC, capace di sfruttare acqua alla temperatura di circa 70-90°C come sorgente termica. Questo sistema presenta una potenza dichiarata dal costruttore pari a 3kW e un rendimento del 9%. In primo luogo, si descrivono le caratteristiche principali dei fluidi organici, in particolare quelle del freon R134a, impiegato nel banco prova. Vengono illustrati dettagliatamente l’impianto e la sensoristica utilizzata per le misurazioni delle varie grandezze fisiche. Tramite esse, con l’utilizzo di un programma di acquisizione dati appositamente relizzato in ambiente LabVIEW, è stato possibile calcolare in tempo reale tutti i parametri di funzionamento, necessari per la caratterizzazione del sistema. Per una veloce ed efficiente elaborazione dei dati registrati durante le prove in laboratorio, è stato realizzato un programma in linguaggio VBA. L’utilizzo di questo codice ha permesso, in primo luogo, di individuare e correggere eventuali errori di calcolo e acquisizione presenti in ambiente LabVIEW e, in secondo luogo, si è reso indispensabile per comprendere il funzionamento dell’impianto nelle varie fasi, come accensione, spegnimento e produzione di potenza. Sono state inoltre identificate le modalità di risposta del sistema al variare dei comandi impostabili dall’utente, quali il numero di giri della pompa e la variazione della temperatura della sorgente calda. Si sono poi osservate le risposte del sistema al variare delle condizioni esterne, come ad esempio la temperatura dell’acqua di condensazione. Una specifica prova è stata analizzata in questo elaborato. Durante tale prova il sistema ha lavorato in forte off-design, erogando una potenza elettrica pari a 255 W, raggiungendo un basso valore del rendimento (pari a 1.8%). L’analisi dei dati ha portato ad identificare nuovi limiti di funzionamento, legati ad esempio alla quantità di fluido interna al sistema.
Resumo:
L’obiettivo di questa tesi è riuscire ad elaborare una point cloud 3D proveniente dal laser scanner per individuare possibili ostacoli e creare con essa, successivamente, una mappa che permetta la navigazione di un rover.
Resumo:
Il lavoro sviluppato deriva dalla creazione, in sede di tirocinio, di un piccolo database, creato a partire dalla ricerca dei dati fino alla scelta di informazioni di rilievo e alla loro conseguente archiviazione. L’obiettivo dell’elaborato è rappresentato dalla volontà di ampliare quella conoscenza basilare posseduta sul mondo dell’informazione dal punto di vista gestionale. Infatti, considerando lo scenario odierno, si può affermare che lo studio del cliente attraverso delle informazioni rilevanti, di vario tipo, è una delle conoscenze fondamentali nel mondo dell’ingegneria gestionale. Il metodo di studio utilizzato è basato sulla comprensione delle diverse tipologie di dati presenti nel mondo aziendale e, di conseguenza, al loro legame con il mondo del web e soprattutto con i metodi di archiviazione più moderni e più utilizzati oggi sia dalle aziende, che non dai privati stessi; le piattaforme cloud. L’elaborato si suddivide in tre argomenti differenti ma strettamente collegati tra loro; la prima parte tratta di come l’informazione più basilare vada raccolta ed analizzata, la sezione centrale è legata al tema chiave dell’internet come mezzo di archiviazione e non più solo come piattaforma di ricerca del dato, mentre nel capitolo finale viene chiarito il concetto di cloud computing, comodo veloce ed efficiente, considerato da qualche anno il punto d’incontro fra i primi due argomenti. Nello specifico si andranno a presentare alcuni di applicazione reale del cloud da parte di aziende come Amazon, Google e Facebook, multinazionali che ad oggi sono riuscite a fare dell’archiviazione e della manipolazione dei dati, a scopi industriali, una delle loro fonti di guadagno. Il risultato è rappresentato da una panoramica sul funzionamento e sulle tecniche di utilizzo dell’informazione, partendo dal dato più irrilevante fino ad arrivare ai database condivisi utilizzati, se non addirittura controllati, dalle più rinomate aziende nazionali ed internazionali.
Resumo:
Il contenuto di questo volume non vuole rappresentare un testo didattico per lo studio in generale della vulcanologia in quanto in esso si tratta unicamente quell’a-spetto della disciplina che riguarda il vulcanismo esplosivo. In tal senso l’autore ritiene che questo testo possa essere utile per gli studenti di Scienze Geologiche che, vivendo nelle aree vulcaniche italiane di età quaternaria ed anche attive, possano, da laureati, svolgere attività professionali mirate alla individuazione e definizione di Pericolosità, Vulnerabilità e Rischio Vulcanico. Trattare gli argomenti che seguono non è stato facile e forse si poteva, in alcuni casi, renderli più semplici, ma talvolta la semplicità non sempre è sinonimo di precisione; inoltre, per descrivere certi aspetti non quantitativi si è costretti ad utilizzare un linguaggio quanto più possibile “ad hoc”. L’autore ha svolto la propria attività di ricerca in aree vulcaniche, sia in Italia che all’estero. Le ricerche in Italia sono state da sempre concentrate nelle aree di vulcanismo attivo in cui l’attività del vulcanologo è finalizzata fondamentalmente alla definizione della Pericolosità Vulcanica supporto indispensabile per la definizione dell’aree a Rischio Vulcanico, intendendo per Rischio il prodotto della Pericolosità per il Danno in termini, questo, di numero di vite umane ovvero di valore monetario dei beni a rischio nell’area vulcanica attiva. Le ricerche svolte dall’autore in Africa Orientale (Etiopia e Somalia) e nello Yemen hanno contribuito ad assimilare i concetti di vulcanologia regionale, rappresentata dall’ampia diffusione del vulcanismo di plateau, variabile per spessore dai 1500 ai 3000 metri, fra i quali si inseriscono, nella depressione dell’Afar, catene vulcaniche inquadrabili, dal punto di vista geodinamico, come “oceaniche” alcune delle quali attive e che si sviluppano per decine/centinaia di chilometri. Nelle aree vulcaniche italiane le difficoltà che sorgono durante il rilevamento risiedono nella scarsa continuità di affioramenti, talvolta incompleti per la descrizione delle variazioni di facies piroclastiche, non disgiunta dalla fitta vegetazione ovvero ur banizzazione specialmente nelle aree di vulcanismo attivo. Il rilevamento vulcanologico richiede competenze e l’adozione di scale adatte a poter cartografare le variazioni di facies piroclastiche che, a differenza dalle assise sedimentarie, in un’area vulcanica possono essere diffuse arealmente soltanto per alcune centinaia di metri. I metodi di studio delle rocce piroclastiche sono del tutto simili a quelli che si usano per le rocce clastiche, cioè dall’analisi delle strutture e delle tessiture alla litologica fino a quella meccanica; su questi clasti inoltre le determinazioni della densità, della mineralogia e della geochimica (Elementi in tracce e Terre Rare), ottenute sulla frazione vetrosa, rappresentano parametri talvolta identificativi di un’area vulcanica sorgente. Non esistono testi nei quali venga descritto come si debba operare nelle aree vulcaniche per le quali l’unica certezza unificante è rappresentata dall’evidenza che, nelle sequenze stratigrafiche, il termine al top rappresenta quello più relativamente recente mentre quello alla base indica il termine relativo più vecchio. Quanto viene riportato in questo testo nasce dall’esperienza che è stata acquisita nel tempo attraverso una costante azione di rilevamento che rappresenta l’uni- ca sorgente di informazione che un vulcanologo deve ricavare attraverso un attento esame dei depositi vulcanici (dalla litologia alla mineralogia, alla tessitura, etc.) la cui distribuzione, talvolta, può assumere un carattere interegionale in Italia nell’ambito dell’Olocene. Soltanto l’esperienza acquisita con il rilevamento produce, in un’area di vulcanismo attivo, risultati positivi per la definizione della Pericolosità, sapendo però che le aree vulcaniche italiane presentano caratteristiche ampiamente differenti e di conseguenza il modo di operare non può essere sempre lo stesso. Un esempio? Immaginate di eseguire un rilevamento vulcanico prima al Somma-Vesuvio e poi nei Campi Flegrei: sono mondi completamente differenti. L’autore desidera ribadire che questo testo si basa sulla esperienza acquisita sia come geologo sia come docente di Vulcanologia; pertanto il libro potrà forse risultare più o meno bilanciato, in forza dell’argomento trattato, in quanto durante l’attività di ricerca l’autore, come tutti, ha affrontato alcuni argomenti più di altri. Questo approccio può essere considerato valido per chiunque voglia scrivere un libro in maniera autonoma e originale, non limitandosi, come molte volte avviene, a tradurre in italiano un libro su tematiche analoghe diffuso, ad esempio, nel mondo anglosassone.Diversamente, si sarebbe potuto concepire un libro come un collage di capitoli scritti da vari autori, che magari avevano esperienza più specifica nei singoli argomenti, ma in tal senso si sarebbe snaturato lo spirito con cui si è impostato il progetto. L’autore, infine, ha fatto ricorso al contributo di altri autorevoli colleghi solo per temi importantissimi, ma in qualche modo complementari rispetto al corpus costitutivo del Vulcanismo Esplosivo.
Resumo:
Lo scopo di tale progetto è creare, dal sistema hardware fino alla programmazione software, un sistema che permetta da una parte il controllo autonomo delle condizioni climatiche di un ambiente, il monitoraggio e dall’altra di essere versatile, portatile e di facile utilizzo. Come esempio applicativo per il controllo delle condizioni climatiche in una teca per la misura della rigidità dinamica si andranno ad evidenziare inizialmente in cosa consistono le prove della rigidità dinamica e a cosa servono, per poi passare alla spiegazione dei fenomeni che regolano il comportamento delle miscele di aria e vapor d’acqua che permetteranno di capire le connessioni tra i fattori principali che regolano i cambiamenti climatici quali temperatura e umidità. Successivamente si andranno poi a descrivere con quali meccanismi si regola la climatizzazione degli ambienti, fino ad arrivare alla creazione di un sistema autonomo che gestisca autonomamente temperatura e umidità all’interno di una cella.
Resumo:
Questo lavoro nasce dal desiderio di approfondire i fondamenti del linguaggio della matematica, osservandone gli usi ed analizzandone gli scopi dal punto di vista didattico e non solo. Il linguaggio è il mezzo su cui si costruiscono i pensieri o semplicemente lo strumento coi quali si comunica il sapere? Il linguaggio è uno strumento della pratica matematica o è la matematica ad essere un linguaggio? Se lo è, che caratteristiche ha? Queste sono le domande che hanno accompagnato la stesura dei primi capitoli di questa tesi, in cui si approfondisce il tema del linguaggio della matematica da un punto di vista epistemologico, tecnico e didattico, a partire dai riferimenti teorici e dalle ricerche sul campo curate da Bruno D’Amore e Pier Luigi Ferrari. Nella seconda parte si presentano i risultati e le osservazioni della sperimentazione condotta nella classe 5a As del Liceo Scientifico “A. Righi” di Cesena. L’indagine di tipo qualitativo sui protocolli degli studenti ha permesso di definire le modalità d’uso del linguaggio da parte degli stessi al termine del percorso scolastico, di mostrare alcuni possibili legami tra le competenze linguistiche e quelle matematiche e di delineare una classificazione di tre profili di allievi relativamente al loro modo di scrivere e parlare di matematica. La tesi ha favorito uno sguardo trasversale verso la matematica in cui il linguaggio offre una fruttuosa possibilità di incontro tra prospettive opposte nel guardare la scienza e l’uomo. Questo apre alla possibilità di costruire una didattica che non sia la mera somma di conoscenze o la divisione di settori disciplinari, ma il prodotto di elementi che armoniosamente costruiscono il pensiero dell’uomo.
Resumo:
Sempre più sono i servizi offerti oggigiorno sul cloud. L’isolamento dei vari utenti diviene una componente fondamentale se si vuole proteggere la privacy e la confidenzialità dei dati dei clienti. Mantenere una struttura che offre questo genere di servizi però è estremamente complesso ed oneroso. Si vuole mostrare come sia possibile evitare la creazione di centinaia di migliaia di macchine virtuali, quando potrebbe bastare creare una macchina virtuale per tipo di servizio offerto, e far accedere ogni cliente che necessita di quel servizio semplicemente isolandolo con linux namespace, in maniera automatica.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
La tesi tratta la ricerca di procedure che permettano di rilevare oggetti utilizzando il maggior numero di informazioni geometriche ottenibili da una nuvola di punti densa generata da un rilievo fotogrammetrico o da TLS realizzando un modello 3D importabile in ambiente FEM. Il primo test si è eseguito su una piccola struttura, 1.2x0.5x0.2m, in modo da definire delle procedure di analisi ripetibili; la prima consente di passare dalla nuvola di punti “Cloud” all’oggetto solido “Solid” al modello agli elementi finiti “Fem” e per questo motivo è stata chiamata “metodo CSF”, mentre la seconda, che prevede di realizzare il modello della struttura con un software BIM è stata chiamata semplicemente “metodo BIM”. Una volta dimostrata la fattibilità della procedura la si è validata adottando come oggetto di studio un monumento storico di grandi dimensioni, l’Arco di Augusto di Rimini, confrontando i risultati ottenuti con quelli di altre tesi sulla medesima struttura, in particolare si è fatto riferimento a modelli FEM 2D e a modelli ottenuti da una nuvola di punti con i metodi CAD e con un software scientifico sviluppato al DICAM Cloud2FEM. Sull’arco sono state eseguite due tipi di analisi, una lineare sotto peso proprio e una modale ottenendo risultati compatibili tra i vari metodi sia dal punto di vista degli spostamenti, 0.1-0.2mm, che delle frequenze naturali ma si osserva che le frequenze naturali del modello BIM sono più simili a quelle dei modelli generati da cloud rispetto al modello CAD. Il quarto modo di vibrare invece presenta differenze maggiori. Il confronto con le frequenze naturali del modello FEM ha restituito differenze percentuali maggiori dovute alla natura 2D del modello e all’assenza della muratura limitrofa. Si sono confrontate le tensioni normali dei modelli CSF e BIM con quelle ottenute dal modello FEM ottenendo differenze inferiori a 1.28 kg/cm2 per le tensioni normali verticali e sull’ordine 10-2 kg/cm2 per quelle orizzontali.
Resumo:
In this work, in-situ measurements of aerosol chemical composition, particle number size distribution, cloud-relevant properties and ground-based cloud observations were combined with high-resolution satellite sea surface chlorophyll-a concentration and air mass back-trajectory data to investigate the impact of the marine biota on aerosol physico-chemical and cloud properties. Studies were performed over the North-Eastern Atlantic Ocean, the central Mediterranean Sea, and the Arctic Ocean, by deploying both multi-year datasets and short-time scale observations. All the data were chosen to be representative of the marine atmosphere, reducing to a minimum any anthropogenic input. A relationship between the patterns of marine biological activity and the time evolution of marine aerosol properties was observed, under a variety of aspects, from chemical composition to number concentration and size distribution, up to the most cloud‐relevant properties. At short-time scales (1-2 months), the aerosol properties tend to respond to biological activity variations with a delay of about one to three weeks. This delay should be considered in model applications that make use of Chlorophyll-a to predict marine aerosol properties at high temporal resolution. The impact of oceanic biological activity on the microphysical properties of marine stratiform clouds is also evidenced by our analysis, over the Eastern North Atlantic Ocean. Such clouds tend to have a higher number of smaller cloud droplets in periods of high biological activity with respect to quiescent periods. This confirms the possibility of feedback interactions within the biota-aerosol-cloud climate system. Achieving a better characterization of the time and space relationships linking oceanic biological activity to marine aerosol composition and properties may significantly impact our future capability of predicting the chemical composition of the marine atmosphere, potentially contributing to reducing the uncertainty of future climate predictions, through a better understanding of the natural climate system.
Resumo:
La ricerca si focalizza sul rapporto tra tecnologie abilitanti e corpo umano. La miniaturizzazione delle tecnologie, unita alla loro maggiore diffusione negli ambienti, porta ad interrogarsi sull’efficacia dell’integrazione di esse con corpo e attività ad esso connesse. Il contesto problematico della ricerca riguarda i dispositivi indossabili e il progetto di soluzioni destinate a risolvere inediti bisogni o potenziare i sensi umani. La letteratura scientifica e i casi studio circoscrivono il piede come efficace piattaforma per la sperimentazione di interfacce aptiche di comunicazione uomo/macchina, atte a connettere il corpo con informazioni referenziate all’ambiente. Il piede, elemento motorio duplice e simmetrico, ha un’elevata qualità percettiva ed è morfologicamente adeguato all’applicazione di tecnologie emergenti. La posizione di soglia, tra spazio e corpo, consente la raccolta di stimoli da entrambe le aree. La bibliografia evidenzia quanto la pressione, rispetto alla vibrazione, sia preferibile nella comunicazione aptica in quanto componente naturale dei linguaggi relazionali del corpo. Dall’analisi multidisciplinare emerge infine l’opportunità di sviluppo del ritmo come componente strutturale dei messaggi. I legami relazionali tra ritmo, corpo e comportamenti umani sono evidenti in molteplici meccanismi: trascinamento ritmico, mimesi ritmica, sincronia. La messa in relazione di piede, pressione e ritmo diventa affordance dello spazio, capace di suggerire, enfatizzare o attivare determinati comportamenti. L’unione di questi elementi è qui definita ritmica podotattile ed esplicitata nella tesi della descrizione delle sue caratteristiche, dalla circoscrizione di campi e azioni applicative e dalla raccolta dati sui test effettuati con i prototipi costruiti. Le analisi quantitative e qualitative dei dati di lettura del movimento e delle emozioni dimostrano quanto l’utilizzo di un linguaggio ritmico aptico nel piede esprima elevate potenzialità di integrazione con il corpo nel rispetto del comfort e dell’equilibrio attentivo nei flussi di azione preesistenti. I risultati aprono riflessioni su nuove applicazioni progettuali nel campo museale, lavorativo e urbano.
Resumo:
Questa tesi di dottorato “Ad summum bonum iter. Revisione testuale e commento di Seneca, Epistulae morales ad Lucilium XLVIII, CXI” (relatore Prof. F. Citti), si propone di fornire un commento scientifico al testo latino di alcune Epistulae morales ad Lucilium (48 e 111), corredato da traduzione, note esegetiche di carattere lessicale, stilistico-retorico e storico-letterario e discussione delle principali problematiche testuali (testo di riferimento l'edizione critica di Reynolds, Oxonii 1965). Scopo della ricerca è approfondire e completare lo studio delle lettere 48 e 111 del carteggio, esaminato solo episodicamente e non sistematicamente, soffermandosi sugli aspetti filosofici salienti e sui motivi conduttori più significativi, come la critica senecana alla nimia subtilitas (tema presente soprattutto nelle cosiddette epistole dialettiche, connesse alle diverse forme di sillogismi e alle modalità di contestazione degli stessi), con particolare riferimento alle ambiguità derivanti dall'uso di termini in senso proprio e metalinguistico riflessivo e non riflessivo; la ricerca si sofferma inoltre sul linguaggio colloquiale, vicino a quello della commedia e della satira, utilizzato da Seneca per ridicolizzare i sillogismi stoici; sul tema dell'amicizia; sull'uso di citazioni e/o allusioni poetiche (virgiliana e non virgiliana), decontestualizzate e risemantizzate in funzione educativa e psicagogica, piegate ad esprimere il personale messaggio etico; sull'uso del lessico specialistico, proveniente da diversi ambiti semantici (giuridico, economico, militare, medico), applicato da Seneca alla parenesi filosofica e, soprattutto, sul rapporto tra lessico filosofico latino e modelli greci. Infine, oltre ad approfondire il motivo delle egestas temporis e i riferimenti diatribici contenuti nelle epistole, sono stati individuati e approfonditi alcuni topoi presenti.
Resumo:
Il presente lavoro si pone come obiettivo principale la traduzione del testo teatrale "La Trilogie des flous" del drammaturgo quebecchese Daniel Danis. I primi tre capitoli sono dedicati a un lavoro di ricerca e documentazione sulle specificità della traduzione teatrale e sulle caratteristiche del teatro contemporaneo in cui si inserisce l’autore dell’opera in esame. La traduzione dell’opera è, infatti, preceduta dallo studio delle caratteristiche strutturali del testo teatrale, generalmente composto da un titolo, didascalie e dialoghi, e del linguaggio utilizzato sulla scena. La traduzione teatrale esige una riflessione sull’obiettivo del testo, che può essere pensato per la messinscena o per la lettura. È da questa distinzione che derivano le scelte del traduttore. "La Trilogie des flous" è un poema drammatico, messo in scena per la prima volta nel 2008. Il testo si inserisce nel panorama teatrale contemporaneo con le sue caratteristiche tipiche: l’assenza di una favola ben strutturata, il ricorso a strumenti tecnologici e i personaggi fuori dagli schemi tradizionali che confluiscono nella voce di un autore “rapsodo”. Il linguaggio frammentato, le parole interrotte da puntini di sospensione e le rime pongono diverse difficoltà alla traduzione. Nel testo di arrivo si è cercato soprattutto di conservare la musicalità e le sensazioni suscitate dal testo di partenza. Le scelte traduttive più significative sono illustrate nel commento alla traduzione.
Resumo:
Ilex guayusa, a tree native from the Amazon Rainforest, represents an important part of the culinary traditions and folk medicine of the indigenous tribes. In fact, infusions of different parts of the tree have been used as natural remedies. Particularly, the infusion obtained by the dry leaves of guayusa is a source of phenolic compounds, which are considered as antioxidant substances and have been associated with numerous benefits for human health. Currently, the growing interest of consumers towards healthy food and drinks has led to the rapid spread of this drink. However, the scientific literature about the content of polar compounds in infusion of guayusa leaves is scarce. Therefore, the aims of the present work were to enhance the extraction conditions of phenolic compounds from guayusa leaves by infusion and to characterize them via HPLC-ESI-TOF-MS. To reach these objectives, a Box-Behnken design (BBD) was applied to test the effect of different extraction conditions (time 2, 8 and 14 min), temperature (25, 62.5 and 100 °C) and solid ratio (0.25, 0.375 and 0.50 g) on the sum of phenolic content. On the one hand, the optimal conditions were 1 min infusion, 100 °C and 0.370 g of dry leaves. On the other hand, the 99% of the nine phenolic compounds identified were phenolic acids derivatives from hydroxycinnamic acid and the 1% belonged to the flavonoid family. The major compound was dicaffeoylquinic acid (68%). The difference between the results obtained and those of other researches is probably due to the stochastic nature of the vegetable matrix samples, since their chemical composition is susceptible to multiple factors. To sum up, the use of experimental design provided greater quantity of phenolic compounds than other extraction techniques such as blanching, or only to the oxidation process. Besides, the high resolution of the TOF spectrometer allowed the characterization of new isomers of the compounds previously described.
Distribuzione spaziale e temporale delle specie macrobentoniche aliene e native in ambienti portuali
Resumo:
La maggior parte degli insediamenti urbani si trova in prossimità delle coste e più del 50% della popolazione vive entro 100 km dal mare. Questo significa che l’ambiente marino è fortemente influenzato dalle attività antropiche e, per questo, è necessario creare un piano di gestione degli ambienti costieri, in quanto la resilienza dell’habitat marino dipende dall’uso sostenibile degli ecosistemi marini urbani. Lo scopo dello studio è quello di analizzare la distribuzione spaziale e temporale delle specie native e aliene, presenti sulle banchine del porto-canale di Ravenna. Sono stati analizzati i popolamenti intertidali di 6 siti lungo il canale Candiano dal 2016 al 2018 nei mesi di maggio. I risultati hanno illustrato un gradiente terra-mare a partire dai siti più interni lungo il porto-canale. Le specie più abbondanti identificate sono i due mitili Mytilus Galloprovincialis (specie nativa) e Xenostrobus securis (specie invasiva); queste specie si avvicendano nelle stazioni centrali del Candiano e si cedono il posto a vicenda: la specie nativa rimane nelle acque esterne e meno impattate mentre quella invasiva resta nei siti interni più soggetti a disturbi di vario tipo, come quello antropico. La terza specie più numerosa è Sphaeroma serratum, isopode nativo del Mediterraneo, presente da sempre nelle zone lagunari del ravennate; in questo studio è stato rinvenuto nelle stazioni più interne, che potrebbe sfruttare come rifugio da possibili competitori. I risultati hanno mostrato l’abbondanza e la diversità delle specie, indigene e non ,del porto di Ravenna: su un totale di 71 taxa diversi, le specie aliene rappresentavano il 17%; queste sono state rinvenute soprattutto nei siti di campionamento più interni, dove sono presenti condizioni più limitanti e sfavorevoli per le specie native. Inoltre, è stato osservato come la diversità specifica aumenti lungo il gradiente mare-terra, considerando le zone con maggiore diversità anche quelle con maggiore specie aliene.