470 resultados para memorie di massa, memorie secondarie, dati digitali, hard disk
Resumo:
Durante l’esecuzione di prove al banco su motori a combustione interna vengono acquisiti dati contenenti le caratteristiche del motore testato al regime di funzionamento scelto, sotto l’azione di alcuni o numerosi parametri variabili in base ai risultati che si vogliono ottenere dalla prova stessa ed in determinate condizioni ambientali. Per questo motivo è di fondamentale importanza disporre di uno strumento che consenta una rapida, ma allo stesso tempo precisa e quanto più possibile completa visualizzazione ed elaborazione di tali dati. A tale scopo con questo elaborato si vogliono valutare diverse soluzioni, in termini di software, per l’analisi di dati sperimentali, con particolare attenzione rivolta agli ambienti NI LabVIEW, The MathWorks MATLAB e NI DIAdem, e ad alcuni strumenti attualmente in uso, cercando sempre il giusto compromesso tra necessità riscontrate in ambito visualizzazione ed analisi dati ed il contenimento dei costi. Vengono, in seguito, esposte le motivazioni che hanno portato alla scelta di DIAdem per implementare le procedure di post-elaborazione dei dati.
Resumo:
Questo lavoro di tesi mira ad indagare, a livello preliminare, quali siano i vantaggi e gli svantaggi a livello strutturale legati alla possibilità di realizzare componenti per mezzi spaziali con tecnologie di Rapid Prototyping direttamente nello spazio: questa possibilità verrà confrontata con il caso in cui gli stessi componenti siano realizzati a terra e poi inviati nello spazio con un lanciatore. Nonostante si siano riscontrati dei limiti derivanti dalla carenza di dati tecnici sulle caratteristiche meccaniche dei materiali, è stata sviluppata una metodologia che ha fornito l’opportunità, seppur con grandi approssimazioni, di valutare il problema. Il punto di partenza dell’attività è stato quello di visionare figure ed immagini di mezzi spaziali e di scegliere alcuni componenti che possano essere oggetto di manutenzione o sostituzione in volo. Sei componenti sono stati poi modellati al CAD, ed è stata condotta un’analisi ad elementi finiti (FEM) mediante il software MSC Patran/Nastran, con lo scopo di simulare la risposta strutturale nelle diverse condizioni di carico prese in considerazione. Seppur a livello qualitativo e del tutto preliminare, sono stati svolti dei confronti in termini di massa e tensioni per valutare in quali casi sembra sia conveniente realizzare un componente a terra con tecnologie tradizionali, e in quali sembra sia vantaggioso utilizzare nuove tecnologie di prototipazione rapida stampando direttamente il componente nello spazio.
Resumo:
Lo scopo di questo lavoro di tesi è stato quello di studiare l’efficacia e l’applicabilità dello strumento HERACLES II Flash Gas Chromatography Electronic Nose mediante l’analisi di un set molto ampio di campioni di oli d’oliva vergini reperiti presso un concorso nazionale. Nello specifico, mediante elaborazioni di statistica multivariata dei dati, è stata valutata sia la capacità discriminante del metodo per campioni caratterizzati da un diverso profilo sensoriale, sia la correlazione esistente tra l’intensità delle sensazioni percepite per via sensoriale ed i dati ottenuti mediante l’analisi strumentale. La valutazione delle caratteristiche sensoriali dei campioni è stata realizzata in occasione dello stesso concorso da parte di un gruppo di giudici esperti e secondo le modalità stabilite dai regolamenti comunitari. Ogni campione è stato valutato da almeno 8 assaggiatori che hanno determinato l’intensità di caratteristiche olfattive (eventuali difetti, fruttato e note secondarie positive) e gustative (amaro e piccante). La determinazione dei composti volatili, invece, è stata condotta mediante lo strumento HERACLES II Electronic Nose (AlphaMOS), dotato di due colonne cromatografiche caratterizzate da diversa polarità (MXT-5 con fase stazionaria apolare e MXT-WAX con fase stazionaria polare), ciascuna collegata ad un rivelatore di tipo FID. L’elaborazione multivariata dei dati è stata realizzata mediante il software in dotazione con lo strumento.
Resumo:
Da ormai sette anni la stazione permanente GPS di Baia Terranova acquisisce dati giornalieri che opportunamente elaborati consentono di contribuire alla comprensione della dinamica antartica e a verificare se modelli globali di natura geofisica siano aderenti all’area di interesse della stazione GPS permanente. Da ricerche bibliografiche condotte si è dedotto che una serie GPS presenta molteplici possibili perturbazioni principalmente dovute a errori nella modellizzazione di alcuni dati ancillari necessari al processamento. Non solo, da alcune analisi svolte, è emerso come tali serie temporali ricavate da rilievi geodetici, siano afflitte da differenti tipologie di rumore che possono alterare, se non opportunamente considerate, i parametri di interesse per le interpretazioni geofisiche del dato. Il lavoro di tesi consiste nel comprendere in che misura tali errori, possano incidere sui parametri dinamici che caratterizzano il moto della stazione permanente, facendo particolare riferimento alla velocità del punto sul quale la stazione è installata e sugli eventuali segnali periodici che possono essere individuati.
Resumo:
Il presente elaborato è stato finalizzato allo sviluppo di un processo di digestione anaerobica della frazione organica dei rifiuti solidi urbani (FORSU oppure, in lingua inglese OFMSW, Organic Fraction of Municipal Solid Waste) provenienti da raccolta indifferenziata e conseguente produzione di biogas da impiegarsi per il recupero energetico. Questo lavoro rientra nell’ambito di un progetto, cofinanziato dalla Regione Emilia Romagna attraverso il Programma Regionale per la Ricerca Industriale, l’Innovazione e il Trasferimento Tecnologico (PRRIITT), sviluppato dal Dipartimento di Chimica Applicata e Scienza dei Materiali (DICASM) dell’Università di Bologna in collaborazione con la Facoltà di Ingegneria dell’Università di Ferrara e con la società Recupera s.r.l. che applicherà il processo nell’impianto pilota realizzato presso il proprio sito di biostabilizzazione e compostaggio ad Ostellato (FE). L’obiettivo è stato la verifica della possibilità di impiegare la frazione organica dei rifiuti indifferenziati per la produzione di biogas, e in particolare di metano, attraverso un processo di digestione anaerobica previo trattamento chimico oppure in codigestione con altri substrati organici facilmente fermentabili. E’ stata inoltre studiata la possibilità di impiego di reattori con biomassa adesa per migliorare la produzione specifica di metano e diminuire la lag phase. Dalla sperimentazione si può concludere che è possibile giungere allo sviluppo di metano dalla purea codigerendola assieme a refluo zootecnico. Per ottenere però produzioni significative la quantità di solidi volatili apportati dal rifiuto non deve superare il 50% dei solidi volatili complessivi. Viceversa, l’addizione di solfuri alla sola purea si è dimostrata ininfluente nel tentativo di sottrarre gli agenti inibitori della metanogenesi. Inoltre, l’impiego di supporti di riempimento lavorando attraverso processi batch sequenziali permette di eliminare, nei cicli successivi al primo, la lag phase dei batteri metanogeni ed incrementare la produzione specifica di metano.
Resumo:
In questi ultimi anni il tema della sicurezza sismica degli edifici storici in muratura ha assunto particolare rilievo in quanto a partire soprattutto dall’ordinanza 3274 del 2003, emanata in seguito al sisma che colpì il Molise nel 2002, la normativa ha imposto un monitoraggio ed una classificazione degli edifici storici sotto tutela per quanto riguarda la vulnerabilità sismica (nel 2008, quest’anno, scade il termine per attuare quest’opera di classificazione). Si è posto per questo in modo più urgente il problema dello studio del comportamento degli edifici storici (non solo quelli che costituiscono monumento, ma anche e soprattutto quelli minori) e della loro sicurezza. Le Linee Guida di applicazione dell’Ordinanza 3274 nascono con l’intento di fornire strumenti e metodologie semplici ed efficaci per affrontare questo studio nei tempi previsti. Il problema si pone in modo particolare per le chiese, presenti in grande quantità sul territorio italiano e di cui costituiscono gran parte del patrimonio culturale; questi edifici, composti di solito da grandi elementi murari, non presentano comportamento scatolare, mancando orizzontamenti, elementi di collegamento efficace e muri di spina interni e sono particolarmente vulnerabili ad azioni sismiche; presentano inoltre un comportamento strutturale a sollecitazioni orizzontali che non può essere colto con un approccio globale basato, ad esempio, su un’analisi modale lineare: non ci sono modi di vibrare che coinvolgano una sufficiente parte di massa della struttura; si hanno valori dei coefficienti di partecipazione dei varii modi di vibrare minori del 10% (in generale molto più bassi). Per questo motivo l’esperienza e l’osservazione di casi reali suggeriscono un approccio di studio degli edifici storici sacri in muratura attraverso l’analisi della sicurezza sismica dei cosiddetti “macroelementi” in cui si può suddividere un edificio murario, i quali sono elementi che presentano un comportamento strutturale autonomo. Questo lavoro si inserisce in uno studio più ampio iniziato con una tesi di laurea dal titolo “Analisi Limite di Strutture in Muratura. Teoria e Applicazione all'Arco Trionfale” (M. Temprati), che ha studiato il comportamento dell’arco trionfale della chiesa collegiata di Santa Maria del Borgo a San Nicandro Garganico (FG). Suddividere un edificio in muratura in più elementi è il metodo proposto nelle Linee Guida, di cui si parla nel primo capitolo del presente lavoro: la vulnerabilità delle strutture può essere studiata tramite il moltiplicatore di collasso quale parametro in grado di esprimere il livello di sicurezza sismica. Nel secondo capitolo si illustra il calcolo degli indici di vulnerabilità e delle accelerazioni di danno per la chiesa di Santa Maria del Borgo, attraverso la compilazione delle schede dette “di II livello”, secondo quanto indicato nelle Linee Guida. Nel terzo capitolo viene riportato il calcolo del moltiplicatore di collasso a ribaltamento della facciata della chiesa. Su questo elemento si è incentrata l’attenzione nel presente lavoro. A causa della complessità dello schema strutturale della facciata connessa ad altri elementi dell’edificio, si è fatto uso del codice di calcolo agli elementi finiti ABAQUS. Della modellazione del materiale e del settaggio dei parametri del software si è discusso nel quarto capitolo. Nel quinto capitolo si illustra l’analisi condotta tramite ABAQUS sullo stesso schema della facciata utilizzato per il calcolo manuale nel capitolo tre: l’utilizzo combinato dell’analisi cinematica e del metodo agli elementi finiti permette per esempi semplici di convalidare i risultati ottenibili con un’analisi non-lineare agli elementi finiti e di estenderne la validità a schemi più completi e più complessi. Nel sesto capitolo infatti si riportano i risultati delle analisi condotte con ABAQUS su schemi strutturali in cui si considerano anche gli elementi connessi alla facciata. Si riesce in questo modo ad individuare con chiarezza il meccanismo di collasso di più facile attivazione per la facciata e a trarre importanti informazioni sul comportamento strutturale delle varie parti, anche in vista di un intervento di ristrutturazione e miglioramento sismico.
Resumo:
Riba Composites, azienda specializzata nella lavorazione della fibra di materiali compositi avanzati, si trova in una vantaggiosa situazione di sviluppo e ampliamento del proprio raggio d’azione, e dove le informazioni da gestire sono sempre più numerose. E’ quindi risultato necessario un supporto informativo che gestisca le informazioni. Dal punto di vista produttivo, l’introduzione del sistema informativo ha l’obiettivo di rispondere alle problematiche legate alla gestione dei materiali, sia a livello di materie prime, che di semilavorati e prodotti finiti in modo tale da gestirli con efficienza ed evitando le rotture di stock. L’obiettivo di fondo che Riba vuole perseguire é di crescere e svilupparsi in logica di lean production che, nell’ottica della gestione dei magazzini significa “approvvigionare i materiali solamente nel momento in cui si manifesta un fabbisogno”. Quest’approccio abbandona la attuale logica di pianificazione “a spinta” (push) che prevedeva la programmazione degli approvvigionamenti e la produzione di semilavorati e prodotti finiti attraverso previsioni basate sull’analisi di dati storici o di mercato, e non attraverso gli ordini effettivamente acquisiti su cui si basa la logica di produzione “snella” (pull). L’implementazione di un sistema ERP ha richiesto un’analisi approfondita dell’azienda in cui si opera così come del prodotto finito e del processo produttivo, a tal punto da poter riconoscere le esigenze e le necessità a cui dovrà rispondere il sistema informativo. A questa fase di analisi e raccolta dati segue un momento di assestamento del sistema informativo, in cui solo una parte di articoli viene gestita dal sistema per poter procedere contemporaneamente con la graduale formazione del personale. La durata del progetto in questione è stata stimata di circa 20 mesi, tempo necessario per poter adattare il sistema e le diverse personalizzazioni ad un processo così complesso come la lavorazione della fibra di carbonio. Termine previsto Agosto 2010
Resumo:
La relazione mira ad illustrare l'importanza del compostaggio, quale tecnologia per lo smaltimento dei rifiuti e recupero di risorse. Vengono descritti il processo di stabilizzazione aerobica, i meccanismi microbici e i parametri fisico-chimici che lo caratterizzano. E' evidenziata l'importanza della raccolta differenziata e della scelta delle matrici compostabili nell'ottimizzazione di questa biotecnologia spontanea per il trattamento di rifiuti e reflui organici putrescibili. E' sottolineato, inoltre, come una corretta gestione del processo permetta di valorizzare residui di varia natura trasformandoli in un buon compost, prodotto valido dal punto di vista agronomico e ambientale. Nella parte finale della relazione verrà inoltre descritto un impianto di compostaggio, presente nel territorio regionale, la Nuova Geovis di Sant'Agata Bolognese e dal punto di vista applicativo, verrà costruito un modello, che permetta di legare l'andamento della temperatura all'andamento dell'IRD, Indice di Respirazione Dinamico, attraverso dati raccolti presso l'impianto, relativi ovviamente a Indice di Respirazione Dinamico (IRD) e temperatura. Questo anche per valutare il corretto del processo stesso.
Resumo:
La presente tesi tratta delle analisi di sicurezza delle intersezioni sia esistenti, sia di nuova progettazione. Nel primo capitolo vengono definite le intersezioni secondo il D.M. 19-04-06 âNorme funzionali e geometriche per la costruzione delle intersezioni stradaliâ. Sono descritte le manovre possibili, le problematiche ed i punti di conflitto che si vengono a creare durante lâattraversamento, definendo le varie tipologie. Successivamente si affronta una classificazione tipologica delle intersezioni rappresentando per mezzo di una matrice simbolica tutti i possibili nodi. Questi vengono suddivisi in base alla possibilità di connessione. Ampio spazio è dato alla descrizione dellâintersezione a raso dove vengono esaminate le caratteristiche geometriche tra cui le configurazioni delle corsie e le tipologie di isole divisionali. Vengono esaminate le particolarità dellâintersezione semaforizzata definendo il ciclo semaforico e gli elementi che lo compongono, la fasatura, il livello di servizio (LOS), il ritardo, definendo gli elementi che lo compongono per mezzo di formule empiriche. Nella seconda parte del capitolo viene descritta lâintersezione a rotatoria in base al D.M. 19-04-06. Inizialmente si introduce lâargomento con nozioni storiche a carattere informativo, quindi si da una classificazione generale degli elementi che la caratterizzano. Viene descritta lâisola divisionale spiegandone la tipologia costruttiva e rappresentando i parametri di classificazione geometrica. A titolo di esempio sono state inserite varie rappresentazioni di rotatorie suddivise per tipologie costruttive. Nellâultima parte viene affrontato lâelemento rotatoria definendo la distanza di visibilità e i criteri per il calcolo della capacità . Il secondo capitolo parla delle analisi di sicurezza delle intersezioni. Inizialmente viene descritta la circolare 3699 âLinee guida per le analisi di sicurezza delle stradeâ definendo il concetto di analisi di sicurezza ed esaminando le differenze tra le due tipologie di analisi: Road safety review e Road safety audit. In seguito si descrivono gli obbiettivi dellâanalisi di sicurezza, vantaggi e svantaggi e la valutazione dellâapproccio concettuale. Viene descritta più approfonditamente la tipologia del Road safety review evidenziando lâutilità , gli elementi che la caratterizzano, le figure professionali che prendono parte a queste analisi con le azioni che devono seguire. Dopo si analizzano i criteri per affrontare gli studi sulla sicurezza e le fasi per le procedure di analisi. Si procede con la descrizione di una tipologia di ispezione, analizzando le problematiche e la stesura del rapporto di analisi con la descrizione dei tempi di attuazione. Nella parte centrale del capitolo viene descritta la direttiva del parlamento europeo e del consiglio sulla gestione della sicurezza delle infrastrutture stradali con i relativi obbiettivi che si prefigge. Vengono riportati i 13 articoli che si compone con i relativi 4 allegati inerenti a: - Valutazione di impatto sulla sicurezza; - Audit della sicurezza stradale; - Gestione dei tratti stradali ad alto rischio, gestione della sicurezza della rete e ispezione di sicurezza; - Dati che devono figurare nelle relazioni di incidenti. Lâultimo argomento preso in esame riguarda le norme per gli interventi di adeguamento delle strade esistenti. Vengono descritte le categorie di intervento e gli obbiettivi da raggiungere distinguendoli in obbiettivi prestazionali, di funzionalità operativa e sicurezza della circolazione. Vengono affrontate le caratteristiche e le differenze tra interventi strutturali e non strutturali con i relativi obbiettivi valutando gli effetti che si ottengono dallâadeguamento delle strade. Successivamente vengono descritte le campagne di monitoraggio con le relative procedure e tempistiche. Infine si valutano le responsabilità degli interventi. Nel capitolo 3 viene descritta lâanalisi dello stato di fatto. Si è proceduto con la classificazione della infrastruttura descrivendo i tratti di strada interessati dallâintervento ed utilizzando delle foto per individuare alcune problematiche emerse nellâintersezione. Utilizzando lâelaborato âazzonamento del territorio comunale di Carpiâ è stata descritta la zona oggetto di studio. Poi con la macroclassificazione del territorio con scala 1:10000 viene mostrato graficamente il territorio urbanizzato, in corso di urbanizzazione e a destinazione urbana. Lâultimo elaborato preso in esame riguarda la classificazione acustica del territorio. Infine si è proceduto con lâanalisi del traffico e di incidentalità . Utilizzando i dati rilevati dalla polizia municipale del comune di Carpi sono stati costruiti i grafici e studiati gli andamenti nel periodo di tempo di riferimento dal 2000 al 2008. Utilizzando poi i dati dei flussi di traffico si sono analizzati le tipologie e i volumi di traffico nellâintersezione. Nellâultimo capitolo viene studiato il Road safety review dellâintersezione. Si procede con una descrizione generale dellâintersezione, e si prosegue poi con lâindividuazione delle problematiche lungo il tracciato. Inizialmente sono state scattate numerose foto nella zona interessata poi sono state divise per tipologia di problema. Per ogni problema si è cercato una soluzione descrivendo e motivando la scelta. Nelle conclusioni si sono descritti i risultati ottenuti nellâanalisi di sicurezza elencando le principali raccomandazioni emerse dallâanalisi.
Resumo:
La necessità di sincronizzare i propri dati si presenta in una moltitudine di situazioni, infatti il numero di dispositivi informatici a nostra disposizione è in continua crescita e, all' aumentare del loro numero, cresce l' esigenza di mantenere aggiornate le multiple copie dei dati in essi memorizzati. Vi sono diversi fattori che complicano tale situazione, tra questi la varietà sempre maggiore dei sistemi operativi utilizzati nei diversi dispositivi, si parla di Microsoft Windows, delle tante distribuzioni Linux, di Mac OS X, di Solaris o di altri sistemi operativi UNIX, senza contare i sistemi operativi più orientati al settore mobile come Android. Ogni sistema operativo ha inoltre un modo particolare di gestire i dati, si pensi alla differente gestione dei permessi dei file o alla sensibilità alle maiuscole. Bisogna anche considerare che se gli aggiornamenti dei dati avvenissero soltanto su di uno di questi dispositivi sarebbe richiesta una semplice copia dei dati aggiornati sugli altri dispositivi, ma che non è sempre possibile utilizzare tale approccio. Infatti i dati vengono spesso aggiornati in maniera indipendente in più di un dispositivo, magari nello stesso momento, è pertanto necessario che le applicazioni che si occupano di sincronizzare tali dati riconoscano le situazioni di conflitto, nelle quali gli stessi dati sono stati aggiornati in più di una copia ed in maniera differente, e permettano di risolverle, uniformando lo stato delle repliche. Considerando l' importanza e il valore che possono avere i dati, sia a livello lavorativo che personale, è necessario che tali applicazioni possano garantirne la sicurezza, evitando in ogni caso un loro danneggiamento, perchè sempre più spesso il valore di un dispositivo dipende più dai dati in esso contenuti che dal costo dello hardware. In questa tesi verranno illustrate alcune idee alternative su come possa aver luogo la condivisione e la sincronizzazione di dati tra sistemi operativi diversi, sia nel caso in cui siano installati nello stesso dispositivo che tra dispositivi differenti. La prima parte della tesi descriverà nel dettaglio l' applicativo Unison. Tale applicazione, consente di mantenere sincronizzate tra di loro repliche dei dati, memorizzate in diversi dispositivi che possono anche eseguire sistemi operativi differenti. Unison funziona a livello utente, analizzando separatamente lo stato delle repliche al momento dell' esecuzione, senza cioè mantenere traccia delle operazioni che sono state effettuate sui dati per modificarli dal loro stato precedente a quello attuale. Unison permette la sincronizzazione anche quando i dati siano stati modificati in maniera indipendente su più di un dispositivo, occupandosi di risolvere gli eventuali conflitti che possono verificarsi rispettando la volontà dell' utente. Verranno messe in evidenza le strategie utilizzate dai suoi ideatori per garantire la sicurezza dei dati ad esso affidati e come queste abbiano effetto nelle più diverse condizioni. Verrà poi fornita un' analisi dettagiata di come possa essere utilizzata l' applicazione, fornendo una descrizione accurata delle funzionalità e vari esempi per renderne più chiaro il funzionamento. Nella seconda parte della tesi si descriverà invece come condividere file system tra sistemi operativi diversi all' interno della stessa macchina, si tratta di un approccio diametralmente opposto al precedente, in cui al posto di avere una singola copia dei dati, si manteneva una replica per ogni dispositivo coinvolto. Concentrando l' attenzione sui sistemi operativi Linux e Microsoft Windows verranno descritti approfonditamente gli strumenti utilizzati e illustrate le caratteristiche tecniche sottostanti.
Resumo:
Il fitoplancton è costituito da organismi molto importanti per l'ambiente marino e molto diversificati sia dal punto di vista morfologico che fisiologico.Questi organismi sono normalmente soggetti ai cambiamenti stagionali e alle variazioni dell'ambiente dovute sia a fenomeni naturali che all'impatto antropico, sempre più rilevante. Con questa tesi si è voluto approfondire l'effetto di erbicidi comunemente usati dall'uomo in agricoltura su delle microalghe flagellate rappresentative del Mar Adriatico. L'inquinante scelto è la Terbutilazina, sostanza utilizzata per il diserbo del mais e diffusa in tutta l'area padano-venera, come dimostrano i dati dei campionamenti ARPA, che riportano la presenza di Terbutilazina e del suo prodotto di degradazione Desetil-Terbutilazina a concentrazioni superiori al limite fissato sia nelle acque superficiali che in quelle sotterranee. Anche in mare come riportato in letteratura (Carafa et. al 2009)è stato riscontrato a concentrazioni superiori al limite previsto dalla normativa vigente in Italia. In particolare il meccanismo d'azione di questo erbicida interferisce con la fotosintesi, agendo sulle proteine di membrana dei cloroplasti, rimpiazzando il chinone accettore di elettroni QB della proteina D1 del fotosistema II. Più specie di microalghe fatte crescere in colture 'batch' sono state testate a diverse concentrazioni di erbicida in condizione di luce nutrienti costanti. Questi esperimenti sono stati inoltre condotti a due diverse temperature (20 e 25°C) per studiare l'effetto di questo inquinante in correlazione con l'attuale aumento di temperatura in atto nel pianeta. In una prima fase di screening è stato valutato l'effetto della Terbutilazina su 9 specie di flagellate rappresentative dell'Adriatico, tramite misure dell'efficienza fotosintetica. Grazie a questa prima fase sono state individuate le microalghe e le relative concentrazioni di Terbutilazina da utilizzare negli esperimenti. Per gli esperimenti, sono state scelte le due specie algali Gonyaulax spinifera e Prorocentrum minimum sulle quali si è approfondito lo studio dell'effetto dell'inquinante alle due temperature, attraverso una serie di analisi volte ad individuare le risposte in termini di crescita e di fisiologia delle alghe quali: conteggio delle cellule, torbidità, efficienza fotosintetica, consumo di nutrienti, quantità di clorofilla e di polisaccaridi extracellulari prodotti. La scelta di queste microalghe è stata dettata dal fatto che Gonyaulax spinifera si è rivelata la microalga più sensibile a concentrazioni di erbicida più vicine a quelle ambientali fra tutte le alghe valutate, mentre Prorocentrum minimum è fra le dinoflagellate più frequenti e rappresentative del Mar Adriatico (Aubry et al. 2004), anche se non particolarmente sensibile; infatti P. minimum è stato testato ad una concentrazione di erbicida maggiore rispetto a quelle normalmente ritrovate in ambiente marino. Dai risultati riportati nella tesi si è visto come l'erbicida Terbutilazina sia in grado di influenzare la crescita e la fotosintesi di microalghe flagellate dell'Adriatico anche a concentrazioni pari a quelle rilevate in ambiente, e si è evidenziato che gli effetti sono maggiori alle temperature in cui le microalghe hanno una crescita meno efficiente. Questi studi hanno messo in evidenza anche l'utilità delle misure di fotosintesi tramite fluorimetro PAM nel valutare le risposte delle microalghe agli erbicidi triazinici. Inoltre la diversa risposta delle microalghe osservata, potrebbe avere conseguenze rilevanti sulle fioriture estive di fitoplancton in caso di presenza in mare di Terbutilazina, anche a concentrazioni non particolarmente elevate. Questo lavoro si inserisce in un contesto più ampio di ricerca volto alla modellizzazione della crescita algale in presenza di inquinanti ed in concomitanza con le variazioni di temperatura. Infatti i dati ottenuti insieme a misure di carbonio cellulare, non ancora effettuate, saranno utili per la messa a punto di nuove parametrizzazioni che si avvicinino maggiormente ai dati reali, per poi simulare i possibili scenari futuri variando le condizioni ambientali e le concentrazioni dell'inquinante studiato.
Resumo:
Lo studio sviluppato nella tesi fa riferimento all’ampio database sperimentale raccolto presso il sito campione di Treporti (VE), nell’ambito di un progetto di ricerca finalizzato alla caratterizzazione geotecnica del complesso sottosuolo della Laguna Veneta. Il sottosuolo lagunare è infatti caratterizzato da una fitta alternanza di sedimenti a matrice prevalentemente limosa, dal comportamento intermedio fra sabbie e argille. Il progetto di ricerca prevedeva la realizzazione di una vasta campagna di indagini in sito, articolata in più fasi e integrata da un programma sperimentale di laboratorio; nell’area in esame è stato inoltre costruito un rilevato sperimentale in vera grandezza, continuamente monitorato con una sofisticata strumentazione per circa quattro anni, fino alla sua graduale rimozione. Il lavoro di tesi proposto riguarda l’analisi dei dati provenienti dalle numerose prove dilatometriche (DMT) e con piezocono (CPTU) effettuate a Treporti, con particolare riferimento alle prove di tipo sismico (SDMT e SCPTU) realizzate sia prima della costruzione del rilevato sia a seguito della rimozione dello stesso. Rispetto alla prove “tradizionali”, le prove sismiche permettono anche la misura della velocità delle onde di taglio (Vs), la cui conoscenza è richiesta anche dalle recenti Norme Tecniche delle Costruzioni e della quale è possibile risalire agevolmente al modulo di rigidezza elastico a piccolissime deformazioni (G0). L’enorme database raccolto in questo sito offre tra l’altro l’interessante ed inusuale possibilità di mettere a confronto dati ricavati da prove dilatometriche e con piezocono relative a verticali adiacenti, svolte in diverse fasi della storia di carico imposta al sottosuolo dell’area mediante la costruzione del rilevato. L’interpretazione dei dati penetrometrici e dilatometrici è stata fatta utilizzando i più recenti approcci interpretativi proposti nella letteratura del settore. È importante sottolineare che la possibilità di classificare e stimare i parametri meccanici del sottosuolo lagunare a partire da prove diverse ha permesso una valutazione critica delle procedure interpretative adottate e, in taluni casi, ha messo in evidenza i limiti di alcuni approcci, pur se limitatamente al caso specifico in esame. In alcuni casi, grazie all’uso integrato delle prove dilatometriche e penetrometriche è stato possibile mettere a punto specifiche correlazioni alternative a quelle esistenti, calibrate sui dati sperimentali di Treporti.
Resumo:
Individuazione dei valori ottimali di crescita di dinoflagellate bentoniche, valutazione della tossicità e di interazioni allelopatiche. Il fitoplancton rappresenta la base della catena trofica in ambiente marino, nonché oltre la metà della produzione primaria a livello mondiale. Le dinoflagellate, assieme alle diatomee, costituiscono la maggior parte del fitoplancton, comprendendo numerose e diversificate specie di microalghe dalla differente distribuzione, ecologia e fisiologia. Alcune specie appartenenti a tale gruppo sono in grado di dare luogo, in determinate condizioni, a estesi fenomeni di fioriture algali, che diventano particolarmente impattanti se le specie coinvolte sono responsabili della produzione di biotossine, le quali possono direttamente uccidere altri organismi o accumularsi nei loro tessuti. Gli effetti nocivi di questi fenomeni si ripercuotono pesantemente sull'ecosistema marino, con ingenti morie di organismi acquatici (da pesci a molluschi, dal bentos al necton) e profonde alterazioni nelle comunità specifiche. Un forte coinvolgimento si ha di conseguenza anche per le attività umane, in seguito a forti esternalità negative su pesca, turismo, attività ricreative, o spesso con rischi direttamente correlati alla salute umana, dovuti perlopiù ad ingestione di organismi contaminati o all'inalazione di tossine per via aerea. Negli ultimi anni le fioriture algali tossiche si sono fortemente intensificate in distribuzione, estensione e frequenza, attirando l'interesse globale della comunità scientifica. Diversi studi condotti in questo senso hanno portato all'identificazione di numerose specie di dinoflagellate tossiche e all'isolamento di una lunga serie di composti chimici con effetti dannosi da esse sintetizzate. Tuttavia si conosce ancora ben poco sull'ecologia di queste specie, in particolare su quali siano i fattori che possano indurre o regolare la proliferazione e lo sviluppo di un bloom algale. Questo studio si è focalizzato su due specie di dinoflagellate bentoniche tossiche, Ostreopsis ovata e Coolia monotis, entrambe appartenenti alla famiglia Ostreopsidaceae, note già da tempo nei paesi tropicali poiché associate alla sindrome da ciguatera. Negli ultimi anni, Ostreopsis ovata è stata oggetto di numerose ricerche in Europa, poiché ha dato luogo a fenomeni di bloom, collegati con danni respiratori nell'uomo, anche lungo i litorali italiani; soltanto recentemente grazie ad una tecnica analitica basata sulla combinazione di cromatografia liquida e spettrometria di massa (LC-MS), è stato possibile isolare la diverse tossine responsabili. Durante i vari monitoraggi e campionamenti delle acque, questa dinoflagellata è stata sempre riscontrata in presenza di Coolia monotis (e Prorocentrum lima), di cui invece si conosce ben poco, visto che la sua tossicità in Mediterraneo non è ancora stata dimostrata, né la sua tossina caratterizzata. Il primo step di questo studio è stato quello di valutare, attraverso il mantenimento di colture in vitro, l'importanza della temperatura nella crescita di O. ovata e C. monotis (singolarmente) provenienti dalla zona del monte Conero (Ancona, Marche). Esistono già studi di questo tipo su ceppi adriatici di O. ovata, tuttavia è stato effettuato un esperimento similare utilizzando un nuovo ceppo, isolato in anni recenti; per C. monotis invece non sono presenti molti studi in letteratura, in particolare nessuno riguardante ceppi italiani. La valutazione della crescita è stata effettuata attraverso conteggio delle cellule, misura dell'efficienza fotosintetica e consumo dei macronutrienti. Quindi, visto che le due specie vivono in associazione nell'ambiente marino, si è cercato di evidenziare l'instaurarsi di eventuali processi competitivi o di fenomeni di allelopatia. Dall'analisi dei risultati è emerso che, se coltivate individualmente, sia C. monotis che O. ovata mostrano un optimum di crescita alla temperatura di 20°C, con tasso di crescita, numero di cellule e rendimento fotosintetico raggiunti più elevati, seppure non di molto rispetto alle colture a 25°C. Le colture a 30°C al contrario hanno mostrato valori sensibilmente inferiori. Se fatte crescere assieme, invece, C. monotis mantiene lo stesso pattern riscontrato nella monoculture a 20 e 25°C, seppur raggiungendo numeri di cellule inferiori, mentre a 30°C ha una crescita bassissima. Al contrario, O. ovata alla temperatura più elevata raggiunge lo stesso numero di cellule della monocultura, alla temperatura intermedia registra il tasso di crescita, ma non il numero di cellule, più elevato, mentre alla temperatura più bassa (che era l'optimum per la monocultura) si ha il maggior stress per la specie, evidenziando forti fenomeni di competizione. Esperimenti su C. monotis fatta crescere in un filtrato di O. ovata non hanno invece chiarito l'esistenza o meno di eventuali effetti allelopatici di Ostreopsis su Coolia, dato che non sono apparse differenze evidenti tra il controllo e il filtrato, mentre hanno messo in luce l'importanza dei batteri associati alle microalghe come supporto alla loro crescita, poiché le colture cresciute in filtrato sterile hanno manifestato tutte quante un rendimento quantico fotosintetico inferiore.
Resumo:
La presente Tesi di Laurea si pone in continuità rispetto al Laboratorio di Sintesi Finale in Urbanistica “Spiagge urbane. Paesaggi, luoghi, architetture nella città balneare adriatica”. Nel corso del Laboratorio si è condotto uno studio delle possibili soluzioni per la riqualificazione dell’area e delle colonie fortemente degradate della “Città delle Colonie del Marano”. Si è anche condotto uno studio di ciò che sono state le Colonie Marine ed il turismo di massa per le realtà balneari della Riviera Romagnola. Il patrimonio delle colonie marine include 246 edifici in Romagna, edifici di altri tempi che guardano il mare da una posizione di privilegio. Infatti da Ravenna a Cattolica le colonie marine testimoniano un patrimonio edilizio ormai perduto ed in certi casi dimenticato. Purtroppo ad oggi risultano in stato di abbandono totale, rimanendo comunque forti testimonianze storiche. Queste città delle colonie sono pertanto aree da riqualificare e da reinventare, in grado di offrire nuove potenzialità e nuovi sviluppi alle città e al turismo della Riviera. La prima fase del Laboratorio ha riguardato l’analisi del territorio compreso tra i Comuni di Rimini e Riccione, cercando di estrapolare qualsiasi caratteristica di queste aree da riutilizzare, da valorizzare e da riprogettare : si sono studiate le colonie, le loro aree di pertinenza, i loro vincoli, le aree fluviali da salvaguardare, le infrastrutture e la potenzialità edificatoria del territorio. In una seconda fase di lavoro, si sono fatti incontri con docenti e professionisti al fine di approfondire gli eventuali progetti di riqualificazione già avviati, semplificando così anche il lavoro di analisi degli strumenti urbanistici vigenti. Queste fasi hanno portato alla redazione di un masteplan dettato dalle linee generali su cui si è voluto impostare tutta la progettazione urbanistica e compositiva: innanzitutto si è immaginato un nuovo waterfront costituito dalla vista delle colonie di valore storico in primo piano, e la nuova città in secondo piano. Si è immaginata inoltre una città balneare diversa, non più caratterizzata dalla presenza di aree fortemente densificate, ma un’area costruita in altezza per mantenere ampie zone a verde : la città balneare deve essere il più possibile accogliente e libera da veicoli, per non essere più vissuta unicamente nella stagione estiva. Si sono sempre tenute in considerazione anche le nuove tecnologie ed i principi guida della sostenibilità urbana, infatti la città si serve dell’ambiente circostante per gli scarichi dei reflui, per illuminare e per l’accumulo dell’acqua piovana.
Resumo:
La tesi si colloca nell'ambito del Cloud Computing, un modello in grado di abilitare l’accesso in rete in maniera condivisa, pratica e on-demand, di diverse risorse computazionali, come potenza di calcolo o memoria di massa. Questo lavoro ha come scopo la realizzazione di una Cloud privata, per la fornitura di servizi, basata su un’architettura P2P. L’elaborato vuole studiare il caso di un sistema P2P di livello infrastruttura (IaaS) e propone la realizzazione di un prototipo capace di sostenere un insime basilare di API. Verranno utilizzati protocolli di gossip per la costruzione dei servizi fondamentali.