725 resultados para Consorzio di bonifica di secondo grado per il Canale Emiliano Romagnolo, CER, QUAL2K, QUAL2E, modelli di qualità fluviale
Resumo:
Secondo l'Agenzia Europea dell'Ambiente una delle principali minacce per le risorse di acqua dolce della zone costiere italiane è l’intrusione salina. L’obiettivo di questa tesi magistrale è la caratterizzazione idrogeologica di una frazione dell’acquifero freatico costiero situato in due differenti corpi dunosi. L’indagine proseguita per cinque mesi ha evidenziano differenze tra un’area sottoposta a forte pressione antropica (Marina Romea) e un’area che mostra un relativo sviluppo naturale del sistema spiaggia-duna (Porto Corsini). La tecnica di campionamento utilizzata è il sistema a minifiltri (multi level samplers), metodologia innovativa che garantisce tempistiche di monitoraggio rapide e una campionatura multi-livello puntuale e precisa. La campagna di monitoraggio ha coinvolto misure di freatimetria, conduttività elettrica e analisi chimiche delle acque che hanno portato ad una loro classificazione geo-chimica. Dai risultati si evidenzia che l’acquifero è molto salinizzato, gli strati d’acqua dolce sono isolati in lenti superficiali e i tipi di acque presenti sono dominati da ioni sodio e cloro. Tra i due siti il più vulnerabile risulta essere Marina Romea per molti fattori: l’erosione costiera che assottiglia la fascia dunale adibita alla ricarica di acqua dolce, un’estensione spaziale della duna minore rispetto a Porto Corsini, la presenza di infrastrutture turistiche che hanno frazionato la duna, la vicinanza al canale di drenaggio che causa la risalita delle acque profonde saline, la presenza di specie arboree idro-esigenti che attingono e quindi assottigliano le lenti d’acqua dolce. Si propone di migliorare la qualità dell’acqua sotterranea con una migliore gestione del canale di drenaggio, sostituendo alcuni esemplari di pinacee con specie arbustive tipiche degli ambienti dunosi ed infine imponendo misure per il risparmio idrico durante la stagione turistica.
Resumo:
Questo lavoro nasce dalla mia curiosità di comprendere le vicende che hanno sconvolto Hong Kong da settembre 2014 fino ad oggi con l’obiettivo di cogliere le cause principali che hanno innescato le proteste degli abitanti dell’isola. Il mio elaborato è composto da due capitoli: il primo, riguardante la storia di Hong Kong, ne ripercorre tutte le fasi principali: dalla scoperta dell’isola da parte delle navi inglesi fino alla cosiddetta “Rivoluzione degli Ombrelli”, passando per il 1997, anno in cui Hong Kong ritorna alla Cina; il secondo capitolo è dedicato all’analisi terminologica condotta su un corpus di 177,671 token e 15,832 types creato il 5 Maggio 2015 utilizzando i software BootCat e Antconc. L’analisi terminologica ha come scopo quello di analizzare espressioni e termini riguardanti le proteste di Hong Kong, scoppiate il 28 Settembre 2014, per osservare in che modo il linguaggio politico e i simboli della protesta abbiano condizionato la percezione di questi avvenimenti da parte dell’opinione pubblica cinese ed internazionale. Infine, ho organizzato i termini più significativi in schede terminologiche che ho inserito nell’appendice. Gli obiettivi del mio elaborato sono quelli di presentare le recenti rivolte di Hong Kong che, a mio avviso, non hanno avuto una grande risonanza nel nostro paese, cercando di approfondirne gli aspetti più salienti. Inoltre ho scelto di trattare questo argomento perché analizzare le relazioni tra la Cina e una delle proprie “aree periferiche” permette di osservare la politica, la società e la cultura cinese da un punto di vista affascinante e inusuale.
Resumo:
L'obiettivo di questa tesi è avanzare una proposta di sottotiolaggio del film "Wish you well" (2013), tratto dal romanzo omonimo di David Baldacci. Nel primo capitolo viene fatta una breve introduzione alla Traduzione Audiovisiva, dalla sua nascita, alla sua evoluzione e alle varie tipologie presenti al giorno d'oggi. Nel secondo capitolo viene affrontato nei dettagli il sottotitolaggio, concentrandosi in particolare modo sulle norme che lo regolano. Nel terzo capitolo viene trattato il genere cinematografico rappresentato dal film, ovvero la trasposizione cinematografica, facendo riferimento alle varie teorie che trattano l'argomento, così come ai metodi pratici con cui i testi letterari sono adattati per il cinema. Nel quarto capitolo viene analizzato il sottotitolaggio del progetto, prima presentando il prodotto a partire dal romanzo da cui è tratto e dal rapporto dell'autore con l'opera, per arrivare ad una analisi precisa sia della caratterizzazione dei personaggi, sia delle difficoltà tecniche affrontare e di come abbiano influito sulle scelte di traduzione. Infine nel capitolo 5 vengono tratte le conclusioni sull'esperienza del processo di sottotitolaggio.
Resumo:
La presente tesi magistrale si inserisce nell’ambito del progetto Language Toolkit e nasce in particolare dalla collaborazione tra il presente autore e l’azienda Tecnopress S.a.s. Nell’ottica dell’internazionalizzazione della propria attività l’azienda ha richiesto che il proprio sito web venisse sottoposto ad un processo di localizzazione dall’italiano verso l’inglese. Sulla base di queste premesse si è deciso di dividere il lavoro in tre parti: una fase teorica, una fase preparatoria e una fase pratica. La prima fase si è occupata di gettare le basi teoriche necessarie per affrontare consapevolmente l’incarico assegnato. Alla luce delle conclusioni della fase teorica è stata constatata l’esigenza di modificare la natura dell’intervento che si era preventivato di effettuare sul sito web. Fulcro della localizzazione è infatti il locale, ovvero la combinazione di regione socioculturale e lingua presa a riferimento per un processo di localizzazione web. Nelle richieste avanzate dall’azienda figuravano esclusivamente indicazioni relative alla lingua (l’inglese), non già alla regione socioculturale su cui modellare l’intervento di localizzazione del sito. Si è rivelato pertanto necessario procedere autonomamente alla definizione di un locale per il presente progetto, che è stato fatto coincidere con la macrozona europea e cui è stato associato un modello ibrido di English Lingua Franca e Simplified Technical English. Il focus dell’intervento non è stato dunque una regione geografica circoscritta ma una realtà socioculturale molto più ampia e variegata: l’adozione di un locale così ampio e il rispetto dell’indicazione sulla lingua hanno portato il presente autore a optare per un intervento di standardizzazione web. Chiude il presente lavoro una fase operativa, durante la quale sono state create le risorse necessarie al progetto (si segnala in particolare un corpus su misura) e sono state effettuate la standardizzazione e una serie di considerazioni traduttive.
Resumo:
Il tema centrale di questa tesi è lo studio del problema di Dirichlet per il Laplaciano in R^2 usando le serie di Fourier. Il problema di Dirichlet per il Laplaciano consiste nel determinare una funzione f armonica e regolare in un dominio limitato D quando sono noti i valori che f assume sul suo bordo. Ammette una sola soluzione, ma non esistono criteri generali per ricavarla. In questa tesi si mostra come la formula integrale di Poisson, sotto determinate condizioni, risolva il problema di Dirichlet in R^2 e in R^n.
Resumo:
In questo lavoro di tesi sono stati presentati alcuni concetti sulla teoria delle martingale, un processo stocastico dipendente dal tempo. Nel primo capitolo si studiano le prime proprietà delle martingale, ponendo particolare attenzione per il valore atteso condizionato. Nel secondo capitolo si analizza la convergenza delle martingale negli spazi L^p e nel caso particolare dello spazio L^1, richiamando alcuni importanti teoremi di convergenza di Doob. Infine è stata studiata un'applicazione delle martingale alla Finanza Matematica: i moti browniani.
Resumo:
Le fuel cells sono considerate una delle tecnologie più promettenti nel campo della conversione di energia elettrica. Le motivazioni principali alla base dello sviluppo delle fuel cells sono varie, quali la continua e drammatica diminuzione dei combustibili fossili e le conseguenze del consumo degli stessi sull’ambiente. Sistemi analoghi possono essere utilizzati per conservare l’energia attraverso la produzione di H2 per mezzo dell’elettrolisi dell’H2O in elettrolizzatori. I sistemi peroskitici LaMO3 sono utilizzati come elettrodi e come elettroliti. Particolare interesse rivestono in questo ambito i sistemi LaSrFe. in questo lavoro sono state studiate le condizioni sperimentali per la produzione di uno strato a base di LaSrFe attraverso la precipitazione di idrossidi assistita per via elettrochimica su un supporto conduttore al fine di produrre uno strato LaSrFeO3 tipo perosvkitico. Sono state analizzate le condizioni di reazione in condizione galvano statiche in funzione della corrente, dei tempi di sintesi e della soluzione delle specie generatrici di basi. Questi parametri determinano potenziale e pH della soluzione in prossimità dell’elettrodo e sono fondamentali per il controllo della precipitazione e della deposizione.
Resumo:
In questa tesi abbiamo effettuato la caratterizzazione dinamica del celebre ponte pedonale sito a Vagli di Sotto, in Garfagnana (Lucca) e del suo suolo di fondazione. L’opera fu progettata dall’ing. Riccardo Morandi nel 1953 per mettere in comunicazione l’abitato di Vagli di Sopra con i paesi circostanti, dopo l’allagamento della valle sottostante ad opera di una diga in costruzione nello stesso anno. L’opera è interessante per il modo in cui fu costruita in sito e per il fatto di essere - esempio raro - un ponte con fondazioni sommerse da un invaso artificiale per gran parte del tempo e per essere stato costruito in una zona in cui la progettazione antisismica moderna prevederebbe accortezze molto diverse a livello di progettazione. Abbiamo avuto occasione di effettuare la caratterizzazione dinamica dell’opera e del sottosuolo prima ad invaso completamente svuotato (evento che si verifica in media solo ogni 20 anni, per lavori di manutenzione della diga) e successivamente ad invaso riempito. Questo ha permesso di verificare come e se il livello dell’acqua influenzi la risposta dinamica del ponte. E’ stata infine effettuata un’analisi numerica di risposta sismica locale per stimare le accelerazioni tipiche a cui sarebbe sottoposta la struttura in caso di terremoto e le accelerazioni tipiche con cui tale opera dovrebbe essere progettata o sismicamente adeguata al giorno d’oggi.
Resumo:
La sperimentazione aveva il fine di valutare l’attività antimicrobica di oli essenziali di timo e cannella in hamburger di bovino. In primo luogo è stata fatta una caratterizzazione di questi oli mediante analisi GC-MS-SPME, da cui è emerso che le molecole a maggiore attività antimicrobica (rispettivamente timolo/carvacrolo ed aldeide cinnamica) erano presenti a concentrazioni piuttosto basse. Successivamente sono state valutate MIC e MBC nei confronti di microrganismi patogeni di interesse alimentare. Infine, tali oli sono stati incapsulati in chitosano per valutare un eventuale effetto sinergico e favorire un rilascio graduale degli oli. Il processo di incapsulazione ha mostrato una efficienza piuttosto bassa (solo il 25% dell’olio aggiunto veniva effettivamente incapsulato), per cui non è stato possibile utilizzare nanoparticelle “caricate” con quantità di olio tali da inibire significativamente lo sviluppo microbico in hamburger di carne bovina. Infatti, l’effetto sinergico chitosano/olio essenziale è stato in grado di ridurre solo lievemente il carico di enterobatteri durante la conservazione refrigerata, soprattutto nei campioni confezionati in atmosfera modificata. Una prova effettuata utilizzando i due oli in forma libera ad elevata concentrazione (1000 mg/kg), la cannella si è dimostrata molto più efficace del timo, riducendo il carico cellulare di enterobatteri a fine shelf-life, con effetto più evidente nei campioni di hamburger confezionati in atmosfera modificata (riduzione di un ciclo logaritmico). Inoltre, essa è risultata in grado di ridurre lievemente lo sviluppo di lieviti e funghi. Concludendo, gli oli essenziali usati in questa sperimentazione, poiché caratterizzati da una bassa concentrazione di molecole ad elevata attività antimicrobica (timolo/carvacrolo per il timo, aldeide cinnamica per la cannella), non sono stati in grado di prolungare in modo significativo la shelf-life di hamburger di bovino, nemmeno se incapsulati in chitosano.
Resumo:
Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.
Resumo:
I depositi di liquidi infiammabili sono stabilimenti industriali in cui avvengono spesso incendi di grandi dimensioni a causa degli ingenti quantitativi di sostanze infiammabili detenute. Gli incendi tipici dei liquidi infiammabili sono gli incendi di pozza in caso di rilascio del liquido al suolo e gli incendi di serbatoio in caso di ignizione del liquido all’interno del serbatoio stesso. Tali incendi hanno la potenzialità di danneggiare le apparecchiature limitrofe, determinandone il cedimento e dunque l’incremento delle dimensioni dell’incendio e dell’area di danno; tale fenomeno è detto effetto domino. Per la modellazione degli incendi sono disponibili diversi strumenti, divisibili essenzialmente in due categorie: modelli semplici, ovvero basati su correlazioni semi-empiriche e modelli avanzati, costituiti dai codici CFD. L’obiettivo principale del presente lavoro di tesi è il confronto tra le diverse tipologie di strumenti disponibili per la modellazione degli incendi di liquidi infiammabili. In particolare sono stati confrontati tra loro il codice FDS (Fire Dynamics Simulator), il metodo del TNO ed il modello per gli incendi di pozza incorporato nel software ALOHA. Il codice FDS è un modello avanzato, mentre il metodo del TNO ed il modello implementato nel software ALOHA sono modelli semplici appartenenti alla famiglia dei Solid Flame Models. La prima parte del presente lavoro di tesi è dedicata all’analisi delle caratteristiche e delle problematiche di sicurezza dei depositi di liquidi infiammabili, con specifico riferimento all’analisi storica. Nella seconda parte invece i tre metodi sopra citati sono applicati ad un parco serbatoi di liquidi infiammabili ed è effettuato il confronto dei risultati, anche ai fini di una valutazione preliminare dell’effetto domino. La tesi è articolata in 6 capitoli. Dopo il Capitolo 1, avente carattere introduttivo, nel Capitolo 2 vengono richiamati i principali concetti riguardanti gli incendi e vengono analizzate le caratteristiche e le problematiche di sicurezza dei depositi di liquidi infiammabili. Il Capitolo 3 è dedicato alla discussione delle caratteristiche degli incendi di pozza, alla presentazione delle tipologie di strumenti a disposizione per la loro modellazione ed alla descrizione di dettaglio dei modelli utilizzati nel presente lavoro di tesi. Il Capitolo 4 contiene la presentazione del caso di studio. Nel Capitolo 5, che costituisce il cuore del lavoro, i modelli descritti sono applicati al caso di studio, con un’approfondita discussione dei risultati e una valutazione preliminare dell’effetto domino. Nel Capitolo 6 infine sono riportate alcune considerazioni conclusive.
Resumo:
Il lavoro di questa tesi presenta il risultato di una attività di sperimentazione su alcuni algoritmi di ottimizzazione topologica recentemente sviluppati in ambito scientifico e descritti in pubblicazioni su riviste internazionali. L’ottimizzazione topologica può essere definita come una tecnica che mira a variare la forma geometrica di un oggetto bidimensionale o tridimensionale in modo da rispettare requisiti su posizionamento di vincoli e applicazione di forze e da minimizzare l’impiego di materiale necessario ad ottenere una struttura che soddisfi alcuni requisiti. Il settore aerospaziale è sicuramente uno di quelli che può beneficiare di questa metodologia visto che è sempre necessario progettare componenti leggeri e quanto più ottimizzati riducendo gli sprechi di materiale; in ambito aeronautico questo porta ad incrementare l’autonomia ed il carico utile riducendo i costi ambientali ed economici delle attività di trasporto. Discorso analogo vige per il campo spaziale in cui i pesi sono cruciali per la scelta del lanciatore da utilizzare per mandare in orbita strumentazioni e impattano in maniera importante sui costi delle missioni. In questa tesi, dopo una breve descrizione delle tecniche di ottimizzazione topologica prese in considerazione nei test svolti, sono presentati i risultati dell'applicazione di questi metodi ad una serie di specifici casi applicativi del settore aerospaziale, mettendo in risalto i risultati in termini di forme geometriche ottenute per alcuni casi di studio. Per ognuno di questi è descritta la schematizzazione seguita a livello di vincoli e di carichi e la dimensione della superficie o volume di controllo di partenza. Gli esiti del processo di ottimizzazione sono poi commentati, sia a livello di conformazione geometrica ottenuta che di possibilità di implementare dal punto di vista costruttivo la forma trovata.
Resumo:
L'azienda IMA S.p.a., leader nel settore delle macchine automatiche per il packging, intende approfondire la conoscenza sui processi di manifattura additiva con l'obiettivo futuro di riuscire a realizzare il 5% di componenti che compongono le macchine della gamma dell'azienda mediante l'utilizzo di queste nuove tecnologie. Il raggiungimento di tale obiettivo comporta un radicale cambio di mentalità rispetto al passato e la creazione di nuove figure professionali e procedure di progettazione dei componenti totalmente nuove ed innovative. In questo contesto, vengono in aiuto i metodi numerici di ottimizzazione topologica. Noti carichi, vincoli, materiali e geometria d'ingombro del particolare, questi metodi vanno a determinare l'ottimale distribuzione del materiale per ottenere un incremento delle prestazioni del componente, andando a collocare il materiale solo in corrispondenza delle zone dove è strettamente necessario. L'ottimizzazione topologica strutturale, ottenimento della massima rigidezza specifica, è stato proprio l'argomento di questo elaborato. E' stato impiegato il software COMSOL Multiphysics 5.2 per implementare il problema di ottimizzazione. Inizialmente abbiamo affrontato problemi semplici, i cui risultati sono reperibili in letteratura. Dopo aver validato la correttezza della nostra implementazione, abbiamo infine esteso il problema a un caso di studio di un componente di una macchina IMA. Il caso di studio riguardava un componente che esegue l'estrazione della fustella piana dal magazzino in cui l'intero pacco fustelle viene riposto dall'operatore. I risultati ottenuti su questo componente sono stati positivi ottenendo un miglioramento della rigidezza specifica di quest'ultimo. L'obiettivo primario dell'elaborato è stato quello di realizzare una panoramica dei metodi di ottimizzazione topologica e riuscire ad applicare questi ad un caso concreto per valutare se tale tipo di progettazione potesse essere adeguato alle esigenze di IMA. L'obiettivo è stato largamente raggiunto.
Resumo:
Lo scopo del lavoro svolto e quello di realizzare un sistema di controllo Proporzionale-Integrativo-Derivativo (PID) della temperatura all'interno di un fornetto in una camera a vuoto. Il sistema deve essere in grado di eseguire rampe di temperatura con differenti rapidita di variazione, in vista di un suo futuro impiego nello studio del Desorbimento Termico di diversi materiali. Nella prima parte della tesi, si esaminano le premesse teoriche ai controlli Proporzionali-Integrativi-Derivativi, e sono esposti i metodi di Ziegler-Nichols e di Tyreus-Luyben per ricavare le costanti del PID. Nella seconda parte si descrivono il sistema fisico in esame e l'hardware messo a punto per il sistema di controllo, gestito interfacciandolo con una scheda Arduino. Nella terza parte viene invece trattato il software realizzato con LabVIEW per gestire e controllare l'apparato. Nella quarta parte sono infine mostrati i risultati sperimentali ottenuti, e le conclusioni tratte al termine del lavoro.
Resumo:
I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.