512 resultados para 004.072 Elaborazione dei dati, Scienza degli elaboratori, Informatica - Attività di ricerca
Resumo:
Obiettivo di questo progetto di tesi è la realizzazione di un modello per la gestione termica di un veicolo elettrico a batteria: l’elettrificazione in ambito automotive richiede un approfondito studio delle problematiche termiche allo scopo di incrementare l’efficienza del veicolo, le performance e la vita della batteria. In particolare, l’oggetto di ricerca consiste nella modellazione di una pompa di calore. Partendo dalla definizione dei requisiti e degli obiettivi del sistema di gestione termica, ogni componente della pompa di calore viene analizzato modellato e connesso all’intero sistema. La modellazione è stata affrontata mediante l’utilizzo dell’ambiente MATLAB/Simulink. Il primo passo è stato avanzato nell’analisi del ciclo termodinamico ideale, analizzando il comportamento di vari fluidi frigorigeni, la funzionalità dei singoli componenti e l’interazione di quest’ultimi al variare delle condizioni di funzionamento, principalmente potenze scambiate, pressioni, temperature e portata massica di refrigerante. Il principale lavoro di simulazione è legato alla realizzazione di un modello configurabile dell’intero apparato di gestione termica della batteria per un veicolo elettrico. Per mezzo dello studio delle relazioni termodinamiche dei componenti principali del ciclo frigorifero sono state valutate tutte le grandezze che variano durante le trasformazioni che compie il fluido refrigerante all’interno del ciclo frigorifero. L’attività di validazione del modello implementato è stata svolta mediante il confronto tra le condizioni del fluido refrigerante determinate mediante le relazioni termodinamiche e quelle ottenute valutando le trasformazioni sui diagrammi di stato dei fluidi frigorigeni trattati. Il modello implementato è da ritenersi primordiale nel contesto legato alla modellazione e controllo dei sistemi di gestione termica per i sistemi propulsivi dei veicoli elettrici a batteria.
Resumo:
L’istruzione superiore in Europa è stata oggetto di un significativo processo di riforma: è aumentato l’interesse per un modello di apprendimento intorno ai progetti, centrato sullo studente, che favorisse lo sviluppo di competenze trasversali – il project-based learning (PBL). Inserire il PBL nelle Università richiede un processo di innovazione didattica: il curriculum di un corso PBL e le competenze richieste all’insegnante si differenziano dall’apprendimento tradizionale. Senza un'adeguata attenzione ai metodi di supporto per insegnanti e studenti, questi approcci innovativi non saranno ampiamente adottati. L’obiettivo di questo studio è determinare in che modo sia possibile implementare un corso PBL non presenziato da figure esperte di PBL. Le domande della ricerca sono: è possibile implementare efficacemente un approccio PBL senza il coinvolgimento di esperti dei metodi di progettazione? come si declinano i ruoli della facilitazione secondo questa configurazione: come si definisce il ruolo di tutor d’aula? come rafforzare il supporto per l’implementazione del corso? Per rispondere alle domande di ricerca è stata utilizzata la metodologia AIM-R. Viene presentata la prima iterazione dell’implementazione di un corso di questo tipo, durante la quale sono state svolte attività di ricerca e raccolta dati. L’attività di facilitazione è affidata a tre figure diverse: docente, tutor d’aula e coach professionisti. Su questa base, sono stati definiti gli elementi costituenti un kit di materiale a supporto per l’implementazione di corsi PBL. Oltre a un set di documenti e strumenti condivisi, sono stati elaborati i vademecum per guidare studenti, tutor e docenti all’implementazione di questo tipo di corsi. Ricerche future dovranno essere volte a identificare fattori aggiuntivi che rendano applicabile il kit di supporto per corsi basati su un modello diverso dal Tech to Market o che utilizzino strumenti di progettazione diversi da quelli proposti durante la prima iterazione.
Resumo:
La nostra società è sempre più interconnessa al punto che difficilmente riusciamo a distinguere tra la vita online e quella offline: “onlife” è il termine coniato dal filosofo Luciano Floridi e inserito nel 2019 tra le voci della Treccani proprio per indicare questo nuova forma di comportamento. Il virtuale diventa reale grazie alle nuove tecnologie e le modalità di comunicazione, vivendo in un ambiente che è contemporaneamente analogico e digitale. Il soggetto a cui i dati si riferiscono perde il controllo su di essi, mentre questi vengono raccolti e processati a costi nulli e, spesso, senza l’adeguato consenso. È all’interno di questo contesto che nasce la regolamentazione per tutelare la vita privata delle persone ed evitare trattamenti dei dati non autorizzati, i quali possano avere anche un’influenza sulla capacità di scelta e determinazione dell’utente. In questo elaborato di tesi saranno trattati i problemi e rischi della profilazione, quale caso specifico di trattamento automatizzato dei dati personali, delineando un quadro normativo di rifermento. Verrano analizzate anche le informative privacy di alcune società dell’informazione per prendere coscienza di quali (e quanti) dati vengono condivisi durante l’utilizzo dei loro servizi gratuiti. Infine, verrà fornita una descrizione di quali possano essere gli strumenti software, le azioni da compiere per lasciare meno impronte digitali possibili.
Resumo:
Il presente elaborato di tesi riguarda uno studio che è stato portato avanti durante il tirocinio curriculare svolto nell’ufficio Engineering di Marchesini Group S.p.A., azienda leader nella produzione di macchine automatiche per il packaging di prodotti farmaceutici e cosmetici. Dopo aver riscontrato alcune criticità nelle modalità con le quali vengono attualmente pianificate e gestite le risorse appartenenti ai team produttivi e con le quali vengono valutati i carichi di lavoro, si sono elaborati dei modelli e degli strumenti che permettono di migliorare ed ottimizzare l’assegnazione delle risorse ai gruppi e di visualizzare in tempo reale la distribuzione dell’impegno di lavoro dei reparti in relazione alla disponibilità in produzione. Le proposte supportano il trend dell’attuale contesto produttivo di garantire un elevato livello di servizio al cliente rispettandone le richieste e i tempi stabiliti. Difatti, un’assegnazione corretta delle risorse in produzione consente di ridurre i ritardi e le inefficienze e, di conseguenza, di migliorare i lead time. In aggiunta, una correlazione chiara e strutturata fra le risorse e gli obiettivi raggiungibili permette di conseguire con maggiore sicurezza i risultati economici stabiliti, evitando di perdere parte del valore potenzialmente collaudabile.
Resumo:
L'analisi di un'immagine con strumenti automatici si è sviluppata in quella che oggi viene chiamata "computer vision", la materia di studio proveniente dal mondo informatico che si occupa, letteralmente, di "vedere oltre", di estrarre da una figura una serie di aspetti strutturali, sotto forma di dati numerici. Tra le tante aree di ricerca che ne derivano, una in particolare è dedicata alla comprensione di un dettaglio estremamente interessante, che si presta ad applicazioni di molteplici tipologie: la profondità. L'idea di poter recuperare ciò che, apparentemente, si era perso fermando una scena ed imprimendone l'istante in un piano a due dimensioni poteva sembrare, fino a non troppi anni fa, qualcosa di impossibile. Grazie alla cosiddetta "visione stereo", invece, oggi possiamo godere della "terza dimensione" in diversi ambiti, legati ad attività professionali piuttosto che di svago. Inoltre, si presta ad utilizzi ancora più interessanti quando gli strumenti possono vantare caratteristiche tecniche accessibili, come dimensioni ridotte e facilità d'uso. Proprio quest'ultimo aspetto ha catturato l'attenzione di un gruppo di lavoro, dal quale è nata l'idea di sviluppare una soluzione, chiamata "SuperStereo", capace di permettere la stereo vision usando uno strumento estremamente diffuso nel mercato tecnologico globale: uno smartphone e, più in generale, qualsiasi dispositivo mobile appartenente a questa categoria.
Resumo:
L’uso dei materiali compositi è andato aumentando negli ultimi decenni per la loro elevata rigidezza, la resistenza specifica e il possibile risparmio, notevole in termini di peso dell’intera struttura. Tali materiali introducono però nuove problematiche riguardanti le modalità di danneggiamento e il comportamento a fatica. Mentre questi fenomeni sono relativamente ben compresi nei materiali metallici, per una struttura in composito non esistono ancora modelli in grado di predire con sufficiente affidabilità l’evoluzione del danneggiamento. Negli ultimi anni la ricerca si è focalizzata sullo sviluppo di sistemi in grado di rilevare la presenza e l’evoluzione del danno, definiti Structural Health Monitoring Systems, ovvero sistemi di monitoraggio strutturale. Il danneggiamento strutturale può così essere individuato e identificato per mezzo di sensori distribuiti integrati nella struttura stessa, aventi la possibilità di trasmettere queste informazioni a un sistema di analisi esterno permettendo di valutare lo stato di degrado della struttura in tempo reale. In questo contesto si inseriscono le attività di ricerca sulle strutture intelligenti che, inglobando al loro interno opportune tipologie di sensori e attuatori, sono in grado di monitorare l’ambiente fisico operativo, raccoglierne e interpretarne le informazioni per poi rispondere ai cambiamenti della struttura in modo appropriato attraverso gli attuatori. L’impiego di sensori e attuatori inglobati nelle strutture offre molteplici vantaggi rispetto ai sistemi di trasduzione e attuazione convenzionali. L’attività di ricerca condotta in questa tesi è rivolta all’indagine di tecniche di SHM per mezzo di sensori a fibra ottica. Essi presentano molteplici peculiarità che li rendono i candidati ideali per queste applicazioni. Esistono diversi tipi di sensori che utilizzano le fibre ottiche. Nel presente lavoro si sono utilizzati sensori di deformazione basati sui reticoli di Bragg (FBG) chirped. Questi sensori sono costituiti da un reticolo inscritto all’interno della fibra, che ha l’effetto di riflettere solo alcune lunghezze d’onda della luce incidente. Se le proprietà geometriche del reticolo cambiano per effetto di una deformazione, cambia anche la forma dello spettro riflesso. Inoltre, con il tipo di sensore usato, è possibile correlare lo spettro con la posizione di eventuali danneggiamenti interni al materiale. Gli obbiettivi di questa ricerca sono di verificare gli effetti della presenza di una fibra ottica sulle caratteristiche meccaniche di un laminato e di trovare un legame tra la risposta in frequenza del sensore FBG e lo stato tensionale e il grado di danneggiamento di un componente in composito.
Resumo:
L’obiettivo del presente lavoro è illustrare la creazione di due corpora bilingui italiano-inglese di libretti d’opera di Giuseppe Verdi, annotati e indicizzati, e descrivere le potenzialità di queste risorse. Il progetto è nato dalla volontà di indagare l’effettiva possibilità di gestione e consultazione di testi poetici tramite corpora in studi translation-driven, optando in particolare per il genere libretto d’opera in considerazione della sua complessità, derivante anche dal fatto che il contenuto testuale è fortemente condizionato dalla musica. Il primo corpus, chiamato LiVeGi, si compone di cinque opere di Giuseppe Verdi e relativa traduzione inglese: Ernani, Il Trovatore, La Traviata, Aida e Falstaff; il secondo corpus, nominato FaLiVe, contiene l’originale italiano dell’opera Falstaff e due traduzioni inglesi, realizzate a circa un secolo di distanza l’una dall’altra. All’analisi del genere libretto e delle caratteristiche principali delle cinque opere selezionate (Capitolo 1), segue una panoramica della prassi traduttiva dei lavori verdiani nel Regno Unito e negli Stati Uniti (Capitolo 2) e la presentazione delle nozioni di Digital Humanities e di linguistica computazionale, all’interno delle quali si colloca il presente studio (Capitolo 3). La sezione centrale (Capitolo 4) presenta nel dettaglio tutte le fasi pratiche di creazione dei due corpora, in particolare selezione e reperimento del materiale, OCR, ripulitura, annotazione e uniformazione dei metacaratteri, part-of-speech tagging, indicizzazione e allineamento, terminando con la descrizione delle risorse ottenute. Il lavoro si conclude (Capitolo 5) con l’illustrazione delle potenzialità dei due corpora creati e le possibilità di ricerca offerte, presentando, a titolo d’esempio, due case study: il linguaggio delle protagoniste tragiche nei libretti di Verdi in traduzione (studio realizzato sul corpus LiVeGi) e la traduzione delle ingiurie nel Falstaff (attraverso il corpus FaLiVe).
Resumo:
Lo scopo di questa attività è approfondire le conoscenze sul processo di riempimento a caldo noto come nitro-hot-fill (NHF) utilizzato per contenitori in PET. Il nostro obiettivo è quello di simulare su scala di laboratorio il processo industriale al fine di ottimizzarne i parametri e aumentare la stabilità dei contenitori anche attraverso l’utilizzo di materie prime con caratteristiche migliorate utilizzando formulazioni adatte ai trattamenti a caldo. Il processo consiste nel riempimento della bottiglia ad una temperatura tra gli 80°/85°C, successivo al quale vi è l’iniezione di azoto al fine di evitare l’implosione durante il raffreddamento fino a temperatura ambiente. Questo settore del mercato è in forte crescita, molte bevande infatti hanno la necessità di un contenitore asettico; il processo di NHF ha il vantaggio di utilizzare il calore del prodotto stesso al fine di rendere la bottiglia sterile. Da qui nascono le criticità legate al processo, occorre prendere diversi accorgimenti al fine di rendere processabile in questo modo una bottiglia, infatti l’aumento di pressione interna dovuto all’iniezione di azoto si accompagna una temperatura vicina alla temperatura di transizione vetrosa. La nostra attività di ricerca ha focalizzato la propria attenzione sul design della bottiglia, sul processo di stiro-soffiaggio, sull’influenza dell’umidità assorbita nel PET, sul materiale utilizzato e su altri parametri di processo al fine di produrre contenitori in grado di resistere al riempimento NHF.
Resumo:
Quattro sistemi pilota, cilindrici, rappresentanti SFS a flusso verticale sono stati adoperati in parallelo per attività di ricerca. Il refluo trattato, defluente dalla sede di Ingegneria di via Terracini e classificabile come urbano, è stato immesso negli SFSV a valle di una sedimentazione primaria. Segue una breve descrizione dei sistemi. 1. VFF - Vertical Flow Filter - Reattore assimilabile ad un filtro a sabbia; 2. VFCWW - Vertical Flow Constructed Wetland with worms - Reattore dotato sia di piante (tipologia Phragmites Australis) sia di vermi (lombrichi); 3. VFCW - Vertical Flow Constructed Wetland - Reattore dotato di piante (tipologia Phragmites Australis); 4. VFFW - Vertical Flow Filter with worms - Reattore assimilabile ad un filtro a sabbia dotato di vermi (lombrichi). Il rendimento offerto da ciascun sistema è stato calcolato sulla base dei risultati forniti dalle analisi eseguite in laboratorio su campioni prelevati in input ed output da ciascun reattore. L'obiettivo dello studio è stato quello di valutare l'efficienza dei sistemi in relazione ai parametri misurati (azoto e fosforo totale, solidi sospesi, COD, ione ammoniacale, ortofosfato).
Resumo:
In questa tesi si è voluta porre l’attenzione sulla suscettibilità alle alte temperature delle resine che li compongono. Lo studio del comportamento alle alte temperature delle resine utilizzate per l’applicazione dei materiali compositi è risultato un campo di studio ancora non completamente sviluppato, nel quale c’è ancora necessità di ricerche per meglio chiarire alcuni aspetti del comportamento. L’analisi di questi materiali si sviluppa partendo dal contesto storico, e procedendo successivamente ad una accurata classificazione delle varie tipologie di materiali compositi soffermandosi sull’ utilizzo nel campo civile degli FRP (Fiber Reinforced Polymer) e mettendone in risalto le proprietà meccaniche. Considerata l’influenza che il comportamento delle resine riveste nel comportamento alle alte temperature dei materiali compositi si è, per questi elementi, eseguita una classificazione in base alle loro proprietà fisico-chimiche e ne sono state esaminate le principali proprietà meccaniche e termiche quali il modulo elastico, la tensione di rottura, la temperatura di transizione vetrosa e il fenomeno del creep. Sono state successivamente eseguite delle prove sperimentali, effettuate presso il Laboratorio Resistenza Materiali e presso il Laboratorio del Dipartimento di Chimica Applicata e Scienza dei Materiali, su dei provini confezionati con otto differenti resine epossidiche. Per valutarne il comportamento alle alte temperature, le indagini sperimentali hanno valutato dapprima le temperature di transizione vetrosa delle resine in questione e, in seguito, le loro caratteristiche meccaniche. Dalla correlazione dei dati rilevati si sono cercati possibili legami tra le caratteristiche meccaniche e le proprietà termiche delle resine. Si sono infine valutati gli aspetti dell’applicazione degli FRP che possano influire sul comportamento del materiale composito soggetto alle alte temperature valutando delle possibili precauzioni che possano essere considerate in fase progettuale.
Resumo:
Essendo la percentuale di raccolta differenziata un indicatore che preso singolarmente risulta insufficiente a misurare la virtuosità di un Comune nella gestione dei rifiuti, si è elaborato un indicatore multi criteria che amplia l'orizzonte dell'analisi agli altri aspetti inerenti la gestione dei rifiuti. I criteri individuati sono otto: -Percentuale di raccolta differenziata -Produzione pro capite di rifiuti indifferenziati -Produzione pro capite di rifiuti totali -Impatto ambientale del sistema di raccolta e trattamento dei rifiuti -Costi del servizio -Tracciabilità dei rifiuti domestici -Coinvolgimento della popolazione -Comodità per il cittadino. Ad ogni Comune analizzato (il caso di studio è l'Unione Terre di Castelli) viene attribuito un punteggio per ogni criterio, in seguito moltiplicato per il peso attribuito al criterio stesso. I punteggi dati da ciascun criterio sono stati poi normalizzati in una scala da 0 a 1 con l'intervento di figure di esperti di ciascun ambito; i pesi sono stati determinati con la metodologia della Pairwise Comparison (T.Saaty, 1980) dai Sindaci e dagli Amministratori di tutti i Comuni del caso di studio. L'indicatore così costruito è stato poi applicato ai Comuni del caso di studio mostrando risultati, in termini di virtuosità, differenti da quelli prodotti dal solo indicatore di raccolta differenziata, evidenziando così l'importanza di un approccio multi disciplinare al tema dei rifiuti. L'indicatore, mostrando i punteggi ed il margine di miglioramento relativo a ciascun criterio, si è poi rivelato un efficace strumento di supporto alle decisioni per i Comuni nell'indirizzo degli investimenti in materia di gestione dei rifiuti.
Resumo:
Il progetto di ricerca che ho svolto in questi mesi si è focalizzato sull'integrazione dei risultati raggiunti grazie all'elaborazione di nuovi dati sperimentali. Questi sono stati prelevati dalla corteccia visiva di macachi, attraverso l'utilizzo di tecniche di registrazione elettro-fisiologiche mediante array di micro-elettrodi[25], durante la presentazionedi alcuni filmati (sequenze di immagini o frames). Attraverso la tecnica del clustering, dalle registrazioni degli esperimenti sono stati raggruppati gli spike appartenenti ad uno stesso neurone, sfruttando alcune caratteristiche come la forma del potenziale d'azione. Da questa elaborazione e stato possibile risalire a quali stimoli hanno prodotto una risposta neurale. I dati messi a disposizione da Ringach non potevano essere trattati direttamente con le tecniche della spike-triggered average e della spike-triggered covariance a causa di alcune loro caratteristiche. Utilizzando filtri di Gabor bidimensionali e l'energia di orientazione e stato pero possibile modellare la risposta di cellule complesse in corteccia visiva primaria. Applicare questi modelli su dati ad alta dimensionalita immagini molto grandi), sfruttando la tecnica di standardizzazione (Z-score), ha permesso di individuare la regione, la scala e l'orientazione all'interno del piano immagine dei profili recettivi delle cellule di cui era stata registrata l'attività neurale. Ritagliare tale regione e applicare la spike-triggered covariance su dati della giusta dimensionalita, permetterebbe di risalire ai profili recettivi delle cellule eccitate in un preciso momento, da una specifica immagine e ad una precisa scala e orientazione. Se queste ipotesi venissero confermate si potrebbe marcare e rafforzare la bontà del modello utilizzato per le cellule complesse in V1 e comprendere al meglio come avviene l'elaborazione delle immagini.
Resumo:
Le ricerche di carattere eustatico, mareografico, climatico, archeologico e geocronologico, sviluppatesi soprattutto nell’ultimo ventennio, hanno messo in evidenza che gran parte delle piane costiere italiane risulta soggetta al rischio di allagamento per ingressione marina dovuta alla risalita relativa del livello medio del mare. Tale rischio è la conseguenza dell’interazione tra la presenza di elementi antropici e fenomeni di diversa natura, spesso difficilmente discriminabili e quantificabili, caratterizzati da magnitudo e velocità molto diverse tra loro. Tra le cause preponderanti che determinano l’ingressione marina possono essere individuati alcuni fenomeni naturali, climatici e geologici, i quali risultano fortemente influenzati dalle attività umane soprattutto a partire dal XX secolo. Tra questi si individuano: - la risalita del livello del mare, principalmente come conseguenza del superamento dell’ultimo acme glaciale e dello scioglimento delle grandi calotte continentali; - la subsidenza. Vaste porzioni delle piane costiere italiane risultano soggette a fenomeni di subsidenza. In certe zone questa assume proporzioni notevoli: per la fascia costiera emiliano-romagnola si registrano ratei compresi tra 1 e 3 cm/anno. Tale subsidenza è spesso il risultato della sovrapposizione tra fenomeni naturali (neotettonica, costipamento di sedimenti, ecc.) e fenomeni indotti dall’uomo (emungimenti delle falde idriche, sfruttamento di giacimenti metaniferi, escavazione di materiali per l’edilizia, ecc.); - terreni ad elevato contenuto organico: la presenza di depositi fortemente costipabili può causare la depressione del piano di campagna come conseguenza di abbassamenti del livello della falda superficiale (per drenaggi, opere di bonifica, emungimenti), dello sviluppo dei processi di ossidazione e decomposizione nei terreni stessi, del costipamento di questi sotto il proprio peso, della carenza di nuovi apporti solidi conseguente alla diminuita frequenza delle esondazioni dei corsi d’acqua; - morfologia: tra i fattori di rischio rientra l’assetto morfologico della piana e, in particolare il tipo di costa (lidi, spiagge, cordoni dunari in smantellamento, ecc. ), la presenza di aree depresse o comunque vicine al livello del mare (fino a 1-2 m s.l.m.), le caratteristiche dei fondali antistanti (batimetria, profilo trasversale, granulometria dei sedimenti, barre sommerse, assenza di barriere biologiche, ecc.); - stato della linea di costa in termini di processi erosivi dovuti ad attività umane (urbanizzazione del litorale, prelievo inerti, costruzione di barriere, ecc.) o alle dinamiche idro-sedimentarie naturali cui risulta soggetta (correnti litoranee, apporti di materiale, ecc. ). Scopo del presente studio è quello di valutare la probabilità di ingressione del mare nel tratto costiero emiliano-romagnolo del Lido delle Nazioni, la velocità di propagazione del fronte d’onda, facendo riferimento allo schema idraulico del crollo di una diga su letto asciutto (problema di Riemann) basato sul metodo delle caratteristiche, e di modellare la propagazione dell’inondazione nell’entroterra, conseguente all’innalzamento del medio mare . Per simulare tale processo è stato utilizzato il complesso codice di calcolo bidimensionale Mike 21. La fase iniziale di tale lavoro ha comportato la raccolta ed elaborazione mediante sistema Arcgis dei dati LIDAR ed idrografici multibeam , grazie ai quali si è provveduto a ricostruire la topo-batimetria di dettaglio della zona esaminata. Nel primo capitolo è stato sviluppato il problema del cambiamento climatico globale in atto e della conseguente variazione del livello marino che, secondo quanto riportato dall’IPCC nel rapporto del 2007, dovrebbe aumentare al 2100 mediamente tra i 28 ed i 43 cm. Nel secondo e terzo capitolo è stata effettuata un’analisi bibliografica delle metodologie per la modellazione della propagazione delle onde a fronte ripido con particolare attenzione ai fenomeni di breaching delle difese rigide ed ambientali. Sono state studiate le fenomenologie che possono inficiare la stabilità dei rilevati arginali, realizzati sia in corrispondenza dei corsi d’acqua, sia in corrispondenza del mare, a discapito della protezione idraulica del territorio ovvero dell’incolumità fisica dell’uomo e dei territori in cui esso vive e produce. In un rilevato arginale, quale che sia la causa innescante la formazione di breccia, la generazione di un’onda di piena conseguente la rottura è sempre determinata da un’azione erosiva (seepage o overtopping) esercitata dall’acqua sui materiali sciolti costituenti il corpo del rilevato. Perciò gran parte dello studio in materia di brecce arginali è incentrato sulla ricostruzione di siffatti eventi di rottura. Nel quarto capitolo è stata calcolata la probabilità, in 5 anni, di avere un allagamento nella zona di interesse e la velocità di propagazione del fronte d’onda. Inoltre è stata effettuata un’analisi delle condizioni meteo marine attuali (clima ondoso, livelli del mare e correnti) al largo della costa emiliano-romagnola, le cui problematiche e linee di intervento per la difesa sono descritte nel quinto capitolo, con particolare riferimento alla costa ferrarese, oggetto negli ultimi anni di continui interventi antropici. Introdotto il sistema Gis e le sue caratteristiche, si è passati a descrivere le varie fasi che hanno permesso di avere in output il file delle coordinate x, y, z dei punti significativi della costa, indispensabili al fine della simulazione Mike 21, le cui proprietà sono sviluppate nel sesto capitolo.
Resumo:
Questa tesi di laurea si riferisce allo studio cinematico e morfologico di flussi granulari composti di materiale vulcanico naturale tramite la strumentazione sperimentale GRANFLOW-sim presso il Dipartimento di Scienze Geologiche dell’Università Autonoma di San Luis Potosì in Messico. E’ stato adottato un approccio sperimentale finalizzato a riprodurre le condizioni fisico-meccaniche di flussi granulari secchi in piccola scala riconducibili a differenti ambienti deposizionali naturali e artificiali. La strumentazione è composta da una canaletta di alimentazione ad inclinazione fissa di 40° ed un piano di deposizione a inclinazioni variabile da 0° a 20° al fine di simulare diverse condizioni deposizionali. Specifici sensori in posizione fissa sullo strumento hanno consentito di raccogliere dati cinematici del flusso e morfologici del deposito corrispondente, rielaborati in profili di velocità e modelli morfologici digitali per ognuno degli esperimenti effettuati. E’ stata osservata una tripartizione del fronte del flusso granulare caratterizzata da i) clasti balistici isolati, ii) un fronte disperso costituito da clasti saltellanti che precede l’arrivo del iii) fronte compatto del flusso costituito dalla parte principale del materiale trasportato. La normalizzazione dei dati cinematici e morfologici ha reso possibile l’elaborazione di relazioni empiriche per lunghezza e larghezza del deposito e velocità massima del flusso in funzione di variabili condizioni di slope-ratio (rapporto tra l’inclinazione del piano di deposizione e della canaletta) e ΔH (differenza di quota tra l’area sorgente del flusso ed il fronte compatto del deposito). Queste relazioni sono state confrontate con i valori ottenuti da Zanchetta et al. (2004) per i flussi granulari naturali nell’area di Sarno, unico caso di studio reale confrontabile con le condizioni sperimentali adottate in questa tesi. Tale confronto ha mostrato una buona corrispondenza tra dati sperimentali e situazione reale nei casi in cui l’effetto di canalizzazione dei flussi granulari era trascurabile. Ciò evidenzia la possibilità di calibrare la strumentazione GRANFLOW-sim al fine di incorporare la valutazione dell’effetto di canalizzazione, ampliando il raggio di utilizzo delle relazioni empiriche ad un numero maggiore di casi di studio di flussi granulari naturali.
Resumo:
Il presente lavoro di tesi si pone come obbiettivo l’elaborazione di dati GNSS in modalità cinematica post-processing per il monitoraggio strutturale e, in una seconda fase, lo studio delle precisioni raggiungibili delle soluzioni ottenute utilizzando algoritmi di post-elaborazione del dato. L’oggetto di studio è la torre Garisenda, situata in piazza Ravegnana, accanto alla torre Asinelli, nel centro storico di Bologna, da tempo oggetto di studi e monitoraggi per via della sua inclinazione particolarmente critica. Per lo studio è stato utilizzato un data set di quindici giorni, dal 15/12/2013 al 29/12/2013 compresi. Per l’elaborazione dei dati è stato utilizzato un software open source realizzato da ricercatori del Politecnico di Milano, goGPS. Quest'ultimo, essendo un codice nuovo, è stato necessario testarlo al fine di poter ottenere dei risultati validi. Nella prima fase della tesi si è quindi affrontato l’aspetto della calibrazione dei parametri che forniscono le soluzioni più precise per le finalità di monitoraggio considerando le possibili scelte offerte dal codice goGPS. In particolare sono stati imposti dei movimenti calibrati e si è osservata la soluzione al variare dei parametri selezionati scegliendo poi quella migliore, ossia il miglior compromesso tra la capacità di individuare i movimenti e il rumore della serie. Nella seconda fase, allo scopo di poter migliorare le precisioni delle soluzioni si sono valutati metodi di correzione delle soluzioni basati sull'uso di filtri sequenziali e sono state condotte analisi sull'incremento di precisione derivante dall'applicazione di tali correzioni.