692 resultados para MIPv6 ABPS LISP Reti Mobilita Simulazione OMNeT INET
Resumo:
Oslo, capitale della Norvegia, sta sperimentando unimprovvisa crescita della popolazione e secondo le stime fornite da Statistics Norway si prevede un aumento di 200 000 abitanti entro il 2040. La crescita della popolazione comporter un rilevante aumento di domanda di acqua e, insieme ad altri fattori quali let delle infrastrutture e i cambiamenti climatici, sar responsabile di una notevole pressione sulle infrastrutture idriche presenti. In risposta alla necessit di tempestivi cambiamenti, il gestore del servizio idrico della citt (Oslo VAV) ha deciso di finanziare progetti per migliorare la robustezza delle infrastrutture idriche. Il lavoro di tesi si inserisce allinterno del progetto E3WDM, istituito nel 2005 con lo scopo di definire una gestione pi efficiente della risorsa idrica di Oslo. Lobiettivo generale della tesi la creazione di un modello metabolico attraverso il software UWOT (Makropoulos et al., 2008) con lo scopo di rappresentare i consumi idrici di due tipiche tipologie abitative nella citt di Oslo. Linnovazione di questo studio consiste nella definizione e nella modellazione della domanda idrica allinterno delle abitazioni ad un livello di dettaglio molto elevato. Il nuovo approccio fornito da UWOT consente la simulazione di differenti strategie di intervento e la successiva gestione ottimale della risorsa idrica in grado di minimizzare i consumi di acqua, di energia e i costi, compatibilmente con la domanda idrica richiesta. Il lavoro di tesi comprende: -La descrizione del software UWOT, in particolare lo scopo del modello, linnovativo approccio adottato, la struttura e il procedimento per creare un modello del sistema idrico urbano. -La definizione dei dati richiesti per la simulazione dei consumi idrici allinterno delle abitazioni nella citt di Oslo e i metodi utilizzati per raccoglierli -Lapplicazione del modello UWOT per la definizione dei trend di consumi idrici e la successiva analisi dei risultati
La passivhaus in clima mediterraneo: caratteristiche costruttive e simulazioni energetiche dinamiche
Resumo:
Questa Tesi approfondisce lo standard Passivhaus, un metodo sviluppato originariamente in Germania nella seconda met degli anni 80 ed ora diffuso in tutta Europa, con lobiettivo di favorire la realizzazione di edifici in grado di fornire ottimi livelli di comfort con consumi energetici pari quasi a zero. Questo standard abitativo mi ha appassionato a tal punto che ho deciso di farne oggetto della mia tesi di laurea. Da diversi anni stiamo assistendo ad una serie di mutamenti climatici che stanno modificando la vita sul nostro pianeta e portano a considerare tutta una serie di cambiamento sul nostro modo di vivere. La casa passiva, a mio parere, un concetto valido e utile a contenere questa situazione. In altre zone dEuropa, con climi invernali rigidi ma condizioni estive meno gravose delle nostre, uno standard piuttosto diffuso e qui cercher di formulare unanalisi quanto pi vicina alla realt riguardo alladattabilit della Passivhaus al nostro clima. Lo scopo quello di capire come si comporta questo tipo di edifici in ambienti climatici diversi da quelli per cui lo standard stato progettato. Per verificarne lefficacia, verr studiato nel dettaglio il primo edificio residenziale multipiano recentemente costruito a Cesena e certificato Passivhaus. Successivamente, sar simulata la realizzazione dello stesso edificio in dieci diverse localit italiane, con differenti condizioni climatiche, e ne saranno verificate le prestazioni energetiche tramite un software di modellazione in regime dinamico. Se risulter necessario a seguito delle verifiche, saranno progettate le modifiche alle soluzioni costruttive che permettano di raggiungere i livelli previsti dallo standard Passivhaus in tutte le localit. I risultati della simulazione saranno infine confrontati e commentati nella parte conclusiva della Tesi.
Resumo:
Questa tesi si inserisce nel campo della Bioelettronica Organica con lo scopo di utilizzare dei transistor elettrochimici (OECT) organici basati sul polimero conduttivo PEDOT:PSS per rilevare lintegrit di un tessuto cellulare e come biosensori di analiti in soluzione. Nella prima parte dellelaborato, si spiegano le propriet ed il trasporto di carica dei polimeri coniugati concentrandosi sulle caratteristiche fisico chimiche del PEDOT:PSS, seguito da una trattazione analitica del principio di funzionamento di un OECT. La seconda parte, si concentra sul lavoro sperimentale partendo da una descrizione dei processi di fabbricazione degli OECT, dei metodi di caratterizzazione utilizzati e della progettazione del set-up sperimentale per permettere le misure elettriche nellincubatore cellulare. In seguito, viene dimostrato luso di un OECT completamente a base di PEDOT:PSS come sensore di un neurotrasmettitore (dopamina). In parallelo, il lavoro si concentrato sullottimizzazione dei transistor in termini di formulazione di PEDOT:PSS e di geometria del dispositivo per ottenere tempi di spegnimento veloci compatibili con le risposte cellulari (<300ms). In fase di preparazione alle misure con le cellule si valutato la funzionalit dellOECT nelle condizioni di coltura cellulare dimostrando una buona stabilit dei dispositivi. Inoltre, sono stati progettati degli studi di simulazione tramite una membrana porosa per prevedere le risposte dei transistor in presenza di un tessuto cellulare. Partendo dallesito positivo dei test preliminari, il lavoro si concluso con il primo esperimento con le cellule tumorali HeLa, in cui si monitorata la crescita cellulare con immagini ottiche correlate alle misure elettriche. I primi risultati confermano la biocompatibilit dei dispositivi e una risposta elettrica degli OECTs alla presenza delle cellule, aprendo la possibilit di utilizzare questi dispositivi per futuri esperimenti anche con diversi tipi di cellule.
Resumo:
I neutroni possono essere classificati in base all'energia e per anni lo studio sui neutroni si focalizzato verso le basse energie, ottenendo informazioni fondamentali sulle reazioni nucleari. Lo studio per i neutroni ad alta energia (E >20 MeV) ha ultimamente suscitato un vivo interesse, poich i neutroni hanno un ruolo fondamentale in una vasta gamma di applicazioni: in campo medico, industriale e di radioprotezione. Tuttavia le informazioni sperimentali (sezioni d'urto) in nostro possesso, in funzione dell'energia dei neutroni, sono limitate, considerando che richiedono la produzione di fasci con un ampio spettro energetico e delle tecniche di rivelazione conforme ad essi. La rivelazione dei neutroni avviene spesso attraverso il processo di scintillazione che consiste nell'eccitazione e diseccitazione delle molecole che costituiscono il rivelatore. Successivamente, attraverso i fotomoltiplicatori, la luce prodotta viene raccolta e convertita in impulsi energetici che vengono registrati ed analizzati. Lo scopo di questa tesi quello di testare quale sia la migliore configurazione sperimentale di un rivelatore costituito da scintillatori e fotomoltiplicatori per quanto riguarda la raccolta di luce, utilizzando una simulazione Monte Carlo per riprodurre le propriet ottiche di un rivelatore per misure di flusso di un rivelatore ad alta energia.
Resumo:
degli elementi vegetali nella dinamica e nella dispersione degli inquinanti nello street canyon urbano. In particolare, stato analizzata la risposta fluidodinamica di cespugli con altezze diverse e di alberi con porosit e altezza del tronco varianti. Il modello analizzato consiste in due edifici di altezza e larghezza pari ad H e lunghezza di 10H, tra i quali corre una strada in cui sono stati modellizati una sorgente rappresentativa del traffico veicolare e, ai lati, due linee di componenti vegetali. Le simulazioni sono state fatte con ANSYS Fluent, un software di "Computational Fluid Dynamics"(CFD) che ha permesso di modellizare la dinamica dei flussi e di simulare le concentrazioni emesse dalla sorgente di CO posta lungo la strada. Per la simulazione stato impiegato un modello RANS a chiusura k-epsilon, che permette di parametrizzare i momenti secondi nell'equazione di Navier Stokes per permettere una loro pi facile risoluzione. I risultati sono stati espressi in termini di profili di velocit e concentrazione molare di CO, unitamente al calcolo della exchange velocity per quantificare gli scambi tra lo street canyon e l'esterno. Per quanto riguarda l'influenza dell'altezza dei tronchi stata riscontrata una tendenza non lineare tra di essi e la exchange velocity. Analizzando invece la altezza dei cespugli stato visto che all'aumentare della loro altezza esiste una relazione univoca con l'abbassamento della exchange velocity. Infine, andando a variare la permeabilit delle chiome degli alberi stata trovatta una variazione non monotonica che correla la exchange velocity con il parametro C_2, che stata interpretata attraverso i diversi andamenti dei profili sopravento e sottovento. In conclusione, allo stadio attuale della ricerca presentata in questa tesi, non ancora possibile correlare direttamente la exchange velocity con alcun parametro analizzato.
Resumo:
Un problema fondamentale nello studio delle particelle elementari disporre di misure pi accurate possibile delle traiettorie che queste seguono all'interno dei rivelatori. La precisione di misura dei parametri di traccia importante per poter descrivere accuratamente gli eventi e le interazioni che avvengono all'interno dei rivelatori. LHCb un esempio di esperimento progettato con lo scopo di ottenere misure di precisione dei parametri della cinematica delle particelle per poter studiare la violazione delle simmetrie. Rivelatori come quello dell'esperimento LHCb utilizzano avanzate tecniche di tracciamento per individuare le traiettorie. Queste sono influenzate da fattori di rumore dovuti all'interazione tra le particelle e il materiale del rivelatore stesso. Nell'analisi delle misure effettuate quindi occorre tenere conto che sia la sensibilit del rivelatore che i fattori di rumore contribuiscono nella determinazione dell'incertezza sulla misura. Uno strumento matematico usato per ottenere precise stime dei parametri di traccia il filtro di Kalman, che implementato su un campione di misure di una determinata grandezza, consente di minimizzare gli effetti dovuti a rumori statistici. In questo lavoro di tesi sono stati studiati la struttura e il funzionamento del rivelatore dell'esperimento LHCb e dei sistemi di tracciamento che lo caratterizzano e che ne costituiranno il futuro aggiornamento. Inoltre stata analizzata l'azione del filtro di Kalman, implementandolo in una simulazione di tracciamento al calcolatore.
Resumo:
La gestione del fine vita dei prodotti un argomento di interesse attuale per le aziende; sempre pi spesso limprese non possono pi esimersi dallimplementare un efficiente sistema di Reverse Logistics. Per rispondere efficacemente a queste nuove esigenze diventa fondamentale ampliare i tradizionali sistemi logistici verso tutte quelle attivit svolte allinterno della Reverse Logitics. Una gestione efficace ed efficiente dellintera supply chain un aspetto di primaria importanza per unazienda ed incide notevolmente sulla sua competitivit; proprio per perseguire questo obiettivo, sempre pi aziende promuovono politiche di gestione delle supply chain sia Lean che Green. Lobiettivo di questo lavoro, nato dalle esigenze descritte sopra, quello di applicare un modello innovativo che consideri sia politiche di gestione Lean, che dualmente politiche Green, alla gestione di una supply chain del settore automotive, comprendente anche le attivit di gestione dei veicoli fuori uso (ELV). Si analizzato per prima cosa i principi base e gli strumenti utilizzati per lapplicazione della Lean Production e del Green supply chain management e in seguito si analizzato le caratteristiche distintive della Reverse Logistics e in particolare delle reti che trattano i veicoli a fine vita. Lobiettivo finale dello studio quello di elaborare e implementare, tramite lutilizzo del software AMPL, un modello di ottimizzazione multi-obiettivo (MOP- Multi Objective Optimization) Lean e Green a una Reverse Supply Chain dei veicoli a fine vita. I risultati ottenuti evidenziano che possibile raggiungere un ottimo compromesso tra le due logiche. E' stata effettuata anche una valutazione economica dei risultati ottenuti, che ha evidenziato come il trade-off scelto rappresenti anche uno degli scenari con minor costi.
Resumo:
Nell'ambito dei motori ad accensione comandata, la comprensione del processo di accensione e delle prime fasi di sviluppo del kernel di primaria importanza per lo studio dell'intero processo di combustione, dal momento che questi determinano lo sviluppo successivo del fronte di fiamma. Dal punto di vista fisico, l'accensione coinvolge un vasto numero di fenomeni di natura molto complessa, come processi di ionizzazione e passaggio di corrente nei gas: molti di questi avvengono con tempi caratteristici che ne impediscono la simulazione tramite le attuali tecniche CFD. Si rende pertanto necessario sviluppare modelli semplificati che possano descrivere correttamente il fenomeno, a fronte di tempi di calcolo brevi. In quest'ottica, il presente lavoro di tesi punta a fornire una descrizione accurata degli aspetti fisici dell'accensione, cercando di metterne in evidenza gli aspetti principali e le criticit. A questa prima parte di carattere prettamente teorico, segue la presentazione del modello di accensione sviluppato presso il DIN dell'Universit di Bologna dal Prof. Bianche e dall'Ing. Falfari e la relativa implementazione tramite il nuovo codice CONVERGE CFD: la validazione infine condotta riproducendo un caso test ben noto il letteratura, che mostrer un buon accordo tra valori numerici e sperimentali a conferma della validit del modello.
Resumo:
I simulatori di guida sono strumenti altamente tecnologici che permettono di svolgere attivit di ricerca in vari ambiti quali la psicologia, la medicina e lingegneria. Tuttavia, affinch i dati ottenuti mediante le simulazioni siano rapportabili alla loro controparte reale, la fedelt delle componenti del simulatore di guida deve essere elevata. Questo lavoro tratta del miglioramento del sistema di restituzione del movimento nel simulatore a due gradi di libert (2DOF) SIMU-LACET Driving Simulator, costruito e sviluppato presso il laboratorio LEPSIS dellIFSTTAR (Istituto Francese delle Scienze e Tecnologie dei Trasporti, dello Sviluppo e delle Reti), in particolare nella sua sede di Parigi Marne-la-Valle. Si deciso di andare a riprogettare la parte software del sistema di restituzione del movimento (motion cueing), operando su due elementi principali: lo scale factor (fattore di scala) applicato agli impulsi dinamici provenienti dal modello veicolare e i Motion Cueing Algorihms (MCA, algoritmi di restituzione del movimento), questo per entrambi i gradi di libert. Si quindi intervenuti sul modello esistente implementato in MATLAB-Simulink nello specifico blocco del motion cueing sul surge (traslazione longitudinale) e sul yaw (imbardata). Riguardo lo scale factor, stata introdotta una metodologia per creare uno scale factor non lineare in forma esponenziale, tale da migliorare la restituzione degli impulsi meno ampi, pur rispettando i limiti fisici della piattaforma di movimento. Per quanto concerne il MCA, si sono vagliate diverse transfer function dellalgoritmo classico. La scelta finale dei MCA e la validazione del motion cueig in genere stata effettuata mediante due esperimenti ed il giudizio dei soggetti che vi hanno partecipato. Inoltre, in virt dei risultati del primo esperimento, si investigata linfluenza che la strategia in merito al cambio delle marce avesse sulla percezione del movimento da parte del guidatore.
Resumo:
Negli ultimi anni le preoccupazioni a causa dellinquinamento ambientale sono risultate sempre maggiori, questo ha portato un sempre pi crescente interesse per lottimizzazione nella progettazione dei motori a combustione interna per avere un aumento di potenza cercando di utilizzare meno carburante. Sempre pi di frequente, al fine di studiare la combustione in modo accurato e ricavarne modelli analitici coerenti con la realt, ci si rivolge alla simulazione numerica; Tutti i modelli di combustione utilizzati dai solutori CFD richiedono la conoscenza della velocit laminare di fiamma, questa gioca un ruolo molto importante nei motori a combustione interna cos come in altre applicazioni, come il calcolo dei moti turbolenti. Il calcolo della velocit laminare pu avvenire attraverso modelli di cinetica chimica dettagliata a fronte di un peso computazionale non indifferente oppure utilizzando meccanismi cinetici ridotti con conseguente perdita di accuratezza. Lobiettivo di questa tesi lo studio della velocit di fiamma laminare al variare delle principali caratteristiche della miscela focalizzandosi sulleffetto di pressione, temperatura e di eventuali inerti (Acqua ed Egr). Attraverso la cinetica chimica dettagliata e relativo calcolo delle velocit delle reazioni di ossidazione sono state definite delle look up tables il pi possibile dettagliate (nonostante il grande peso computazionale) al fine di avere uno strumento facilmente implementabile in solutori CFD. Inoltre, a partire dai dati acquisiti, si passati allanalisi delle precedenti correlazioni cercando, nei limiti, di migliorarne e proporne altre per non dover ricorrere allinterpolazione delle mappe.
Resumo:
La Tesi nasce a seguito della richiesta da parte di unAzienda Socia del Consorzio Esperienza Energia di un servizio di supporto per lottimizzazione del proprio Sistema di Gestione dellEnergia (SGE/EnMS) ed in particolare per limplementazione di metodologie di budgeting pi efficienti rispetto a quelle attualmente utilizzate. Questo lavoro di Tesi si sviluppato in due parti: Nella prima parte viene descritto, a livello generale, che cosa si intende per Sistema di Gestione dellEnergia o Energy Management System e quali sono i vantaggi nellimplementazione di tale sistema in una realt industriale. Successivamente, viene presentata la norma UNI CEI EN ISO 50001: Sistemi di Gestione dellEnergia Requisiti e linee guida per luso attraverso una breve introduzione su quelli che sono i requisiti e gli obiettivi descritti nella norma. Nella seconda parte viene descritta limplementazione pratica di un SGE presso unAzienda Socia di CEE, partendo dalla raccolta sia dei dati di consumo a livello globale (LIVELLO A) che a livello di Edificio (LIVELLO B), sia dall'individuazione dei principali Energy Drivers (parametri) che veicolano i consumi. Attraverso questi dati stato creato un Modello di calcolo per la definizione dei consumi di Riferimento (Energy Baseline); tale Baseline traccia i dati di prestazione energetica da cui si parte per andare a costruire per lazienda i principali Indicatori Energetici (EnPI, Energy Performance Indicators). Il modello energetico cos costruito stato quindi tarato sui consumi energetici misurati al fine di fornire all'Azienda un algoritmo di stima dei propri consumi energetici futuri, sia mensili che annuali. Il processo di taratura ha dimostrato come il modello energetico dellazienda che stato costruito in questa Tesi sia da ritenersi uno strumento affidabile per la previsione dei consumi energetici futuri ipotizzando un certo livello di produzione industriale nel corso dellanno oggetto di simulazione.
Resumo:
Un airbox deve fornire al motore sia aria pura, ovvero priva di particelle estranee (motivo per cui al suo interno viene collocato un elemento filtrante), che priva di gocce dacqua, la cui presenza possibile sia a causa della condensazione dellumidit dellaria aspirata, sia, in volume anche maggiore, in caso di pioggia, aspetto su cui si focalizzer questo elaborato. Attualmente, per eliminare la presenza di queste particelle dacqua, vengono praticati fori, pi o meno grandi, sulla parete dellairbox. Questa semplice tecnica, permette di eliminarla, ma causa anche una depressurizzazione. Per contrastare questo fenomeno, gi noto lutilizzo di condotti elastici, normalmente chiusi o semichiusi, che, nel frattempo, permettono la lenta discesa gravitazionale dellacqua. Questo sistema, per, non in grado di sigillare il foro di scolo, provocando quindi anchesso un calo della pressurizzazione del box. Inoltre, esso potrebbe intasarsi, rendendo inefficace lo scolo. In pi, nel tempo, potrebbe sopraggiungere una perdita di elasticit, causando un peggioramento della funzionalit. Scopo del WOPI eliminare tutti i precedenti inconvenienti nel modo pi efficiente possibile.
Resumo:
Il progetto di tesi incentrato sullottimizzazione del procedimento di taratura dei regolatori lineari degli anelli di controllo di posizione e velocit presenti negli azionamenti usati industrialmente su macchine automatiche, specialmente quando il carico ad inerzia variabile in dipendenza dalla posizione, dunque non lineare, come ad esempio un quadrilatero articolato. Il lavoro stato svolto in collaborazione con lazienda G.D S.p.A. ed il meccanismo di prova realmente utilizzato nelle macchine automatiche per il packaging di sigarette. Lottimizzazione si basa sulla simulazione in ambiente Matlab/Simulink dellintero sistema di controllo, cio comprensivo del modello Simulink degli anelli di controllo del drive, inclusa la dinamica elettrica del motore, e del modello Simscape del meccanismo, perci una prima necessaria fase del lavoro stata la validazione di tali modelli affinch fossero sufficientemente fedeli al comportamento reale. Il secondo passo stato fornire una prima taratura di tentativo che fungesse da punto di partenza per lalgoritmo di ottimizzazione, abbiamo fatto ci linearizzando il modello meccanico con linerzia minima e utilizzando il metodo delle formule di inversione per determinare i parametri di controllo. Gi questa taratura, seppur conservativa, ha portato ad un miglioramento delle performance del sistema rispetto alla taratura empirica comunemente fatta in ambito industriale. Infine, abbiamo lanciato lalgoritmo di ottimizzazione definendo opportunamente la funzione di costo, ed il risultato stato decisamente positivo, portando ad un miglioramento medio del massimo errore di inseguimento di circa il 25%, ma anche oltre il 30% in alcuni casi.
Resumo:
La tesi si divide in due macroargomenti relativi alla preparazione della geometria per modelli MCNP. Il primo quello degli errori geometrici che vengono generati quando avviene una conversione da formato CAD a CSG e le loro relazioni con il fenomeno delle lost particles. Il passaggio a CSG tramite software infatti inevitabile per la costruzione di modelli complessi come quelli che vengono usati per rappresentare i componenti di ITER e pu generare zone della geometria che non vengono definite in modo corretto. Tali aree causano la perdita di particelle durante la simulazione Monte Carlo, andando ad intaccare l' integrit statistica della soluzione del trasporto. Per questo motivo molto importante ridurre questo tipo di errori il pi possibile, ed in quest'ottica il lavoro svolto stato quello di trovare metodi standardizzati per identificare tali errori ed infine stimarne le dimensioni. Se la prima parte della tesi incentrata sui problemi derivanti dalla modellazione CSG, la seconda invece suggerisce un alternativa ad essa, che l'uso di Mesh non Strutturate (UM), un approccio che sta alla base di CFD e FEM, ma che risulta innovativo nell'ambito di codici Monte Carlo. In particolare le UM sono state applicate ad una porzione dell' Upper Launcher (un componente di ITER) in modo da validare tale metodologia su modelli nucleari di alta complessit. L'approccio CSG tradizionale e quello con UM sono state confrontati in termini di risorse computazionali richieste, velocit, precisione e accuratezza sia a livello di risultati globali che locali. Da ci emerge che, nonostante esistano ancora alcuni limiti all'applicazione per le UM dovuti in parte anche alla sua novit, vari vantaggi possono essere attribuiti a questo tipo di approccio, tra cui un workflow pi lineare, maggiore accuratezza nei risultati locali, e soprattutto la possibilit futura di usare la stessa mesh per diversi tipi di analisi (come quelle termiche o strutturali).
Resumo:
I materiali compositi possiedono propriet funzionali e di resistenza sempre pi performanti grazie alla natura dei rinforzanti in fibra di carbonio, i quali per sono caratterizzati da criticit relative al processo di trasformazione altamente energivoro e dispendioso, allinquinamento collegato alla produzione delle fibre e al trattamento di sizing, nonch alla difficolt nello stadio di separazione dei costituenti del manufatto composito e del conseguente riciclo. A causa di queste problematiche sono stati introdotti in produzione materiali a matrice epossidica rinforzata con fibre di lino. Lo studio stato indirizzato verso la caratterizzazione delle materie prime che compongono i manufatti, quindi fibre e semilavorati, mediante analisi termiche dinamiche in DSC e TGA con il fine di determinare la composizione e resistenza dei singoli componenti e la misura della variazione nel comportamento quando sono uniti per comporre i prepreg. Sono state eseguite delle prove di igroscopicit, umidit e densit per ottenere una panoramica precisa sulle differenze nella struttura delle fibre in carbonio e lino che le differenzia in modo apprezzabile. Sono stati laminati compositi reticolati secondo tecnologia in autoclave, le cui propriet sono state definite mediante prove termiche dinamiche in DSC, TGA, DMA, prove alla fiamma mediante conocalorimetro, prove fisiche di igroscopicit, umidit e densit, prove ottiche al SEM in seguito ad una rottura in trazione. Parte del progetto seguito stato direzionato allottimizzazione del ciclo produttivo in autoclave. La simulazione del nuovo ciclo di cura industriale, RAPID, stata eseguita per valutare la variazione della Tg finale e il grado di curing, nonch le propriet termiche e meccaniche gi valutate nel ciclo di cura, STANDARD.