692 resultados para MIPv6 ABPS LISP Reti Mobilita Simulazione OMNeT INET
Resumo:
Panoramica di MPEG-DASH e TVWS, descrizione dell'implementazione di un middleware multi-interfaccia per lo streaming video adattivo e test di valutazione del lavoro svolto
Resumo:
Our generation of computational scientists is living in an exciting time: not only do we get to pioneer important algorithms and computations, we also get to set standards on how computational research should be conducted and published. From Euclids reasoning and Galileos experiments, it took hundreds of years for the theoretical and experimental branches of science to develop standards for publication and peer review. Computational science, rightly regarded as the third branch, can walk the same road much faster. The success and credibility of science are anchored in the willingness of scientists to expose their ideas and results to independent testing and replication by other scientists. This requires the complete and open exchange of data, procedures and materials. The idea of a replication by other scientists in reference to computations is more commonly known as reproducible research. In this context the journal EAI Endorsed Transactions on Performance & Modeling, Simulation, Experimentation and Complex Systems had the exciting and original idea to make the scientist able to submit simultaneously the article and the computation materials (software, data, etc..) which has been used to produce the contents of the article. The goal of this procedure is to allow the scientific community to verify the content of the paper, reproducing it in the platform independently from the OS chosen, confirm or invalidate it and especially allow its reuse to reproduce new results. This procedure is therefore not helpful if there is no minimum methodological support. In fact, the raw data sets and the software are difficult to exploit without the logic that guided their use or their production. This led us to think that in addition to the data sets and the software, an additional element must be provided: the workflow that relies all of them.
Resumo:
In questo lavoro di laurea si presentano le varie famiglie di convertitori multilivello MMC (Modular Multilevel Converter). Questi convertitori sono di ausilio per il condizionamento dei parametri di reti elettriche in media e alta tensione e possono anche essere convenientemente utilizzati nel pilotaggio di motori asincroni trifase. Dopo aver esplicitato i principi di funzionamento, presentato i dispositivi di commutazione, le tipologie conosciute e le rispettive principali tecniche di modulazione, si presentato il motore asincrono trifase, il suo circuito equivalente e le problematiche di accoppiamento ad un inverter. Successivamente si simulato un inverter multilivello di tipo Diode-Clamped, con modulazione analogica PWM multiportante, che aziona un motore asincrono commerciale, cos da poterne verificare le prestazioni in diversi regimi di velocit.
Resumo:
Linsufficienza renale cronica una malattia di grande impatto sulla sanit pubblica. Il punto di approdo per la maggior parte dei pazienti, alternativo al trapianto renale, il trattamento dialitico che rappresenta una cura ad alto costo sia sociale che economico. Il rene artificiale il dispositivo attraverso il quale si effettua la terapia, ed frutto di un costante sviluppo che mira a sostituire la funzione renale in quanto sottosistema dellorganismo umano. Per questo sempre pi importante dotarlo di un adeguato set di sensori che permettano di monitorare lefficacia del trattamento. Lemodialisi prevede la rimozione dei liquidi in eccesso accumulati nel periodo che intercorre tra due trattamenti successivi, per questo un parametro molto importante da monitorare la variazione relativa del volume ematico (RBV, Relative Blood Volume Variation). A questo scopo gli attuali dispositivi per dialisi in commercio utilizzano tecnologie ad ultrasuoni o ottiche: stata per recentemente evidenziata la sensibilit indesiderata di questa seconda tecnica ai cambiamenti di osmolarit del sangue sotto analisi. Lo studio presentato in questa tesi volto a migliorare laccuratezza con la quale effettuare la stima del RBV nel corso del trattamento dialitico, attraverso un sistema di misura ottico sperimentale. Il prototipo realizzato prevede di aumentare le informazioni raccolte sia aumentando la distribuzione spaziale dei sensori ottici che allargando la banda di lunghezze donda alla quale i dati vengono acquisiti. La stima del RBV gestita attraverso algoritmi basati sulle combinazioni lineari, sulle reti neurali e su modelli autoregressivi.
Resumo:
Gli odori rappresentano uno degli elementi di disturbo che la popolazione avverte maggiormente e, anche nel caso in cui non siano associati a sostanze tossiche, sono causa di conflitti e di intolleranza, sia nei confronti delle aziende che li diffondono nel territorio, sia nella scelta del sito di localizzazione di nuovi impianti. La valutazione del disturbo olfattivo e la sua regolamentazione (esistono linee guida, ma non una legislazione di riferimento) rappresentano aspetti caratterizzati da elevata complessit, dal momento che linquinamento olfattivo strettamente associato alla percezione umana. Nella tesi vengono valutate le emissioni odorigene e le relative immissioni, dovute ad un comparto per la gestione integrata dei rifiuti. Per caratterizzare le emissioni sono stati prelevati dei campioni di aria presso le principali sorgenti individuate e quantificate utilizzando la tecnica dellolfattometria dinamica. Una volta caratterizzate le sorgenti, i dati di emissione ottenuti dalla campagna di misura e dallanalisi olfattometrica sono stati utilizzati come dati di input del modello LAPMOD (LAgrangian Particle MODel). LAPMOD stato implementato con un modulo specifico per la determinazione delle concentrazioni massime orarie che utilizza un peak-to-mean variabile nel tempo, a differenza di altri modelli che usano un valore costante per la determinazione. Dall'elaborazione dei dati emerso che, utilizzando il modulo specifico per gli odori, le concentrazioni come 98 percentile riferite al giorno tipico hanno un andamento opposto rispetto alluso di un peak-to-mean costante. Dal confronto della simulazione in cui le emissioni sono indipendenti dalla variazione della portata di odore in funzione della velocit del vento, con quella che invece simula tale dipendenza (nelle sorgenti che presentano paratie laterali e tettoia) emerso che la simulazione che mitiga completamente leffetto del vento pi coerente con la realt.
Resumo:
Simulazione numerica con software Abaqus di impatti a bassa energia su laminati di fibra di carbonio con matrice epossidica per la previsione della formazione di delaminazioni interne. Confronto tra impatti centrali al provino e in prossimit del bordo.
Resumo:
La tesi volta a risolvere una problematica riscontrata all'interno di una palestra di Forl, nella quale durante gli orari pomeridiani/serali, a causa dell'elevata affluenza di persone al suo interno, si verifica un superamento delle condizioni ottimali dell'aria grazie alle quali si ha un corretto equilibrio del sistema di termoregolazione dell'organismo. Quindi stato creato un impianto di ventilazione tramite l'utilizzo di due software, Sketchup e Trnsys17. Successivamente stata fatta l'analisi in regime dinamico di tale impianto, andando ad effettuare anche un'analisi dei consumi energetici al fine di stabilire i parametri dei componenti e dell'impianto stesso per garantire il raggiungimento delle condizioni ottimali dell'aria all'interno della palestra.
Resumo:
Riscrivere la storia di un luogo urbano, risolverlo sviluppando un sistema progettuale complesso, rende necessario cogliere le caratteristiche stesse del luogo, individuare le possibilit e le potenzialit strutturali che lo spazio offre e svelare rapporti talvolta sottesi. Il progetto ha origine dalle necessit e da esse trae forza: larchitettura ideata deriva direttamente dal confronto tra il luogo, la sua storia e le sue trasformazioni, e gli esempi, le architetture che conosciamo, quelle costruite e quelle soltanto disegnate. La risoluzione della Caserma Mameli, la restituzione del suo spazio alla grande citt, lauspicabile creazione di un nuovo nucleo di riferimento per la zona Milano Nord, porta a riflettere sullimportanza del riutilizzo urbano al fine di ottenere nuove unioni e sinergie allinterno del complesso schema della citt del XXI secolo. La citt contemporanea, in continua trasformazione, vive unepoca di profondi cambiamenti: si intende progettare e pensare la citt in maniera sostenibile, limitando limpatto della nuova costruzione, favorendo il riutilizzo, urbano ed umano, sviluppando reti sempre pi estese per la mobilit collettiva e cercando di limitare quanto pi possibile la mera speculazione.
Resumo:
La citt di Bologna, la storia, i flussi e le connessioni. Questo progetto di gruppo nasce dalla necessit di ripensare il ruolo dellinfrastruttura nella contemporaneit e nellatteggiamento che larchitettura pu assumere di fronte alle rinnovate priorit delle citt italiane che, tra espansione demografica, monumenti e centri storici da preservare, nuove reti di comunicazione e scambio delle informazioni, necessitano sempre pi di una pianificazione che prenda in analisi il passato, interpreti il presente e si ponga lobiettivo primario di dialogare con il futuro. Il capoluogo Emiliano collocato in una posizione strategica per le comunicazioni d i trasporti, tenendo uniti gli estremi dello stivale e svolgendo un ruolo di snodo a cui oggi la penisola Italiana non pu in alcun modo rinunciare. Ogni giorno una quantit spropositata di pendolari e viaggiatori indotta nella citt concentrandosi in un primo momento nellarea della stazione ferroviaria e dei piazzali antistanti, per poi distribuirsi allinterno del tessuto urbano, chi utilizzando il sistema di rete tramviaria, chi a piedi o in bicicletta. Lintento principale del masterplan proposto quindi valutare un range di informazioni supplementari ai tradizionali studi urbani. Si notato come le aree pi degradate della citt (spesso limitrofe ad infrastrutture consegnate al comune senza valutarne lintegrazione e limpatto urbano e ambientale) manchino di una circolazione costante e di attivit. Si identificato nelle migliaia di soggetti che ogni giorno giungono a Bologna usufruendo dei servizi delle Ferrovie dello Stato la linfa vitale di unimportante parte della citt. Poich progettare per un futuro prossimo pensare a un presente in grado di accettare i propri limiti e assimilare le aberrazioni del passato, rifacendosi ad un immaginario che non pu che sconfinare i paradigmi prefissati che hanno portato ad uno status irrisolto ma non irrisolvibile.
Resumo:
Lazoto uno dei prodotti principali dellindustria chimica, utilizzato principalmente per assicurare un sicuro stoccaggio di composti infiammabili. Generatori con sistemi PSA sono spesso pi economici della tradizionale distillazione criogenica. I processi PSA utilizzano una colonna a letto fisso, riempita con materiale adsorbente, che adsorbe selettivamente un componente da una miscela gassosa. Lossigeno diffonde molto pi velocemente dell'azoto nei pori di setacci molecolari carboniosi. Oltre ad un ottimo materiale adsorbente, anche il design fondamentale per la performance di un processo PSA. La fase di adsorbimento seguita da una fase di desorbimento. Il materiale adsorbente pu essere quindi riutilizzato nel ciclo seguente. Lassenza di un simulatore di processo ha reso necessario luso di dati sperimentali per sviluppare nuovi processi. Un tale approccio molto costoso e lungo. Una modellazione e simulazione matematica, che consideri tutti i fenomeni di trasporto, richiesta per una migliore comprensione dell'adsorbente sia per l'ottimizzazione del processo. La dinamica della colonna richiede la soluzione di insiemi di PDE distribuite nel tempo e nello spazio. Questo lavoro stato svolto presso l'Universit di Scienze Applicate - Mnster, Germania. Argomento di questa tesi la modellazione e simulazione di un impianto PSA per la produzione di azoto con il simulatore di processo Aspen Adsorption con lobiettivo di permettere in futuro ottimizzazioni di processo affidabili, attendibili ed economiche basate su computazioni numeriche. E' discussa lottimizzazione di parametri, dati cinetici, termodinamici e di equilibrio. Il modello affidabile, rigoroso e risponde adeguatamente a diverse condizioni al contorno. Tuttavia non ancora pienamente soddisfacente poich manca una rappresentazione adeguata della cinetica ovvero dei fenomeni di trasporto di materia. La messa a punto del software permetter in futuro di indagare velocemente nuove possibilit di operazione.
Resumo:
L'accurata determinazione dei parametri che costituiscono un modello cosmologico fondamentale per caratterizzare correttamente l'evoluzione globale dell'universo e per spiegare le sue caratteristiche locali. Per quanto riguarda questo lavoro di Tesi abbiamo studiato l'efficienza di un particolare metodo per la stima del parametro di densit della materia detto test di Alcock-Paczynski. Con tale metodo si studiando le distorsioni geometriche che unerrata assunzione dei parametri cosmologici introduce nella funzione di correlazione a due punti bidimensionale. Abbiamo applicato il test a diversi cataloghi prodotti dalla simulazione Magneticum. In particolare abbiamo studiato come l'efficienza del metodo nel riconoscere il corretto valore del parametro di densit dipenda dal tipo di tracciante considerato, dal redshift d'osservazione e dai metodi di modelizzazione delle distorsioni dovute alla dinamica degli oggetti osservati. Si potuto osservare come lefficienza del metodo dipenda dalla densit doggetti contenuti nel catalogo (rendendo le galassie il tracciante migliore su cui applicare il test) e dallampiezza delleffetto di distorsione geometrica, massimo per redshift vicini a 1. Abbiamo verificato che considerare come indipendenti le misure effettuate sui cataloghi a diversi redshift migliora lidentificazione del corretto valore del parametro di densit. Nella combinazione delle diverse misure, inoltre, si nota che i contributi meno significativi vengono dai redshift estremi dellintervallo considerato, ma i singoli risultati, per quanto incerti, non intaccano il risultato finale. Infine si osservato come ridurre il numero di parametri liberi attraverso i quali si introducono nei modelli le distorsioni dinamiche, in particolar modo gli effetti di distorsione a piccole scale, migliora sensibilmente lefficacia del metodo.
Resumo:
La tesi discute i protocolli di autenticazione d'entit, in particolare i protocolli di autenticazione mutua. Dopo averne definito le principali caratteristiche utilizzando diversi esempi, si descrive il protocollo MAP1, presentato da Mihir Bellare e Philip Rogaway nel 1993. Di questo protocollo viene successivamente descritta una possibile implementazione e simulazione nell'ambiente Stateflow di Simulink.
Resumo:
Questo lavoro di tesi nasce con l'obbiettivo di studiare il modello di Guyton, proponendone una versione pi dettagliata con lo scopo di utilizzarla poi come strumento di indagine per una patologia nota come atresia tricuspidale. Si giunti cos alla creazione di un modello ibrido del sistema cardiovascolare che vede la modellizzazione, a parametri concentrati, dellintera rete circolatoria interfacciata con una rappresentazione dell' attivit cardiaca mediante le cosidette curve di funzionalit. Nello specifico si risaliti ad un modello della cicolazione cardiocircolatoria separando quella che la circolazione sistemica dalla circolazione polmonare secondo il sopracitato modello di Guyton, dopo di ch si trovato un analogo modello per pazienti sottoposti all' intervento di Fontan poich affetti da atresia tricuspidale.Tramite l'ausilio del software Matlab sono stati implementati questi due modelli semplificati (Guyton biventricolare e Guyton monoventricolare) e il corrispondente algoritmo risolutivo, con l'obiettivo di verificare, graficamente e numericamente, i risultati ottenuti dalla simulazione.Una volta accertatisi della attendibilit dei risultati, mediante il confronto con dati fisiologici dai manuali e dagli articoli su cui si fondato questo elaborato, si proceduto alla simulazione di casi fisiologici di attivit fisica e di malfunzionamento del ventricolo sinistro.L'utilizzo di un modello matematico per la circolazione permette di studiare e simulare l'interazione di diversi sistemi fisiologici superando il problema che si ha in ambito clinico, dove l'analisi pi complessa perch la misurazione delle numerose variabili fisiologiche indaginosa e a volte non fattibile.Fine ultimo dell'elaborato tuttavia non quello di dare valutazioni cliniche dei casi presi in esame e delle loro variabili, ma quello di presentare un metodo per studiare come la fisiologia della circolazione umana reagisce a dei cambiamenti.
Resumo:
Questo lavoro di tesi ha lo scopo di analizzare una frana appenninica riattivatasi a partire dal dicembre 2013 nel Comune di Grizzana Morandi (BO). Loperazione di studio della frana iniziata partendo da una accurata campagna dindagine eseguita in campo: per prima cosa stata eseguita una dettagliata perlustrazione del corpo di frana e del territorio limitrofo, questa operazione comprende il rilevamento geologico di dettaglio ed il tracciamento (tramite dispositivo GPS) del profilo del deposito e della corona di distacco. Di fondamentale interesse sono state poi le informazioni ricavate dalleseguimento di tre carotaggi sul corpo di frana, questi hanno permesso lestrazione di carote utili a definire la stratigrafia verticale del luogo (fino ai 20 metri di profondit) e prelevare campioni di terreno per effettuare specifiche prove di laboratorio. Parte di queste prove sono state eseguite da un laboratorio di commissione, altre sono state eseguite nel laboratorio geotecnico dellUniversit. I dati acquisiti tramite il monitoraggio, effettuato tramite listallazione di vari strumenti sul corpo di frana (piezometri, inclinometri ed estensimetri) sono risultati utili al fine di determinare la profondit della superficie di scorrimento, la velocit di movimento del deposito e la variazione del livello piezometrico. Le osservazioni effettuate sul campo e i dati provenienti dai sondaggi, dal monitoraggio e dalle prove di laboratorio sono stati elaborati e commentati, essi sono stati utilizzati per definire il modello geologico tecnico del territorio analizzato. Dalla definizione del modello geologico tecnico stata effettuata la back analysis (la simulazione delle condizioni presenti sul versante al momento della rottura) tramite software specifico. Loperazione finale stata la proposta (e la conseguente calibrazione) di diversi sistemi di messa in sicurezza del versante, utili a garantire nel tempo la stabilit del pendio analizzato.
Resumo:
Il documento analizza i vantaggi introdotti nel mondo delle telecomunicazioni dai paradigmi di Software Defined Networking e Network Functions Virtualization: questi nuovi approcci permettono di creare reti programmabili e dinamiche, mantenendo alte le prestazioni. Lobiettivo finale quello di capire se tramite la generalizzazione del codice del controller SDN , il dispositivo programmabile che permette di gestire gli switch OpenFlow, e la virtualizzazione delle reti, si possa risolvere il problema dellossificazione della rete Internet.