586 resultados para Sviluppo sostenibile
Resumo:
L'obiettivo della tesi è la valutazione delle prestazioni delle migrazioni di reti di macchine virtuali. Ci si è concentrati sul trasferimento delle memorie di tali macchine virtuali in quanto è l'azione che maggiormente comporta l'impiego di tempo e risorse. Allo scopo, si è scelto l'approccio pre-copy in quanto utilizzato dagli hypervisor più diffusi. Si è costruito un modello in grado di descrivere il sistema in esame, analizzandolo sia dal punto di vista matematico, che simulativo. Proprio grazie ai simulatori proposti si sono confrontati i valori del tempo di migrazione e del downtime, indici fondamentali per la migrazione in tempo reale, nel caso di trasferimento in serie e in parallelo delle macchine di un insieme. Si sono considerate anche reti di macchine virtuali aventi diversa dimensione delle memorie, analizzando e confrontando, anche questa volta, gli indici di prestazione con quelli degli altri processi. Si è prestata particolare attenzione anche alla caratterizzazione della dirtying-rate, parametro importante dell'approccio pre-copy.
Resumo:
Il fenomeno dello scattering diffuso è stato oggetto di numerosi studi nell’arco degli ultimi anni, questo grazie alla sua rilevanza nell’ambito della propagazione elettromagnetica così come in molti altri campi di applicazione (remote sensing, ottica, fisica, etc.), ma la compresione completa di questo effetto è lungi dall’essere raggiunta. Infatti la complessità nello studio e nella caratterizzazione della diffusione deriva dalla miriade di casistiche ed effetti che si possono incontrare in un ambiente di propagazione reale, lasciando intuire la necessità di trattarne probabilisticamente il relativo contributo. Da qui nasce l’esigenza di avere applicazioni efficienti dal punto di vista ingegneristico che coniughino la definizione rigorosa del fenomeno e la conseguente semplificazione per fini pratici. In tale visione possiamo descrivere lo scattering diffuso come la sovrapposizione di tutti quegli effetti che si scostano dalle classiche leggi dell’ottica geometrica (riflessione, rifrazione e diffrazione) che generano contributi del campo anche in punti dello spazio e direzioni in cui teoricamente, per oggetti lisci ed omogenei, non dovrebbe esserci alcun apporto. Dunque l’effetto principale, nel caso di ambiente di propagazione reale, è la diversa distribuzione spaziale del campo rispetto al caso teorico di superficie liscia ed omogenea in congiunzione ad effetti di depolarizzazione e redistribuzione di energia nel bilancio di potenza. Perciò la complessità del fenomeno è evidente e l’obiettivo di tale elaborato è di proporre nuovi risultati che permettano di meglio descrivere lo scattering diffuso ed individuare altresì le tematiche sulle quali concentrare l’attenzione nei lavori futuri. In principio è stato quindi effettuato uno studio bibliografico così da identificare i modelli e le teorie esistenti individuando i punti sui quali riflettere maggiormente; nel contempo si sono analizzate le metodologie di caratterizzazione della permittività elettrica complessa dei materiali, questo per valutare la possibilità di ricavare i parametri da utilizzare nelle simulazioni utilizzando il medesimo setup di misura ideato per lo studio della diffusione. Successivamente si è realizzato un setup di simulazione grazie ad un software di calcolo elettromagnetico (basato sul metodo delle differenze finite nel dominio del tempo) grazie al quale è stato possibile analizzare la dispersione tridimensionale dovuta alle irregolarità del materiale. Infine è stata condotta una campagna di misure in camera anecoica con un banco sperimentale realizzato ad-hoc per effettuare una caratterizzazione del fenomeno di scattering in banda larga.
Resumo:
Nell'elaborato svolto viene presentato un ballast elettronico destinato ad applicazioni di illuminazione stradale. L'alimentatore deve sostituire il tradizionale reattore elettromagnetico attualmente montato sui lampioni, deve poter alimentare lampade HID fino a 150 W, deve soddisfare le più stringenti normative di futura approvazione, deve garantire ulteriori servizi aggiuntivi legati sia al migliore sfruttamento della lampada che a eventuali esigenze legate all'innovativo concetto di palo intelligente (alimentazioni ausiliarie e strategie di risparmio energetico).
Resumo:
La tesi descrive alcune applicazioni in ambito satellitare delle tecniche di radio cognitiva. In particolare si analizza la loro possibile implementazione in uno scenario dual-satellite in banda Ka nel quale l'utente primario si avvale dello standard DVB-S2 per la trasmissione. A seguire la verifica delle performance degli algoritmi di spectum sensing per la detection del segnale primario attraverso simulazioni in ambiente matlab con curve ROC e curve di probabilità di detection in funzione del rapporto segnale rumore.
Resumo:
Scopo della tesi è analizzare il modello di migrazione 'pre-copy' e convalidare il simulatore che lo implementa. Modificando opportunamente il codice e facendo delle prove di simulazione in diversi casi, si vogliono riprodurre i grafici che si ottengono applicando il metodo analitico per la migrazine di insiemi di macchine virtuali. Si cerca di fare chiarezza, attraverso un'analisi dettagliata delle varie opzioni, su come i vari parametri fondamentali del sistema influiscono, dal punto di vista quantitativo, sulle prestazioni del sistema stesso.
Resumo:
Le reti ottiche, grazie alla loro elevata capacità, hanno acquisito sempre maggiore importanza negli ultimi anni, sia per via del crescente volume di dati scambiati, legato soprattutto alla larga diffusione di Internet, sia per la necessità di comunicazioni in tempo reale. Dati i (relativamente) lunghi tempi di adattamento, questa tecnologia nativamente non è quella ottimale per il trasporto di un traffico a burst, tipico delle telecomunicazioni odierne. Le reti ibride cercano, quindi, di coniugare al meglio le potenzialità della commutazione ottica di circuito e della commutazione ottica a pacchetto. In questo lavoro, in particolare, ci si è concentrati su un'architettura di rete ibrida denominata 3LIHON (3-Level Integrated Hybrid Optical Network). Essa prevede tre distinti livelli di qualità di servizio (QoS) per soddisfare differenti necessità: - Guaranteed Service Type (GST): simile ad un servizio a commutazione di circuito, non ammette perdita di dati. - Statistically Multiplexed Real Time (SM/RT): simile ad un servizio a commutazione di pacchetto, garantisce ritardo nullo o molto basso all'interno della rete, permette un piccolo tasso di perdita di dati e ammette la contesa della banda. - Statistically Multiplexed Best Effort (SM/BE): simile ad un servizio a commutazione di pacchetto, non garantisce alcun ritardo tra i nodi ed ammette un basso tasso di perdita dei dati. In un nodo 3LIHON, il traffico SM/BE impossibile da servire, a causa ad es. dell'interruzione da parte di pacchetti aventi un livello di QoS più prioritario, viene irrimediabilmente perso. Questo implica anche lo spreco del tempo e delle risorse impiegati per trasmettere un pacchetto SM/BE fino alla sua interruzione. Nel presente lavoro si è cercato di limitare, per quanto possibile, questo comportamento sconveniente, adottando e comparando tre strategie, che hanno portato alla modifica del nodo 3LIHON standard ed alla nascita di tre sue varianti.
Resumo:
Il mercato, in questi ultimi dieci anni, si è modificato in un qualcosa di più globale e competitivo. Questa trasformazione ha imposto alle imprese l’adozione di strategie orientate all’innovazione di prodotto e di processo, e all’efficienza industriale “Environmentally friendly” di lungo periodo. Le aziende, infatti, per competere sia nel territorio nazionale sia in quello internazionale, sono alla costante ricerca di una continua ottimizzazione, attraverso il processo “deming” del miglioramento continuo, delle proprie prestazioni; spesso però capita che massimizzino esclusivamente la performance produttiva, che è stata migliorata con l’introduzione, oramai da circa 35 anni, della Lean production e oggi quindi presenta limitati margini di miglioramento. È alla luce di questo ragionamento che le aziende, quelle più lungimiranti, stanno cercando di dirigersi verso un’altra direzione, ovvero quella che mira a ridurre gli sprechi e le perdite, di risorse naturali, nei processi produttivi, in accordo coi principi della sostenibilità ambientale. Considerando le quantità di risorse naturali messe in gioco in grandi aziende quali la VM Motori S.p.A. possiamo intuire quanta marginalità di miglioramento potremmo ottenere con l’attuazione di processi di miglioramento focalizzati sui singoli aspetti. I primi due capitoli trattano il tema dello sviluppo sostenibile e del S.G.A. in Italia e all’estero. Nel capitolo 3 introduco l’Azienda, descrivo tutte le fasi di processo per la fabbricazione di varie tipologie di motori rigorosamente diesel, l’impianto elettrico, termico e di aria compressa. Nel capitolo 4 faccio l’analisi di tutti gli aspetti e gli impatti ambientali; inoltre, per ogni fattore d’impatto ambientale, verrà compilata la cosiddetta VIA che sarà riassunta nell’ultimo paragrafo. Nel capitolo 5 affronto il concetto del miglioramento continuo applicando la filosofia del World Class Manufacturing che è stato implementato in Azienda.
Resumo:
In accordo con la filosofia della Software Defined Radio è stato progettato un decoder LDPC software che utilizza una GPU per ottenere prestazioni migliori. Il lavoro, che comprende anche l'encoder e un simulatore di canale AWGN, può essere utilizzato sia per eseguire simulazioni che per elaborare dati in real time. Come caso di studio si sono considerati i codici LDPC dello standard DVB-S2.
Resumo:
Si è scelto di analizzare in modo approfondito tecniche di copertura radio e di trasmissione basate sull’uso di array di antenne ( facenti parte della famiglia Multiple Input Multiple Output, MIMO) in alcune tipologie tipiche di scenari indoor, come ad esempio ambienti commerciali o uffici in strutture multipiano. Si è studiato l’utilizzo di array di antenne di varie tipologie e a varie frequenze per implementare tecniche di diversità oppure tecniche a divisione di spazio (beam-switching, beamforming) per servire contemporaneamente utenti in diverse celle o in diversi settori senza ricorrere ad altre tecniche di divisione (di frequenza, tempo o codice), che invece verranno utilizzate in conbinazione combinate in sistemi di futura generazione.
Resumo:
La green chemistry può essere definita come l’applicazione dei principi fondamentali di sviluppo sostenibile, al fine di ridurre al minimo l’impiego o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici. È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Il presente lavoro di tesi è stato condotto con l’intenzione di offrire una valutazione degli impatti ambientali associati al settore dei processi chimici di interesse industriale in una prospettiva di ciclo di vita. In particolare, è stato studiato il processo di produzione di acroleina ponendo a confronto due vie di sintesi alternative: la via tradizionale che impiega propilene come materia prima, e l’alternativa da glicerolo ottenuto come sottoprodotto rinnovabile di processi industriali. Il lavoro si articola in due livelli di studio: un primo, parziale, in cui si va ad esaminare esclusivamente il processo di produzione di acroleina, non considerando gli stadi a monte per l’ottenimento delle materie prime di partenza; un secondo, più dettagliato, in cui i confini di sistema vengono ampliati all’intero ciclo produttivo. I risultati sono stati confrontati ed interpretati attraverso tre tipologie di analisi: Valutazione del danno, Analisi di contributo ed Analisi di incertezza. Dal confronto tra i due scenari parziali di produzione di acroleina, emerge come il processo da glicerolo abbia impatti globalmente maggiori rispetto al tradizionale. Tale andamento è ascrivibile ai diversi consumi energetici ed in massa del processo per l’ottenimento dell’acroleina. Successivamente, per avere una visione completa di ciascuno scenario, l’analisi è stata estesa includendo le fasi a monte di produzione delle due materie prime. Da tale confronto emerge come lo scenario più impattante risulta essere quello di produzione di acroleina partendo da glicerolo ottenuto dalla trans-esterificazione di olio di colza. Al contrario, lo scenario che impiega glicerolo prodotto come scarto della lavorazione di sego sembra essere il modello con i maggiori vantaggi ambientali. Con l’obiettivo di individuare le fasi di processo maggiormente incidenti sul carico totale e quindi sulle varie categorie d’impatto intermedie, è stata eseguita un’analisi di contributo suddividendo ciascuno scenario nei sotto-processi che lo compongono. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.
Resumo:
Il lavoro di tesi ha come obiettivo lo studio e lo sviluppo tramite simulazioni numeriche di due celle in silicio ad eterogiunzione, una con parametri forniti dal CNR (Comitato Nazionale delle Ricerche) ed un’altra di tipo HIT (Heterojunction with Intrinsic Thin-layer). Lo studio e lo sviluppo delle due celle sono stati effettuati mediante un flusso TCAD il quale permette una maggiore flessibilità e completezza nella descrizione dei modelli fisici ed elettrici.
Resumo:
Questa tesi di laurea curriculare si propone come una lettura critica del percorso personale formativo universitario, attraverso l’analisi di tre specifiche e diverse esperienze progettuali, che hanno affrontato con varie accezioni il tema del “Riciclaggio” in architettura. Perché questa ricerca? Il riuso e la rivitalizzazione di materiali, edifici e intere parti di città si pone in stretta connessione con i principi di sviluppo sostenibile, perché concretizza un approccio conservativo di risorse, materiali o ambientali che hanno concluso un loro ciclo di vita; questi devono essere reinventati per essere re-immessei in un nuovo ciclo, producendo nuovo valore e vantaggi importanti in termini di risparmio e sostenibilità per la collettività. La notevole quantità di edifici e aree costruite non utilizzate presenti sul nostro territorio, insieme all’avanzamento della cultura del riciclo e delle tecnologie di recupero, impongono ad un architetto di ripensare un futuro per edifici e porzioni di città che hanno esaurito una fase del loro ciclo di vita, trovando un punto di equilibrio fra conservazione della memoria, adeguamento delle funzioni e innovazione delle tecniche. Oggi tutti i processi di produzione, tra cui quello dell’edilizia, sono tenuti al rispetto di norme e disposizioni per la riduzione dell’impatto ambientale, il risparmio e il recupero delle risorse: per questo i progettisti che nella scena mondiale hanno affrontato nelle loro opere la pratica del riciclo e del riuso si pongono come importanti riferimenti. La prima parte della tesi si compone di tre capitoli: nel primo viene introdotto il tema del consumo delle risorse. A questo proposito il riciclaggio di risorse, che in passato è stato considerato solo un modo per attenuare gli effetti negativi indotti dal nostro modello di sviluppo consumistico, oggi si presenta come un’opportunità di riflessione per molte attività di progettazione di oggetti, da quelli di consumo alle architetture, impegnate nella ricerca di soluzioni più sostenibili; nel secondo capitolo viene delineato il concetto di riciclo delle risorse come risposta allo sviluppo incontrollato e alla insostenibilità dello stile di vita indotto da un modello economico basato sulla pratica “usa e getta”. Nel terzo capitolo verrà esaminato il concetto di riciclo a varie scale d’intervento, dal riuso e riordino del territorio e della città, al riciclo degli edifici fino al riciclaggio di materiale. Saranno presentati alcuni casi studio significativi nel panorama mondiale. Nella seconda parte la tesi si propone una lettura critica di tre progetti realizzati durante la carriera universitaria, tutti caratterizzati dalla necessità di rapportarsi con importanti preesistenze, mediante strategie di rivitalizzazione dell’edificio o della porzione di città interessata dal progetto.
Resumo:
Viene proposta una possibile soluzione al problema del tracking multitarget, tramite una rete di sensori radar basata su tecnoligia ultra wide-band. L'area sorvegliata ha una superficie pari a 100 metri quadri e all'interno di essa si vuole tracciare la traiettoria di più persone.
Resumo:
Studio di misure fatte a 60 GHz e delle rispettive simulazioni mediante Ray Tracing
Resumo:
È impossibile implementare sorgenti autenticamente casuali su hardware digitale. Quindi, storicamente, si è fatto ampio uso di generatori di numeri pseudo-casuali, evitando così i costi necessari per la progettazione di hardware analogico dedicato. Tuttavia, le sorgenti pseudo-casuali hanno proprietà (riproducibilità e periodicità) che si trasformano in vulnerabilità, nel caso in cui vengano adottate in sistemi di sicurezza informatica e all’interno di algoritmi crittografici. Oggi la richiesta di generatori di numeri autenticamente casuali è ai suoi massimi storici. Alcuni importanti attori dell’ICT sviluppato proprie soluzioni dedicate, ma queste sono disponibili solo sui sistemi moderni e di fascia elevata. È quindi di grande attualità rendere fruibili generatori autenticamente casuali per sistemi già esistenti o a basso costo. Per garantire sicurezza e al tempo stesso contenere i costi di progetto è opportuno pensare ad architetture che consentano di riusare parti analogiche già disponibili. Particolarmente interessanti risultano alcune architetture che, grazie all’utilizzo di dinamiche caotiche, consentono di basare buona parte della catena analogica di elaborazione su ADC. Infatti, tali blocchi sono ampiamente fruibili in forma integrata su architetture programmabili e microcontrollori. In questo lavoro, si propone un’implementazione a basso costo ed elevata flessibilità di un architettura basata su un ADC, inizialmente concepita all’Università di Bologna. La riduzione di costo viene ottenuta sfruttando il convertitore già presente all’interno di un microcontrollore. L’elevata flessibilità deriva dal fatto che il microcontrollore prescelto mette a disposizione una varietà di interfacce di comunicazione, tra cui quella USB, con la quale è possibile rendere facilmente fruibili i numeri casuali generati. Quindi, l’intero apparato comprende solo un microcontrollore e una minima catena analogica di elaborazione esterna e può essere interfacciato con estrema facilità ad elaboratori elettronici o sistemi embedded. La qualità della proposta, in termini di statistica delle sequenze casuali generate, è stata validata sfruttando i test standardizzati dall’U.S. NIST.