898 resultados para Sistemi di rigenerazione pompe di calore alta efficienza
Resumo:
Parlare di KeyCrime significa rapportarsi con un software che si fonda prioritariamente su di un metodo scientifico che fa proprio il ragionamento conclusivo (conclusive reasoning), applicato al decison making , pertanto all’intelligence investigativa e alla predictive policing. Potremmo pensare a KeyCrime come un paradigma operativo che si pone in sinergia tra la filosofia, il cognitivismo giuridico e le scienze applicate (Romeo F., 2006). Quando analisi e decision making trovano in un unico contesto il terreno fertile dove svilupparsi, ma ancor più, creare presupposti di ragionamento, ecco che da queste è facile comprendere da quale altra condizione sono nate, attivate e soprattutto utilizzate ai fini di un risultato: questa non è altro che “l’osservazione”; se ben fatta, profonda e scientifica offre una sistematica quanto utile predisposizione alle indagini, specialmente di carattere preventivo per l’anticrimine e la sicurezza.
Resumo:
Lo scopo della tesi è analizzare gli aspetti principali del progetto People Mover di Bologna, toccando gli aspetti costruttivi, ambientali e trasportistici, esaminando lo studio della domanda di trasporto e svolgendo infine un analisi swot dei punti di forza o debolezza. Il People Mover di Bologna è un sistema innovativo di trasporto pubblico che collegherà in 7 minuti la stazione ferroviaria all’aeroporto Marconi, effettuando una sola fermata intermedia presso il Lazzaretto, un’area destinata ad ospitare un nuovo insediamento abitativo nonché nuovi spazi per l’Università di Bologna. Il People Mover è un sistema di trasporto pubblico che offre: certezza sui tempi di percorrenza, mobilità silenziosa, zero emissioni (trazione elettrica), sicurezza di esercizio, costi ridotti rispetto ad una metropolitana. Dopo aver valutato in sede di analisi swot, i pro e contro di tale opera è giusto fare un confronto tra il People Mover e il Servizio Ferroviario Metropolitano. In passato il confronto fra i sostenitori del People mover e del Sistema ferroviario metropolitano è stato in parte ideologico, in parte politico e solo limitatamente tecnico. La tesi analizza le differenze tecniche dei due sistemi di trasporto. Voler far convivere sulla stessa infrastruttura due utenze molto diverse (quella aeroportuale e quella pendolare) è difficile e porterebbe alla non soddisfazione di entrambe. Se l’utenza aeroportuale chiede rapidità e spazio per i bagagli, i pendolari chiedono maggiori posti a sedere e maggiore intensità del servizio. In conclusione lo scopo di questa tesi non è porre dei dubbi sul progetto dell’opera stessa, peraltro già in fase di cantierizzazione, ma fornire un analisi più completa sul progetto.
Resumo:
Nell’elaborato presentato è stato analizzato il sistema ORC, presente nel laboratorio DIN della Facoltà di Ingegneria, e confrontato con alcuni banchi prova estratti dalla letteratura. Sono stati studiati gli elementi caratterizzanti del sistema, definendone le loro caratteristiche, le loro dimensioni e la loro collocazione all’interno dell’impianto. Inseguito è stato fatto un confronto con degli impianti di simile taglia che sfruttano fonti di calore differenti. Infine è stato esaminato nel dettaglio il layout del sistema ORC definendone la sua struttura 3D per avere una maggiore chiarezza sulla composizione di questo impianto e sul posizionamento reciproco dei suoi elementi.
Resumo:
I sistemi di Social Media Monitoring hanno l'obiettivo di analizzare dati provenienti da social media come social network, forum e blog (detti User-Generated Content) per trarre un quadro generale delle opinioni degli utenti a proposito di un particolare argomento. Il progetto di tesi si pone l'obiettivo di progettare e creare un prototipo per un sistema di Social Media Monitoring concentrato in particolare sull'analisi di contenuti provenienti da Twitter.
Resumo:
Il presente lavoro di tesi nasce in seguito all’esperienza di tirocinio svolta presso l’Arcispedale Santa Maria Nuova di Reggio Emilia. Fulcro di questo lavoro è lo sviluppo di un sistema di pianificazione della dose per il trattamento dei pazienti sottoposti a Molecular Radionuclide Therapy (MRT). Presso tale struttura ospedaliera è già stato sviluppato uno strumento che si appoggia all’ambiente di lavoro Matlab per il calcolo dosimetrico. Tale programma è chiamato VoxelMed. Si tratta di uno strumento di calcolo che lavora al così detto voxel-level, tecnica di sviluppo recente che permette il calcolo della dose assorbita all’interno di un paziente in modo più dettagliato rispetto ai metodi di calcolo basati unicamente sulla stima media per organo, tipicamente impiegati in dosimetria tradizionale. Parte del lavoro di tesi consiste nell’implementare nuove modalità di calcolo ed aggiungere ulteriori accorgimenti all’attuale versione di VoxelMed. In VoxelMed è stata poi integrata ex-novo una componente di calcolo di misure radiobiologiche, in particolare della BED. La dose assorbita non è infatti un parametro sufficiente per valutare gli effetti della radiazione sui tessuti, a parità di tipo ed energia della radiazione gli effetti possono essere molto variabili. La BED è il parametro che tiene conto della risposta del tessuto sano o cancerogeno alla radiazione. Parte del lavoro è stato svolto sperimentalmente, tramite misure con fantocci acquisiti o preparati ad hoc. In particolare si sono utilizzati diverse tipologie di fantocci, per effettuare protocolli di calibrazione dei sistemi di acquisizione, misure di curve di effetto di volume parziale e test finali di verifica. Per un ulteriore verifica delle prestazioni di calcolo si sono effettuate misurazioni su un gruppo di pazienti e si sono confrontati i risultati con quelli ottenuti dal software maggiormente utilizzato nella pratica clinica, OLINDA/EXM.
Resumo:
Un problema fondamentale nello studio delle particelle elementari è disporre di misure più accurate possibile delle traiettorie che queste seguono all'interno dei rivelatori. La precisione di misura dei parametri di traccia è importante per poter descrivere accuratamente gli eventi e le interazioni che avvengono all'interno dei rivelatori. LHCb è un esempio di esperimento progettato con lo scopo di ottenere misure di precisione dei parametri della cinematica delle particelle per poter studiare la violazione delle simmetrie. Rivelatori come quello dell'esperimento LHCb utilizzano avanzate tecniche di tracciamento per individuare le traiettorie. Queste sono influenzate da fattori di rumore dovuti all'interazione tra le particelle e il materiale del rivelatore stesso. Nell'analisi delle misure effettuate quindi occorre tenere conto che sia la sensibilità del rivelatore che i fattori di rumore contribuiscono nella determinazione dell'incertezza sulla misura. Uno strumento matematico usato per ottenere precise stime dei parametri di traccia è il filtro di Kalman, che implementato su un campione di misure di una determinata grandezza, consente di minimizzare gli effetti dovuti a rumori statistici. In questo lavoro di tesi sono stati studiati la struttura e il funzionamento del rivelatore dell'esperimento LHCb e dei sistemi di tracciamento che lo caratterizzano e che ne costituiranno il futuro aggiornamento. Inoltre è stata analizzata l'azione del filtro di Kalman, implementandolo in una simulazione di tracciamento al calcolatore.
Modellistica di accensione per candele ad arco elettrico in motori a combustione interna alternativi
Resumo:
Nel panorama mondiale di contenimento delle emissioni inquinanti in atmosfera é divenuto sempre più importante limitare la parte derivante dai motori a combustione interna: l'utilizzo di motori GDI a carica stratificata e di ricircolo dei gas di scarico (EGR) sono esempi di tecnologie pensate proprio in tale ottica. Sia la presenza di un ambiente magro che di EGR nel cilindro, come anche l'aumento della pressione nel cilindro per l'incremento della pressione di sovralimentazione o del rapporto di compressione, hanno lo svantaggio di limitare la velocità di combustione e rendere più sfavorevoli le condizioni di accensione della miscela; in questo scenario diviene di fondamentale importanza il miglioramento dei sistemi di accensione, la creazione di modelli volti a simularli e la comprensione dei fenomeni che ne stanno alla base. Il seguente lavoro di tesi si inserisce proprio in questo contesto, indagando le varie fasi di cui si compone il fenomeno dell'accensione e le relazioni che legano le variabili di interesse fisico, verificate sulla base di evidenze sperimentali. Successivamente vengono analizzati i principali modelli d'accensione che sono stati proposti e implementati in codici computazionali fluidodinamici; l'analisi mette in luce le differenze, i punti di forza e le semplificazioni introdotte in ognuno di essi, in modo da poterli valutare criticamente. La suddetta analisi é anche utile per introdurre il modello frutto del lavoro del gruppo di ricerca dell'Università di Bologna; ci si concentra particolarmente su quest'ultimo poiché un obiettivo di questo lavoro di tesi é stato proprio l'implementazione e l'utilizzo del modello in un codice fluidodinamico tridimensionale quale CONVERGE CFD. L'implementazione é stata poi validata attraverso simulazioni su una geometria reale di un motore a combustione interna ad elevate prestazioni, confrontando i risultati ottenuti con il nuovo modello rispetto ai dati sperimentali sulla combustione.
Resumo:
In un'epoca di risorse scarse e di crescente disaffezione verso la politica, l'azione degli enti locali ha un impatto sempre più rilevante sulla qualità della vita del cittadino. A tal fine, l'adozione di sistemi di programmazione e controllo, supportati da idonei strumenti, diviene essenziale per il perseguimento dell'efficienza e dell'efficacia e dunque per riconquistare la fiducia del cittadino stesso. Il volume, sulla base di un'analisi della normativa (dai primi anni Novanta fino al DL 174/2012 e s.m.i.) e della letteratura nazionale ed internazionale in tema di performance measurement, identifica un Modello ottimale (Modello PerformEL) per la redazione di due documenti che possono avere un ruolo centrale nel sistema di programmazione e controllo locale: il Piano e la Relazione sulla Performance. La capacità informativa di questi ultimi è testata tramite un'indagine empirica che ha coinvolto i comuni con almeno 50.000 abitanti, comparando struttura, forma e contenuti di tali documenti con quelli ritenuti ottimali e quindi inseriti nel Modello. Sulla base dei risultati dell'indagine, che mostrano una diffusa inadeguatezza informativa degli strumenti analizzati, viene proposto un percorso evolutivo per la graduale realizzazione di documenti di programmazione e controllo che, al di là della loro 'etichetta formale' (Piano della Performance piuttosto che Piano Esecutivo di Gestione, Relazione sulla Performance o Report dei Controlli interni) permetta di semplificare l'architettura informativa dell'ente locale (nel rispetto del DL 174/2012) e parimenti di trasformare i molteplici inutili adempimenti in utili documenti di performance measurement.
Resumo:
L’analisi del movimento umano ha come obiettivo la descrizione del movimento assoluto e relativo dei segmenti ossei del soggetto e, ove richiesto, dei relativi tessuti molli durante l’esecuzione di esercizi fisici. La bioingegneria mette a disposizione dell’analisi del movimento gli strumenti ed i metodi necessari per una valutazione quantitativa di efficacia, funzione e/o qualità del movimento umano, consentendo al clinico l’analisi di aspetti non individuabili con gli esami tradizionali. Tali valutazioni possono essere di ausilio all’analisi clinica di pazienti e, specialmente con riferimento a problemi ortopedici, richiedono una elevata accuratezza e precisione perché il loro uso sia valido. Il miglioramento della affidabilità dell’analisi del movimento ha quindi un impatto positivo sia sulla metodologia utilizzata, sia sulle ricadute cliniche della stessa. Per perseguire gli obiettivi scientifici descritti, è necessario effettuare una stima precisa ed accurata della posizione e orientamento nello spazio dei segmenti ossei in esame durante l’esecuzione di un qualsiasi atto motorio. Tale descrizione può essere ottenuta mediante la definizione di un modello della porzione del corpo sotto analisi e la misura di due tipi di informazione: una relativa al movimento ed una alla morfologia. L’obiettivo è quindi stimare il vettore posizione e la matrice di orientamento necessari a descrivere la collocazione nello spazio virtuale 3D di un osso utilizzando le posizioni di punti, definiti sulla superficie cutanea ottenute attraverso la stereofotogrammetria. Le traiettorie dei marker, così ottenute, vengono utilizzate per la ricostruzione della posizione e dell’orientamento istantaneo di un sistema di assi solidale con il segmento sotto esame (sistema tecnico) (Cappozzo et al. 2005). Tali traiettorie e conseguentemente i sistemi tecnici, sono affetti da due tipi di errore, uno associato allo strumento di misura e l’altro associato alla presenza di tessuti molli interposti tra osso e cute. La propagazione di quest’ultimo ai risultati finali è molto più distruttiva rispetto a quella dell’errore strumentale che è facilmente minimizzabile attraverso semplici tecniche di filtraggio (Chiari et al. 2005). In letteratura è stato evidenziato che l’errore dovuto alla deformabilità dei tessuti molli durante l’analisi del movimento umano provoca inaccuratezze tali da mettere a rischio l’utilizzabilità dei risultati. A tal proposito Andriacchi scrive: “attualmente, uno dei fattori critici che rallentano il progresso negli studi del movimento umano è la misura del movimento scheletrico partendo dai marcatori posti sulla cute” (Andriacchi et al. 2000). Relativamente alla morfologia, essa può essere acquisita, ad esempio, attraverso l’utilizzazione di tecniche per bioimmagini. Queste vengono fornite con riferimento a sistemi di assi locali in generale diversi dai sistemi tecnici. Per integrare i dati relativi al movimento con i dati morfologici occorre determinare l’operatore che consente la trasformazione tra questi due sistemi di assi (matrice di registrazione) e di conseguenza è fondamentale l’individuazione di particolari terne di riferimento, dette terne anatomiche. L’identificazione di queste terne richiede la localizzazione sul segmento osseo di particolari punti notevoli, detti repere anatomici, rispetto ad un sistema di riferimento solidale con l’osso sotto esame. Tale operazione prende il nome di calibrazione anatomica. Nella maggior parte dei laboratori di analisi del movimento viene implementata una calibrazione anatomica a “bassa risoluzione” che prevede la descrizione della morfologia dell’osso a partire dall’informazione relativa alla posizione di alcuni repere corrispondenti a prominenze ossee individuabili tramite palpazione. Attraverso la stereofotogrammetria è quindi possibile registrare la posizione di questi repere rispetto ad un sistema tecnico. Un diverso approccio di calibrazione anatomica può essere realizzato avvalendosi delle tecniche ad “alta risoluzione”, ovvero attraverso l’uso di bioimmagini. In questo caso è necessario disporre di una rappresentazione digitale dell’osso in un sistema di riferimento morfologico e localizzare i repere d’interesse attraverso palpazione in ambiente virtuale (Benedetti et al. 1994 ; Van Sint Jan et al. 2002; Van Sint Jan et al. 2003). Un simile approccio è difficilmente applicabile nella maggior parte dei laboratori di analisi del movimento, in quanto normalmente non si dispone della strumentazione necessaria per ottenere le bioimmagini; inoltre è noto che tale strumentazione in alcuni casi può essere invasiva. Per entrambe le calibrazioni anatomiche rimane da tenere in considerazione che, generalmente, i repere anatomici sono dei punti definiti arbitrariamente all’interno di un’area più vasta e irregolare che i manuali di anatomia definiscono essere il repere anatomico. L’identificazione dei repere attraverso una loro descrizione verbale è quindi povera in precisione e la difficoltà nella loro identificazione tramite palpazione manuale, a causa della presenza dei tessuti molli interposti, genera errori sia in precisione che in accuratezza. Tali errori si propagano alla stima della cinematica e della dinamica articolare (Ramakrishnan et al. 1991; Della Croce et al. 1999). Della Croce (Della Croce et al. 1999) ha inoltre evidenziato che gli errori che influenzano la collocazione nello spazio delle terne anatomiche non dipendono soltanto dalla precisione con cui vengono identificati i repere anatomici, ma anche dalle regole che si utilizzano per definire le terne. E’ infine necessario evidenziare che la palpazione manuale richiede tempo e può essere effettuata esclusivamente da personale altamente specializzato, risultando quindi molto onerosa (Simon 2004). La presente tesi prende lo spunto dai problemi sopra elencati e ha come obiettivo quello di migliorare la qualità delle informazioni necessarie alla ricostruzione della cinematica 3D dei segmenti ossei in esame affrontando i problemi posti dall’artefatto di tessuto molle e le limitazioni intrinseche nelle attuali procedure di calibrazione anatomica. I problemi sono stati affrontati sia mediante procedure di elaborazione dei dati, sia apportando modifiche ai protocolli sperimentali che consentano di conseguire tale obiettivo. Per quanto riguarda l’artefatto da tessuto molle, si è affrontato l’obiettivo di sviluppare un metodo di stima che fosse specifico per il soggetto e per l’atto motorio in esame e, conseguentemente, di elaborare un metodo che ne consentisse la minimizzazione. Il metodo di stima è non invasivo, non impone restrizione al movimento dei tessuti molli, utilizza la sola misura stereofotogrammetrica ed è basato sul principio della media correlata. Le prestazioni del metodo sono state valutate su dati ottenuti mediante una misura 3D stereofotogrammetrica e fluoroscopica sincrona (Stagni et al. 2005), (Stagni et al. 2005). La coerenza dei risultati raggiunti attraverso i due differenti metodi permette di considerare ragionevoli le stime dell’artefatto ottenute con il nuovo metodo. Tale metodo fornisce informazioni sull’artefatto di pelle in differenti porzioni della coscia del soggetto e durante diversi compiti motori, può quindi essere utilizzato come base per un piazzamento ottimo dei marcatori. Lo si è quindi utilizzato come punto di partenza per elaborare un metodo di compensazione dell’errore dovuto all’artefatto di pelle che lo modella come combinazione lineare degli angoli articolari di anca e ginocchio. Il metodo di compensazione è stato validato attraverso una procedura di simulazione sviluppata ad-hoc. Relativamente alla calibrazione anatomica si è ritenuto prioritario affrontare il problema associato all’identificazione dei repere anatomici perseguendo i seguenti obiettivi: 1. migliorare la precisione nell’identificazione dei repere e, di conseguenza, la ripetibilità dell’identificazione delle terne anatomiche e della cinematica articolare, 2. diminuire il tempo richiesto, 3. permettere che la procedura di identificazione possa essere eseguita anche da personale non specializzato. Il perseguimento di tali obiettivi ha portato alla implementazione dei seguenti metodi: • Inizialmente è stata sviluppata una procedura di palpazione virtuale automatica. Dato un osso digitale, la procedura identifica automaticamente i punti di repere più significativi, nella maniera più precisa possibile e senza l'ausilio di un operatore esperto, sulla base delle informazioni ricavabili da un osso digitale di riferimento (template), preliminarmente palpato manualmente. • E’ stato poi condotto uno studio volto ad indagare i fattori metodologici che influenzano le prestazioni del metodo funzionale nell’individuazione del centro articolare d’anca, come prerequisito fondamentale per migliorare la procedura di calibrazione anatomica. A tale scopo sono stati confrontati diversi algoritmi, diversi cluster di marcatori ed è stata valutata la prestazione del metodo in presenza di compensazione dell’artefatto di pelle. • E’stato infine proposto un metodo alternativo di calibrazione anatomica basato sull’individuazione di un insieme di punti non etichettati, giacenti sulla superficie dell’osso e ricostruiti rispetto ad un TF (UP-CAST). A partire dalla posizione di questi punti, misurati su pelvi coscia e gamba, la morfologia del relativo segmento osseo è stata stimata senza identificare i repere, bensì effettuando un’operazione di matching dei punti misurati con un modello digitale dell’osso in esame. La procedura di individuazione dei punti è stata eseguita da personale non specializzato nell’individuazione dei repere anatomici. Ai soggetti in esame è stato richiesto di effettuare dei cicli di cammino in modo tale da poter indagare gli effetti della nuova procedura di calibrazione anatomica sulla determinazione della cinematica articolare. I risultati ottenuti hanno mostrato, per quel che riguarda la identificazione dei repere, che il metodo proposto migliora sia la precisione inter- che intraoperatore, rispetto alla palpazione convenzionale (Della Croce et al. 1999). E’ stato inoltre riscontrato un notevole miglioramento, rispetto ad altri protocolli (Charlton et al. 2004; Schwartz et al. 2004), nella ripetibilità della cinematica 3D di anca e ginocchio. Bisogna inoltre evidenziare che il protocollo è stato applicato da operatori non specializzati nell’identificazione dei repere anatomici. Grazie a questo miglioramento, la presenza di diversi operatori nel laboratorio non genera una riduzione di ripetibilità. Infine, il tempo richiesto per la procedura è drasticamente diminuito. Per una analisi che include la pelvi e i due arti inferiori, ad esempio, l’identificazione dei 16 repere caratteristici usando la calibrazione convenzionale richiede circa 15 minuti, mentre col nuovo metodo tra i 5 e i 10 minuti.
Resumo:
La tesi è stata redatta per fornire ad un utente una panoramica completa sugli attuali sistemi di pagamento elettronico in uso sul Web.
Resumo:
Con il termine Smart Grid si intende una rete urbana capillare che trasporta energia, informazione e controllo, composta da dispositivi e sistemi altamente distribuiti e cooperanti. Essa deve essere in grado di orchestrare in modo intelligente le azioni di tutti gli utenti e dispositivi connessi al fine di distribuire energia in modo sicuro, efficiente e sostenibile. Questo connubio fra ICT ed Energia viene comunemente identificato anche con il termine Smart Metering, o Internet of Energy. La crescente domanda di energia e l’assoluta necessità di ridurre gli impatti ambientali (pacchetto clima energia 20-20-20 [9]), ha creato una convergenza di interessi scientifici, industriali e politici sul tema di come le tecnologie ICT possano abilitare un processo di trasformazione strutturale di ogni fase del ciclo energetico: dalla generazione fino all’accumulo, al trasporto, alla distribuzione, alla vendita e, non ultimo, il consumo intelligente di energia. Tutti i dispositivi connessi, diventeranno parte attiva di un ciclo di controllo esteso alle grandi centrali di generazione così come ai comportamenti dei singoli utenti, agli elettrodomestici di casa, alle auto elettriche e ai sistemi di micro-generazione diffusa. La Smart Grid dovrà quindi appoggiarsi su una rete capillare di comunicazione che fornisca non solo la connettività fra i dispositivi, ma anche l’abilitazione di nuovi servizi energetici a valore aggiunto. In questo scenario, la strategia di comunicazione sviluppata per lo Smart Metering dell’energia elettrica, può essere estesa anche a tutte le applicazioni di telerilevamento e gestione, come nuovi contatori dell’acqua e del gas intelligenti, gestione dei rifiuti, monitoraggio dell’inquinamento dell’aria, monitoraggio del rumore acustico stradale, controllo continuo del sistema di illuminazione pubblico, sistemi di gestione dei parcheggi cittadini, monitoraggio del servizio di noleggio delle biciclette, ecc. Tutto ciò si prevede possa contribuire alla progettazione di un unico sistema connesso, dove differenti dispositivi eterogenei saranno collegati per mettere a disposizione un’adeguata struttura a basso costo e bassa potenza, chiamata Metropolitan Mesh Machine Network (M3N) o ancora meglio Smart City. Le Smart Cities dovranno a loro volta diventare reti attive, in grado di reagire agli eventi esterni e perseguire obiettivi di efficienza in modo autonomo e in tempo reale. Anche per esse è richiesta l’introduzione di smart meter, connessi ad una rete di comunicazione broadband e in grado di gestire un flusso di monitoraggio e controllo bi-direzionale esteso a tutti gli apparati connessi alla rete elettrica (ma anche del gas, acqua, ecc). La M3N, è un’estensione delle wireless mesh network (WMN). Esse rappresentano una tecnologia fortemente attesa che giocherà un ruolo molto importante nelle futura generazione di reti wireless. Una WMN è una rete di telecomunicazione basata su nodi radio in cui ci sono minimo due percorsi che mettono in comunicazione due nodi. E’ un tipo di rete robusta e che offre ridondanza. Quando un nodo non è più attivo, tutti i rimanenti possono ancora comunicare tra di loro, direttamente o passando da uno o più nodi intermedi. Le WMN rappresentano una tipologia di rete fondamentale nel continuo sviluppo delle reti radio che denota la divergenza dalle tradizionali reti wireless basate su un sistema centralizzato come le reti cellulari e le WLAN (Wireless Local Area Network). Analogamente a quanto successo per le reti di telecomunicazione fisse, in cui si è passati, dalla fine degli anni ’60 ai primi anni ’70, ad introdurre schemi di rete distribuite che si sono evolute e man mano preso campo come Internet, le M3N promettono di essere il futuro delle reti wireless “smart”. Il primo vantaggio che una WMN presenta è inerente alla tolleranza alla caduta di nodi della rete stessa. Diversamente da quanto accade per una rete cellulare, in cui la caduta di una Base Station significa la perdita di servizio per una vasta area geografica, le WMN sono provviste di un’alta tolleranza alle cadute, anche quando i nodi a cadere sono più di uno. L'obbiettivo di questa tesi è quello di valutare le prestazioni, in termini di connettività e throughput, di una M3N al variare di alcuni parametri, quali l’architettura di rete, le tecnologie utilizzabili (quindi al variare della potenza, frequenza, Building Penetration Loss…ecc) e per diverse condizioni di connettività (cioè per diversi casi di propagazione e densità abitativa). Attraverso l’uso di Matlab, è stato quindi progettato e sviluppato un simulatore, che riproduce le caratteristiche di una generica M3N e funge da strumento di valutazione delle performance della stessa. Il lavoro è stato svolto presso i laboratori del DEIS di Villa Grifone in collaborazione con la FUB (Fondazione Ugo Bordoni).
Resumo:
Il nostro studio è incentrato sul confronto fra l’Unione Europea e il Mercado Común del Sur (Mercosur, particolarmente, in relazione a due aspetti: (i) aspetto giuridico-strutturale e, (ii) aspetto giurisprudenziale. L’obiettivo principale di tale confronto è quello di tracciare un parallelismo tra i due sistemi d’integrazione in modo da comprendere il livello d’integrazione e di efficienza del Mercosur in relazione ad un parametro ineludibile in materia quale è l’Unione Europea. Con tale obiettivo, il lavoro è stato suddiviso in quattro capitoli che mettono a fuoco aspetti molto precisi dei sistemi d’integrazione regionale. Il Capitolo I Diritto e integrazione nell’ambito del Mercosur, ha una funzione introduttiva al sistema mercosurino e funge da asse dell’intera tesi dato che illustra le origini del Mercosur, le sue istituzioni, i suoi fini ed obiettivi e, da ultimo, l’attuale assetto istituzionale del medesimo ed ipotizza i suoi possibili sviluppi futuri. Nel Capitolo II, L’evoluzione del diritto del Mercosur alla luce del primo parere consultivo del Tribunal Permanente de Revisión, è analizzato il primo parere emesso dai Tribunali mercosurini – nell’anno 2007. Vengono delineati gli elementi che caratterizzano tali pareri mercosurini e vengono altresì messi in evidenza gli aspetti di convergenza con i rinvii pregiudiziali della Corte di giustizia e quelli che, invece, rappresentano elementi di profonda divergenza. Attraverso l’analisi del Parere 1/2007 ci proponiamo in primo luogo di mettere a fuoco specifici spunti giuridici rintracciabili nella sua motivazione che ci permetteranno di dare una reale dimensione al Diritto mercosurino. In secondo luogo, ci proponiamo di mettere in evidenza il fondamentale ruolo che possono acquisire i pareri emessi dal Tribunal Permanente de Revisión nello sviluppo dell’intero sistema giuridico ed istituzionale del Mercosur. Nel capitolo successivo, Un caso di conflitto di giurisdizione, abbiamo voluto studiare una particolare controversia che, curiosamente, è stata affrontata e risolta da differenti organi giurisdizionali con competenze materiali e territoriali diverse. Facciamo riferimento alla causa “dei polli” esportati in Argentina, con presunto dumping, da parte di alcuni produttori brasiliani dal gennaio 1998 al gennaio 1999. Tale causa ebbe origine in Argentina dinanzi un’autorità amministrativa, fu parallelamente portata dinanzi la giustizia federale argentina, successivamente davanti ad un Tribunale mercosurino e, infine, dinanzi l’OMC. Con lo scopo di trovare una risposta al perché sia stato possibile adire più tribunali ed applicare normativa diversa ad una stessa controversia abbiamo indagato due aspetti di diritto di vitale rilevanza nell’ambito del diritto internazionale dei nostri giorni. Da una parte ci siamo focalizzati sullo studio delle normative internazionali che legiferando su materie simili e, in certi casi, pressoché identiche, e avendo origine in sistemi giuridici diversi hanno, tuttavia, la capacità di esplicare i loro effetti in più giurisdizioni e sono, pertanto, potenzialmente in grado di influenzarsi a vicenda. D’altra parte, abbiamo compiuto un’indagine sull’esistenza o meno di una normativa che funga da raccordo tra i sistemi di risoluzione delle controversie degli spazi d’integrazione economica e il sistema di risoluzione delle controversie dell’OMC. Infine, il quarto ed ultimo capitolo, L’attività giurisdizionale negli spazi d’integrazione regionale, è dedicato alla valutazione degli sviluppi compiuti dal Mercosur in 18 anni di vita alla luce dei lodi emessi dai Tribunali mercosurini. Difatti, l’obiettivo concreto di questo capitolo è capire se i Tribunali mercosurini svolgono una funzione dinamica e costruttiva dell’assetto del Mercosur, tesa a sviluppare il sistema normativo, oppure se essi abbiano, piuttosto, una funzione passiva e una visione statica nell’applicazione del diritto. È risaputo che la funzione della Corte di giustizia è stata determinante nell’evoluzione e nell’affermazione del sistema giuridico in vigore attraverso una giurisprudenza costante. Mediante il confronto dell’attività svolta da entrambe le giurisdizioni sarà possibile avanzare ipotesi riguardo i futuri progressi dell’assetto mercosurino grazie all’apporto giurisprudenziale.
Resumo:
Le fioriture algali rappresentano un problema emergente che colpisce le attività ricreative costiere negli ultimi decenni e molta responsabilità è attribuita alla pressione antropica sulle coste, anche se fondamentalmente i fenomeni di fioriture dannose rimangono imprevedibili. Un tempo confinate in aree tropicali e sub-tropicali, nuove alghe tossiche produttrici di composti palitossina-simili, quali Ostreopsis spp., si sono diffuse anche in regioni temperate, come il Mediterraneo. Le condizioni di sviluppo di queste fioriture sono legate a fattori ambientali quali irraggiamento, temperatura, concentrazione di nutrienti e alle caratteristiche biologiche delle singole specie. Per valutare il rischio reale sulla salute dell’uomo, vi è necessità di conoscere i parametri ambientali ottimali alla proliferazione delle specie, in termini di temperatura, intensità luminosa e disponibilità di nutrienti, così come di chiarire la struttura delle tossine e le condizioni che possono favorire la loro produzione. In questo studio un ceppo della dinoflagellata Ostreopsis ovata e un ceppo della dinoflagellata Prorocentrum lima sono stati coltivati in colture batch a tre diverse temperature (20°C, 25°C, 30°C) come monocolture e come colture miste. La raccolta è avvenuta nel periodo della loro presunta fase stazionaria. Le informazioni circa il comportamento delle microalghe nelle diverse colture sono state raccolte tramite calcolo del tasso di crescita, analisi del consumo di nutrienti, valutazione dell’efficienza fotosintetica, produzione di tossine. E’ stato applicato un nuovo metodo di misura per il calcolo dei biovolumi. Tra le due microalghe, O. ovata ha esibito maggiore variabilità morfologica, tassi di crescita più elevati e migliore efficienza fotosintetica, mostrando però di subire stress alla temperatura di 30°C. P. lima ha presentato tassi di crescita inferiori, incompleto utilizzo dei nitrati e minore efficienza fotosintetica, accompagnata da grande dissipazione di energia sotto forma di calore. Nelle colture miste, l’uptake più rapido di nitrati da parte di O. ovata ha fatto sì che il numero di cellule di P. lima fosse notevolmente inferiore a quello sviluppatosi nelle colture pure. Ciononostante, la produzione di acido okadaico da parte di P. lima non si è modificata in presenza di O. ovata. Il ceppo di O. ovata utilizzato è stato in grado di produrre ovatossina-a, la tossina maggiormente presente nelle cellule, e quantità circa quattro volte inferiori di ovatossine d+e, oltre a piccole quantità di palitossina putativa. Non è stato invece in grado di produrre le altre due ovatossine conoscisute, l’ovatossina-b e l’ovatossina-c. La produzione di tossine ha dimostrato di essere correlata positivamente con l’aumento della temperatura quando espressa su unità di biovolume, ed è stata inferiore nelle colture miste rispetto alle colture pure. Grazie alla maggiore capacità di crescita, al miglior utilizzo di nutrienti e alla migliore efficienza fotosintetica, O. ovata si dimostra in grado di dare origine a importanti eventi di fioritura, mentre per P. lima i parametri di crescita studiati non evidenziano questa capacità. Le analisi in corso circa la quantità di tossine emesse nel mezzo di coltura permetterano di completare il quadro delineato dal presente studio. Allo stato attuale, non si può concludere che esista attività allelopatica di una specie nei confronti dell’altra.
Resumo:
Lo scopo della seguente trattazione, è quello di introdurre il concetto di efficienza energetica all’interno delle aziende, qualunque sia il loro campo d’applicazione. Per far ciò l’ISO ha emanato una nuova normativa a livello internazionale che ha il compito di aiutare le imprese ad implementare un corretto Sistema di Gestione dell’Energia. Dopo una breve introduzione sul panorama energetico nazionale, nel secondo capitolo verranno introdotte le due normative energetiche e verranno spiegate e commentate. Successivamente ci si concentrerà, a partire dal terzo capitolo, sulla grande distribuzione organizzata, la quale è stata analizzata come caso applicativo; in prima analisi verranno introdotti gli impianti presenti all’interno dei supermercati e che maggiormente impattano sul consumo energetico, in secondo analisi verranno analizzate alcune soluzioni che se correttamente implementate potrebbero portare miglioramenti in termini energetici ed economici all’interno delle GDO. Nell’ultimo capitolo si affronterà una vera e propria diagnosi energetica relativa ad un punto vendita nel quale è stato effettuato un sopralluogo per la raccolta dei dati e si analizzerà l’andamento dei consumi energetici e si introdurranno degli indici di performance appositamente pensati per un monitoraggio efficiente dei consumi energetici, infine si proporranno soluzioni espressamente pensate per il suddetto punto vendita. L’intero lavoro è stato svolto in collaborazione con una società di consulenza, la NIER Ingegneria; una società di servizi che ha come scopo la ricerca delle soluzioni più idonee a problemi di carattere prevalentemente organizzativo e tecnologico in riferimento ai settori ambiente, qualità, sicurezza, energia. Fondata nel 1977, il primo ambito lavorativo fu l’Energia: effettuò ricerche, realizzò simulazioni e banche dati, come la prima Banca Dati Metereologica italiana (su base oraria) e il calcolo dei gradi giorno per tutti i Comuni italiani. Caso raro in Italia, sono rimasti impegnati anche nel Nucleare occupandosi, prima, di sicurezza di reattori a fusione, poi di affidabilità e sicurezza della nuova macchina a fusione, l'ambizioso progetto internazionale Net/Iter. Negli anni '80, dal nucleare si sono allargati al settore dei Rischi e Incidenti rilevanti in campo industriale fornendo assistenza alle imprese e alla pubblica amministrazione e, successivamente, negli anni '90, alle attività di Analisi ambientali e di sicurezza con la produzione di piani di emergenza, manuali operativi, corsi di formazione e strategie di comunicazione ambientale. Infine, l’ Ambiente nelle sue molteplici articolazioni. Acqua, aria, suolo e sottosuolo sono stati oggetto di studi, ricerche e progetti svolti per Autorità Pubbliche, Enti di Ricerca e industrie nella direzione di uno sviluppo durevole e sostenibile. In ambito energetico si occupano di • Diagnosi e certificazioni energetiche • ISO 50001:2011 - Sistema di gestione per l'energia • Piani energetici ambientali • Simulazioni dinamiche di edifici ed impianti • Energie rinnovabili • Risparmio energetico • Attività di ricerca
Resumo:
The "sustainability" concept relates to the prolonging of human economic systems with as little detrimental impact on ecological systems as possible. Construction that exhibits good environmental stewardship and practices that conserve resources in a manner that allow growth and development to be sustained for the long-term without degrading the environment are indispensable in a developed society. Past, current and future advancements in asphalt as an environmentally sustainable paving material are especially important because the quantities of asphalt used annually in Europe as well as in the U.S. are large. The asphalt industry is still developing technological improvements that will reduce the environmental impact without affecting the final mechanical performance. Warm mix asphalt (WMA) is a type of asphalt mix requiring lower production temperatures compared to hot mix asphalt (HMA), while aiming to maintain the desired post construction properties of traditional HMA. Lowering the production temperature reduce the fuel usage and the production of emissions therefore and that improve conditions for workers and supports the sustainable development. Even the crumb-rubber modifier (CRM), with shredded automobile tires and used in the United States since the mid 1980s, has proven to be an environmentally friendly alternative to conventional asphalt pavement. Furthermore, the use of waste tires is not only relevant in an environmental aspect but also for the engineering properties of asphalt [Pennisi E., 1992]. This research project is aimed to demonstrate the dual value of these Asphalt Mixes in regards to the environmental and mechanical performance and to suggest a low environmental impact design procedure. In fact, the use of eco-friendly materials is the first phase towards an eco-compatible design but it cannot be the only step. The eco-compatible approach should be extended also to the design method and material characterization because only with these phases is it possible to exploit the maximum potential properties of the used materials. Appropriate asphalt concrete characterization is essential and vital for realistic performance prediction of asphalt concrete pavements. Volumetric (Mix design) and mechanical (Permanent deformation and Fatigue performance) properties are important factors to consider. Moreover, an advanced and efficient design method is necessary in order to correctly use the material. A design method such as a Mechanistic-Empirical approach, consisting of a structural model capable of predicting the state of stresses and strains within the pavement structure under the different traffic and environmental conditions, was the application of choice. In particular this study focus on the CalME and its Incremental-Recursive (I-R) procedure, based on damage models for fatigue and permanent shear strain related to the surface cracking and to the rutting respectively. It works in increments of time and, using the output from one increment, recursively, as input to the next increment, predicts the pavement conditions in terms of layer moduli, fatigue cracking, rutting and roughness. This software procedure was adopted in order to verify the mechanical properties of the study mixes and the reciprocal relationship between surface layer and pavement structure in terms of fatigue and permanent deformation with defined traffic and environmental conditions. The asphalt mixes studied were used in a pavement structure as surface layer of 60 mm thickness. The performance of the pavement was compared to the performance of the same pavement structure where different kinds of asphalt concrete were used as surface layer. In comparison to a conventional asphalt concrete, three eco-friendly materials, two warm mix asphalt and a rubberized asphalt concrete, were analyzed. The First Two Chapters summarize the necessary steps aimed to satisfy the sustainable pavement design procedure. In Chapter I the problem of asphalt pavement eco-compatible design was introduced. The low environmental impact materials such as the Warm Mix Asphalt and the Rubberized Asphalt Concrete were described in detail. In addition the value of a rational asphalt pavement design method was discussed. Chapter II underlines the importance of a deep laboratory characterization based on appropriate materials selection and performance evaluation. In Chapter III, CalME is introduced trough a specific explanation of the different equipped design approaches and specifically explaining the I-R procedure. In Chapter IV, the experimental program is presented with a explanation of test laboratory devices adopted. The Fatigue and Rutting performances of the study mixes are shown respectively in Chapter V and VI. Through these laboratory test data the CalME I-R models parameters for Master Curve, fatigue damage and permanent shear strain were evaluated. Lastly, in Chapter VII, the results of the asphalt pavement structures simulations with different surface layers were reported. For each pavement structure, the total surface cracking, the total rutting, the fatigue damage and the rutting depth in each bound layer were analyzed.