1000 resultados para Ponte metallico ferroviario FaticaAlgoritmo di ottimizzazione
Resumo:
Negli ultimi anni si è assistito ad un notevole sviluppo e diffusione dei sistemi di produzione di energia rinnovabile, in particolar modo di sistemi eolici e fotovoltaici. La sempre maggior richiesta di energia e la necessità di far fronte ai problemi di inquinamento sempre più intenso, a causa dei combustibili fossili, ha portato ad una crescita nell’interesse ad adottare queste nuove tecnologie per il sostentamento energetico della popolazione. In seguito all’adozione di tali sistemi si è verificata un’intensificazione della ricerca e dello sviluppo tecnologico in tale ambito al fine di massimizzare la produzione dell’energia. Un ruolo chiave nella gestione dell’energia ed in particolar modo l’interfacciamento del sistema di produzione con il carico è svolto elettronica di potenza. L’obiettivo principale della ricerca in tale ambito consiste nella individuazione di nuove tecnologie che permettano un incremento dell’efficienza di conversione anche di soli pochi punti percentuale. L’attività di tesi, svolta presso il LEMAD (Laboratorio di Macchine e Azionamenti del Dipartimento DEI), è stata quindi focalizzata nella progettazione e in seguito realizzazione di un convertitore per applicazioni fotovoltaiche. L’interesse nei confronti delle nuovetecnologie ha portato ad una scelta innovativa per quanto riguarda la configurazione dell’inverter costituente il convertitore. Tale configurazione, che prende il nome di Full Bridge DC Bypass o più semplicemente ponte H6, ha permesso la realizzazione di un convertitore compatto poiché non necessitante di un trasformatore per garantire l’isolamento tra i moduli PV e la rete. Inoltre l’adozione di due switch aggiuntivi rispetto ad un comune ponte H ha garantito una notevole riduzione delle perdite dovute alla tensione di modo comune(CMV)con conseguente incremento dell’efficienza. La ricerca di nuove tecnologie non è stata concentrata solamente nello studio di nuove configurazioni di inverter ma anche nell’individuazione di innovativi dispositivi di potenza. In particolar modo il silicon carbide o SiC ha dimostrato in diverse occasioni di essere un materiale superiore al silicio nelle applicazioni di potenza. Sono stati quindi realizzati due convertitori utilizzanti due differenti dispositivi di potenza (MOSFET in SiC e IGBT in Si)in modo tale da determinare le diverse prestazioni. Un ulteriore studio è stato svolto sulle tecniche di modulazione al fine di valutarne le differenti caratteristiche ed individuare quella più conveniente nella conversione utilizzante il ponte H6.
Resumo:
Con questo lavoro di tesi si affrontano i primi accorgimenti sperimentali necessari alla realizzazione di un esperimento di ottica quantistica. L'attività svolta consiste nell'ottimizzazione dei parametri di un PLL (Phase-Locked Loop) che mantiene due laser agganciati in frequenza, e nella misura del rumore di fase presente nell'aggancio. Questa stabilizzazione costituisce il primo passo per la generazione di luce squeezed, associata a particolari stati del campo elettromagnetico. Grazie a quest'ultima, è possibile migliorare la sensibilità raggiungibile in esperimenti di interferometria di precisione, quali ad esempio quelli per la ricerca di onde gravitazionali. L'iniezione di luce squeezed costituirà infatti parte del prossimo upgrade dell'interferometro di Virgo.
Resumo:
Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.
Resumo:
In questo lavoro, svolto presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) (I.R.C.C.S) di Meldola, si sono studiate le caratteristiche di un tomografo Philips Brilliance iCT 256 strati, con l'obiettivo di individuare le variazioni di qualità delle immagini e di dose in funzione dei parametri di acquisizione dello strumento, al fine di una successiva ottimizzazione dei protocolli degli esami tomografici. Le valutazioni sono state fatte sul tomografo multistrato Philips mediante uso di diversi fantocci e dosimetri, seguendo le linee guida della pubblicazione per il controllo di qualità in tomografia computerizzata dell'International Atomic Energy Agency (IAEA). Si è utilizzato il fantoccio Catphan per la caratterizzazione della qualità dell'immagine, acquisendo immagini sia in modalità assiale che spirale e variando parametri di acquisizione quali spessore di strato, kV, mAs e pitch. Per le varie combinazioni di questi parametri sono state misurate, mediante l'utilizzo dei software ImageJ ed ImageOwl, grandezze oggettive quali risoluzione spaziale, risoluzione a basso contrasto e rumore dell'immagine acquisita. Due fantocci di polimetilmetacrilato (PMMA) head e body sono serviti, insieme ad una camera a ionizzazione di tipo pencil, per la misura di indici di dose per la tomografia computerizzata (CTDI). L'irraggiamento di questi strumenti è stato effettuato a diversi valori di tensione del tubo radiogeno e ha permesso di confrontare i valori CTDI misurati con quelli forniti dal tomografo. Si sono quindi calcolate le dosi efficaci di alcuni protocolli della macchina per poi confrontarle con livelli di riferimento diagnostici (DRL), strumenti utilizzati con l'obiettivo di raggiungere valori di dose adeguati per lo scopo clinico dell'esame. Come ulteriore valutazione dosimetrica, si è utilizzato il fantoccio antropomorfo Rando, in cui sono stati inseriti dei dosimetri a termoluminescenza (TLD) per la misura della dose organo. Dai risultati si osserva un andamento inversamente proporzionale tra tensione del tubo radiogeno e contrasto dell'immagine. Impostando valori alti di kV si ottiene però un'immagine meno rumorosa. Oltre alla tensione del tubo, si è valutato come anche lo spessore di strato e la corrente influiscano sul rumore dell'immagine. I risultati ottenuti dimostrano che i valori dei parametri oggettivi di qualità delle immagini rientrano nei limiti di attendibilità, così come i valori di CTDI visualizzati dal tomografo. Lo studio della dipendenza di questi parametri oggettivi dalle impostazione di scansione permette di ottimizzare l'acquisizione TC, ottenendo un buon compromesso fra dose impartita e qualità dell'immagine.
Resumo:
L'obiettivo di questo elaborato é quello di mettere in evidenza una categoria critica dei rifiuti: i pannolini usa e getta. Essi, infatti, consumano una quantità ingente di risorse ed energia ed inoltre producono un enorme impatto ambientale connesso allo smaltimento finale. Si pensi che quest'ultimi rappresentano circa il 5% del totale dei rifiuti prodotti: 2 miliardi di pannolini solo in Italia che impiegano più di 500 anni per decomporsi in discarica. Per studiare questo fenomeno si è presa in considerazione una cooperativa sociale bolognese che ha molto a cuore la salvaguardia dell'ambiente e che, attraverso un suo progetto, il progetto Lavanda, ha istituito una lavanderia che si occupa di fornire attraverso il noleggio pannolini lavabili agli asili del territorio: la cooperativa Eta Beta. Inoltre, recentemente, essa ha deciso di utilizzare anche pannolini compostabili, forniti dall'azienda IES Gas, per ridurre ulteriormente le emissioni nell'ambiente. Infatti il motore principale della cooperativa è quello di coniugare la raccolta differenziata alla riduzione dei rifiuti, concetto che dovrebbe essere alla base di ogni azienda, ogni famiglia, ogni persona ma che in Italia risulta di difficile realizzazione.Utilizzando i dati dalla Cooperativa e contattando le cooperative che collaborano con essa (Cadiai e Karabak) ed anche gli asili affiliati si è deciso di effettuare un'analisi statistico - gestionale per individuare il numero medio di pannolini utilizzati da un bambino in un anno scolastico andando a considerare diverse variabili come la tipologia di asilo, l'età dei bambini o le presenze. Dopo questa parentesi 'gestionale', lo studio ha ripreso un'impronta 'ambientale': infatti si è andato a studiare il processo anaerobico e aerobico per lo smaltimento dei pannolini compostabili attraverso un esperimento svolto presso il laboratorio di Chimica e di Processo del DICAM, facoltà di Ingegneria, Alma Mater Studiorum di Bologna
Resumo:
La tesi affronta il problema di Finanza Matematica dell'asset allocation strategica che consiste nel processo di ripartizione ottimale delle risorse tra diverse attività finanziarie presenti su un mercato. Sulla base della teoria di Harry Markowitz, attraverso passaggi matematici rigorosi si costruisce un portafoglio che risponde a dei requisiti di efficienza in termini di rapporto rischio-rendimento. Vengono inoltre forniti esempi di applicazione elaborati attraverso il software Mathematica.
Resumo:
La tesi propone una soluzione middleware per scenari in cui i sensori producono un numero elevato di dati che è necessario gestire ed elaborare attraverso operazioni di preprocessing, filtering e buffering al fine di migliorare l'efficienza di comunicazione e del consumo di banda nel rispetto di vincoli energetici e computazionali. E'possibile effettuare l'ottimizzazione di questi componenti attraverso operazioni di tuning remoto.
Resumo:
La stima della frequenza di accadimento di eventi incidentali di tipo random da linee e apparecchiature è in generale effettuata sulla base delle informazioni presenti in banche dati specializzate. I dati presenti in tali banche contengono informazioni relative ad eventi incidentali avvenuti in varie tipologie di installazioni, che spaziano dagli impianti chimici a quelli petrolchimici. Alcune di queste banche dati risultano anche piuttosto datate, poiché fanno riferimento ad incidenti verificatisi ormai molto addietro negli anni. Ne segue che i valori relativi alle frequenze di perdita forniti dalle banche dati risultano molto conservativi. Per ovviare a tale limite e tenere in conto il progresso tecnico, la linea guida API Recommended Pratice 581, pubblicata nel 2000 e successivamente aggiornata nel 2008, ha introdotto un criterio per determinare frequenze di perdita specializzate alla realtà propria impiantistica, mediante l’ausilio di coefficienti correttivi che considerano il meccanismo di guasto del componente, il sistema di gestione della sicurezza e l’efficacia dell’attività ispettiva. Il presente lavoro di tesi ha lo scopo di mettere in evidenza l’evoluzione dell’approccio di valutazione delle frequenze di perdita da tubazione. Esso è articolato come descritto nel seguito. Il Capitolo 1 ha carattere introduttivo. Nel Capitolo 2 è affrontato lo studio delle frequenze di perdita reperibili nelle banche dati generaliste. Nel Capitolo 3 sono illustrati due approcci, uno qualitativo ed uno quantitativo, che permettono di determinare le linee che presentano priorità più alta per essere sottoposte all’attività ispettiva. Il Capitolo 4 è dedicato alla descrizione della guida API Recomended Practice 581. L’applicazione ad un caso di studio dei criteri di selezione delle linee illustrati nel Capitolo 3 e la definizione delle caratteristiche dell’attività ispettiva secondo la linea guida API Recomended Practice 581 sono illustrati nel Capitolo 5. Infine nel Capitolo 6 sono rese esplicite le considerazioni conclusive dello studio effettuato.
Resumo:
Ottimizzazione dei collettori solari a concentrazione mediante strumenti di misura per il calcolo della radiazione solare concentrata. Attività svolta presso centro ENEA TRISAIA nel laboratorio qualificazione componenti solari a bassa e media temperatura.
Il processo di compostaggio - studio di un metodo alternativo di screening e valutazione del compost
Resumo:
Il processo di compostaggio è il metodo più antico ed al tempo stesso innovativo di trasformazione dei rifiuti. La trasformazione in impianti di compostaggio industriale ricrea lo stesso processo semplice ma in scala maggiore processando molte tonnellate/anno di rifiuto con particolare riguardo a quello proveniente da raccolta differenziata. Il presente elaborato, oltre ad illustrare le nuove tecnologie di produzione nelle realtà locali della zona Romagnola, ha inteso indagare un aspetto alternativo ed innovativo di valutazione del compost. A supporto di quanto già previsto alla specifica normativa di settore e nell'ottica dell'ottimizzazione del processo, è stata valutata la possibilità di uso della tecnica analitica di microestrazione in fase solida (SPME) e della tecnica strumentale con naso elettronico. Si è inteso verificare anche come l'utilizzo di carbone vegetale, aggiunto alla fase di maturazione, possa apportare un contributo significativo nel controllo delle emissioni odorigene, problematica diffusa nelle aree limitrofe ad impianti di compostaggio. L'utilizzo delle tecniche di estrazione in fase solida (SPME) ha dimostrato che durante il processo le componenti odorigene tendono a ridursi notevolmente modificandosi in modo apprezzabile e valutabile mediante analisi GC-MS. L'aggiunta di carbone vegetale alla fase di maturazione contribuisce alla riduzione delle emissioni odorigene. I risultati ottenuti evidenziano come l'utilizzo dei sistemi proposti possa portare ad un'economicità qualora si riscontrassero tempi di maturazione variabili per le tipologie di materiale trattato, riducendo così i tempi di permanenza nei tunnel di maturazione e come le tecniche SPME e naso elettronico possano essere accoppiate per ottenere risultati complementari così da costruire un'informazione complessiva completa. Possibili sviluppi dello studio potrebbero essere improntati alla verifica puntuale del grado di maturazione in relazione alla tipologia del materiale in ingresso ed alla stagionalità nonché all'utilizzo di tali tecniche ad altre matrici e nell'ambito dell'individuazione della presenza di composti indesiderati in matrici ambientali.
Resumo:
Tesi volta all'ottimizzazione di un impianto di pirolisi sia dal punto di vista termochimico sia dal punto di vista energetico, caratterizzata dalla parte sperimentale costituita da prove eseguite direttamente sull'impianto.
Resumo:
Il presente elaborato si pone l’obiettivo di far luce su un fenomeno ancora oggetto di pregiudizi e stereotipi: il bilinguismo. Nel primo capitolo si delineano i contorni del bilinguismo e le varie classificazioni per definire il soggetto bilingue, partendo dai vari gradi di competenza, passando poi all'acquisizione del linguaggio nel bilingue precoce e giungendo ad elencare i vantaggi e presentare i luoghi comuni che ancora demonizzano tale fenomeno. Nel secondo capitolo dell’elaborato ci si concentra invece sulla scelta consapevole dei genitori nell’iniziare i figli a un’educazione bilingue sin dalla nascita, indicando i fattori che influenzano il percorso bilingue e portando esempi concreti grazie alla collaborazione di una famiglia italo-francese che ha accettato di sottoporsi a intervista. Nel terzo capitolo viene preso in esame il bilinguismo precoce all'interno di famiglie immigrate, analizzando i fattori che spesso ostacolano lo sviluppo della L2 nel bambino a contatto con due culture. In particolare, attraverso il film Le Gone du Chaâba, si riflette sulla figura del bambino come ponte tra due culture e strumento d’integrazione per la famiglia. Infine, nel quarto ed ultimo capitolo, si mette in luce la percezione sociale del bilinguismo in una società apparentemente governata dal monolinguismo. Si osservano dunque alcune politiche volte ad educare al plurilinguismo e viene presentato un metodo didattico di apprendimento linguistico precoce in un nido d’infanzia locale.
Resumo:
L'esperimento LHCb è stato progettato per eseguire misure di altissima precisione nel settore della fisica dei quark pesanti al Large Hadron Collidere del CERN. Sfruttando l'alta sezione d'urto di produzione di charm nelle interazioni protone-protone ad LHC e utilizzando la statistica raccolta durante il RUN-1, corrispondente ad una luminosità integrata di 3 fb{-1}, l'esperimento LHCb ha realizzato le misure più precise al mondo in questo settore. In particolare i decadimenti del mesone D0 in due corpi carichi senza leptoni nello stato finale hanno permesso di realizzare misure di violazione di CP} che raggiungono precisioni inferiori al 0.1 %. Da pochi mesi LHCb ha iniziato la seconda fase di presa dati, chiamata RUN-2, raccogliendo dati dalle interazioni protone-protone ad una energia nel centro di massa di sqrt{s}=13 TeV, superiore a quella del RUN-1. Le misure attuali di violazione di CP nel settore del charm, sono consistenti con l'ipotesi di non violazione. Il Modello Standard, pur con grandi incertezze teoriche, prevede una violazione di CP molto piccola, pertanto per verificare o meno l'esistenza di taleviolazione, sarà necessario sfruttare al massimo la statistica che verrà raccolta durante il RUN-2, ottimizzando gli algoritmi di selezione dei canali di interesse. In questa tesi verrà presentata uno studio preliminare che ha lo scopo di ottimizzare, mediante una tecnica di analisi multivariata, la selezione dei decadimenti D^*pm-> D0(K+K-)pi_s^pm e D^*pm}-> D0(pi+pi-)pi_s^pm} in previsione della prossima presa dati.
Resumo:
Questo documento affronta le novità ed i vantaggi introdotti nel mondo delle reti di telecomunicazioni dai paradigmi di Software Defined Networking e Network Functions Virtualization, affrontandone prima gli aspetti teorici, per poi applicarne i concetti nella pratica, tramite casi di studio gradualmente più complessi. Tali innovazioni rappresentano un'evoluzione dell'architettura delle reti predisposte alla presenza di più utenti connessi alle risorse da esse offerte, trovando quindi applicazione soprattutto nell'emergente ambiente di Cloud Computing e realizzando in questo modo reti altamente dinamiche e programmabili, tramite la virtualizzazione dei servizi di rete richiesti per l'ottimizzazione dell'utilizzo di risorse. Motivo di tale lavoro è la ricerca di soluzioni ai problemi di staticità e dipendenza, dai fornitori dei nodi intermedi, della rete Internet, i maggiori ostacoli per lo sviluppo delle architetture Cloud. L'obiettivo principale dello studio presentato in questo documento è quello di valutare l'effettiva convenienza dell'applicazione di tali paradigmi nella creazione di reti, controllando in questo modo che le promesse di aumento di autonomia e dinamismo vengano rispettate. Tale scopo viene perseguito attraverso l'implementazione di entrambi i paradigmi SDN e NFV nelle sperimentazioni effettuate sulle reti di livello L2 ed L3 del modello OSI. Il risultato ottenuto da tali casi di studio è infine un'interessante conferma dei vantaggi presentati durante lo studio teorico delle innovazioni in analisi, rendendo esse una possibile soluzione futura alle problematiche attuali delle reti.
Resumo:
Oggetto dello studio è stato lo sviluppo di rivestimenti con tecnica PEO (Plasma Electrolityc Ossidation) sulla lega di titanio Ti-6Al-4V, al fine di utilizzare questo materiale in sostituzione della lega CrCoMo nelle protesi d'anca e di ginocchio. Queste, ad oggi, sono le protesi articolari più diffuse e devono garantire contemporaneamente elevate prestazioni meccaniche (in particolare resistenza ad usura), affidabilità e biocompatibilità. La lega CrCoMo negli anni si è affermata nel campo protesico poiché è un materiale metallico avente elevata rigidezza abbinata a una buona resistenza a corrosione ed all'usura durante il movimento articolare. Un problema rilevante e frequente di questa lega è l'allergia di alcuni pazienti agli elementi di lega che la costituiscono o il rischio per i pazienti non allergici di subire un'ipersensibilizzazione, con conseguente sviluppo dell'allergia e necessità di sostituire la protesi. La lega Ti-6Al-4V potrebbe essere una valida alternativa data la sua elevata biocompatibilità e le sue proprietà meccaniche, tanto che è già ampiamente utilizzata nella costruzione di protesi statiche come chiodi o viti. Purtroppo ad oggi non è stato possibile l'utilizzo di questa negli accoppiamenti articolari, data la sua bassa resistenza all'usura per sfregamento. L'attività di tesi è stata quindi incentrata sulla definizione dei bagni elettrolitici e del ciclo elettrico ottimali per realizzare, con tecnica PEO, rivestimenti in grado di conferire una buona resistenza allo sfregamento alla lega di titanio. Il raggiungimento degli obiettivi prefissati è stato valutato attraverso una caratterizzazione microstrutturale e tribologica del rivestimento.