946 resultados para GDI parametri motoristici efficienza prestazioni inquinamento


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi si propone un progetto software per il controllo automatico delle pressioni in apparato volumetrico, o apparato Sievert, dedicato allo studio dell'assorbimento e desorbimento di idrogeno nei metalli. Si introduce la fisica che regola la formazione degli idruri metallici, e i parametri di studio importanti per lo sviluppo di un sistema energetico basato sull'idrogeno. Particolare attenzione viene data alla misura di cinetica, la percentuale in peso di idrogeno assorbito/desorbito in funzione del tempo. Nel capitolo 2 si mostra il principio di funzionamento di un apparato Sievert e la realizzazione hardware dell'apparato: si compone di una serie di volumi calibrati, separati da valvole, a temperatura costante, tra cui la camera porta-campioni . La pressione al loro interno viene variata immettendo o aspirando idrogeno. Nel capitolo 3 è sviluppata la procedura di controllo software tramite LabVIEW, che si impone di impostare una pressione intermedia su un volume parziale, conoscendo la pressione finale, a volumi collegati, alla quale studiare il campione. Questo modo di lavoro permette di non agire direttamente sul campione con le immissioni e le aspirazioni di idrogeno. Il programma è stato provato con misure per materiali dalla cinetica molto veloce come il palladio(Pd). I risultati, nel capitolo 4, mostrano che il programma è in grado di controllare efficacemente le variazioni di pressioni e la misura di cinetica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel 2020 verrà lanciata la missione spaziale Euclid per investigare la natura dell’energia oscura. Euclid otterrà un’immensa quantità di dati fotometrici e spettrometrici finalizzati, soprattutto, alla misura di lenti gravitazionali deboli e oscillazioni acustiche barioniche. In questa tesi daremo una descrizione generale dello strumento e della scienza che potrà essere fatta grazie ad esso. In particolare, nel capitolo 2 verrà fornita una introduzione alla cosmologia e verranno introdotti i vari parametri cosmologici che Euclid sarà in grado di vincolare. Nel capitolo 3 si farà un’analisi dei principali fenomeni fisici che Euclid indagherà. Nel capitolo 4 verrà data una panoramica del satellite, descrivendo in dettaglio gli obiettivi, cosa osserverà e come farà le osservazioni, e quali sono gli strumenti che lo compongono (satellite, telescopio, VIS e NISP). Infine, nel capitolo 5 verranno mostrati dei primi risultati preliminari, ottenuti in questa tesi, riguardanti il test di un programma che servirà per la misura della funzione di correlazione a due punti di Euclid.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella fisica delle particelle, onde poter effettuare analisi dati, è necessario disporre di una grande capacità di calcolo e di storage. LHC Computing Grid è una infrastruttura di calcolo su scala globale e al tempo stesso un insieme di servizi, sviluppati da una grande comunità di fisici e informatici, distribuita in centri di calcolo sparsi in tutto il mondo. Questa infrastruttura ha dimostrato il suo valore per quanto riguarda l'analisi dei dati raccolti durante il Run-1 di LHC, svolgendo un ruolo fondamentale nella scoperta del bosone di Higgs. Oggi il Cloud computing sta emergendo come un nuovo paradigma di calcolo per accedere a grandi quantità di risorse condivise da numerose comunità scientifiche. Date le specifiche tecniche necessarie per il Run-2 (e successivi) di LHC, la comunità scientifica è interessata a contribuire allo sviluppo di tecnologie Cloud e verificare se queste possano fornire un approccio complementare, oppure anche costituire una valida alternativa, alle soluzioni tecnologiche esistenti. Lo scopo di questa tesi è di testare un'infrastruttura Cloud e confrontare le sue prestazioni alla LHC Computing Grid. Il Capitolo 1 contiene un resoconto generale del Modello Standard. Nel Capitolo 2 si descrive l'acceleratore LHC e gli esperimenti che operano a tale acceleratore, con particolare attenzione all’esperimento CMS. Nel Capitolo 3 viene trattato il Computing nella fisica delle alte energie e vengono esaminati i paradigmi Grid e Cloud. Il Capitolo 4, ultimo del presente elaborato, riporta i risultati del mio lavoro inerente l'analisi comparata delle prestazioni di Grid e Cloud.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Argomento di questo lavoro di tesi è l’accelerazione di ioni tramite interazione laser-plasma. Nel particolare, uno studio teorico sui principali meccanismi di accelerazione e una campagna di simulazioni numeriche volte ad analizzare gli effetti sullo spettro energetico dei protoni accelerati dovuti al preplasma sono stati svolti. Quando laser ad impulsi brevi, ad alta intensità e a contrasto finito, interagiscono con un campione solido è presente un preimpulso che causa la formazione di una regione di preplasma antistante il bersaglio che può rendere più efficace l’accelerazione dei protoni. Vengono dunque introdotti nel primo capitolo i concetti e le tecniche base per studiare a livello teorico e numericamente le interazioni laser-plasma. Nel secondo capitolo sono trattati analiticamente alcuni meccanismi di accelerazione di ioni. Nel terzo ed ultimo capitolo vengono descritti gli effetti di preplasma ed esposti risultati di simulazioni PIC volte a trovare i parametri ottimali per ottenere ioni più energetici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scopo primario della tesi è studiare e progettare un sistema informatico che proponga un buon livello di innovazione tecnologica in relazione al contesto applicativo di riferimento, ovvero relativamente al supporto al lavoro cooperativo di operatori in scenari d'emergenza. In particolare, la tesi si concentra sul'ecosistema software che ruota attorno al singolo operatore con l'obiettivo di dotarlo di uno strumento informatico che gli consenta di avvalersi di un efficace ed efficiente supporto per l'esecuzione delle proprie azioni sul campo (in generale, per la prima assistenza ai pazienti, triage e monitoraggio di parametri vitali). A tal proposito, l'ambito tecnologico di riferimento è quello del Pervasive Mobile Computing, con specifico riferimento ai sistemi context-aware e a quelli con comportamenti fortemente autonomi. Inoltre, al fine di dotare l'operatore di un supporto per l'interazione con il sistema stesso in modalità hands-free, sono stati analizzati i dispositivi wearable di tipo "see-through"; in particolare, i recenti glasses per realtà aumentata. La progettazione del sistema e il conseguente sviluppo del prototipo (che implementa le caratteristiche più significative ed innovative), è stata guidata da un'ispirazione basata sul modello ad agenti (integrato a quello ad oggetti), rivisitando opportunamente l'utilizzo dei componenti offerti dalla tecnologia Android, al fine di ottenere un prodotto software robusto e modulare facilmente manutenibile ed estendibile. Infine, per garantire a ciascun operatore rapida fruibilità del sistema sono state sfruttate le potenzialità offerte dall'uso di smartcard NFC ed inoltre è stato progettato un protocollo di comunicazione ad hoc, basato su stack Bluetooth, per l'integrazione degli AR-Glasses all'intero sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obbiettivo di questa tesi è la produzione del prototipo di un sistema che sia in grado di ottenere dati da un insieme di sensori per poterli poi trasmettere all’utente, in modo che esso sia maggiormente cosciente del mondo che lo circonda. Affronteremo la sfida in uno scenario medico / di soccorso, dove un operatore si avvicinerà ad un gruppo di pazienti con l’intenzione di ottenere i parametri vitali di uno di essi. All'interno del documento saranno descritte le tecnologie sfruttate per la realizzazione del prototipo: Bluetooth e Bluetooth Smart, il sistema operativo Linux in esecuzione su un Raspberry Pi dotato di sensori, il sistema operativo Android in esecuzione su smartphone o tablet e iBeacon. Verranno poi analizzati i requisiti del sistema da realizzare. Infine verrà descritta l'implementazione utilizzata nel prototipo e analizzato il suo comportamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il concetto di cella a eterogiunzione in silicio ha portato allo sviluppo di dispositivi in grado di convertire oltre il 25% dello spettro solare. Il raggiungimento di alte efficienze di conversione è dovuto alla ricerca nel campo dei vari strati a base di silicio cristallino, amorfo e nanocristallino impiegati per formare le giunzioni. In particolare, lo studio e l’ottimizzazione dello strato di emettitore in silicio amorfo o nanocristallino insieme all’inserimento di uno strato amorfo intrinseco passivante, ha permesso la realizzazione di celle con alte tensioni di circuito aperto. Questi materiali contengono tuttavia dei difetti legati alla struttura amorfa, che compromettono le prestazioni dei dispositivi abbassandone la corrente di cortocircuito. Una possibile soluzione al problema può essere ottenuta formando composti che incorporano elementi come azoto e ossigeno e aumentando il grado di cristallinità del materiale con un processo di annealing. In questa tesi viene studiato l’energy gap di campioni di Silicon Oxynitride (SiOxNy:H) in funzione delle diverse condizioni di crescita e di annealing attraverso il programma di simulazione spettroscopica Optical.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo studio si propone di realizzare un’applicazione per dispositivi Android che permetta, per mezzo di un gioco di ruolo strutturato come caccia al tesoro, di visitare in prima persona città d’arte e luoghi turistici. Gli utenti finali, grazie alle funzionalità dell’app stessa, potranno giocare, creare e condividere cacce al tesoro basate sulla ricerca di edifici, monumenti, luoghi di rilevanza artistico-storica o turistica; in particolare al fine di completare ciascuna tappa di una caccia al tesoro il giocatore dovrà scattare una fotografia al monumento o edificio descritto nell’obiettivo della caccia stessa. Il software grazie ai dati rilevati tramite GPS e giroscopio (qualora il dispositivo ne sia dotato) e per mezzo di un algoritmo di instance recognition sarà in grado di affermare se la foto scattata rappresenta la risposta corretta al quesito della tappa. L’applicazione GeoPhotoHunt rappresenta non solo uno strumento ludico per la visita di città turistiche o più in generale luoghi di interesse, lo studio propone, infatti come suo contributo originale, l’implementazione su piattaforma mobile di un Content Based Image Retrieval System (CBIR) del tutto indipendente da un supporto server. Nello specifico il server dell’applicazione non sarà altro che uno strumento di appoggio con il quale i membri della “community” di GeoPhotoHunt potranno pubblicare le cacce al tesoro da loro create e condividere i punteggi che hanno totalizzato partecipando a una caccia al tesoro. In questo modo quando un utente ha scaricato sul proprio smartphone i dati di una caccia al tesoro potrà iniziare l’avventura anche in assenza di una connessione internet. L’intero studio è stato suddiviso in più fasi, ognuna di queste corrisponde ad una specifica sezione dell’elaborato che segue. In primo luogo si sono effettuate delle ricerche, soprattutto nel web, con lo scopo di individuare altre applicazioni che implementano l’idea della caccia al tesoro su piattaforma mobile o applicazioni che implementassero algoritmi di instance recognition direttamente su smartphone. In secondo luogo si è ricercato in letteratura quali fossero gli algoritmi di riconoscimento di immagini più largamente diffusi e studiati in modo da avere una panoramica dei metodi da testare per poi fare la scelta dell’algoritmo più adatto al caso di studio. Quindi si è proceduto con lo sviluppo dell’applicazione GeoPhotoHunt stessa, sia per quanto riguarda l’app front-end per dispositivi Android sia la parte back-end server. Infine si è passati ad una fase di test di algoritmi di riconoscimento di immagini in modo di avere una sufficiente quantità di dati sperimentali da permettere di effettuare una scelta dell’algoritmo più adatto al caso di studio. Al termine della fase di testing si è deciso di implementare su Android un algoritmo basato sulla distanza tra istogrammi di colore costruiti sulla scala cromatica HSV, questo metodo pur non essendo robusto in presenza di variazioni di luminosità e contrasto, rappresenta un buon compromesso tra prestazioni, complessità computazionale in modo da rendere la user experience quanto più coinvolgente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni uno dei settori di ricerca più interessanti in ambito tecnologico è sicuramente quello dell'elettronica organica. Lo sviluppo è spinto dai vantaggi che portano i dispositivi basati su materiali organici: bassi costi di produzione, facilità di fabbricazione su grandi aree e flessibilità. In questa tesi andiamo ad esaminare un transistor organico a effetto di campo (OFET) dal punto di vista macroscopico e microscopico, cercando di mettere in relazione le sue caratteristiche morfologiche ed elettriche. Il dispositivo sottoposto ai test è un OFET realizzato con TIPS-pentacene come semiconduttore. Dai risultati ottenuti si evince che le prestazioni elettriche del transistor sono fortemente legate alla microstruttura assunta dal materiale organico durante la deposizione. I primi due capitoli illustrano i principi di funzionamento degli OFET e la tecnica SPM (scanning probe microscopy) utilizzata per l'indagine microscopica. Il terzo e quarto capitolo descrivono rispettivamente gli apparati sperimentali e i risultati ottenuti dall'indagine su due aree diverse del dispositivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dall'inizio del 2013 il Large Hadron Collider (LHC) non produce dati (fase di shut down) per effettuare operazioni di consolidamento e manutenzione. Nella primavera del 2015 ritornerà in funzione con energia e luminosità maggiori. La fase di shut down è sfruttata anche per migliorare le prestazioni dei vari rivelatori che operano in LHC, così che possano acquisire dati in modo efficiente alla riaccensione. Per quanto riguarda il monitor di luminosità LUCID, che fa parte dell'esperimento ATLAS, sono stati sostituiti i rivelatori principali (i fotomoltiplicatori) e l'elettronica. Numerosi considerazioni rispetto alla durata dei nuovi sensori nell'ambiente di LHC tra il 2015 e il 2018, nonché sulla misura della luminosità durante il run II, hanno portato alla conclusione che i nuovi PMT dovranno operare ad un guadagno di math 10^5. E' stato dunque necessario, una volta identificati ed acquistati i nuovi sensori, qualificarne il funzionamento individuale e determinare la tensione di lavoro corrispondente al guadagno desiderato. La prima parte di tali misure, effettuate interamente a Bologna, riguarda la misura della corrente di buio e l'andamento della dipendenza del guadagno dei PMT dalla tensione applicata. La seconda parte riguarda invece lo studio di diversi metodi per le misure del guadagno assoluto, e la loro applicabilità durante la fase di funzionamento di LHC. Durante la presa dati, infatti, sarà essenziale essere in grado di monitorare continuamente il guadagno di ciascun sensore al fine di mantenerlo costante. Le misure di guadagno assoluto presentate in questa tesi sono state effettuate in parte a Bologna, sfruttando il metodo del singolo fotoelettrone, e in parte presso il CERN, utilizzando una sorgente radioattiva, il Bismuto 207.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I processori multi core stanno cambiando lo sviluppo dei software in tutti i settori dell'informatica poiché offrono prestazioni più elevate con un consumo energetico più basso. Abbiamo quindi la possibilità di una computazione realmente parallela, distribuita tra i diversi core del processore. Uno standard per la programmazione multithreading è sicuramente OpenMP, il quale si propone di fornire direttive semplici e chiare per lo sviluppo di programmi su sistemi a memoria condivisa, fornendo un controllo completo sulla parallelizzazione. Nella fisica moderna spesso vengono utilizzate simulazioni al computer di sistemi con alti livelli di complessità computazionale. Si ottimizzerà un software che utilizza l'algoritmo DMRG (Density Matrix Renormalization Group), un algoritmo che consente di studiare reticoli lineari di sistemi a molti corpi, al fine di renderlo più veloce nei calcoli cercando di sfruttare al meglio i core del processore. Per fare ciò verrà utilizzata l'API OpenMP, che ci permetterà in modo poco invasivo di parallelizzare l'algoritmo rendendo così più veloce l'esecuzione su architetture multi core.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro cerca di identificare elementi che confermino una provenienza univoca del sedimento della Pianura Padana centrale e di verificarne la qualità tramite analisi

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro verrà presentato ExoTCP, uno stack di rete minimale e userspace specializzato per il protocollo HTTP. Verrà inoltre presentato Eth, un server web zerocopy che utilizza ExoTCP per servire contenuti statici. L'obiettivo del lavoro è riuscire ad ottenere prestazioni migliori di quelle di un server web tradizionale che si appoggia ai servizi offerti dal sistema operativo per accedere alla rete.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene analizzato un metodo di regolarizzazione nel quale il problema di regolarizzazione è formulato come un problema di ottimizzazione vincolata. In questa formulazione è fondamentale il termine noto del vincolo, parametro per il quale dipende la bontà della ricostruzione, che corrisponde ad una stima della norma del rumore sul dato. Il contributo della tesi è l'analisi di un algoritmo proposto per stimare il rumore in applicazioni di image deblurring utilizzando la decomposizione in valori singolari dell'operatore che descrive il blur. Sono stati fatti numerosi test per valutare sia i parametri dell'algoritmo di stima che l'efficacia della stima ottenuta quando è inserita nel termine noto del vincolo del problema di ottimizzazione per la ricostruzione dell'immagine.