278 resultados para Aereo, Algoritmo, Stima assetto, Tuning parametri


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo di questa tesi è lo studio, inizialmente a livello teorico, del fenomeno della liquefazione tramite testi di letteratura e manuali tecnici. Da questi sono state acquisite le conoscenze basilari e necessarie per la stima del potenziale di liquefazione, che in seguito sono state applicate ad un caso reale. In questa seconda parte del lavoro sono stati elaborati i dati sperimentali ottenuti dalle indagini in sito, SPT ed CPT eseguite nel sito di Isola Serafini, ottenendo la stima del potenziale di liquefazione dei terreni. L’obiettivo generale è quello di confrontare e commentare le differenze tra i risultati ottenuti con le prove SPT e CPT. Le analisi sono state condotte considerando la sismicità dell’area e cercando di simulare la situazione presente durante l’evento sismico dell’Emilia risalente al 20 maggio 2012.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Studio di un motore Diesel due tempi veloce per utilizzo su aereo senza pilota (UAV).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gli ammassi di galassie sono le strutture gravitazionalmente legate con le più profonde buche di potenziale, pertanto è previsto che questi contengano una frazione di barioni non molto diversa da quella cosmologica. Con l’introduzione di modelli sempre più accurati di fisica barionica all’interno di simulazioni idrodinamiche è stato possibile predire la percentuale cosmica di barioni presente negli ammassi di galassie. Unendo questi modelli previsionali con misure della frazione di gas in ammassi e informazioni sulla densità di barioni dell’Universo si può ottenere una stima della densità di materia cosmica Ωm. L'obiettivo di questo lavoro di Tesi è la stima di Ωm a partire dalla frazione di gas osservata in questi sistemi. Questo lavoro era stato già fatto in precedenza, ma tenendo in considerazione solo gli ammassi più massivi e dinamicamente rilassati. Usando parametri che caratterizzano la morfologia della distribuzione di brillanza superficiale nei raggi X, abbiamo classificato i nostri oggetti come rilassati o disturbati, laddove presentassero evidenze di recenti attività di interazione. Abbiamo dunque valutato l’impatto degli oggetti disturbati sulla stima del parametro cosmologico Ωm, computando il Chi2 tra la frazione di massa barionica nell’Universo e quella da noi ricavata. Infine abbiamo investigato una relazione tra il valore della frazione di gas degli ammassi rilassati e quello dei disturbati, in modo da correggere quindi questi ultimi, riportandoli nei dintorni del valore medio per i rilassati e usarli per ampliare il campione e porre un vincolo più stringente su Ωm. Anche con il limitato campione a nostra disposizione, è stato possibile porre un vincolo più stretto su Ωm, utilizzando un maggior numero di oggetti e riducendo così l’errore statistico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La firma digitale è uno degli sviluppi più importanti della crittografia a chiave pubblica, che permette di implementarne le funzionalità di sicurezza. La crittografia a chiave pubblica, introdotta nel 1976 da Diffie ed Hellman, è stata l'unica grande rivoluzione nella storia della crittografia. Si distacca in modo radicale da ciò che l'ha preceduta, sia perché i suoi algoritmi si basano su funzioni matematiche e non su operazioni di sostituzione e permutazione, ma sopratutto perché è asimmetrica: prevede l'uso di due chiavi distinte (mentre nelle crittografia simmetrica si usa una sola chiave condivisa tra le parti). In particolare, le funzioni matematiche su cui si basa tale crittografia sono funzioni ben note nella Teoria dei Numeri: ad esempio fattorizzazione, calcolo del logaritmo discreto. La loro importanza deriva dal fatto che si ritiene che siano 'computazionalmente intrattabili' da calcolare. Dei vari schemi per la firma digitale basati sulla crittografia a chiave pubblica, si è scelto di studiare quello proposto dal NIST (National Institute of Standard and Technology): il Digital Signature Standard (DSS), spesso indicato come DSA (Digital Signature Algorithm) dal nome dell'algoritmo che utilizza. Il presente lavoro è strutturato in tre capitoli. Nel Capitolo 1 viene introdotto il concetto di logaritmo discreto (centrale nell'algoritmo DSA) e vengono mostrati alcuni algoritmi per calcolarlo. Nel Capitolo 2, dopo una panoramica sulla crittografia a chiave pubblica, si dà una definizione di firma digitale e delle sue caratteristiche. Chiude il capitolo una spiegazione di un importante strumento utilizzato negli algoritmi di firma digitale: le funzioni hash. Nel Capitolo 3, infine, si analizza nel dettaglio il DSA nelle tre fasi che lo costituiscono (inizializzazione, generazione, verifica), mostrando come il suo funzionamento e la sua sicurezza derivino dai concetti precedentemente illustrati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo elaborato verrà illustrato il processo di realizzazione degli scenari tridimensionali utilizzati nell’addestramento dei Controllori del Traffico Aereo di aeroporto. Verrà esposto nel dettaglio il processo di modellazione al computer di scenari compatibili con il sistema Adacel™ MaxSim® attualmente utilizzato nei simulatori di ENAV Academy; verranno inoltre analizzati e descritti i processi decisionali che si affrontano prima e durante le diverse fasi di realizzazione dello scenario. Nell’illustrare i processi e le metodologie si farà riferimento all’esperienza acquisita durante la collaborazione con il team di ENAV per la realizzazione di modelli e scenari tridimensionali. In particolare, si farà riferimento allo scenario dell’Aeroporto di Ciampino in una fase di addestramento resa necessaria dal delicato passaggio dalla gestione militare alla gestione civile.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro nasce dall’esigenza maturata, oramai da diversi decenni, di conoscere l’ambiente che circonda i beni culturali, in virtù della loro intrinseca natura non rinnovabile. La ricerca si compone di due parti: l’analisi microclimatica e lo sviluppo di una metodologia innovativa di analisi relativa del rischio, che vede come bersagli i beni culturali, con particolare riferimento a quelli librari. In particolare, sulla base dei dati di temperatura, umidità relativa, concentrazioni di NO2 e O3, misurati in alcune sale della Biblioteca Classense di Ravenna, nel periodo dal 21 luglio al 7 agosto 2014, è stato possibile caratterizzare diversi ambienti confinati, tra loro eterogenei, e confrontare le dinamiche che s’instaurano tra l’ambiente indoor e quello outdoor, mediante, ad esempio, il calcolo del cosiddetto rapporto Indoor/Outdoor (I/O) e la stima del tasso di ventilazione. È stata poi proposta una metodologia di analisi del rischio che valuta i suddetti parametri microclimatici, come fattori di rischio. Attraverso tale metodologia, che identifica gli eventuali stati anomali nel sistema, è possibile giungere ad una definizione delle priorità per quegli aspetti esaminati che potrebbero discostarsi dalle condizioni di benessere, provocando un’accelerazione dei processi di degrado dei beni librari. Tale metodologia, infine, è stata applicata alle sale oggetto dell’analisi microclimatica, allo scopo di identificare eventuali fattori di rischio microclimatici.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Studio su una ottimizzazione di un motore Diesel per uso aereo. Ad esso è accoppiato un gruppo turbogas che entra in funzione alle altitudini elevate dove l'aria è meno densa e funge anche da ausilio al decollo del velivolo stesso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La gestione del traffico è una delle principali problematiche delle città moderne, e porta alla definizione di nuove sfide per quanto riguarda l’ottimizzazione del flusso veicolare. Il controllo semaforico è uno degli elementi fondamentali per ottimizzare la gestione del traffico. Attualmente la rilevazione del traffico viene effettuata tramite sensori, tra i quali vengono maggiormente utilizzate le spire magnetiche, la cui installazione e gestione implica costi elevati. In questo contesto, il progetto europeo COLOMBO si pone come obiettivo l’ideazione di nuovi sistemi di regolazione semaforica in grado di rilevare il traffico veicolare mediante sensori più economici da installare e mantenere, e capaci, sulla base di tali rilevazioni, di auto organizzarsi, traendo ispirazione dal campo dell’intelligenza artificiale noto come swarm intelligence. Alla base di questa auto organizzazione semaforica di COLOMBO vi sono due diversi livelli di politiche: macroscopico e microscopico. Nel primo caso le politiche macroscopiche, utilizzando il feromone come astrazione dell’attuale livello del traffico, scelgono la politica di gestione in base alla quantità di feromone presente nelle corsie di entrata e di uscita. Per quanto riguarda invece le politiche microscopiche, il loro compito è quello di deci- dere la durata dei periodi di rosso o verde modificando una sequenza di fasi, chiamata in COLOMBO catena. Le catene possono essere scelte dal sistema in base al valore corrente della soglia di desiderabilità e ad ogni catena corrisponde una soglia di desiderabilità. Lo scopo di questo elaborato è quello di suggerire metodi alternativi all’attuale conteggio di questa soglia di desiderabilità in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Ogni algoritmo complesso ha bisogno di essere ottimizzato per migliorarne le performance. Anche in questo caso, gli algoritmi proposti hanno subito un processo di parameter tuning per ottimizzarne le prestazioni in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Sulla base del lavoro di parameter tuning, infine, sono state eseguite delle simulazioni per valutare quale degli approcci suggeriti sia il migliore.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'obiettivo su cui è stata basata questa Tesi di Laurea è stato quello di integrare la tecnologia delle Wireless Sensor Networks (WSN) al contesto dell'Internet delle cose (IoT). Per poter raggiungere questo obiettivo, il primo passo è stato quello di approfondire il concetto dell'Internet delle cose, in modo tale da comprendere se effettivamente fosse stato possibile applicarlo anche alle WSNs. Quindi è stata analizzata l'architettura delle WSNs e successivamente è stata fatta una ricerca per capire quali fossero stati i vari tipi di sistemi operativi e protocolli di comunicazione supportati da queste reti. Infine sono state studiate alcune IoT software platforms. Il secondo passo è stato quindi di implementare uno stack software che abilitasse la comunicazione tra WSNs e una IoT platform. Come protocollo applicativo da utilizzare per la comunicazione con le WSNs è stato usato CoAP. Lo sviluppo di questo stack ha consentito di estendere la piattaforma SensibleThings e il linguaggio di programmazione utilizzato è stato Java. Come terzo passo è stata effettuata una ricerca per comprendere a quale scenario di applicazione reale, lo stack software progettato potesse essere applicato. Successivamente, al fine di testare il corretto funzionamento dello stack CoAP, è stata sviluppata una proof of concept application che simulasse un sistema per la rilevazione di incendi. Questo scenario era caratterizzato da due WSNs che inviavano la temperatura rilevata da sensori termici ad un terzo nodo che fungeva da control center, il cui compito era quello di capire se i valori ricevuti erano al di sopra di una certa soglia e quindi attivare un allarme. Infine, l'ultimo passo di questo lavoro di tesi è stato quello di valutare le performance del sistema sviluppato. I parametri usati per effettuare queste valutazioni sono stati: tempi di durata delle richieste CoAP, overhead introdotto dallo stack CoAP alla piattaforma Sensible Things e la scalabilità di un particolare componente dello stack. I risultati di questi test hanno mostrato che la soluzione sviluppata in questa tesi ha introdotto un overheadmolto limitato alla piattaforma preesistente e inoltre che non tutte le richieste hanno la stessa durata, in quanto essa dipende dal tipo della richiesta inviata verso una WSN. Tuttavia, le performance del sistema potrebbero essere ulteriormente migliorate, ad esempio sviluppando un algoritmo che consenta la gestione concorrente di richieste CoAP multiple inviate da uno stesso nodo. Inoltre, poichè in questo lavoro di tesi non è stato considerato il problema della sicurezza, una possibile estensione al lavoro svolto potrebbe essere quello di implementare delle politiche per una comunicazione sicura tra Sensible Things e le WSNs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La curva di durata di lungo periodo (POR) è uno strumento grafico molto efficace che mette in evidenza la relazione fra intensità e frequenza delle portate osservate in un determinato intervallo temporale. Essa è ricavata dall'idrogramma dei deflussi, ma presenta il problema della perdita di informazioni relative alla variabilità annuale e stagionali delle portate. Per tal motivo si è reso necessario l'utilizzo di due nuove interpretazioni delle curve di durate: le curve di durata annuali (alle quali può essere associato il concetto di percentile e quindi di probabilità di superamento di un particolare valore di portata) e le curve a base stagionale. La costruzione di tali curve, come nel caso delle POR complessive, è ostacolata dall'insufficienza di dati di portata, per cui sono utilizzate, a tale scopo, procedure di stima basate sulla regionalizzazione dei deflussi. Tra di esse è stato analizzata la tecnica geostatistica del Top-kriging applicata all'indice TND che sintetizza l'intera curva (Pugliese et al., 2014) nella ricostruzione, in cross-validazione, delle curve di durata annuali e stagionali di 182 bacini della regione sud-orientale degli Stati Uniti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La biocinematica è una branca della biomeccanica che studia il movimento dei segmenti corporei senza considerare le cause che lo determinano. Le grandezze fisiche di interesse (posizione, velocità ed accelerazione) vengono determinate grazie ai sistemi di analisi del movimento che sfruttano principi fisici di funzionamento differenti con vari gradi di invasività. Lo sviluppo di nuove tecnologie di costruzione dei sensori inerziali, ha fornito una valida alternativa alle tecniche classiche per l’analisi del movimento umano. Gli IMUs (Inertial Measurement Units) sono facilmente indossabili, possono essere facilmente utilizzati fuori dal laboratorio, hanno un costo molto inferiore rispetto a quello dei sistemi opto-elettronici, non richiedono particolari abilità per essere utilizzati dall’utente e si configurano facilmente. In questa tesi verrà analizzato il cammino e costruite le bande di normalità sia in laboratorio che in acqua tramite i sensori inerziali. L’utilizzo in acqua delle tecniche classiche di analisi del movimento presenta dei problemi di accuratezza (legati ad esempio alla presenza delle bolle d’aria in acqua) che impediscono di effettuare un confronto tra i risultati ottenuti dai sensori e quelli ottenuti con un gold standard. Per questo motivo, è stato implementato un test per valutare l’accuratezza dei sensori e l’influenza dei disturbi magnetici sui magnetometri nelle stesse condizioni ambientali in cui si desidera registrare il cammino. Quest’analisi strumentale ha consentito anche di individuare, tra i diversi algoritmi di fusione utilizzati (algoritmo di fabbrica e algoritmo di Madgwick), quello da impiegare nell’analisi del suddetto task motorio per stimare in maniera più accurata l’orientamento dei sensori in acqua e in laboratorio. L'algoritmo di fabbrica viene escluso dal processo di sensor fusion poiché mostra un'accuratezza peggiore rispetto all'algoritmo di Madgwick. Dal momento che il protocollo implementato di analisi del cammino attraverso i sensori inerziali è già stato validato a secco e che le prestazioni dei sensori sono analoghe a secco e in acqua, il protocollo può essere utilizzato per la stima della cinematica degli arti inferiori nell'acqua. Le differenze riscontrate tra le curve del cammino sono da imputare sia alla diversa condizione ambientale che alla minore velocità di progressione che i soggetti manifestano in acqua. Infatti, la velocità media di progressione è 151.1 cm/s in laboratorio e 40.7 cm/s in acqua.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo studio è stato sviluppato attraverso il monitoraggio idrogeologico di sorgenti e piezometri al fine di individuare il rischio di eventuali influenze causate dai lavori di ampliamento a 4 corsie di un tratto della S.S. 223 di Paganico (tratta Grosseto – Siena ) che prevede la costruzione di nuovi tratti di galleria ubicati nell’area. Il tratto di interesse per la presente tesi va dal km 30+040 al km 41+600 della tratta Siena-Grosseto, corrispondente ai lotti 5, 6, 7 e 8. I lavori riguardano i comuni di Monticiano (provincia di Siena) e Civitella Paganico (provincia di Grosseto), lungo la valle del Fiume Merse in un’area ad elevato pregio ambientale presso la confluenza con il Torrente Farma. Le attività di cantiere nel tratto interessato sono iniziate nel Dicembre 2013; si stima che le opere saranno completate per Luglio 2015. Il lavoro di tesi sul campo è stato svolto con il supporto tecnico della società di consulenza geo-ingegneristica di Bologna Studio Mattioli s.r.l. la quale ha ricevuto l’incarico del monitoraggio idrogeologico dal Gruppo Strabag che si occupa di costruzione di grandi infrastrutture. Il lavoro sul campo è consistito in un’attività di monitoraggio idrogeologico, anche tramite sensori in continuo, per più di 1 anno idrologico (novembre 2013- Gennaio 2015), su sorgenti e piezometri captanti acque sia fredde che termali. Il monitoraggio è stato basato sia su un approccio in discontinuo che in continuo. I punti di monitoraggio sono situati presso la località dei Bagni di Petriolo a cavallo tra la provincia di Siena e di Grosseto. I dati relativi alle sorgenti raccolti mensilmente sono la portata ed i parametri fisico-chimici in situ. Per piezometri i dati raccolti mensilmente sono il livello piezometrico ed i medesimi dati fisico-chimici raccolti per le sorgenti. I dati raccolti sono serviti a formulare il modello idrogeologico concettuale del sito ed a valutare le potenzialità d’interferenza idrogeologica delle gallerie sul sistema idrico sotterraneo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi è stato svolto presso il servizio di Fisica Sanitaria del Policlinico Sant'Orsola-Malpighi di Bologna. Lo studio si è concentrato sul confronto tra le tecniche di ricostruzione standard (Filtered Back Projection, FBP) e quelle iterative in Tomografia Computerizzata. Il lavoro è stato diviso in due parti: nella prima è stata analizzata la qualità delle immagini acquisite con una CT multislice (iCT 128, sistema Philips) utilizzando sia l'algoritmo FBP sia quello iterativo (nel nostro caso iDose4). Per valutare la qualità delle immagini sono stati analizzati i seguenti parametri: il Noise Power Spectrum (NPS), la Modulation Transfer Function (MTF) e il rapporto contrasto-rumore (CNR). Le prime due grandezze sono state studiate effettuando misure su un fantoccio fornito dalla ditta costruttrice, che simulava la parte body e la parte head, con due cilindri di 32 e 20 cm rispettivamente. Le misure confermano la riduzione del rumore ma in maniera differente per i diversi filtri di convoluzione utilizzati. Lo studio dell'MTF invece ha rivelato che l'utilizzo delle tecniche standard e iterative non cambia la risoluzione spaziale; infatti gli andamenti ottenuti sono perfettamente identici (a parte le differenze intrinseche nei filtri di convoluzione), a differenza di quanto dichiarato dalla ditta. Per l'analisi del CNR sono stati utilizzati due fantocci; il primo, chiamato Catphan 600 è il fantoccio utilizzato per caratterizzare i sistemi CT. Il secondo, chiamato Cirs 061 ha al suo interno degli inserti che simulano la presenza di lesioni con densità tipiche del distretto addominale. Lo studio effettuato ha evidenziato che, per entrambi i fantocci, il rapporto contrasto-rumore aumenta se si utilizza la tecnica di ricostruzione iterativa. La seconda parte del lavoro di tesi è stata quella di effettuare una valutazione della riduzione della dose prendendo in considerazione diversi protocolli utilizzati nella pratica clinica, si sono analizzati un alto numero di esami e si sono calcolati i valori medi di CTDI e DLP su un campione di esame con FBP e con iDose4. I risultati mostrano che i valori ricavati con l'utilizzo dell'algoritmo iterativo sono al di sotto dei valori DLR nazionali di riferimento e di quelli che non usano i sistemi iterativi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tesi sullo studio di algoritmi per il confronto di documenti XML, panoramica sui vari algoritmi. Focalizzazione sull'algoritmo NDiff e in particolare sulla gestione degli attributi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.