434 resultados para orientamento :: 149 :: Operazioni di volo
Resumo:
Uno dei problemi che ostacola la diffusione in ambito civile degli aerei senza pilota a bordo (UAV) è la gestione della sicurezza in volo. Gli UAV civili, infatti, popolando una regione di spazio aereo molto affollata e devono interagire con una moltitudine di altri mezzi aerei. Per questo motivo, risulta particolarmente critica l'implementazione di logiche di tipo Sense and Avoid, attraverso le quali un UAV deve essere in grado di "vedere" altri mezzi in rotta di collisione ed elaborare le azioni utili ad evitare l'impatto, decidendo se attuare una manovra autonoma di avoiding oppure delegarla al mezzo incontrato. Questa tesi descrive un primo approccio al problema del riconoscimento (Sense) dei mezzi aerei che un generico velivolo UAV può incontrare durante la normale condotta del volo. In particolare, si descrivono le strategie impiegate e gli ambienti software utilizzati per testare alcune procedure di riconoscimento delle immagini applicabili alla fase di detection dell'intruder, situazione tipica del caso di studio. I risultati sperimentali ottenuti dalla progettazione e dallo sviluppo di un apposito software, consistono nell'implementazione e successiva valutazione di diverse tecniche, individuando le criticità del problema.
Resumo:
I sistemi di navigazione inerziale, denominati INS, e quelli di navigazione inerziale assistita, ovvero che sfruttano anche sensori di tipo non inerziale come ad esempio il GPS, denominati in questo caso INS/GPS, hanno visto un forte incremento del loro utilizzo soprattutto negli ultimi anni. I filtri complementari sfruttano segnali in ingresso che presentano caratteristiche complementari in termine di banda. Con questo lavoro di tesi mi sono inserito nel contesto del progetto SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), un progetto europeo, coordinato dall'Università di Bologna, che prevede di mettere a punto una piattaforma robotica in grado di aiutare i soccorritori che operano in ambienti ostili, come quelli del soccorso alpino, le guardie forestali, la protezione civile. In particolare è prevista la possibilità di lanciare i droni direttamente da un elicottero di supporto, per cui potrebbe essere necessario effettuare l'avvio del sistema in volo. Ciò comporta che il sistema di navigazione dovrà essere in grado di convergere allo stato reale del sistema partendo da un grande errore iniziale, dal momento che la fase di inizializzazione funziona bene solo in condizioni di velivolo fermo. Si sono quindi ricercati, in special modo, schemi che garantissero la convergenza globale. Gli algoritmi implementati sono alla base della navigazione inerziale, assistita da GPS ed Optical Flow, della prima piattaforma aerea sviluppata per il progetto SHERPA, soprannominata DreamDroneOne, che include una grande varietà di hardware appositamente studiati per il progetto, come il laser scanner, la camera termica, ecc. Dopo una panoramica dell'architettura del sistema di Guida, Navigazione e Controllo (GNC) in cui mi sono inserito, si danno alcuni cenni sulle diverse terne di riferimento e trasformazioni, si descrivono i diversi sensori utilizzati per la navigazione, si introducono gli AHRS (Attitude Heading Rference System), per la determinazione del solo assetto sfruttando la IMU ed i magnetometri, si analizza l'AHRS basato su Extended Kalman Filter. Si analizzano, di seguito, un algoritmo non lineare per la stima dell'assetto molto recente, e il sistema INS/GPS basato su EKF, si presenta un filtro complementare molto recente per la stima di posizione ed assetto, si presenta un filtro complementare per la stima di posizione e velocità, si analizza inoltre l'uso di un predittore GPS. Infine viene presentata la piattaforma hardware utilizzata per l'implementazione e la validazione, si descrive il processo di prototipazione software nelle sue fasi e si mostrano i risultati sperimentali.
Resumo:
La tesi si pone l’obiettivo di approfondire i restauri operati nel corso del tempo sulla fortezza di San Leo a seguito del sisma del 1786 ed affronta il delicato e complesso tema delle finiture delle superfici architettoniche esterne. La ricerca si è sviluppata a partire dall’analisi storico-critica delle vicende relative alla fortezza e alla città di San Leo, approfondendo le caratteristiche dell’architettura militare di transizione di Francesco di Giorgio Martini dal momento della sua fondazione nel Montefeltro, al fine di ricostruire la possibile sequenza delle fasi costruttive, anche attraverso la comparazione con altri esempi di fortificazioni sul territorio. L’analisi comparata delle fonti dirette e indirette, delle tracce murarie attraverso un accurato rilievo geometrico del complesso monumentale ottenuto con l’ausilio di molteplici tecniche di misura (topografiche, dirette, fotogrammetriche) opportunamente integrate in un unico sistema di riferimento, e il rilievo critico con tavole tematiche sulle superfici architettoniche, ha permesso di osservare sotto una nuova luce il singolare progetto di restauro elaborato da Giuseppe Valadier per la fortezza di San Leo. Esso rappresenta un’anticipazione della disciplina, maturata nell’ambiente colto romano dell’epoca, e fondata sulla presa di coscienza dei valori del manufatto architettonico. Si è provveduto a catalogare e descrivere più di 150 fonti documentarie, in gran parte inedite, collocate in un arco temporale che va dal Cinquecento, al periodo Moderno e Contemporaneo con le perizie del Genio Civile e della Soprintendenza. Sono state inoltre ordinate cronologicamente e descritte almeno 50 rappresentazioni iconografiche e cartografiche storiche. L’approccio analitico multidisciplinare, e la raccolta di informazioni storico-documentali, è stato completato da un’ultima fase di analisi, utile a determinare la stratificazione e la cronologia degli interventi. Sono state condotte indagini fisiche e chimiche su campioni, prelevati in loco durante il mese di novembre del 2008 sotto l’egida della Soprintendenza, al fine di determinare la formulazione e la microstuttura dei materiali, con particolare attenzione ai materiali lapidei, agli intonaci e alle coloriture, limitando le indagini a quelle strettamente necessarie. Le indagini strumentali sono state effettuate presso il Laboratorio di Scienza e Tecnologia dei Materiali (LASTM) del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Alma Mater Studiorum Università di Bologna, Scuola di Ingegneria e Architettura, seguendo procedure sviluppate dai gruppi di lavoro presso la struttura. Al fine di determinare la composizione chimica dei materiali sono state eseguite calcimetrie e diffrattometrie a raggi x, mentre per quanto riguarda la struttura e la microstruttura sono state eseguite delle analisi granulometriche. L’interpretazione dei dati, ottenuti dalla lettura organica delle fonti, ha permesso di inquadrare i differenti trattamenti superficiali esterni in relazione all’epoca di realizzazione.
Resumo:
Il mondo dei materiali compositi è in continua espansione, e sono sempre di più le aziende che richiedono componenti prodotti con questi materiali, uno dei quali è la fibra di carbonio. Tali aziende producono inevitabilmente scarti di lavorazione derivanti dal taglio di sagome dai fogli di fibra di carbonio; questi ritagli rappresentano ancora una buona materia prima, che, se ben conservata, può essere utilizzata per la fabbricazione di prodotti secondari. Così facendo sarà possibile ridurre il costo di smaltimento della fibra, e, al contempo, ottenere manufatti in fibra di carbonio a basso costo. È in questo contesto che rientra il lavoro e la ricerca di questo elaborato il cui obbiettivo è riutilizzare gli sfridi di lavorazione per realizzare protesi di piede a basso costo in fibra di carbonio. Un ulteriore attenzione è stata posta al metodo di fabbricazione della protesi, il quale deve risultare semplice da realizzare. Per questa ragione si è deciso che la pressione durante la cottura fosse da applicare per via meccanica, attraverso la presenza di uno stampo e di un controstampo, serrati tramite collegamenti bullonati. Nell’elaborato sarà descritto il lavoro svolto per l’ottenimento della forma e della disposizione degli strati di fibra di carbonio, basato su simulazione di modelli ad elementi finiti, che ha condotto alle migliori sagome e al miglior orientamento delle fibre negli strati di materiale composito. Sarà inoltre illustrato il metodo utilizzato per ottenere lo stampo, e le procedure da seguire per la realizzazione del prototipo di protesi. Saranno infine illustrati i risultati ottenuti dalle prove di caratterizzazione di due prototipi differenti, uno ottenuto con fibre intere, e uno realizzato con fibre corte.
Resumo:
In questa tesi si affronta la problematica di determinare l'orientazione della superficie di faglia che sarà interessata da scorrimento relativo, assegnato un certo sforzo tettonico Sigma in base ad un criterio di massima energia rilasciata. Dapprima, introdotte le nozioni di base della meccanica dei continui, si studia il criterio di fagliazione dato dalla teoria di Anderson. In seguito, una volta acquisito questo primo risultato, si applica la teoria delle dislocazioni elastiche, per studiare dal punto di vista energetico la stessa faglia, situata in un semispazio elastico. Assumendo che la faglia massimizzante l'energia rilasciata in seguito alla frattura del mezzo continuo, assegnati i dati del problema, sia quella che più probabilmente sarà soggetta ad attivazione e scorrimento, si confronta quanto ottenuto con i risultati della teoria della fagliazione di Anderson. Entrambi gli approcci presentano conclusioni simili, gli angoli di orientamento infatti sono compresi tra 1/2atan1/f e pi/4 con l'orientazione che tende a pi/4 diminuendo l'influenza dell'attrito o viceversa aumentando lo sforzo applicato sulla superficie di faglia. Tuttavia i due approcci presentano significative differenze quando l'energia rilasciata è molto maggiore di zero.
Resumo:
Lo sbrinamento per le pompe di calore ne limita fortemente l'uso. In questa tesi viene introdotto un concetto innovativo ad altissimo rendimento.
Resumo:
Lo scopo di questa tesi è presentare un progetto per la realizzazione di una piattaforma DBAAS per il database Jackrabbit. Per piattaforma DBAAS si intende un sistema in grado di offrire ai clienti un database su richiesta (DataBase As A Service), e di amministrare automaticamente i database per conto dei clienti. Il progetto viene realizzato in un primo momento tramite un prototipo della piattaforma, in cui vengono effettuati test intensivi per controllare ogni funzionalità della piattaforma. Il prototipo viene sviluppato in un singolo host, nel quale è possibile simulare tutte le operazioni base della piattaforma DBAAS, come se fosse il sistema finale. In un secondo momento, il progetto sarà realizzato nella sua versione finale, con tutto l'hardware necessario a garantire un servizio ottimale. Questa tesi contiene la base per realizzare il sistema finale, che può essere realizzato in modi diversi a seconda delle scelte che farà il progettista. Ad esempio, è possibile comprare tutto l'hardware necessario e implementare la piattaforma DBAAS in-house, oppure si può scegliere di affidare tutta la gestione hardware ad un servizio di hosting.
Resumo:
Il seguente lavoro di tesi si è concentrato sull'analisi statistica dei dati prodotti dall'imaging di risonanza magnetica di pazienti affetti da tumori di alto grado, in particolare glioblastoma multiforme. Le tipologie di acquisizione d'immagine utilizzate sono state l'imaging pesato in T1 e il Diffusion-Weighted Imaging (DWI). Lo studio è stato suddiviso in due fasi: nella prima è stato considerato un campione di pazienti affetti da glioblastoma multiforme che, dopo il trattamento, avessero manifestato una ricaduta della malattia; per questi pazienti è stato quantificato in che modo la dose erogata durante la terapia si sia distribuita sul target del trattamento, in particolare nella porzione di tessuto in cui andrà a svilupparsi la recidiva. Nella seconda fase, è stato selezionato un campione più ristretto che disponesse, per entrambe le modalità di imaging, di un'acquisizione pre-terapia e di un numero sufficiente di esami di follow up; questo al fine di seguire retrospettivamente l'evoluzione della patologia e analizzare tramite metodi statistici provenienti anche dalla texture analysis, i dati estratti dalle regioni tumorali. Entrambe le operazioni sono state svolte tramite la realizzazione di software dedicati, scritti in linguaggio Matlab. Nel primo capitolo vengono fornite le informazioni di base relative ai tumori cerebrali, con un'attenzione particolare al glioblastoma multiforme e alle sue modalità di trattamento. Nel secondo capitolo viene fatta una panoramica della fisica dell'imaging di risonanza magnetica e delle tecniche di formazione delle immagini, con un'ampia sezione è dedicata all'approfondimento dell'imaging in diffusione. Nel terzo capitolo viene descritto il progetto, i campioni e gli strumenti statistici e di texture analysis utilizzati in questo studio. Il quarto capitolo è dedicato alla descrizione puntuale dei software realizzati durante questo lavoro e nel quinto vengono mostrati i risultati ottenuti dall'applicazione di questi ultimi ai campioni di pazienti esaminati.
Resumo:
Conversione di un motore bicilindrico 2 tempi diesel sovralimentato con compressore centrifugo in monocilindrico 2 tempi con carter pompa di pari potenza e cilindrata.
Resumo:
In questo documento si presenta lo studio degli algoritmi matematici e crittografici su cui si basa il sistema di moneta digitale Bitcoin, in circolazione dal 2009. Bitcoin è un sistema di cripto valuta elettronica peer-to-peer, ideato da un anonimo conosciuto con lo pseudonimo "Satoshi Nakamoto", i cui principi sono descritti in un documento pubblicato nel 2008 ed ora accessibile in rete. L'utilizzo di Bitcoin permette di effettuare transazioni con sicurezza da un soggetto ad un altro e, grazie a una tecnologia peer-to-peer che opera senza alcuna autorità centrale e intermediari quali banche o istituzioni governative, sia la gestione delle operazioni sia l'emissione di denaro sono svolte per mezzo di un protocollo P2P. Nel corso della trattazione si propone un analisi più tecnica del sistema di gestione e creazione dei Bitcoin e degli strumenti crittografici che hanno permesso l'avvento di questa moneta elettronica decentralizzata.
Resumo:
La dinamica dell'assetto di un satellite artificiale rappresenta uno degli aspetti più delicati della missione che esso stesso andrà a svolgere in orbita attorno ad un qualche corpo celeste, quale appunto il pianeta Terra. Il seguente lavoro di tesi si propone di analizzare la causa di una delle principali componenti di disturbo dell'assetto appena menzionato, preponderante per satelliti dalle piccole dimensioni, fornendo la spiegazione, validata attraverso una simulazione, della messa a punto di un metodo sperimentale per la valutazione della stessa. La componente in questione è la coppia di disturbo magnetica, ed è generata dall'interazione tra il campo magnetico terrestre ed il cosiddetto 'dipolo magnetico residuo' del satellite stesso, ossia quel campo magnetico che esso, in modalità operativa e non, risulta generare a causa del materiale ferromagnetico presente al suo interno, e delle correnti elettriche circolanti nei vari cavi conduttori. Ci si è dunque occupati dell'analisi e messa a punto di un metodo che possa consentire sperimentalmente di rilevare l'entità del dipolo residuo. Il lavoro di simulazione è stato svolto prendendo in considerazione le dimensioni e le possibili caratteristiche del dipolo residuo del micro-satellite ESEO (European Student Earth Orbiter), sviluppato da studenti di diverse università europee ed ora in fase di progetto dettagliato (fase C) presso i laboratori dell'azienda ALMASpace S.r.l. di Forlì. Il metodo in esame consiste nel rilevare il campo magnetico generato dal satellite, posto all'interno di un sistema tridimensionale di bobine di Helmholtz per avere una zona libera da campi magnetici esterni. Il rilevamento del dipolo avviene per mezzo di un magnetometro a tre assi, e dalla suddetta misura si può pervenire alla conoscenza delle componenti del dipolo stesso, quali posizione, orientamento ed intensità; siccome però la misura del magnetometro non è ideale, ma risulta affetta da errori, per una più corretta caratterizzazione del dipolo è necessario utilizzare un numero maggiore di magnetometri (oppure, il che è lo stesso, un unico magnetometro spostato mano a mano) in punti diversi attorno al satellite in modo da avere più misure di campo magnetico e poter così sfruttare una procedura numerica di ottimizzazione per risalire alle componenti del dipolo. Questa intera parte di calcolo è stata realizzata in MatLab®, simulando quindi le misure ottenute dai magnetometri, 'sporcandole' con i predetti errori, ed utilizzando le funzioni di minimizzazione lsqnonlin ed fmincon per verificare la funzionalità del sistema; si sono infatti analizzati i grafici rappresentanti i livelli di errore commessi dall'algoritmo di stima sulle varie componenti del dipolo, per le tipologie di errore dei magnetometri menzionate in precedenza. Si è così cercato di suggerire una configurazione ottimale di magnetometri in grado di fornire una stima caratterizzata da un buon compromesso tra numero di magnetometri da utilizzare non troppo elevato ed errore derivante accettabile.
Resumo:
La presenza sempre più massiccia di fornitori di servizi basati su web service ha portato in rilievo uno dei limiti di questo approccio, l’impossibilità di rendere automatizzabili i task di ricerca, invocazione e orchestrazione dei servizi. Il raggiungimento di questo obiettivo risulta impossibile a causa della mancanza di informazioni comprensibili ad una macchina attraverso le quali un agente software può effettuare delle scelte tra vari servizi esposti. Il fallimento della “ricerca intelligente” di un servizio pubblicato sta nella stessa modellazione dei servizi. I linguaggi attualmente disponibili permettono di modellare un servizio solo dal punto di vista sintattico. Definire le operazioni proposte, il tipo di parametri accettati e il tipo di output prodotto non è sufficiente a comprendere cosa il servizio può fare. I web services semantici consentono di superare questo limite fornendo uno stack semantico, il quale ha il compito di racchiudere le informazioni relative ai servizi, il loro funzionamento e gli obiettivi raggiungibili organizzando la conoscenza in ontologie. La formalizzazione dei modelli ontologici e la loro integrazione con i servizi esistenti è uno dei problemi più interessanti che ha catturato l’attenzione di numerosi studi di settore. Negli ultimi anni numerose sono state le soluzioni proposte. Tra queste si possono considerare due principali vie di sviluppo che hanno visto un’intensa attività sperimentale. Il primo scenario è volto a modellare in maniera formale la conoscenza legata ai servizi esposti, il secondo integra i servizi già esistenti con nuove strutture semantiche in modo da conservare le infrastrutture presenti. Entrambi i filoni hanno come scopo quello di fornire la conoscenza adatta a sistemi esperti che consentano di automatizzare la ricerca dei servizi in base ai desideri dei clienti, permettendo la loro composizione dinamica basata su un’interazione utile e indipendente dai protocolli che vincolano il trasporto delle informazioni.
Resumo:
La malattia di Parkinson è un disturbo neurodegenerativo con eziologia sconosciuta che colpisce in particolare le aree del cervello che sono coinvolte nel controllo del movimento. Tale disturbo neurologico causa anomalie sull’andatura del soggetto portandolo ad esempio a strisciare i piedi e flettere il busto più del necessario; anomalie che causano una camminata insicura che può sfociare in inciampi e cadute. Lo scopo di questo studio è disegnare e sviluppare algoritmi in grado di stimare la clearance dei piedi e l’inclinazione del tronco, al fine di essere inseriti nel progetto CuPiD, il quale fornisce un feedback vocale ogni volta in cui il soggetto parkinsoniano presenti valori dei parametri monitorati al di fuori di un range fisiologico. Sono stati reclutati 20 soggetti, 10 a cui è stata diagnosticata la malattia di Parkinson idiopatica e 10 asintomatici. Nella valutazione sperimentale si è acquisita la camminata dei soggetti coinvolti nell’esperimento, utilizzando un sistema inerziale ed un sistema stereofotogrammetrico come gold standard. Ogni soggetto ha eseguito 4 camminate, ciascuna della durata di 2 minuti, nelle seguenti diverse condizioni: camminata normale, focus sui piedi, focus sul tronco, audio stroop. Inoltre si è valutata l’entità delle differenze cliniche dei due parametri stimati, tra il gruppo dei soggetti malati di Parkinson ed il gruppo dei soggetti sani. Dallo studio effettuato si propone un algoritmo per la stima della clearance che presenta un errore relativamente alto
Resumo:
In questo lavoro si vuole mostrare come sia possibile realizzare un circuito per energy harvesting totalmente autonomo, quindi senza l’ausilio di batterie, per sorgenti ultra-low voltage, in particolare per sorgenti termoelettriche sottoposte a piccoli gradienti di temperatura ed in grado di erogare tensioni di qualche decina di millivolt. Si esporrà come il circuito sia capace di avviarsi, autosostenersi ed alimentare un piccolo carico. Si è scelta una architettura basata su componenti discreti suddivisa in due macro blocchi: un circuito di startup implementato attraverso un’architettura a trasformatore piezoelettrico e un boost converter pilotato in catena aperta da un oscillatore ultra-low power.
Resumo:
XCModel è un sistema CAD, basato su NURBS, realizzato ed utilizzato in ambiente accademico. È composto da quattro pacchetti per la modellazione 2D, 3D e la resa foto-realistica, ognuno dotato di una propria interfaccia grafica. Questi pacchetti sono in costante evoluzione: sia per le continua evoluzioni dell’hardware che ai cambiamenti degli standard software. Il sistema nel complesso raccoglie la conoscenza e l’esperienza nella modellazione geometrica acquisita nel tempo dai progettisti. XCModel, insieme ai suoi sottosistemi, sono stati progettati per diventare un laboratorio di insegnamento e ricerca utile a sperimentare ed imparare metodi ed algoritmi nella modellazione geometrica e nella visualizzazione grafica. La natura principalmente accademica, e la conseguente funzione divulgativa, hanno richiesto continui aggiornamenti del programma affinché potesse continuare a svolgere la propria funzione nel corso degli anni. La necessità di continuare a ad evolversi, come software didattico, anche con il moderno hardware, è forse il principale motivo della scelta di convertire XCModel a 64 bit; una conversione che ho svolto in questa tesi. Come molte altre applicazioni realizzate a 32 bit, la maggior parte del codice viene eseguito correttamente senza problemi. Vi sono però una serie di problematiche, a volte molto subdole, che emergono durante la migrazione delle applicazioni in generale e di XCModel in particolare. Questa tesi illustra i principali problemi di portabilità riscontrati durante il porting a 64 bit di questo pacchetto seguendo il percorso da me intrapreso: mostrerò gli approcci adottati, i tool utilizzati e gli errori riscontrati.