278 resultados para Aereo, Algoritmo, Stima assetto, Tuning parametri
Resumo:
Lo scopo di questa attività di tesi è quello di rilevare dinamicamente la posizione di ostacoli mediante radar FMCW. I radar a onda continua modulati in frequenza sono alla base dei moderni sensori in ambito automotive, in quanto consentono allo stesso tempo di rilevare la distanza, l’angolazione e la velocità di un corpo detto target analizzando gli scostamenti temporali e in frequenza tra i segnali (detti chirp) trasmessi e quelli riflessi dai corpi. Nel lavoro di tesi si analizza sperimentalmente come il radar a onda continua MIMO (multiple input multiple output) RBK2, presente presso il laboratorio TLC del Campus di Cesena, può essere utilizzato per ricavare la velocità relativa di un target, che si avvicina o si allontana dal radar. Innanzitutto, vengono settati i parametri per l’acquisizione e per il processing necessario per ottenere una matrice Angolo-Range che caratterizza staticamente il target. Il mixer interno al radar, a seguito della ricezione di un segnale di eco, produce un segnale a frequenza intermedia il cui spettro presenta un picco in corrispondenza della distanza del target che lo ha riflesso. A questo punto si conosce la posizione del corpo e si procede con la stima della velocità sfruttando l’effetto Doppler: analizzando i chirp riflessi dallo stesso target in istanti successivi si ottengono una serie di picchi nella stessa posizione ma con fasi differenti, e da tale sfasamento si ricava la componente radiale della velocità del target. Sono stati studiati sia il caso di misure outdoor che quello di misure indoor, infine è stato elaborato un codice Matlab in grado di fornire un feedback riguardante una possibile collisione in seguito alla stima della velocità del corpo. Tale tecnologia gioca quindi un ruolo fondamentale nell’ambito della sicurezza stradale potendo prevenire incidenti.
Resumo:
L’utilizzo di informazioni di profondità è oggi di fondamentale utilità per molteplici settori applicativi come la robotica, la guida autonoma o assistita, la realtà aumentata e il monitoraggio ambientale. I sensori di profondità disponibili possono essere divisi in attivi e passivi, dove i sensori passivi ricavano le informazioni di profondità dall'ambiente senza emettere segnali, bensì utilizzando i segnali provenienti dall'ambiente (e.g., luce solare). Nei sensori depth passivi stereo è richiesto un algoritmo per elaborare le immagini delle due camere: la tecnica di stereo matching viene utilizzata appunto per stimare la profondità di una scena. Di recente la ricerca si è occupata anche della sinergia con sensori attivi al fine di migliorare la stima della depth ottenuta da un sensore stereo: si utilizzano i punti affidabili generati dal sensore attivo per guidare l'algoritmo di stereo matching verso la soluzione corretta. In questa tesi si è deciso di affrontare questa tematica da un punto di vista nuovo, utilizzando un sistema di proiezione virtuale di punti corrispondenti in immagini stereo: i pixel delle immagini vengono alterati per guidare l'algoritmo ottimizzando i costi. Un altro vantaggio della strategia proposta è la possibilità di iterare il processo, andando a cambiare il pattern in ogni passo: aggregando i passi in un unico risultato, è possibile migliorare il risultato finale. I punti affidabili sono ottenuti mediante sensori attivi (e.g. LiDAR, ToF), oppure direttamente dalle immagini, stimando la confidenza delle mappe prodotte dal medesimo sistema stereo: la confidenza permette di classificare la bontà di un punto fornito dall'algoritmo di matching. Nel corso della tesi sono stati utilizzati sensori attivi per verificare l'efficacia della proiezione virtuale, ma sono state anche effettuate analisi sulle misure di confidenza: lo scopo è verificare se le misure di confidenza possono rimpiazzare o assistere i sensori attivi.
Resumo:
L’elaborato descrive le fasi di progettazione, programmazione e validazione di un programma sviluppato in ambiente Java per il Vehicle Routing Problem. L’algoritmo implementato è di tipo euristico costruttivo primal e presenta funzionalità specifiche per la gestione di un elevato numero di vincoli e l’applicazione a casistiche reali. La validazione è stata effettuata su una base dati reale e in confronto a dataset di cui è nota la soluzione ottima. Il programma è stato progettato per risultare flessibile alle richieste dell’utente e utilizzabile per valutazioni economiche in ambito consulenziale.
Resumo:
Il seguente elaborato, che riporta il lavoro di tesi svolto presso il Laboratorio di microsatelliti e microsistemi spaziali dell’Università di Bologna, parte dallo studio e dallo sviluppo di un modello relativo all’attuazione di ruote di reazione montate a bordo di un nanosatellite tramite l’utilizzo del software Matlab. Successivamente tali concetti sono stati utilizzati per lo sviluppo di una piattaforma testbed adibita alla valutazione del sottosistema di determinazione e controllo di assetto di un satellite, in questo caso delle dimensioni standard 1U. Si è partiti da un progetto di base già presente in laboratorio con la necessità però di aggiornarlo, introducendo miglioramenti su alcuni aspetti tecnici. Per fare ciò, si sono valutati i requisiti fondamentali di progetto, per poi valutare le molteplici soluzioni riguardanti tutti gli aspetti, dalle guide di scorrimento ai sistemi di fissaggio per il satellite, ognuna di esse considerando pro e contro attentamente analizzati al fine di giungere al miglior compromesso. Molte delle scelte progettuali sono scaturite a seguito di analisi quantitative al fine di garantire il corretto funzionamento della piattaforma ed ottenere, quindi, risultati quanto più affidabili a seguito dei test.
Resumo:
A partire dal problema di orbit determination per una sonda in deep-space, la tesi si concentra su sviluppo e confronto di algoritmi di stima della frequenza di segnali analitici per la verifica delle loro performance di accuratezza nella generazione di osservabili doppler. Le tecniche poste a confronto appartengono a due categorie: due tempo-discrete ed una spettrale; in particolare si vuole valutare come la modellazione ARMA dei segnali possa beneficiare le prime al punto da poterle considerare alternative all'altezza degli standard del settore aerospaziale.
Resumo:
Nel presente documento si discute la progettazione di una guida lineare curva allo scopo di permettere la movimentazione di un simulatore di Sole per nanosatelliti. Vengono presentati i nanosatelliti e vengono introdotti alcuni metodi di rappresentazione d’assetto, per proseguire con una descrizione dei sensori di Sole per la determinazione d’assetto. Si descrive, poi, il banco di prova per il controllo e la determinazione d’assetto presente nel Laboratorio di Microsatelliti e Microsistemi Spaziali e, di seguito, il progetto delle guide con il confronto tra le opzioni commerciali disponibili. Infine, si descrive la progettazione degli elementi di collegamento tra il simulatore e i cursori.
Resumo:
I CFRP laminati sono materiali dalle eccellenti proprietà meccaniche specifiche che hanno, però, il grande svantaggio di essere soggetti a delaminazione. Essa è una problematica che può seriamente comprometterne l’affidabilità in vita d’uso e va, perciò, contrastata cercando di prevenirla o cercando di ridurne gli effetti negativi. Lo scopo del presente elaborato di tesi è stato quello di produrre, mediante elettrofilatura, membrane polimeriche che, integrate in laminati compositi, abbiano funzione di rendere il composito delaminato in grado di “autoripararsi” tramite meccanismo di self-healing. È stato condotto uno studio di ottimizzazione di tutti i parametri riguardanti la soluzione ed il processo di elettrofilatura che conducesse all’ottenimento di membrane con una morfologia fibrosa esente da difetti e, contemporaneamente, ad una buona maneggiabilità delle stesse. Le membrane sono state caratterizzate morfologicamente tramite analisi SEM e analisi DSC.
Resumo:
I raggi cosmici sono una fonte naturale di particelle ad alta energia di origine galattica e extragalattica. I prodotti della loro interazione con l’atmosfera terrestre giungono fino alla superficie terrestre, dove vengono rilevati dagli esperimenti di fisica delle particelle. Si vuole quindi identificare e rimuovere questo segnale. Gli apparati sperimentali usati in fisica delle particelle prevedono dei sistemi di selezione dei segnali in ingresso (detti trigger) per rigettare segnali sotto una certa soglia di energia. Il progredire delle prestazioni dei calcolatori permette oggi di sostituire l’elettronica dei sistemi di trigger con implementazioni software (triggerless) in grado di selezionare i dati secondo criteri più complessi. TriDAS (Triggerless Data Acquisition System) è un sistema di acquisizione triggerless sviluppato per l’esperimento KM3NeT e utilizzato recentemente per gestire l’acquisizione di esperimenti di collisione di fascio ai Jefferson Lab (Newport News, VA). Il presente lavoro ha come scopo la definizione di un algoritmo di selezione di eventi generati da raggi cosmici e la sua implementazione come trigger software all’interno di TriDAS. Quindi si mostrano alcuni strumenti software sviluppati per costruire un ambiente di test del suddetto algoritmo e analizzare i dati prodotti da TriDAS.
Resumo:
Background. La sclerosi multipla (SM) è una malattia neurodegenerativa che colpisce il sistema nervoso centrale. I sintomi si manifestano prima dei 55 anni di età, possono essere molto diversi tra loro. Al momento non esiste una cura definitiva, ma sono disponibili tecniche riabilitative che modificano il suo andamento, tra cui la riabilitazione equestre, che consiste in attività svolte con l'aiuto del cavallo a fini di cura. Obiettivi. Lo scopo di questo studio è quello di indagare l’efficacia della riabilitazione equestre sui parametri funzionali del cammino e la qualità della vita in persone con SM. Metodi. Le banche dati visionate per questo studio sono state PUBMED, PEDro, Cochrane Central Register of Controlled Trial, Web of Science e Scopus. Nella revisione sono stati inclusi i Randomized Controlled Trial (RCT) che indagavano i parametri funzionali del cammino e la qualità della vita; articoli che esaminavano soggetti con sclerosi multipla senza limiti di età e sesso, in lingua inglese, pubblicati tra il 2010 e il 2020 e di cui era reperibile il full text. Risultati. Gli studi inclusi sono stati quattro RCT. Gli outcome indagati sono stati i parametri funzionali del cammino e la qualità della vita. In ogni studio esaminato si osserva un miglioramento significativo per ogni misura di outcome, in particolare la qualità della vita. Conclusioni. Ogni studio ha evidenziato come la riabilitazione equestre abbia influito positivamente sul decorso della SM. Riguardo i trial clinici esaminati, il numero esiguo dei partecipanti ai singoli studi, la durata eterogenea delle sessioni, l’impossibilità di disporre della descrizione della seduta, l’utilizzo di scale differenti per ogni studio e l’aver considerato parametri diversi per valutare uno stesso outcome non permettono di avere risultati estendibili a tutta la popolazione. Risulta necessario un ulteriore approfondimento in merito per comprendere la reale efficacia della riabilitazione equestre.
Resumo:
L’obesità ad oggi è considerata un’epidemia globale ed è tutt’ora in rapido aumento insieme a tutte le comorbidità ad essa associate. Il gold standard per il trattamento di questa patologia è la terapia dietetico-comportamentale. Tuttavia, essa frequentemente si rivela non sufficiente nei quadri di obesità severa; in questo caso è possibile valutare la farmacoterapia, seppur sempre accostata alle indicazioni alimentari. Un’altra opzione è la chirurgia bariatrica, ritenuta una delle più efficaci forme di terapia per la cura dell’obesità severa. Molto importante per l’inquadramento clinico del paziente è la rilevazione delle abitudini alimentari, eseguita tramite diversi strumenti, quali l’Indagine Alimentare, il Recall delle 24 ore e il Diario Alimentare. Recentemente sono stati formulati diversi Food Frequency Questionnaires, ovvero questionari compilati direttamente del paziente con l’obiettivo di indagare sul consumo abituale dei principali prodotti alimentari suddivisi in categorie. Obiettivo: l’obiettivo di questo studio è stato quello di valutare l’appropriatezza di un Food Frequency Questionnaire composto da un totale di 7 categorie e 31 prodotti alimentari nella rilevazione delle abitudini di una popolazione di pazienti con diagnosi di obesità. Metodo: sono stati contattati telefonicamente 70 pazienti, suddivisi in due sottogruppi, ai quali sono state fornite istruzioni per la compilazione di un Diario Alimentare di tre giorni e del Food Frequency Questionnaire. Risultati: è stata considerata accettabile una differenza inferiore al 10% tra i valori derivanti dai due strumenti: su un campione totale di 52 pazienti, tale differenza è stata rilevata in 35 soggetti per quanto riguarda l’intake energetico, in 17 pazienti per i glucidi, in 7 partecipanti per l’apporto di proteine e in 13 casi per i lipidi. Conclusioni: i risultati confermano l’ipotesi che il Food Frequency Questionnaire fornisca valutazioni sovrapponibili a quelle derivanti dal Diario Alimentare.
Resumo:
Il modello ΛCDM è l’attuale modello standard della cosmologia e descrive la presenza dell’energia oscura attraverso una costante cosmologica Λ. Nonostante i buoni fit con le osservazioni a livello di background, il modello non risulta essere simultaneamente consistente nella stima della costante di Hubble con le osservazioni ad alto redshift e quelle a basso redshift. Si presenta un modello cosmologico di quintessenza con accoppiamento, in cui si utilizza come vincolo una funzione di Hubble identica a quella del modello standard e in cui si studiano i principali parametri di interesse cosmologico per diversi possibili accoppiamenti costanti, risolvendo numericamente le equazioni del campo scalare di energia oscura e delle perturbazioni lineari del modello. Si introducono poi due possibili estensioni del modello, utilizzando come vincolo una funzione di Hubble che differisce da quella classica per una piccola deviazione nei valori a basso redshift e risolvendone il background, infine studiando nuovamente il modello con il background di ΛCDM in cui però si introduce un accoppiamento che varia nel tempo, in accordo con i vincoli derivanti dai dati della CMB.
Resumo:
Durante gli ultimi anni sta avendo sempre più rilevanza il problema del cambiamento climatico, dovuto principalmente all’emissione in atmosfera di gas serra. Una delle soluzioni da adottare è una transizione energetica verso fonti di energia rinnovabili e una progressiva elettrificazione di tutte le tecnologie che utilizzano ancora combustibili fossili. L’obiettivo di questa tesi di Laurea è analizzare e implementare un semplice modello in MATLAB/Simulink di una turbina eolica, conoscendo solo i dati di targa del generatore, la curva di potenza della turbina e avendo a disposizione dei dati reali di velocità del vento, potenza prodotta e velocità di rotore. Il progetto quindi consiste in un lavoro di reverse engineering in cui, partendo dai componenti reali, si cerca di ricavare, in maniera empirica e sperimentale, i parametri che ne caratterizzano il modello matematico. Successivamente è stato implementato un modello su Simulink, partendo da un modello già esistente, in cui si è simulato il comportamento della macchina, ottenendo una stima della potenza prodotta.
Resumo:
L'insufficienza cardiaca è una delle malattie cardiovascolari più comuni, nonché quella con maggiori tassi di riospedalizzazione. Nonostante numerosi pazienti siano sottoposti a impianto di defibrillatori cardiaci, come pacemaker e ICD, questo non è sufficiente a diminuire i casi di ricovero. L'innovazione tecnologica dei dispositivi impiantabili li ha resi compatibili con l'utilizzo del monitoraggio remoto che avviene attraverso la trasmissione di un enorme quantità di dati eterogenei, noti come Big Data. Questi offrono la possibilità di rilevare numerosi parametri da cui è possibile valutare il funzionamento del dispositivo e implementare algoritmi di medicina predittiva. In questo elaborato sono analizzati quattro casi studio (cardioMEMS, TRIAGE-HF, SELENE HF, multiSENSE), con lo scopo di confrontare gli algoritmi predittivi in essi sviluppati. Da questi studi, condotti su un insieme ristretto di campioni, è emerso che lo scompenso è predetto correttamente, ma con una previsione di riospedalizzazione a seguito di intervento che differisce in ogni studio clinico. Nello studio MultiSENSE, l'algoritmo ha previsto il 70% delle ospedalizzazioni, con un tempo medio di rilevamento di 34 giorni e 1,47 allarmi inspiegabili per anno-paziente. Questo rispetto al 65,5% e a un tempo medio di 42 giorni e rispetto a 0,63 allarmi inspiegabili per anno-paziente, nel SELENE HF. Nel caso del Triage-HF il tasso di ospedalizzazione è dello 0,2% per anno-paziente, in quanto lo studio è basato sull'associazione tra l'algoritmo e i sintomi che caratterizzano lo scompenso. Al contrario degli altri studi, lo studio cardioMEMS si è occupato di sviluppare una nuova tecnologia: un dispositivo wireless impiantabile; infatti, risulta l'unico studio con un monitoraggio remoto invasivo. Considerando la presenza di numerosi gradi di peggioramento dello scompenso e di differenti dispositivi impiantabili cardiaci è difficile creare un unico algoritmo che includa tutte le tipologie di pazienti.
Resumo:
In questa tesi è stato svolto il calcolo di alcune proprietà dei materiali usando un approccio ab initio, in particolare i gap energetici e le DOS (densità di stati) di silicio e ossido di nichel. Per fare ciò, sono state usate tre diverse teorie: DFT (Density Functional Theory), DFT+U e GW. Nei primi tre capitoli sono state spiegate le tre approssimazioni fatte e le basi teoriche. Nel quarto capitolo si presentano i risultati. In particolare il gap del silicio usando la DFT è di 0.6617 eV che risulta più basso di quello sperimentale di 1.12 eV a causa dei limiti della DFT. Per la DFT+U è stato svolto il calcolo sull’ossido di nichel perché presenta orbitali d, interessati maggiormente nella correzione apportata. L’energia di gap calcolata è di 3.3986 eV . Per quel che riguarda l’approssimazione GW, è stata svolta anch’essa sul silicio e restituisce un gap di 1.301 eV , che risulta più vicino alla misura sperimentale rispetto alla DFT.
Resumo:
Questo elaborato tratta il ruolo dei transistor elettrochimici microfabbricati (OECTs) nel campo della Bioelettronica. Nello specifico, il focus della tesi ruota attorno alla categoria di OECTs basati su poli(3,4-etilenediossitiofene)(PEDOT) con drogaggio a base di poli(3,4-etilenediossitiofene)(PSS) a dare il PEDOT:PSS. Nella struttura del seguente elaborato, il primo capitolo è dedicato all’introduzione dei polimeri conduttori organici; materiali che hanno suscitato interesse grazie alle loro proprietà conduttive coniugate a un’alta stabilità, costi di produzione convenienti e alta riproducibilità; infine la biocompatibilità e le proprietà di trasduzione di informazioni attinenti al campo della biologia in segnale elettronico li ha resi lo strumento di maggior interesse nel campo della bioelettronica. Particolare focus è posto sulla categoria degli OECTs basati su PEDOT:PSS, sulle loro caratteristiche, la modellizzazione ed il ruolo del polimero d’interesse. Ciò è trattato nel secondo capitolo assieme ai regimi di funzionamento di questi dispositivi. Nel seguito si sono riportate le procedure seguite per la realizzazione dei dispositivi studiati: dalla preparazione del substrato ai processi litografici mirati alla creazione di un pattern per il circuito, fino alla deposizione per spin-coating del polimero in soluzione. Si sono descritti e chiariti il ruolo degli elementi del dispositivo, quali elettrodi ed elettrolita nella conducibilità del canale. Si è proceduto a descrive il set up strumentale e la strumentazione. Nell’ultimo capitolo si descrivono le misure sperimentali svolte e si commentano i risultati. Le misure svolte sul dispositivo constano innanzitutto della caratterizzazione dello stesso, previa analisi a vari voltaggi forniti sul gate e per varie geometrie del canale.