998 resultados para Motore brushless, controllo predittivo, veicolo elettrico
Resumo:
Questa tesi è essenzialmente focalizzata sullo sviluppo di un sistema di controllo in tempo reale per uno Shaker Elettrodinamico usato per riprodurre profili di vibrazione ambientale registrati in contesti reali e di interesse per il recupero di energia. Grazie all'utilizzo di uno shaker elettrodinamico è quindi possibile riprodurre scenari di vibrazione reale in laboratorio e valutare più agevolmente le prestazioni dei trasduttori meccanici. Tuttavia, è richiesto un controllo dello Shaker non solo in termini di stabilità ma anche per garantire l'esatta riproduzione del segnale registrato nel contesto reale. In questa tesi, si è scelto di sviluppare un controllo adattivo nel dominio del tempo per garantire la corretta riproduzione del profilo di accelerazione desiderato. L'algoritmo è stato poi implementato sul sistema di prototipazione rapida dSPACE DS1104 basata su microprocessore PowerPC. La natura adattiva dell'algoritmo proposto permette di identificare cambiamenti nella risposta dinamica del sistema, e di regolare di conseguenza i parametri del controllore. Il controllo del sistema è stato ottenuto anteponendo al sistema un filtro adattivo la cui funzione di trasferimento viene continuamente adattata per rappresentare al meglio la funzione di trasferimento inversa del sistema da controllare. Esperimenti in laboratorio confermano l'efficacia del controllo nella riproduzione di segnali reali e in tipici test di sweep frequenziale.
Resumo:
In questo elaborato si presentano alcuni risultati relativi alle equazioni differenziali stocastiche (SDE) lineari. La soluzione di un'equazione differenziale stocastica lineare è un processo stocastico con distribuzione multinormale in generale degenere. Al contrario, nel caso in cui la matrice di covarianza è definita positiva, la soluzione ha densità gaussiana Γ. La Γ è inoltre la soluzione fondamentale dell'operatore di Kolmogorov associato alla SDE. Nel primo capitolo vengono presentate alcune condizioni necessarie e sufficienti che assicurano che la matrice di covarianza sia definita positiva nel caso, più semplice, in cui i coefficienti della SDE sono costanti, e nel caso in cui questi sono dipendenti dal tempo. A questo scopo gioca un ruolo fondamentale la teoria del controllo. In particolare la condizione di Kalman fornisce un criterio operativo per controllare se la matrice di covarianza è definita positiva. Nel secondo capitolo viene presentata una dimostrazione diretta della disuguaglianza di Harnack utilizzando una stima del gradiente dovuta a Li e Yau. Le disuguaglianze di Harnack sono strumenti fondamentali nella teoria delle equazioni differenziali a derivate parziali. Nel terzo capitolo viene proposto un esempio di applicazione della disuguaglianza di Harnack in finanza. In particolare si osserva che la disuguaglianza di Harnack fornisce un limite superiore a priori del valore futuro di un portafoglio autofinanziante in funzione del capitale iniziale.
Resumo:
Il funzionamento del cervello umano, organo responsabile di ogni nostra azione e pensiero, è sempre stato di grande interesse per la ricerca scientifica. Dopo aver compreso lo sviluppo dei potenziali elettrici da parte di nuclei neuronali in risposta a stimoli, si è riusciti a graficare il loro andamento con l'avvento dell'ElettroEncefaloGrafia (EEG). Tale tecnologia è entrata a far parte degli esami di routine per la ricerca di neuropsicologia e di interesse clinico, poiché permette di diagnosticare e discriminare i vari tipi di epilessia, la presenza di traumi cranici e altre patologie del sistema nervoso centrale. Purtroppo presenta svariati difetti: il segnale è affetto da disturbi e richiede un'adeguata elaborazione tramite filtraggio e amplificazione, rimanendo comunque sensibile a disomogeneità dei tessuti biologici e rendendo difficoltoso il riconoscimento delle sorgenti del segnale che si sono attivate durante l'esame (il cosiddetto problema inverso). Negli ultimi decenni la ricerca ha portato allo sviluppo di nuove tecniche d'indagine, di particolare interesse sono la ElettroEncefaloGrafia ad Alta Risoluzione (HREEG) e la MagnetoEncefaloGrafia (MEG). L'HREEG impiega un maggior numero di elettrodi (fino a 256) e l'appoggio di accurati modelli matematici per approssimare la distribuzione di potenziale elettrico sulla cute del soggetto, garantendo una migliore risoluzione spaziale e maggior sicurezza nel riscontro delle sorgenti neuronali. Il progresso nel campo dei superconduttori ha reso possibile lo sviluppo della MEG, che è in grado di registrare i deboli campi magnetici prodotti dai segnali elettrici corticali, dando informazioni immuni dalle disomogeneità dei tessuti e andando ad affiancare l'EEG nella ricerca scientifica. Queste nuove tecnologie hanno aperto nuovi campi di sviluppo, più importante la possibilità di comandare protesi e dispositivi tramite sforzo mentale (Brain Computer Interface). Il futuro lascia ben sperare per ulteriori innovazioni.
Resumo:
Negli ultimi decenni molti autori hanno affrontato varie sfide per quanto riguarda la navigazione autonoma di robot e sono state proposte diverse soluzioni per superare le difficoltà di piattaforme di navigazioni intelligenti. Con questo elaborato vogliamo ricercare gli obiettivi principali della navigazione di robot e tra questi andiamo ad approfondire la stima della posa di un robot o di un veicolo autonomo. La maggior parte dei metodi proposti si basa sul rilevamento del punto di fuga che ricopre un ruolo importante in questo campo. Abbiamo analizzato alcune tecniche che stimassero la posizione del robot in primo luogo nell’ambiente interno e presentiamo in particolare un metodo che risale al punto di fuga basato sulla trasformata di Hough e sul raggruppamento K-means. In secondo luogo presentiamo una descrizione generale di alcuni aspetti della navigazione su strade e su ambienti pedonali.
Resumo:
La camminata, sia in acqua sia a secco, è un esercizio praticato frequentemente in ambito riabilitativo. Lo scopo di questa tesi è di confrontare variabilità e stabilità del cammino dentro e fuori dall’acqua, al fine di comprendere le caratteristiche dei due tipi di cammino. L’analisi si è focalizzata sulla valutazione di misure di stabilità e variabilità che non erano mai state indagate prima per la camminata in acqua: Harmonic Ratio, Plot di Poincarè, moltiplicatori di Floquet, esponenti di Lyapunov, multiscale entropy, recurrence rate, determinism, averaged diagonal line length, maximum diagonal line length e divergenza. Gli indici sono stati calcolati su camminate di 30 e di 90 passi. Da questa analisi possiamo stimare anche quale parametro è già affidabile a 30 passi e non cambia se analizzato a 90 o se un parametro necessita di più passi per risultare affidabile. Inoltre è stata effettuata indagine statistica tramite test di Kruskal-Wallis. Dall'analisi è emerso che la camminata in acqua è più stabile, meno smooth, c’è un maggiore controllo posturale lungo gli assi antero-posteriore e medio-laterale e che il cammino è condotto in maniera meno automatica.
Resumo:
C’è un crescente interesse nella comunità scientifica per l’applicazione delle tecniche della bioingegneria nel campo delle interfacce fra cervello e computer. Questo interesse nasce dal fatto che in Europa ci sono almeno 300.000 persone con paralisi agli arti inferiori, con una età media piuttosto bassa (31 anni), registrandosi circa 5.000 nuovi casi ogni anno, in maggioranza dovuti ad incidenti automobilistici. Tali lesioni traumatiche spinali inducono delle disfunzioni sensoriali a causa dell’interruzione tra gli arti e i centri sopraspinali. Per far fronte a questi problemi gli scienziati si sono sempre più proiettati verso un nuovo settore: il Brain Computer Interaction, ossia un ambito della ricerca volto alla costruzione di interfacce in grado di collegare direttamente il cervello umano ad un dispositivo elettrico come un computer.
Resumo:
Lo scopo di questa tesi è lo sviluppo di una protesi valvolare sensorizzata per la valutazione e il monitoraggio dei parametri funzionali della valvola e di conseguenza la realizzazione un prototipo di PHV (Prosthetic Heart Valve) che integri all’interno delle protesi valvolari in commercio una tecnologia utile alla realizzazione di queste specifiche. Il segnale di impedenza intravalvolare (IVI) è ottenuto grazie ad un sistema di elettrodi utili alla generazione di un campo elettrico locale e alla successiva registrazione della differenza di potenziale. Il lavoro sperimentale è stato suddiviso in due parti: una prima parte deputata alla scelta della posizione ottimale degli elettrodi rispetto ai lembi, al piano e all’anello valvolare, al fine di determinare due prototipi, ed una seconda parte in cui sono stati testati i prototipi in una situazione più fisiologica, cioè in un tratto di aorta bovina, ed è stata simulata una dinamica valvolare alterata. Il maggior segnale di impedenza riscontrato è stato ottenuto ponendo gli elettrodi ortogonalmente al cardine dei lembi valvolari e sovrapponendo elettrodo di eccitazione e ricezione al fine di ottenere un campo elettrico costante e ricezione puntuale della variazione del campo. Infine è stato riscontrato che il segnale di impedenza intravalvolare è in grado di riflettere alterazioni simulate dei lembi.
Resumo:
Nell'ambito dell'industria di processo, si definisce "effetto domino" la propagazione di un evento incidentale primario dovuta all’accadimento di uno o più incidenti secondari innescati dall’evento primario, con amplificazione dell’area di danno. Un incidente con effetto domino vede infatti la presenza iniziale di uno scenario incidentale primario, solitamente causato dal rilascio di sostanze pericolose e/o dal rilascio di energia tali da determinare effetti dannosi in grado di innescare successivamente degli eventi incidentali secondari, che determinino un'intensificazione delle conseguenze dell'evento iniziale. Gli incidenti con effetto domino possono avere conseguenze all'interno dello stabilimento in cui ha origine lo scenario incidentale primario o all'esterno, eventualmente coinvolgendo, stabilimenti limitrofi: nel primo caso si parla di effetto domino intra-stabilimento, nel secondo di effetto domino inter-stabilimento. Gli ultimi decenni hanno visto un forte aumento della domanda di prodotti dell'industria chimica e dunque del numero di impianti di processo, talvolta raggruppati nei cosiddetti "chemical clusters", ossia aree ad elevata concentrazione di stabilimenti chimici. In queste zone il rischio di effetto domino inter-stabilimento è particolarmente alto, a causa della stretta vicinanza di installazioni che contengono elevati quantitativi di sostanze pericolose in condizioni operative pericolose. È proprio questa consapevolezza, purtroppo confermata dal verificarsi di diversi incidenti con effetto domino, che ha determinato negli ultimi anni un significativo aumento delle ricerche relative all'effetto domino e anche una sua maggiore considerazione nell'ambito della normativa. A riguardo di quest'ultimo aspetto occorre citare la Direttiva Europea 2012/18/UE (comunemente denominata Direttiva Seveso III) e il suo recepimento nella normativa italiana, il Decreto Legislativo del 26 giugno 2015, "Attuazione della direttiva 2012/18/UE relativa al controllo del pericolo di incidenti rilevanti connessi con sostanze pericolose, entrato in vigore il 29 luglio 2015: questo decreto infatti dedica ampio spazio all'effetto domino e introduce nuovi adempimenti per gli stabilimenti a Rischio di Incidente Rilevante presenti sul territorio nazionale. In particolare, l'Allegato E del D. Lgs. 105/2015 propone una metodologia per individuare i Gruppi domino definitivi, ovvero i gruppi di stabilimenti a Rischio di Incidente Rilevante tra i quali è possibile il verificarsi di incidenti con effetto domino inter-stabilimento. Nel presente lavoro di tesi, svolto presso ARPAE (Agenzia Regionale per la Prevenzione, l'Ambiente e l'Energia) dell'Emilia Romagna, è stata effettuata, secondo la metodologia proposta dall'Allegato E del D. Lgs. 105/2015, la valutazione dell'effetto domino inter-stabilimento per gli stabilimenti a Rischio di Incidente Rilevante presenti in Emilia Romagna, al fine di individuare i Gruppi domino definitivi e di valutare l'aggravio delle conseguenze fisiche degli eventi incidentali primari origine di effetto domino.
Resumo:
Il lavoro di tesi è focalizzato sull'utilizzo dei controlli non distruttivi (NDT) nell'ambito della manutenzione industriale, in particolare al controllo di un mega-coaster. Dopo una breve panoramica sulle tecniche di indagine più utilizzate, si prosegue nell'ambito specifico dei controlli eseguiti all'interno del parco divertimenti di Mirabilandia, sull'attrazione di punta, ovvero l'inverted-coaster "KATUN". In particolare viene descritto il controllo del tracciato dell'attrazione, ovvero del binario, mediante tecnica ad ultrasuoni. L'elaborato si conclude con un riassunto dei risultati sperimentali ottenuti ed alcune azioni correttive intraprese per il miglioramento dell'efficacia dei controlli stessi.
Resumo:
La nascita della Internet of Things, come conseguenza dell'aumento della capacità di calcolo e adozione di connettività in nuovi dispositivi, ha permesso l'apporto di nuove tecnologie negli oggetti di uso quotidiano e ha cambiano il modo in cui le persone utilizzano e interagiscono con questi oggetti. La Home Automation, da sempre orientata al controllo locale e remoto di apparecchiature domestiche, non ha mai raggiunto una grande diffusione per colpa del costo elevato, una controproducente chiusura rispetto ad altri sistemi e una certa difficoltà nella sua programmazione da parte dei possibili utenti. Le possibilità offerte dalla IoT e i limiti della Home Automation hanno suggerito lo sviluppo di un sistema in grado si superare queste limitazioni sfruttando le tecnologie più adatte a integrare Smart Object e sistemi, gli uni con gli altri, in maniera semplice e rapida. Il progetto e lo sviluppo di una soluzione reale di Home Automation basata su un impianto domotico commerciale ha permesso di dimostrare come strumenti opensource e tecnologie orientate alla IoT consentano, se opportunamente integrate, di migliorare sia la fruibilità dei sistemi domotici, attraverso la maggiore apertura verso altri sistemi, sia l'interazione con l'utente che sarà in grado di creare in modo semplice e diretto scenari di utilizzo sempre nuovi.
Resumo:
Individuare e conoscere la natura degli inquinanti atmosferici e disporre dei dati delle emissioni sono azioni fondamentali per formulare politiche ambientali incentrate sul miglioramento della qualità dell'aria e monitorarne l'efficacia. Sorge l'esigenza di un controllo costante della qualità dell'aria, processo che avviene utilizzando delle centraline di monitoraggio fisse sparse nelle vie delle maggiori città o nei pressi dei principali insediamenti industriali. Lo scopo di questo progetto è quello di realizzare una stazione di monitoraggio mobile al fine di aumentare la superficie di controllo, realizzando un oggetto dinamico capace di acquisire dati sull'inquinamento. Questo è stato fatto applicando ad un drone un sistema di sensori capaci di rilevare le variazioni dei livelli di concentrazione degli agenti inquinanti. Ciò permette di eliminare le stazioni di monitoraggio fisse, le quali rappresentano una spesa ingente. Inoltre, attraverso l'utilizzo di un drone, è possibile monitorare siti più vasti, permettendo un monitoraggio costante e ripetuto nel tempo. La prima parte dell'elaborato analizza il sistema Embedded utilizzato per l'acquisizione dei dati, concentrando l'attenzione prevalentemente sui moduli utilizzati. La seconda descrive quali sono i primi passi per cominciare ad utilizzare i sensori posti sulla Gases Board 2.0 e risponde ai dubbi più comuni su quali parametri di configurazione adottare per un avere una risposta adeguata, quale processo di calibrazione seguire o come trasformare i dati acquisiti, espressi in tensioni, in valori di concentrazione di gas. La terza parte illustra i test effettuati per verificare il corretto funzionamento del sistema completo, con l’esposizione delle problematiche individuate, e una presentazione delle alternative più valide per superarle.
Resumo:
Si vuole dimostrare la fattibilità di realizzazione di una serie di misuratori di portata fluidi da applicare principalmente per le misure di portata dei fluidi di un motore in prova al banco. Queste portate di interesse riguardano: liquido di raffreddamento, tipicamente acqua a una temperatura prossima ai 100°C, olio lubrificante, tipicamente ad una temperatura di 150°C, aria di aspirazione, BlowBy, aria che filtra dalle fasce elastiche e dalla camera di combustione passa in coppa e quindi presenta goccioline e vapori d'olio, e possibilmente EGR. La prima fase consiste nel valutare ciò che offre il mercato per rendersi conto di quali sono i livelli di prestazione di misura dei sensori commerciali e il loro prezzo. Dunque, oltre alla consultazione di datasheet, segue una richiesta di preventivi ai fornitori di tali prodotti. Conclusa la fasce di analisi di mercato sopra descritta si avvia la fase di design del misuratore. Dopo l'analisi il principio di misura ottimale risulta quello ultrasonico. In particolare è opportuno effettuare una prima distinzione fra misuratori per liquidi e per gas, i quali naturalmente presenteranno differenze geometriche sia per la compatibilità con l'impianto nel quale verranno montati sia per le caratteristiche del fluido di cui interessa la misura. Disegnata a CAD la geometria i due tubi vengono stampati in 3D, dopodichè vengono montati i trasduttori per la generazione e la ricezione degli ultrasuoni. Si effettuano le prove di laboratorio, per liquidi e poi per gas, nel primo caso misurando la portata acqua messa in circolo da una pompa, nel secondo caso misurando la portata aria di un Ducati al banco motori. I dati acquisiti da varie prove vengono poi elaborati tramite Matlab, e si ricavano conclusioni in termini di rumore, accuratezza, ripetibilità ed infine di conferma che è fattibile realizzarli ad un costo contenuto ma che per riuscirci è necessario molto più sviluppo e ottimizzazione.
Resumo:
Il lavoro di questa tesi presenta il risultato di una attività di sperimentazione su alcuni algoritmi di ottimizzazione topologica recentemente sviluppati in ambito scientifico e descritti in pubblicazioni su riviste internazionali. L’ottimizzazione topologica può essere definita come una tecnica che mira a variare la forma geometrica di un oggetto bidimensionale o tridimensionale in modo da rispettare requisiti su posizionamento di vincoli e applicazione di forze e da minimizzare l’impiego di materiale necessario ad ottenere una struttura che soddisfi alcuni requisiti. Il settore aerospaziale è sicuramente uno di quelli che può beneficiare di questa metodologia visto che è sempre necessario progettare componenti leggeri e quanto più ottimizzati riducendo gli sprechi di materiale; in ambito aeronautico questo porta ad incrementare l’autonomia ed il carico utile riducendo i costi ambientali ed economici delle attività di trasporto. Discorso analogo vige per il campo spaziale in cui i pesi sono cruciali per la scelta del lanciatore da utilizzare per mandare in orbita strumentazioni e impattano in maniera importante sui costi delle missioni. In questa tesi, dopo una breve descrizione delle tecniche di ottimizzazione topologica prese in considerazione nei test svolti, sono presentati i risultati dell'applicazione di questi metodi ad una serie di specifici casi applicativi del settore aerospaziale, mettendo in risalto i risultati in termini di forme geometriche ottenute per alcuni casi di studio. Per ognuno di questi è descritta la schematizzazione seguita a livello di vincoli e di carichi e la dimensione della superficie o volume di controllo di partenza. Gli esiti del processo di ottimizzazione sono poi commentati, sia a livello di conformazione geometrica ottenuta che di possibilità di implementare dal punto di vista costruttivo la forma trovata.
Resumo:
Il presente lavoro di tesi nasce come collaborazione tra il Laboratorio di Progettazione Elettronica e il Laboratorio di Microscopia a Fluorescenza del Dipartimento di Fisica e Astronomia dell' Università di Bologna. In particolare nasce dalla volontà di dotare il dipartimento di un apparato sperimentale in grado di svolgere studi sulla Galvanotassia, un fenomeno biologico consistente nella migrazione di cellule sottoposte a stimolazione elettrica. La Galvanotassia è nota da fine '800 ma non sono ancora chiari i meccanismi cellulari che la provocano. Una migliore comprensione di tale fenomeno potrebbe portare importanti sviluppi in ambito medico, sia diagnostici che terapeutici. Dalla letteratura a riguardo non è emersa l'esistenza di apparecchi elettronici di controllo che permettano lo studio della Galvanotassia e che possano essere duttili a seconda del tipo di esperimento che si voglia svolgere. Da qui l'idea di iniziare lo sviluppo di un dispositivo elettronico, che fosse riprogrammabile, a basso costo e facilmente trasportabile. La progettazione di questo dispositivo ha portato ad una prima fase di test e verifiche sperimentali che hanno permesso di migliorare e affinare la costruzione di uno strumento di misura e controllo dei parametri relativi alla Galvanotassia. Sono già stati programmati test futuri che porteranno ad una versione definitiva dell' apparecchiatura alla quale succederanno più approfondite ricerche sul fenomeno della Galvanotassia.
Resumo:
Il presente lavoro si riferisce ad una delle attività di monitoraggio topografico più diffuse e consolidate: il controllo altimetrico per mezzo della livellazione geometrica di precisione, finalizzato alla determinazione dei dislivelli – e della loro variazione nel tempo – tra capisaldi appositamente istituiti sulla struttura. Va ricordato infatti che in Topografia non è possibile determinare direttamente la quota assoluta di un punto, ma solamente il dislivello, ossia la differenza di quota fra punti della superficie fisica. Il caso di studio si riferisce nello specifico ad un oggetto di grandissimo interesse: le Due Torri di Bologna. La Torre degli Asinelli e la Torre Garisenda di Bologna sono infatti soggette da lungo tempo ad una attività di monitoraggio altimetrico con la tecnica della livellazione geometrica di precisione, oggi realizzata con strumentazione digitale. L’attività viene condotta dall’area di Geomatica del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Università di Bologna in collaborazione con il Comune di Bologna. Scopo della tesi è illustrare gli aspetti teorici alla base della tecnica della livellazione geometrica e le operazioni che sono state eseguite sul campo ed in laboratorio, in affiancamento a quanto effettuato dal DICAM con il coordinamento del Prof. G. Bitelli. Nel Capitolo 1 viene descritta la metodologia di rilevamento mediante livellazione geometrica di precisione e la tecnica di elaborazione dei dati tramite la compensazione per osservazioni indirette secondo il principio dei minimi quadrati. Nel Capitolo 2 viene presentato il caso di studio e descritto il rilievo che è stato effettuato durante il periodo della tesi. Vengono illustrate le fasi operative sul campo e la successiva fase di predisposizione dei dati per la compensazione. Infine si illustra l’elaborazione numerica realizzata per la determinazione delle quote nel sistema di riferimento locale utilizzato.