1000 resultados para controlli automatici,neuroinegneria,sistema limbico umano,mano robotica,algoritmi di controllo
Resumo:
La riduzione dei consumi di combustibili fossili e lo sviluppo di tecnologie per il risparmio energetico sono una questione di centrale importanza sia per l’industria che per la ricerca, a causa dei drastici effetti che le emissioni di inquinanti antropogenici stanno avendo sull’ambiente. Mentre un crescente numero di normative e regolamenti vengono emessi per far fronte a questi problemi, la necessità di sviluppare tecnologie a basse emissioni sta guidando la ricerca in numerosi settori industriali. Nonostante la realizzazione di fonti energetiche rinnovabili sia vista come la soluzione più promettente nel lungo periodo, un’efficace e completa integrazione di tali tecnologie risulta ad oggi impraticabile, a causa sia di vincoli tecnici che della vastità della quota di energia prodotta, attualmente soddisfatta da fonti fossili, che le tecnologie alternative dovrebbero andare a coprire. L’ottimizzazione della produzione e della gestione energetica d’altra parte, associata allo sviluppo di tecnologie per la riduzione dei consumi energetici, rappresenta una soluzione adeguata al problema, che può al contempo essere integrata all’interno di orizzonti temporali più brevi. L’obiettivo della presente tesi è quello di investigare, sviluppare ed applicare un insieme di strumenti numerici per ottimizzare la progettazione e la gestione di processi energetici che possa essere usato per ottenere una riduzione dei consumi di combustibile ed un’ottimizzazione dell’efficienza energetica. La metodologia sviluppata si appoggia su un approccio basato sulla modellazione numerica dei sistemi, che sfrutta le capacità predittive, derivanti da una rappresentazione matematica dei processi, per sviluppare delle strategie di ottimizzazione degli stessi, a fronte di condizioni di impiego realistiche. Nello sviluppo di queste procedure, particolare enfasi viene data alla necessità di derivare delle corrette strategie di gestione, che tengano conto delle dinamiche degli impianti analizzati, per poter ottenere le migliori prestazioni durante l’effettiva fase operativa. Durante lo sviluppo della tesi il problema dell’ottimizzazione energetica è stato affrontato in riferimento a tre diverse applicazioni tecnologiche. Nella prima di queste è stato considerato un impianto multi-fonte per la soddisfazione della domanda energetica di un edificio ad uso commerciale. Poiché tale sistema utilizza una serie di molteplici tecnologie per la produzione dell’energia termica ed elettrica richiesta dalle utenze, è necessario identificare la corretta strategia di ripartizione dei carichi, in grado di garantire la massima efficienza energetica dell’impianto. Basandosi su un modello semplificato dell’impianto, il problema è stato risolto applicando un algoritmo di Programmazione Dinamica deterministico, e i risultati ottenuti sono stati comparati con quelli derivanti dall’adozione di una più semplice strategia a regole, provando in tal modo i vantaggi connessi all’adozione di una strategia di controllo ottimale. Nella seconda applicazione è stata investigata la progettazione di una soluzione ibrida per il recupero energetico da uno scavatore idraulico. Poiché diversi layout tecnologici per implementare questa soluzione possono essere concepiti e l’introduzione di componenti aggiuntivi necessita di un corretto dimensionamento, è necessario lo sviluppo di una metodologia che permetta di valutare le massime prestazioni ottenibili da ognuna di tali soluzioni alternative. Il confronto fra i diversi layout è stato perciò condotto sulla base delle prestazioni energetiche del macchinario durante un ciclo di scavo standardizzato, stimate grazie all’ausilio di un dettagliato modello dell’impianto. Poiché l’aggiunta di dispositivi per il recupero energetico introduce gradi di libertà addizionali nel sistema, è stato inoltre necessario determinare la strategia di controllo ottimale dei medesimi, al fine di poter valutare le massime prestazioni ottenibili da ciascun layout. Tale problema è stato di nuovo risolto grazie all’ausilio di un algoritmo di Programmazione Dinamica, che sfrutta un modello semplificato del sistema, ideato per lo scopo. Una volta che le prestazioni ottimali per ogni soluzione progettuale sono state determinate, è stato possibile effettuare un equo confronto fra le diverse alternative. Nella terza ed ultima applicazione è stato analizzato un impianto a ciclo Rankine organico (ORC) per il recupero di cascami termici dai gas di scarico di autovetture. Nonostante gli impianti ORC siano potenzialmente in grado di produrre rilevanti incrementi nel risparmio di combustibile di un veicolo, è necessario per il loro corretto funzionamento lo sviluppo di complesse strategie di controllo, che siano in grado di far fronte alla variabilità della fonte di calore per il processo; inoltre, contemporaneamente alla massimizzazione dei risparmi di combustibile, il sistema deve essere mantenuto in condizioni di funzionamento sicure. Per far fronte al problema, un robusto ed efficace modello dell’impianto è stato realizzato, basandosi sulla Moving Boundary Methodology, per la simulazione delle dinamiche di cambio di fase del fluido organico e la stima delle prestazioni dell’impianto. Tale modello è stato in seguito utilizzato per progettare un controllore predittivo (MPC) in grado di stimare i parametri di controllo ottimali per la gestione del sistema durante il funzionamento transitorio. Per la soluzione del corrispondente problema di ottimizzazione dinamica non lineare, un algoritmo basato sulla Particle Swarm Optimization è stato sviluppato. I risultati ottenuti con l’adozione di tale controllore sono stati confrontati con quelli ottenibili da un classico controllore proporzionale integrale (PI), mostrando nuovamente i vantaggi, da un punto di vista energetico, derivanti dall’adozione di una strategia di controllo ottima.
Resumo:
La ricerca intende analizzare l’efficacia della spesa pubblica, l’efficienza e le loro determinanti nei settori della Sanità, dell’Istruzione e della Ricerca per 33 paesi dell’area OCSE. L’analisi ha un duplice obiettivo: da un lato un confronto cross country e dall’altro un confronto temporale, prendendo in considerazione il periodo che va dal 1992 al 2011. Il tema della valutazione dell’efficacia e dell’efficienza della spesa pubblica è molto attuale, soprattutto in Europa, sia perché essa incide di quasi il 50% sul PIL, sia a causa della crisi finanziaria del 2008 che ha spinto i governi ad una riduzione dei bugdet e ad un loro uso più oculato. La scelta di concentrare il lavoro di analisi nei settori della Sanità, dell’Istruzione e della Ricerca e Sviluppo deriva da un lato dalla loro peculiarità di attività orientate al cliente (scuole, ospedali, tribunali) dall’altro dal ruolo strategico che essi rappresentano per lo sviluppo economico di un paese. Il lavoro è articolato in tre sezioni: 1. Rassegna dei principali strumenti metodologici utilizzati in letteratura per la misurazione della performance e dell’efficienza della spesa pubblica nei tre settori. 2. Valutazione e confronto dell’efficienza e della performance della spesa pubblica dal punto di vista sia temporale sia cross-country attraverso la costruzione di indicatori di performance e di efficienza della spesa pubblica (per approfondire l'indice dell'efficienza ho applicato la tecnica DEA "bootstrap output oriented" con indicatori di output ed input non simultanei mentre l’evoluzione dell’efficienza tra i periodi 2011-2002 e 2001-1992 è stata analizzata attraverso il calcolo dell’indice di Malmquist). 3. Analisi delle variabili esogene che influenzano l’efficienza della spesa pubblica nei settori Salute, Istruzione e Ricerca e Sviluppo attraverso una regressione Tobit avente come variabile dipendente i punteggi di efficienza DEA output oriented e come variabili esogene alcuni indicatori scelti tra quelli presenti in letteratura: l’Indicatore delle condizioni socioeconomiche delle famiglie (costruito e applicato da OCSE PISA per valutare l’impatto del background familiare nelle performance dell’apprendimento), l’Indicatore di fiducia nel sistema legislativo del paese, l’Indicatore di tutela dei diritti di proprietà, l’Indicatore delle azioni di controllo della corruzione, l’Indicatore di efficacia delle azioni di governo, l’Indicatore della qualità dei regolamenti, il PIL pro-capite. Da questo lavoro emergono risultati interessanti: non sempre alla quantità di risorse impiegate corrisponde il livello massimo di performance raggiungibile. I risultati della DEA evidenziano la media dei punteggi di efficienza corretti di 0,712 e quindi, impiegando la stessa quantità di risorse, si produrrebbe un potenziale miglioramento dell’output generato di circa il 29%. Svezia, Giappone, Finlandia e Germania risultano i paesi più efficienti, più vicini alla frontiera, mentre Slovacchia, Portogallo e Ungheria sono più distanti dalla frontiera con una misura di inefficienza di circa il 40%. Per quanto riguarda il confronto tra l’efficienza della spesa pubblica nei tre settori tra i periodi 1992-2001 e 2002-2011, l’indice di Malmquist mostra risultati interessanti: i paesi che hanno migliorato il loro livello di efficienza sono quelli dell’Est come l’Estonia, la Slovacchia, la Lituania mentre Paesi Bassi, Belgio e Stati Uniti hanno peggiorato la loro posizione. I paesi che risultano efficienti nella DEA come Finlandia, Germania e Svezia sono rimasti sostanzialmente fermi con un indice di Malmquist vicino al valore uno. In conclusione, i risultati della Tobit contengono indicazioni importanti per orientare le scelte dei Governi. Dall’analisi effettuata emerge che la fiducia nelle leggi, la lotta di contrasto alla corruzione, l’efficacia del governo, la tutela dei diritti di proprietà, le condizioni socioeconomiche delle famiglie degli studenti OECD PISA, influenzano positivamente l’efficienza della spesa pubblica nei tre settori indagati. Oltre alla spending review, per aumentare l’efficienza e migliorare la performance della spesa pubblica nei tre settori, è indispensabile per gli Stati la capacità di realizzare delle riforme che siano in grado di garantire il corretto funzionamento delle istituzioni.
Resumo:
Lo scopo di questa ricerca di dottorato è stato lo studio di una forma di dosaggio flessibile e personalizzabile, indirizzata alle necessità individuali di ogni paziente, per il trattamento dell’iperplasia prostatica benigna. La terapia proposta prevede l’utilizzo di due farmaci, un alfa bloccante (farmaco A) e un inibitore delle 5- fosfodiesterasi (farmaco B) e, somministrati in una singola forma di dosaggio contenenti differenti dosi e combinazioni dei due farmaci. Lo sviluppo di un sistema di rilascio per la somministrazione orale di farmaco A e farmaco B è stato realizzato grazie alla tecnologia Dome Matrix. La tecnologia si basa sull’assemblaggio di moduli utilizzati come elementi di controllo del rilascio. L’assemblaggio dei moduli può essere ottenuto attraverso diverse configurazioni. Sono stati quindi realizzati sistemi assemblati in grado di galleggiare sul contenuto gastrico; la prolungata permanenza della forma farmaceutica nello stomaco favorisce la solubilizzazione dei due principi attivi che quindi potrebbero raggiungere il sito di assorbimento nel primo tratto intestinale già in dispersione molecolare, condizione ideale per essere assorbiti. La prima parte della ricerca è stata focalizzata sulla realizzazione di un sistema assemblato a rilascio modificato di farmaco A. Moduli contenenti diversi dosaggi di farmaco sono stati assemblati in varie configurazioni e dosi differenti per ottenere una forma di dosaggio flessibile, adattabile alle esigenze terapeutiche del paziente. La seconda parte del lavoro di tesi ha riguardato la realizzazione di un sistema assemblato, contenente entrambi i farmaci in associazione. L’ultima parte della ricerca è stata svolta presso la “University of Texas at Austin” sotto la supervisione del Professor Nicholas Peppas. Il lavoro svolto è stato focalizzato sullo studio delle caratteristiche di rigonfiamento dei singoli moduli di farmaco e dei loro sistemi assemblati; il comportamento di tali sistemi è stato investigato anche grazie all’utilizzo della tecnica di tomografia computerizzata a raggi X.
Resumo:
La tesi si pone come obiettivo quello di realizzare un'architettura di alto livello per lo sviluppo di applicazioni dirette alla piattaforma HoloLens. Per conseguire tale risultato si è rivelata necessaria una prima parte di studio dei concetti di mixed reality, con riferimento particolare al caso specifico HoloLens, per poi dirigere l'attenzione alla comprensione dell'architettura di applicazioni olografiche. L'analisi delle API rilasciate per lo sviluppo di applicazioni HoloLens ha permesso di riscontrare varie criticità, alle quali si è posto rimedio tramite l'introduzione di un livello di astrazione, che possa consentire uno sviluppo di applicazioni ad un livello più alto. Si è poi introdotto il concetto di augmented worlds (mondi aumentati), i cui principi cardine hanno fornito le basi per la progettazione e lo sviluppo di un sistema client-server, nel quale il dispositivo HoloLens agisce come un client e la logica di controllo degli elementi del modello dell'applicazione viene gestita lato server.
Resumo:
Nel corso degli ultimi due decenni il trapianto di cuore si è evoluto come il gold standard per il trattamento dell’insufficienza cardiaca allo stadio terminale. Rimane un intervento estremamente complesso; infatti due sono gli aspetti fondamentali per la sua buona riuscita: la corretta conservazione e metodo di trasporto. Esistono due diversi metodi di conservazione e trasporto: il primo si basa sul tradizionale metodo di protezione miocardica e sul trasporto del cuore con utilizzo di contenitori frigoriferi, mentre il secondo, più innovativo, si basa sull’ utilizzo di Organ Care System Heart, un dispositivo appositamente progettato per contenere il cuore e mantenerlo in uno stato fisiologico normotermico attivo simulando le normali condizioni presenti all’interno del corpo umano. La nuova tecnologia di Organ Care System Heart permette un approccio completamente diverso rispetto ai metodi tradizionali, in quanto non solo conserva e trasporta il cuore, ma permette anche il continuo monitoraggio ex-vivo delle sue funzioni, dal momento in cui il cuore viene rimosso dal torace del donatore fino all’ impianto nel ricevente. Il motivo principale che spinge la ricerca ad investire molto per migliorare i metodi di protezione degli organi è legato alla possibilità di ridurre il rischio di ischemia fredda. Questo termine definisce la condizione per cui un organo rimane privo di apporto di sangue, il cui mancato afflusso causa danni via via sempre più gravi ed irreversibili con conseguente compromissione della funzionalità. Nel caso del cuore, il danno da ischemia fredda risulta significativamente ridotto grazie all’utilizzo di Organ Care System Heart con conseguenti benefici in termini di allungamento dei tempi di trasporto, ottimizzazione dell’organo e più in generale migliori risultati sui pazienti.
Resumo:
In questo studio, un multi-model ensemble è stato implementato e verificato, seguendo una delle priorità di ricerca del Subseasonal to Seasonal Prediction Project (S2S). Una regressione lineare è stata applicata ad un insieme di previsioni di ensemble su date passate, prodotte dai centri di previsione mensile del CNR-ISAC e ECMWF-IFS. Ognuna di queste contiene un membro di controllo e quattro elementi perturbati. Le variabili scelte per l'analisi sono l'altezza geopotenziale a 500 hPa, la temperatura a 850 hPa e la temperatura a 2 metri, la griglia spaziale ha risoluzione 1 ◦ × 1 ◦ lat-lon e sono stati utilizzati gli inverni dal 1990 al 2010. Le rianalisi di ERA-Interim sono utilizzate sia per realizzare la regressione, sia nella validazione dei risultati, mediante stimatori nonprobabilistici come lo scarto quadratico medio (RMSE) e la correlazione delle anomalie. Successivamente, tecniche di Model Output Statistics (MOS) e Direct Model Output (DMO) sono applicate al multi-model ensemble per ottenere previsioni probabilistiche per la media settimanale delle anomalie di temperatura a 2 metri. I metodi MOS utilizzati sono la regressione logistica e la regressione Gaussiana non-omogenea, mentre quelli DMO sono il democratic voting e il Tukey plotting position. Queste tecniche sono applicate anche ai singoli modelli in modo da effettuare confronti basati su stimatori probabilistici, come il ranked probability skill score, il discrete ranked probability skill score e il reliability diagram. Entrambe le tipologie di stimatori mostrano come il multi-model abbia migliori performance rispetto ai singoli modelli. Inoltre, i valori più alti di stimatori probabilistici sono ottenuti usando una regressione logistica sulla sola media di ensemble. Applicando la regressione a dataset di dimensione ridotta, abbiamo realizzato una curva di apprendimento che mostra come un aumento del numero di date nella fase di addestramento non produrrebbe ulteriori miglioramenti.
Resumo:
In questa tesi viene elaborata un'applicazione ultra-low power (ULP) basata su microcontrollore, per implementare la procedura di controllo di diversi circuiti di un tag RFID. Il tag preso in considerazione è pensato per lavorare in assenza di batteria, da cui la necessita' di ridurre i consumi di potenza. La sua attivazione deve essere inoltre comandata attraverso un'architettura Wake up Radio (WuR), in cui un segnale di controllo radio indirizza e attiva il circuito. Nello specifico, la rete di decodifica dell'indirizzo è stata realizzata mediante il modulo di comunicazione seriale del microcontrollore. Nel Capitolo 1 verrà introdotto il tema dell'Energy Harvesting. Nel Capitolo 2 verrà illustrata l'architettura del sistema nel suo complesso. Nel Capitolo 3 verrà spiegato dettagliatamente il funzionamento del microcontrollore scelto. Il Capitolo 4 sarà dedicato al firmware implementato per svolgere le operazioni fondamentali imputate al micro per i compiti di controllo. Verrà inoltre introdotto il codice VHDL sviluppato per emulare l'output del modulo WuR mediante un FPGA della famiglia Cyclone II. Nel Capitolo 5 verrà presentata una stima dei consumi del microcontrollore in funzione dei parametri di configurazione del sistema. Verrà inoltre effettuato un confronto con un altro microcontrollore che in alcune condizioni potrebbe rappresentare iun'alternativa valida di progetto. Nei Capitoli 6 e 7 saranno descritti possibili sviluppi futuri e conclusioni del progetto. Le specifiche di progetto rilevanti della tesi sono: 1. minimo consumo energetico possibile del microcontrollore ULP 2. elevata rapidità di risposta per la ricezione dei tag, per garantire la ricezione di un numero maggiore possibile di indirizzi (almeno 20 letture al secondo), in un range di tempo limitato 3. generazione di un segnale PWM a 100KHz di frequenza di commutazione con duty cycle 50% su cui basare una modulazione in back-scattering.
Resumo:
Nel presente lavoro, ho studiato e trovato le soluzioni esatte di un modello matematico applicato ai recettori cellulari della famiglia delle integrine. Nel modello le integrine sono considerate come un sistema a due livelli, attivo e non attivo. Quando le integrine si trovano nello stato inattivo possono diffondere nella membrana, mentre quando si trovano nello stato attivo risultano cristallizzate nella membrana, incapaci di diffondere. La variazione di concentrazione nella superficie cellulare di una sostanza chiamata attivatore dà luogo all’attivazione delle integrine. Inoltre, questi eterodimeri possono legare una molecola inibitrice con funzioni di controllo e regolazione, che chiameremo v, la quale, legandosi al recettore, fa aumentare la produzione della sostanza attizzatrice, che chiameremo u. In questo modo si innesca un meccanismo di retroazione positiva. L’inibitore v regola il meccanismo di produzione di u, ed assume, pertanto, il ruolo di modulatore. Infatti, grazie a questo sistema di fine regolazione il meccanismo di feedback positivo è in grado di autolimitarsi. Si costruisce poi un modello di equazioni differenziali partendo dalle semplici reazioni chimiche coinvolte. Una volta che il sistema di equazioni è impostato, si possono desumere le soluzioni per le concentrazioni dell’inibitore e dell’attivatore per un caso particolare dei parametri. Infine, si può eseguire un test per vedere cosa predice il modello in termini di integrine. Per farlo, ho utilizzato un’attivazione del tipo funzione gradino e l’ho inserita nel sistema, valutando la dinamica dei recettori. Si ottiene in questo modo un risultato in accordo con le previsioni: le integrine legate si trovano soprattutto ai limiti della zona attivata, mentre le integrine libere vengono a mancare nella zona attivata.
Resumo:
Gli impianti industriali moderni sono di tipo automatizzato, i processi sono cioè pilotati da un’unità di calcolo che fornisce i comandi necessari atti al corretto funzionamento dell’impianto. Queste tecnologie espongono le apparecchiature a problemi di Security, dunque attacchi volontari provenienti dall’esterno, al sistema di controllo. Esso può diventare la variabile manipolabile del terrorista informatico il quale può causare lo shut down del segnale o cambiare l’impostazione dei parametri di processo.Lo studio esposto si propone di identificare le possibili modalità di attacco e di individuare uno strumento sistematico che permetta di valutarne la vulnerabilità ad un possibile atto di sabotaggio. La procedura proposta è la PSC-SHaRP (Process System Cyber-Security Hazard Review Procedure) essa consta di due strutture chiamate rispettivamente Alpha e Beta. La metodologia è volta a individuare i potenziali pericoli posti dagli attacchi informatici piuttosto che a stimarne un profilo di rischio e/o probabilità di successo. La ShaRP Alpha, viene utilizzata per analizzare le conseguenze di deviazioni cyber su singole macchine presenti in impianto o sistemi modulari. La ShaRP Beta viene utilizzata per analizzare le conseguenze di attacchi cyber sul sistema costituito dall’impianto di processo. Essa è quindi in grado di analizzare le ripercussioni che manipolazioni su una o più apparecchiature possono avere sull’impianto nel suo complesso. Nell’ultima parte dell’elaborato sono state trattate le possibilità di accesso da parte del ‘’terrorista’’ al sistema di controllo e sicurezza, dunque i sistemi di gestione del DCS e del SIS e le barriere software e hardware che possono essere presenti.
Resumo:
Il termine pervasive computing incarna l’idea di andare oltre il paradigma dei personal computers: è l’idea che qualsiasi device possa essere tecnologizzato ed interconnesso con un network distribuito, costituendo un nuovo modello di interazione uomo-macchina. All’interno di questo paradigma gioca un ruolo fondamentale il concetto di context-awareness, che fa riferimento all’idea che i computer possano raccogliere dati dall’ambiente circostante e reagire in maniera intelligente e proattiva basandosi su di essi. Un sistema siffatto necessita da un lato di una infrastruttura per la raccolta dei dati dall’ambiente, dall'altro di un supporto per la componente intelligente e reattiva. In tale scenario, questa tesi ha l'obiettivo di progettare e realizzare una libreria per l'interfacciamento di un sistema distribuito di sensori Java-based con l’interprete tuProlog, un sistema Prolog leggero e configurabile, scritto anch'esso in Java ma disponibile per una pluralità di piattaforme, in modo da porre le basi per la costruzione di sistemi context-aware in questo ambiente.
Resumo:
L’attenzione di questa tesi si pone sulla progettazione e lo sviluppo di un automa per il controllo di sistemi a pilotaggio remoto. Punto di partenza dell'intero progetto è stata l'analisi del quadrirotore programmato ed utilizzato dai ricercatori del progetto SHERPA. Le funzionalità evidenziate dall'analisi sono state poi elaborate secondo l'approccio con Attuatore Generalizzato ed implementate in Codesys. Questo software si compone di una parte di controllo, una di simulazione ed una o più interfacce grafiche dedicate all'interazione con l'utente. L'utilizzo di Codesys ha permesso di implementare un automa modulare e riusabile, base di partenza per i futuri progetti di automi aerei. L'automa realizzato consente infine di simulare il comportamento di un generico sistema a pilotaggio remoto e di osservarne la sequenza logica con cui le azioni vengono eseguite.
Resumo:
La PET/RMN è un ibrido delle tecnologie di imaging che incorpora la risonanza magnetica nucleare (RMN), che fornisce un'imaging di tipo morfologico, e la tomografia ad emissione di positroni (PET), che fornisce un'imaging di tipo funzionale. Questa nuova tecnologia trova applicazioni in campo oncologico, cardiovascolare e nello studio del sistema nervoso centrale (SNC). La realizzazione di questa nuova tecnologia ha comportato diverse sfide tecniche per la combinazione delle due apparecchiature, che sono state risolte con diversi approcci. Lo sviluppo futuro della PET/RMN sarà guidato da molteplici fattori tra i quali l'eliminazione degli eventuali disturbi e la necessità di accordi per i rimborsi dell'esame. Tutt'ora esistono tre diversi produttori al mondo : Simens, Philips e GE (General Electric), i quali hanno diverse tecnologie e diversi metodi di analisi. La prima apparecchiatura PET/RMN in Italia è stata acquistata dall'ospedale di Padova nel gennaio 2015, mentre negli altri paesi aveva già fatto la sua comparsa dal 2011.
Resumo:
L'obiettivo del kinodynamic motion planning è quello di determinare una sequenza di input di controllo per guidare un agente da uno stato iniziale ad uno finale, rispettando la dinamica del corpo e i vincoli fisici. In questa tesi sono presentate diverse versioni di algoritmi basati su Rapidly-exploring Random Tree in grado di risolvere questo tipo di problema. In particolare è preso in considerazione il caso di un sistema non lineare con vincoli non olonomici, rappresentativo del rover in dotazione al progetto europeo SHERPA. La qualità degli approcci proposti è inoltre provata con alcuni test di navigazione, in ambiente simulato, confrontando gli algoritmi proposti con alcuni presi nella letteratura di riferimento.
Resumo:
La tesi tratta della modellistica e del controllo di un attuatore idraulico con valvola a quattro vie. Inizialmente si definiscono le grandezze e le formule fondamentali per descrivere un sistema idraulico e costruirne il modello matematico. Successivamente si ricava il modello non lineare del sistema nello spazio degli stati, quindi lo si linearizza per poterlo descrivere e studiare anche tramite funzioni di trasferimento. Si ricava quindi, utilizzando anche Matlab e Simulink, il controllo da applicare al modello linearizzato e si testa il comportamento del sistema in risposta a diversi segnali di ingresso. Infine si applica lo stesso controllore al sistema non lineare e si confrontano i due diversi comportamenti.
Resumo:
Le relazioni tra carsismo e strutture tettoniche sono indubbiamente uno dei campi dell'indagine speleogenetica più interessanti per comprendere le relazioni dei sistemi carsici con la geologia di una determinata area. La struttura di un sistema carsico dipende infatti da molteplici fattori, il cui ruolo può essere sostanzialmente passivo (caratteristiche strutturali) o attivo (condizioni ambientali). Per quanto sia conosciuta l'indubbia relazione di controllo dei fattori passivi sullo sviluppo e l'evoluzione dei sistemi carsici, mancano ancora in letteratura dei testi dettagliati e focalizzati sul controllo che le strutture tettoniche hanno sul carsismo alla macro scala. L'obiettivo di questa tesi è analizzare l'area carsica dei Gessi bolognesi attraverso indagini di rilevamento sia in esterno che in grotta per: a) integrare e migliorare la già esistente cartografia geologica attraverso i dati reperibili direttamente dal sottosuolo; b) delineare dei modelli sui principali meccanismi di controllo strutturale sulla speleogenesi dell'area in esame.