1000 resultados para percezione problema di Cauchy stabilità metodo di Lyapunov


Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’utilizzo di informazioni di profondità è oggi di fondamentale utilità per molteplici settori applicativi come la robotica, la guida autonoma o assistita, la realtà aumentata e il monitoraggio ambientale. I sensori di profondidisponibili possono essere divisi in attivi e passivi, dove i sensori passivi ricavano le informazioni di profondità dall'ambiente senza emettere segnali, bensì utilizzando i segnali provenienti dall'ambiente (e.g., luce solare). Nei sensori depth passivi stereo è richiesto un algoritmo per elaborare le immagini delle due camere: la tecnica di stereo matching viene utilizzata appunto per stimare la profondidi una scena. Di recente la ricerca si è occupata anche della sinergia con sensori attivi al fine di migliorare la stima della depth ottenuta da un sensore stereo: si utilizzano i punti affidabili generati dal sensore attivo per guidare l'algoritmo di stereo matching verso la soluzione corretta. In questa tesi si è deciso di affrontare questa tematica da un punto di vista nuovo, utilizzando un sistema di proiezione virtuale di punti corrispondenti in immagini stereo: i pixel delle immagini vengono alterati per guidare l'algoritmo ottimizzando i costi. Un altro vantaggio della strategia proposta è la possibilità di iterare il processo, andando a cambiare il pattern in ogni passo: aggregando i passi in un unico risultato, è possibile migliorare il risultato finale. I punti affidabili sono ottenuti mediante sensori attivi (e.g. LiDAR, ToF), oppure direttamente dalle immagini, stimando la confidenza delle mappe prodotte dal medesimo sistema stereo: la confidenza permette di classificare la bontà di un punto fornito dall'algoritmo di matching. Nel corso della tesi sono stati utilizzati sensori attivi per verificare l'efficacia della proiezione virtuale, ma sono state anche effettuate analisi sulle misure di confidenza: lo scopo è verificare se le misure di confidenza possono rimpiazzare o assistere i sensori attivi.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’affidabilità e la diagnostica sono tematiche che hanno sempre ricoperto un ruolo di fondamentale importanza in ambito elettrico. Il frenetico sviluppo che sta vivendo il settore della trazione elettrica dovuto alle restrizioni introdotte dall’UE sulle emissioni di CO2 ha ulteriormente incrementato la necessità di avere componenti sempre più performanti e affidabili. Questa tesi si concentra su una delle problematiche che interessano un motore elettrico: le scariche parziali. L’obiettivo di questo progetto è proporre un metodo innovativo per la rilevazione di scariche parziali che sfrutta le emissioni elettromagnetiche prodotte dalle scariche stesse. La novità rispetto ai tradizionali metodi è la possibilità di eseguire misure anche mentre il motore è in funzione. Il caso di riferimento è quello di un banco motore ma il metodo proposto, se correttamente validato potrà essere impiegato a bordo veicolo in un contesto di normale funzionamento. I principali dispositivi che compongono il sistema di misura presentato sono: un’antenna log-periodica con banda di lavoro 500MHz a 3GHz, un rilevatore di picco LTC5564 adatto per lavorare a radio frequenze ed un oscilloscopio USB. L’antenna rileva le onde elettromagnetiche prodotte dalle scariche parziali. Il rilevatore di picco, dispositivo la cui uscita è proporzionale all’ampiezza del segnale d’ingresso, fornisce un segnale con spettro in frequenza ridotto rispetto all’originale. L’ oscilloscopio digitale (Picoscope), più economico rispetto ai tradizionali oscilloscopi, consente infine l’acquisizione dei segnali. Le principali “tappe” dello sviluppo del nuovo sistema sono state: la caratterizzazione delle onde elettromagnetiche emesse dalle scariche parziali; il miglioramento del rapporto segnale/rumore; la programmazione di un’interfaccia utente.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Principi di miglioramento del QFD orientati alla fase iniziale della progettazione e, tramite un metodo analitico, alla scelta dei parametri su cui lavorare. Viene inoltre dimostrata, mediante parallelismo, la possibilità di applicare questo metodo anche a casi di natura non ingegneristica, la quale sarà integrata di tutto il procedimento da eseguire per la creazione di un gioco da tavolo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L'adroterapia è una delle tecniche utilizzate ad oggi per trattare i tumori ed è basata sull'utilizzo di fasci di particelle cariche, come protoni e ioni carbonio, accelerati sulla zona da trattare. A differenza dei fotoni, utilizzati in radioterapia, le particelle cariche permettono un rilascio di energia più mirato, danneggiando il DNA delle cellule tumorali fino ad impedirne la duplicazione, senza intaccare i tessuti sani circostanti. Per sfruttare al meglio questa tecnica è necessario conoscere a fondo i processi di frammentazione nucleare che possono avere luogo durante il trattamento, sui quali si hanno ancora insufficienti dati sperimentali, in particolare a proposito della frammentazione del bersaglio. L'esperimento FOOT (FragmentatiOn Of Target) nasce proprio per poter misurare le sezioni d'urto differenziali dei processi di frammentazione nucleare alle tipiche energie dell'adroterapia, dai 60 MeV/u ai 400 MeV/u. Allo stato attuale l'esperimento è dotato di un apparato per la rivelazione di frammenti carichi pesanti e uno per quelli leggeri, mentre non ha un sistema di rivelazione per le particelle neutre. Si sta quindi valutando la possibilità di aggiungere rivelatori di neutroni, per esempio gli scintillatori liquidi BC-501A, i quali permettono di discriminare fotoni da neutroni grazie alla diversa forma del segnale prodotto (Pulse Shape Discrimination). Per studiare le prestazioni di questi rivelatori, essi si stanno attualmente testando alla facility n_TOF del CERN con diverse sorgenti di particelle. In questo lavoro di tesi mi sono occupata di analizzare i segnali raccolti da due BC-501A con una sorgente AmBe di raggi γ e neutroni, con schermo in piombo, e con una sorgente 88Y di soli raggi γ, evidenziando le buone capacità di questi rivelatori di identificare correttamente neutroni e fotoni.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Microplastics (MPs) are highly debated emerging contaminants that are widespread on Earth. Nowadays, assessment of the risk that MPs pose on human health and environment were not developed yet, and standardized analytical methods for their quantification in complex matrices do not exist. Therefore, the formulation of standards which regulating MPs emission in the environment is not possible. The purpose of this study was to develop and apply a method for the analysis of MPs in sewage sludges and water from a wastewater treatment plant (WWTP), due to the relevance of those matrices as important pathway for MPs to enter the environment. Seven polymers were selected, because of their relevance on market production and their frequency of occurrence in such plants: polyethylene terephthalate (PET), polyethylene (PE), polypropylene (PP), polystyrene (PS), polycarbonate (PC), polyvinyl chloride (PVC), and nylon 6 (PA-6). In the study, a pre-treatment procedure was optimised using Fenton’s reagent and analyses carried out by combining thermochemolysis with Py-GC-MS after sample filtration on quartz (0.3 µm). Polymer quantification was performed with solid polymer mixture in silica and good correlations were obtained with internal calibration. As main results, Fenton's reagent negatively affected the recovery of some polymers (PP, PE, PS, PA-6) and a possible matrix interference was noticed, especially for PET and PVC. The WWTP allowed a good abatement of PS, PE, PP and PVC (on average 90 %) and comparable results were hypothesised for the other polymers. Polymer concentrations is sewage sludges ranged between < 2 μg/gdry and 3.5 mg/ gdry, for PC and PVC, respectively. Possible overestimations for PET and PVC, due to matrix interreferences, were taken into account and discussed.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ogni anno le industrie alimentari che processano frutta e verdura generano un’enorme quantità di sottoprodotti, tra cui semi, bucce e sansa, che contengono grandi quantità di composti bioattivi come polisaccaridi, fibre alimentari e polifenoli. Per quanto riguarda il settore delle mele, uno dei frutti più consumati al mondo, solo il 70% di queste vengono consumate come fresche, mentre, il 25-30% viene scartato durante le fasi di produzione del succo, di sidro o di aceto di mele. Il principale sottoprodotto ottenuto da queste lavorazioni prende il nome di sansa di mela, la cui composizione è complessa (fibre alimentari, zuccheri fermentescibili, minerali, vitamine, fenoli, carotenoidi, ecc.) e dipende dalla varietà del frutto e dalla tecnologia di lavorazione. La sansa viene utilizzata in applicazioni alimentari e mangimistiche, ma anche nei sistemi di digestione anaerobica. Nonostante ciò, a causa della mancanza di tecniche di estrazione sostenibili, il valore di questi sottoprodotti è considerato trascurabile paragonato a quello di frutta e verdura processata. I metodi di estrazione convenzionali presentano alcune limitazioni in termini di tempo, energia e quantità di solvente utilizzato. L'estrazione assistita da ultrasuoni (UAE) con sonotrodo, tecnica innovativa non termica, permette di estrarre componenti bioattivi in ​​brevissimo tempo, a bassa temperatura e con poco solvente. Tra i componenti bioattivi presenti nella sansa di mela, i composti fenolici rappresentano una classe varia ed interessante, in particolare per la loro azione positiva sulla salute umana. La messa a punto di un metodo completo e affidabile per l’estrazione e per la caratterizzazione dei composti fenolici bioattivi nella mela, utilizzando HPLC-ESI-TOF-MS come potente tecnica analitica, è stato uno degli obiettivi principali di tutta la sperimentazione.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La tesi ha lo scopo di illustrare come sia possibile l’applicazione del metodo biodinamico prendendo come caso studio Tenuta Mara, un’azienda situata nelle colline riminesi. Dapprima viene analizzato il pensiero di Rudolf Steiner, ideatore della teoria che, attraverso le otto conferenze tenute nel 1924 a Koberwitz, rende noti i risultati delle sue ricerche sperimentali avviate nel 1922, derivate da una visione del mondo dove le forze cosmiche, i pianeti e le costellazioni creano un equilibrio tra loro, dove l’uomo si integra pienamente rispettando i voleri della terra. Viene anche affrontata una parte relativa al quadro normativo, facendo un excursus dal marchio Demeter del 1927, al primo Regolamento CEE 2092/ 91 relativo al biologico, fino alla recente legge n. 23 del 9 Marzo 2022 in Italia. Si passa così da una prima parte teorica alla seconda, dove questa viene messa in pratica. Tenuta Mara ha fatto dell’attenzione verso la sostenibilità, riguardante i materiali ecologici utilizzati nella struttura, del risparmio energetico su tutto il processo produttivo e della gestione delle acque consapevoli i propri punti cardine. Le pratiche della viticoltura biodinamica si fondono con la passione per il vino, per l’arte e la musica, con la decisione di ridurre al minimo l’intervento dell’uomo durante tutto il processo enologico, dando alla natura il potere di sceglierne il percorso. Attraverso il supporto dell’enologo viene compreso appieno lo spirito della Tenuta, ponendo particolare attenzione sul processo di vinificazione in bianco per la produzione del Maramato, un vino color del rame, derivato dalle uve di Sangiovese.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In questa tesi si definisce il problema della martingala, fondamentale in quanto la sua esistenza e unicità della soluzione coincidono con l'esistenza e unicità delle soluzioni deboli delle SDE. Nel Capitolo 1 vengono richiamate alcune nozioni di topologia negli spazi metrici, in particolare la nozione di tightness e il Teorema di Prokhorov. Nel Capitolo 2 vengono introdotte le equazioni differenziali stocastiche, con cenni a risultati di esistenza e unicità forte. Nel Capitolo 3 viene definito il problema della martingala, viene dimostrata la sua equivalenza con il problema delle soluzioni deboli; infine, vengono enunciati e dimostrati importanti risultati di esistenza e unicità.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Introduzione: In seguito ad una distorsione di caviglia, circa il 40% dei soggetti tende a sviluppare sintomi ricorrenti e persistenti, come dolore, gonfiore, alterazione della percezione o recidive, che a lungo termine potrebbero portare ad una instabilità cronica di caviglia. Questa problematica potrebbe limitare i soggetti nelle varie attività della vita quotidiana e nelle attività sportive, riducendo la loro qualità della vita. Solitamente, il trattamento in seguito ad una distorsione o in soggetti affetti da instabilità cronica di caviglia è il training propriocettivo. Obiettivi: Confrontare gli studi raccolti e i risultati ottenuti da essi e valutare se il training propriocettivo potrebbe essere efficace o meno nei soggetti che presentano l’instabilità cronica di caviglia. Metodi di ricerca: Le ricerche per questa revisione sistematica sono state fatte sulle banche dati “PubMed”, “PEDro” e “Cochrane Library”. Le parole chiave utilizzate sono “ankle sprains”, “chronic ankle instability”, “ankle injuries”, “proprioceptive training”, “proprioception”, “pain”, “disability” e “quality of life”. Sono stati inclusi soltanto RCTs inerenti al quesito di ricerca (PICOS) e conformi ai criteri di eleggibilità. Risultati: In questa revisione sistematica sono stati inclusi 4 RCTs, che mettono a confronto il training propriocettivo con altre metodiche riabilitative. Si sono osservati miglioramenti per quanto riguarda la disabilità, la qualità di vita, l’equilibrio dinamico, l’equilibrio statico e gli outcome riportati dai partecipanti. Conclusioni: Il training propriocettivo risulta essere efficace nel migliorare la sintomatologia data dall’instabilità cronica di caviglia e anche la stabilità e propriocezione dell’articolazione. Si dovrebbero eseguire ulteriori studi per approfondire l'efficacia di questo trattamento sul dolore e anche la sua efficacia a lungo termine.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’immunoterapia è una delle tecniche più all’avanguardia per la lotta contro il cancro e si basa sull’aumento delle prestazioni del sistema immunitario attraverso anticorpi monoclonali (ovvero farmaci immunoterapici). Grazie a questi, la terapia garantisce l’inibizione dei checkpoint immunologici, che permettono alle cellule del sistema immunitario di riconoscere la presenza del tumore e aggredirlo fino a eradicarlo. La tesi propone una soluzione frazionaria al problema della crescita tumorale, basandosi su un modello di Kuznetsov esteso dove viene presa in considerazione anche il parametro di concentrazione di Interleuchina-2. Tramite un’analisi di stabilità del modello proposto è possibile arrivare a un valore di sigma, ovvero il rateo di cellule effettrici, per il quale il sistema delle cellule tumorali viene completamente eradicato. Una volta trovata la condizione di stabilità e calcolato il valore di alpha (ordine della derivata frazionaria) che approssima al meglio la crescita tumorale nel caso reale, viene proposto un sistema di controllo automatico in retroazione basato sul numero di cellule effettrici per automatizzare il processo immunoterapico.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A partire dal tema dei servizi ecosistemici, vengono presi in considerazione e analizzati i servizi culturali. Tale categoria fornisce benefici materiali e immateriali alle popolazioni, i quali possono essere forniti dalle aree verdi urbane e periurbane. Sulla base di questo, è stato definito un metodo di valutazione in termini di accessibilità e qualità delle aree verdi, il quale permette di comprendere quali sono le aree svantaggiate e poco accessibili e, quindi, fornire uno strumento utile alla pianificazione del territorio in termine di verde pubblico. Il metodo definito è stato, successivamente, applicato al caso studio di Castelfranco Emilia.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Calibrazione di lente percientrica. Scrittura del codice di calibrazione in Python e utilizzo della libreria OpenCV. L' obbiettivo della tesi consisteva nel definire un modello matematico che potesse rappresentare le caratteristiche della lente pericentrica. Una volta fatto ciò sono state eseguite diverse prove sperimentali con l'obbiettivo di validare i risultati ottenuti. Come primo passo si è prodotto lo sviluppo planare di oggetti cilindrici acquisiti con la lente . successivamente sono state svolte alcune misure sugli sviluppi ottenuti. Infine si è implementato un sistema di calibrazione stereo per determinare la validità dell'algoritmo impiegato per la singola telecamera.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Il progetto si presenta come un miglioramento di una particolare terapia sanitaria, dove la maggior parte dei pazienti, soprattutto quelli in un’età delicata, possono avvertire determinati problemi fisici o psicologici. La terapia in questione è la Chemioterapia, che consiste nella somministrazione di una o più sostanze capaci di aggredire le cellule tumorali che si moltiplicano grazie a una fleboclisi, ovvero una procedura che è in grado di somministrare via endovenosa una sostanza come il trattamento appena citato, sfruttando alcune vene solide del braccio come la Basilica. Grazie a un’esperienza personale, pareri (dottoressa Antonella Sau) e coinvolgimenti di altri pazienti dell’associazione AGBE che hanno avuto un problema simile, è stato possibile progettare e inventare un tutore polimerico ad alta compatibilità dermatologica, in grado di immobilizzare l’arto usato nella terapia regalando una maggiore comodità e stabilità sia della fleboclisi che del braccio stesso. Inizialmente il tutore sarà ideato prendendo specifiche misure dell’avambraccio/gomito del singolo paziente, per poi stamparlo in 3D e portarlo ad effettuare i cicli somministrati per combattere la malattia. A fine di tutto, il paziente avrà sostenuto una cura delicata come la Chemioterapia con un maggiore comfort, maggiore stabilità psicologica e soprattutto meno complicanze come stravaso, infezioni varie, fuoriuscite di sostante chemioterapeutiche, gonfiori, depressione e irritazioni endovenose.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nellâ analisi del segnale EEG, sono di particolare interesse i potenziali evento correlato (ERP), che descrivono la risposta cerebrale in seguito alla presentazione di stimoli o eventi esterni o interni. Questi potenziali non sono immediatamente visibili sul tracciato EEG grezzo, ed è necessario, oltre ad unâ��accurata fase di preprocessing, mediare (averaging) i segnali di molti trial ripetuti per visualizzare tali risposte nel tempo. Questo studio ha posto l' attenzione sugli ERP visuomotori generati in un compito di center-out reaching, che prevede il raggiungimento di uno tra cinque target, ognuno associato ad un LED, mediante il braccio dominante, con una tempistica scandita dalla presentazione di due stimoli visivi: lo stimolo preparatorio ¸ (che indica il target) e lo stimolo imperativo (che dà il via libera al movimento). I segnali ERP, ottenuti mediante la tecnica dellâ averaging, sono stati analizzati sia a livello di scalpo, considerando i segnali di elettrodo, sia a livello di corteccia, dopo risoluzione del problema inverso, e considerando rappresentazioni prima a livello di singoli dipoli corticali e quindi di intere regioni corticali (ROI). Inoltre, è stata applicato un metodo di deep learning (rete neurale convoluzionale) per decodificare il segnale EEG a livello di singolo trial, ovvero classificare il target coinvolto nello specifico trial. La decodifica è stata applicata sia ai segnali di scalpo sia ai segnali delle ROI corticali. Complessivamente i risultati mostrano ERP ben visibili a livello di scalpo e legati sia a processing visivo che motorio. Gli ERP a livello di ROI corticali sono più rumorosi e sembrano cogliere meno processing motorio rispetto al visivo, presumibilmente anche in conseguenza di alcune scelte metodologiche nella ricostruzione di segnali di ROI. In linea con questo, le performance di decodifica sono migliori a livello di scalpo che di ROI corticali.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Una sempre crescente quantità di informazione digitale viene condivisa tra miliardi di dispositivi connessi in ogni angolo del pianeta. Per riuscire a sfruttare una banda più ampia ed aumentare la velocità di trasmissione dei dati, i prossimi standard di telecomunicazioni wireless dovranno adoperare frequenze operative sempre più alte, cercando di rispettare stringenti specifiche in termini di affidabilità ed efficienza energetica. In generale, le prestazioni di un transistor dipenderanno dalle terminazioni a cui esso è collegato. In un setup di caratterizzazione e test, è possibile, tramite un metodo noto come load pull attivo, sintetizzare un determinato valore di impedenza ad uno o più piani di riferimento all'interno di un circuito. Questa strategia si basa in generale sulla manipolazione del rapporto tra onde entranti ed uscenti da un piano di riferimento del dispositivo. Se da una parte tecniche di load pull attivo a banda larga a radiofrequenza hanno ricevuto un notevole interesse sia commerciale che accademico, dall'altra le strategie per la sintesi di impedenze presenti al terminale di alimentazione dell'amplificatore, sono state meno investigate. Questo elaborato si propone di introdurre un algoritmo per il load pull attivo a banda base per amplificatori per applicazioni RF. Dopo un'introduzione sui modelli comportamentali degli amplificatori, è stato considerato il problema degli effetti di memoria. È stata poi descritta la tecnica per l'emulazione di impedenze. Dapprima, è stato considerato il caso lineare. Poi, tramite il design di un amplificatore di potenza per applicazioni a radio frequenza usato come device under test (DUT), sono stati affrontati due esempi in presenza di non linearità, verificando la correttezza della tecnica proposta tramite l'uso di simulazioni.