910 resultados para TDP, Travelling Deliveryman Problem, Algoritmi di ottimizzazione
Resumo:
La dinamica dell'assetto di un satellite artificiale rappresenta uno degli aspetti più delicati della missione che esso stesso andrà a svolgere in orbita attorno ad un qualche corpo celeste, quale appunto il pianeta Terra. Il seguente lavoro di tesi si propone di analizzare la causa di una delle principali componenti di disturbo dell'assetto appena menzionato, preponderante per satelliti dalle piccole dimensioni, fornendo la spiegazione, validata attraverso una simulazione, della messa a punto di un metodo sperimentale per la valutazione della stessa. La componente in questione è la coppia di disturbo magnetica, ed è generata dall'interazione tra il campo magnetico terrestre ed il cosiddetto 'dipolo magnetico residuo' del satellite stesso, ossia quel campo magnetico che esso, in modalità operativa e non, risulta generare a causa del materiale ferromagnetico presente al suo interno, e delle correnti elettriche circolanti nei vari cavi conduttori. Ci si è dunque occupati dell'analisi e messa a punto di un metodo che possa consentire sperimentalmente di rilevare l'entità del dipolo residuo. Il lavoro di simulazione è stato svolto prendendo in considerazione le dimensioni e le possibili caratteristiche del dipolo residuo del micro-satellite ESEO (European Student Earth Orbiter), sviluppato da studenti di diverse università europee ed ora in fase di progetto dettagliato (fase C) presso i laboratori dell'azienda ALMASpace S.r.l. di Forlì. Il metodo in esame consiste nel rilevare il campo magnetico generato dal satellite, posto all'interno di un sistema tridimensionale di bobine di Helmholtz per avere una zona libera da campi magnetici esterni. Il rilevamento del dipolo avviene per mezzo di un magnetometro a tre assi, e dalla suddetta misura si può pervenire alla conoscenza delle componenti del dipolo stesso, quali posizione, orientamento ed intensità; siccome però la misura del magnetometro non è ideale, ma risulta affetta da errori, per una più corretta caratterizzazione del dipolo è necessario utilizzare un numero maggiore di magnetometri (oppure, il che è lo stesso, un unico magnetometro spostato mano a mano) in punti diversi attorno al satellite in modo da avere più misure di campo magnetico e poter così sfruttare una procedura numerica di ottimizzazione per risalire alle componenti del dipolo. Questa intera parte di calcolo è stata realizzata in MatLab®, simulando quindi le misure ottenute dai magnetometri, 'sporcandole' con i predetti errori, ed utilizzando le funzioni di minimizzazione lsqnonlin ed fmincon per verificare la funzionalità del sistema; si sono infatti analizzati i grafici rappresentanti i livelli di errore commessi dall'algoritmo di stima sulle varie componenti del dipolo, per le tipologie di errore dei magnetometri menzionate in precedenza. Si è così cercato di suggerire una configurazione ottimale di magnetometri in grado di fornire una stima caratterizzata da un buon compromesso tra numero di magnetometri da utilizzare non troppo elevato ed errore derivante accettabile.
Analisi del cammino in acqua tramite sensori inerziali: Accuratezza strumentale e fasce di normalita
Resumo:
La biocinematica è una branca della biomeccanica che studia il movimento dei segmenti corporei senza considerare le cause che lo determinano. Le grandezze fisiche di interesse (posizione, velocità ed accelerazione) vengono determinate grazie ai sistemi di analisi del movimento che sfruttano principi fisici di funzionamento differenti con vari gradi di invasività. Lo sviluppo di nuove tecnologie di costruzione dei sensori inerziali, ha fornito una valida alternativa alle tecniche classiche per l’analisi del movimento umano. Gli IMUs (Inertial Measurement Units) sono facilmente indossabili, possono essere facilmente utilizzati fuori dal laboratorio, hanno un costo molto inferiore rispetto a quello dei sistemi opto-elettronici, non richiedono particolari abilità per essere utilizzati dall’utente e si configurano facilmente. In questa tesi verrà analizzato il cammino e costruite le bande di normalità sia in laboratorio che in acqua tramite i sensori inerziali. L’utilizzo in acqua delle tecniche classiche di analisi del movimento presenta dei problemi di accuratezza (legati ad esempio alla presenza delle bolle d’aria in acqua) che impediscono di effettuare un confronto tra i risultati ottenuti dai sensori e quelli ottenuti con un gold standard. Per questo motivo, è stato implementato un test per valutare l’accuratezza dei sensori e l’influenza dei disturbi magnetici sui magnetometri nelle stesse condizioni ambientali in cui si desidera registrare il cammino. Quest’analisi strumentale ha consentito anche di individuare, tra i diversi algoritmi di fusione utilizzati (algoritmo di fabbrica e algoritmo di Madgwick), quello da impiegare nell’analisi del suddetto task motorio per stimare in maniera più accurata l’orientamento dei sensori in acqua e in laboratorio. L'algoritmo di fabbrica viene escluso dal processo di sensor fusion poiché mostra un'accuratezza peggiore rispetto all'algoritmo di Madgwick. Dal momento che il protocollo implementato di analisi del cammino attraverso i sensori inerziali è già stato validato a secco e che le prestazioni dei sensori sono analoghe a secco e in acqua, il protocollo può essere utilizzato per la stima della cinematica degli arti inferiori nell'acqua. Le differenze riscontrate tra le curve del cammino sono da imputare sia alla diversa condizione ambientale che alla minore velocità di progressione che i soggetti manifestano in acqua. Infatti, la velocità media di progressione è 151.1 cm/s in laboratorio e 40.7 cm/s in acqua.
Resumo:
Lo scopo di questo elaborato è di analizzare e progettare un sistema in grado di supportare la definizione dei dati nel formato utilizzato per definire in modo formale la semantica dei dati, ma soprattutto nella complessa e innovativa attività di link discovery. Una attività molto potente che, tramite gli strumenti e le regole del Web Semantico (chiamato anche Web of Data), permette data una base di conoscenza sorgente ed altre basi di conoscenza esterne e distribuite nel Web, di interconnettere i dati della base di conoscenza sorgente a quelli esterni sulla base di complessi algoritmi di interlinking. Questi algoritmi fanno si che i concetti espressi sulla base di dati sorgente ed esterne vengano interconnessi esprimendo la semantica del collegamento ed in base a dei complessi criteri di confronto definiti nel suddetto algoritmo. Tramite questa attività si è in grado quindi di aumentare notevolmente la conoscenza della base di conoscenza sorgente, se poi tutte le basi di conoscenza presenti nel Web of Data seguissero questo procedimento, la conoscenza definita aumenterebbe fino a livelli che sono limitati solo dalla immensa vastità del Web, dando una potenza di elaborazione dei dati senza eguali. Per mezzo di questo sistema si ha l’ambizioso obiettivo di fornire uno strumento che permetta di aumentare sensibilmente la presenza dei Linked Open Data principalmente sul territorio nazionale ma anche su quello internazionale, a supporto di enti pubblici e privati che tramite questo sistema hanno la possibilità di aprire nuovi scenari di business e di utilizzo dei dati, dando una potenza al dato che attualmente è solo immaginabile.
Resumo:
L’esperimento CMS a LHC ha raccolto ingenti moli di dati durante Run-1, e sta sfruttando il periodo di shutdown (LS1) per evolvere il proprio sistema di calcolo. Tra i possibili miglioramenti al sistema, emergono ampi margini di ottimizzazione nell’uso dello storage ai centri di calcolo di livello Tier-2, che rappresentano - in Worldwide LHC Computing Grid (WLCG)- il fulcro delle risorse dedicate all’analisi distribuita su Grid. In questa tesi viene affrontato uno studio della popolarità dei dati di CMS nell’analisi distribuita su Grid ai Tier-2. Obiettivo del lavoro è dotare il sistema di calcolo di CMS di un sistema per valutare sistematicamente l’ammontare di spazio disco scritto ma non acceduto ai centri Tier-2, contribuendo alla costruzione di un sistema evoluto di data management dinamico che sappia adattarsi elasticamente alle diversi condizioni operative - rimuovendo repliche dei dati non necessarie o aggiungendo repliche dei dati più “popolari” - e dunque, in ultima analisi, che possa aumentare l’“analysis throughput” complessivo. Il Capitolo 1 fornisce una panoramica dell’esperimento CMS a LHC. Il Capitolo 2 descrive il CMS Computing Model nelle sue generalità, focalizzando la sua attenzione principalmente sul data management e sulle infrastrutture ad esso connesse. Il Capitolo 3 descrive il CMS Popularity Service, fornendo una visione d’insieme sui servizi di data popularity già presenti in CMS prima dell’inizio di questo lavoro. Il Capitolo 4 descrive l’architettura del toolkit sviluppato per questa tesi, ponendo le basi per il Capitolo successivo. Il Capitolo 5 presenta e discute gli studi di data popularity condotti sui dati raccolti attraverso l’infrastruttura precedentemente sviluppata. L’appendice A raccoglie due esempi di codice creato per gestire il toolkit attra- verso cui si raccolgono ed elaborano i dati.
Resumo:
Questo studio concerne uno studio di fattibilità per l'applicazione dei "positive displacement motors" in ambienti ambienti fortemente critici, soggetti ad alta pressione e alta temperatura. Tali motori sono utilizzati nell'industria Oil & Gas per la perforazione di pozzi petroliferi. L’analisi è stata portata a termine attraverso definizione dell’intervallo di temperatura per cui le performance degli strumenti in commercio presenta il maggior numero di failures, compreso tra i 175°C e i 225°C , e per il quale si vuole riuscire a limitare i rischi connessi e le criticità associate, garantendo così il raggiungimento dei target con un maggior grado di affidabilità e disponibilità del PDM utilizzato. Analizzando le sollecitazioni agenti sul motore durante le fasi di utilizzo, è stato possibile rilevare le principali cause di rottura e malfunzionamento che, nella maggior parte dei casi, possono essere attribuite al rigonfiamento e alla degradazione del materiale elastomerico che costituisce lo statore della power section. Investigando in merito alle differenze e alle proprietà di resistenza di numerosi materiali elastomerici a diversi range di temperatura, sono stati evidenziati dei margini di ottimizzazione in particolare relativi alla potenziale riduzione e totale sostituzione della superficie elastomerica con materiale metallico. Ciò ha fatto si che fosse necessario un approfondimento sulle caratteristiche degli acciai e delle leghe metalliche, in termini di resistenza a corrosione, costo del materiale, resistenza meccanica e della capacità di mantenere elevate proprietà meccaniche con l’aumento della temperatura, al fine di individuare i migliori “candidati” per sostituire interamente il materiale elastomerico dello statore in materiale metallico e risolvere così il problema dell’applicazione dei PDM in ambienti HT-HP.
Resumo:
Analisi riguardante la tenacizzazione della matrice di laminati compositi. Lo scopo è quello di aumentare la resistenza alla frattura di modo I e, a tal proposito, sono stati modificati gli interstrati di alcuni provini tramite l’introduzione di strati, di diverso spessore, di nanofibre in polivinilidenfluoruro (PVDF). La valutazione di tale metodo di rinforzo è stata eseguita servendosi di dati ottenuti tramite prove sperimentali svolte in laboratorio direttamente dal sottoscritto, che si è occupato dell’elaborazione dei dati servendosi di tecniche e algoritmi di recente ideazione. La necessità primaria per cui si cerca di rinforzare la matrice risiede nel problema più sentito dei laminati compositi in opera da molto tempo: la delaminazione. Oltre a verificare le proprietà meccaniche dei provini modificati sottoponendoli a test DCB, si è utilizzata una tecnica basata sulle emissioni acustiche per comprendere più approfonditamente l’inizio della delaminazione e i meccanismi di rottura che si verificano durante le prove. Quest’ultimi sono illustrati servendosi di un algoritmo di clustering, detto Fuzzy C-means, tramite il quale è stato possibile identificare ogni segnale come appartenente o meno ad un determinato modo di rottura. I risultati mostrano che il PVDF, applicato nelle modalità esposte, è in grado di aumentare la resistenza alla frattura di modo I divenendo contemporaneamente causa di un diverso modo di propagazione della frattura. Infine l’elaborato presenta alcune micrografie delle superfici di rottura, le quali appoggiano i risultati ottenuti nelle precedenti fasi di analisi.
Resumo:
Cattura di un segnale AM e FM stereofonico (radio commerciale) mediante chiavetta NooElec R820T dotata di tecnologia Software Defined Radio (SDR). Implementazione di un codice di demodulazione AM e di algoritmi di modulazione/demodulazione FM stereo attraverso l’ambiente di lavoro MATLAB e lo strumento Simulink- Interfacciamento dei codici con la piattaforma Raspberry-Pi fungente da server TCP/IP la quale permetterà la comunicazione tra chiavetta e PC. Ricostruzione del segnale modulante trasmesso
Resumo:
L’analisi della postura e del movimento umano costituiscono un settore biomedico in forte espansione e di grande interesse dal punto di vista clinico. La valutazione delle caratteristiche della postura e del movimento, nonché delle loro variazioni rispetto ad una situazione di normalità, possono essere di enorme utilità in campo clinico per la diagnosi di particolari patologie, così come per la pianificazione ed il controllo di specifici trattamenti riabilitativi. In particolare è utile una valutazione quantitativa della postura e del movimento che può essere effettuata solo utilizzando metodologie e tecnologie ‘ad hoc’. Negli ultimi anni la diffusione di sensori MEMS e lo sviluppo di algoritmi di sensor fusion hanno portato questi dispositivi ad entrare nel mondo della Motion Capture. Queste piattaforme multi-sensore, comunemente chiamate IMU (Inertial Measurement Unit), possono rappresentare l’elemento base di una rete sensoriale per il monitoraggio del movimento umano.
Resumo:
Il fotovoltaico (FV) costituisce il modo più diretto di conversione dell’energia solare in energia elettrica e si basa sull’effetto osservato da Becquerel nel 1839. Si può affermare che tale effetto è rimasto una curiosità di laboratorio dalla metà del XIX secolo fino al 1954, quando la prima cella solare in silicio con un’efficienza di conversione del 6% fu costruita ai Laboratori Bell. Da allora la ricerca in questo settore ha sperimentato una crescita costante ed oggi si può contare su tecnologie mature, in grado di sviluppare alte prestazioni in via di ulteriore miglioramento. Le celle tandem costituiscono ora il migliore esempio di dispositivi fotovoltaici in grado di convertire buona parte della potenza irraggiata dal sole. Aumentare l’efficienza con le celle tandem significa sfruttare le differenti lunghezze d’onda dello spettro solare. Questi dispositivi sono infatti costruiti impilando semiconduttori, disponendoli dal basso in modo crescente secondo i loro valori di energia di gap. A partire dall’analisi delle caratteristiche principali della radiazione solare e del principio di funzionamento delle celle fotovoltaiche, questo lavoro si propone di mettere in evidenza le potenzialità della tecnologia a multigiunzione, che ha già dimostrato rilevanti capacità di ottimizzazione delle prestazioni delle celle solari, facendo ben sperare per il futuro.
Resumo:
La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.
Resumo:
Tesi in azienda che verte sugli impianti di ripartizione di farmaci in asepsi e atmosfera controllata. Sono stati analizzati: norme riguardanti progettazione e installazione di impianti farmaceutici; tecnologie di ripartizione (isolatori e RABS) con riferimento all'isolatore in azienda e all'impianto HVAC asservito; la linea di ripartizione in generale (washing machine - tunnel di depirogenazione - isolatore - coding station); test SAT di convalida per l'installazione di isolatore e impianto HVAC; sviluppo e convalida del ciclo di decontaminazione con VHP; conti di ottimizzazione dell'inertizzazione della camera di riempimento.
Sviluppo e caratterizzazione di materiali biomimetici e bioattivi per la rigenerazione cartilaginea.
Resumo:
In questo lavoro di tesi è stato sviluppato uno scaffold biomimetico e bioattivo per la rigenerazione cartilaginea. Questo scaffold è in grado di coordinare il processo di rigenerazione di difetti condrali e promuovere la formazione di cartilagine ialina o ‘hyaline-like’ ben integrata con l’osso subcondrale. Lo scaffold realizzato è composto da due strati, uno strato cartilagineo e uno strato calficato, al fine di mimare la complessa interfaccia presente tra la cartilagine articolare e l’osso subcondrale. Lo spessore degli strati, l’adesione tra questi e la presenza di porosità è stata valutata mediante microscopia elettronica a scansione (SEM). Sono state effettuate analisi termogravimetriche (TGA) per determinare la percentuale di acqua residua nel campione dopo il processo di liofilizzazione e il residuo minerale nel campione stesso. Nell’ottica di ottimizzazione del processo di sintesi dello scaffold è stato valutato il grado di reticolazione del campione e il tempo di degradazione. Infine, per valutare la possibilità d’impianto è stato effettuato un test d’impianto su cadavere umano durante il quale diversi campioni, con forma rotonda o quadrata, sono stati impiantati e fissati con diverse tecniche.
Resumo:
Il lavoro svolto consiste nel processo di ottimizzazione strutturale di un sedile in materiale composito per un elicottero ultraleggero, attraverso un processo iterativo di simulazione FEM e modifiche al progetto, interpretando i dati ricavati dalle simulazioni, nel rispetto della normativa FAR 27. I risultati ottenuti hanno permesso di dimezzare il peso iniziale e resistere meglio agli sforzi, con implicazioni benefiche anche sul costo finale del prodotto che presenta minori costi del materiale e tempi di lavorazione ridotti sia in fase di laminazione che in fase di ciclo di cura in autoclave.
Resumo:
La fisica delle collisioni ad alte energie è, ad oggi, uno dei campi di ricerca più interessante per la verifica di modelli teorici che spieghino la nascita e la formazione dell'universo in cui viviamo. In quest'ottica lavorano esperimenti presso i più importanti acceleratori di particelle: tra questi anche l'esperimento ALICE, presso il Large Hadron Collider LHC del CERN di Ginevra. Il suo scopo principale è quello di verificare e ampliare l'insieme delle prove sperimentali alla base sull'esistenza di un nuovo stato della materia: il Quark Gluon Plasma. La presenza della transizione di fase della materia adronica ordinaria a QGP era stata teorizzata da diversi studi termodinamici e da calcoli di QCD su reticolo: in particolare si prevedeva l'esistenza di uno stato della materia in cui i quark sono deconfinati. Il QGP è dunque un plasma colorato e densissimo di quark e gluoni, liberi di interagire tra loro. Queste condizioni sarebbero state quelle dell'universo primordiale, circa 1µs dopo il Big Bang: a seguito di una transizione di fase, si sarebbe poi formata tutta la materia adronica ordinaria. Per riprodurre le condizioni necessarie alla formazione del QGP occorrono collisioni ad energie ultrarelativistiche come quelle prodotte, negli ultimi anni, dall'acceleratore LHC. Uno dei principali rivelatori dedicati all'identificazione di particelle in ALICE è il sistema a tempo di volo TOF. Nonostante un attento processo di ottimizzazione della risoluzione delle sue componenti, persistono residui errori strumentali che limitano la qualità (già ottima) del segnale, tutt'oggi oggetto di studio. L'elaborato presentato in questa tesi è suddiviso in tre capitoli: nel primo ripercorriamo gli aspetti teorici del Modello Standard e del Quark Gluon Plasma. Nel secondo descriviamo la struttura di rivelazione di ALICE, analizzando il funzionamento delle singole componenti. Nel terzo, infine, verifichiamo le principali correzioni al TOF ad oggi note, confrontando i dati a nostra disposizione con delle simulazioni Monte Carlo: questo ci permette da un lato di approfondirne la conoscenza, dall'altro di cercarne di migliorare la descrizione del comportamento del rivelatore.
Resumo:
I dispositivi impiantabili stanno acquisendo grande importanza nell’ambito delle applicazioni biomedicali, ciò è dovuto principalmente alla loro attitudine nell’adempiere funzioni di stimolazione, monitoraggio su organi interni e di comunicazione di segnali vitali al mondo esterno. La comunità scientifica, in particolare, concentra la sua attenzione sulle tecniche di alimentazione di tali dispositivi. Le batterie al litio hanno rappresentato, fino a qualche tempo fa, la sorgente di alimentazione primaria. Il bisogno crescente di minimizzare le dimensioni di questi dispositivi e migliorare la qualità di vita del paziente (evitare successive operazioni chirurgiche, rischi e infezioni a causa dei cavi percutanei), ha spinto nella ricerca di nuove soluzioni. Una di queste è rappresentata dalla Wireless Power Transfer (WPT). In questo lavoro di tesi, è stato proposto un sistema di alimentazione wireless transcutaneo. Il sistema sfrutta il principio dell’accoppiamento induttivo risonante, che consiste nella trasmissione di energia in campo vicino tra due risuonatori magneticamente accoppiati. Al fine di acquisire la massima efficienza, sono state effettuate operazioni di ottimizzazione geometrica sul trasmettitore e di adattamento sul modello circuitale. I software CST e LTspice hanno reso possibile le simulazioni sul sistema dal punto di vista elettromagnetico e circuitale. Gli sviluppi futuri prevedono di convalidare i risultati ottenuti realizzando prove “in vitro”.