664 resultados para TDP, Travelling Deliveryman Problem, Algoritmi di ottimizzazione
Resumo:
Nel corso degli ultimi due decenni il trapianto di cuore si è evoluto come il gold standard per il trattamento dell’insufficienza cardiaca allo stadio terminale. Rimane un intervento estremamente complesso; infatti due sono gli aspetti fondamentali per la sua buona riuscita: la corretta conservazione e metodo di trasporto. Esistono due diversi metodi di conservazione e trasporto: il primo si basa sul tradizionale metodo di protezione miocardica e sul trasporto del cuore con utilizzo di contenitori frigoriferi, mentre il secondo, più innovativo, si basa sull’ utilizzo di Organ Care System Heart, un dispositivo appositamente progettato per contenere il cuore e mantenerlo in uno stato fisiologico normotermico attivo simulando le normali condizioni presenti all’interno del corpo umano. La nuova tecnologia di Organ Care System Heart permette un approccio completamente diverso rispetto ai metodi tradizionali, in quanto non solo conserva e trasporta il cuore, ma permette anche il continuo monitoraggio ex-vivo delle sue funzioni, dal momento in cui il cuore viene rimosso dal torace del donatore fino all’ impianto nel ricevente. Il motivo principale che spinge la ricerca ad investire molto per migliorare i metodi di protezione degli organi è legato alla possibilità di ridurre il rischio di ischemia fredda. Questo termine definisce la condizione per cui un organo rimane privo di apporto di sangue, il cui mancato afflusso causa danni via via sempre più gravi ed irreversibili con conseguente compromissione della funzionalità. Nel caso del cuore, il danno da ischemia fredda risulta significativamente ridotto grazie all’utilizzo di Organ Care System Heart con conseguenti benefici in termini di allungamento dei tempi di trasporto, ottimizzazione dell’organo e più in generale migliori risultati sui pazienti.
Resumo:
Gli ammassi di galassie sono le strutture più grandi che possiamo osservare nell’Universo. La loro formazione deriva direttamente dalla crescita delle perturbazioni primordiali di densità e dal loro conseguente collasso gravitazionale indotto appunto dalla gravità. Gli ammassi di galassie sono molto importanti in Astrofisica in quanto possono essere considerati come dei laboratori per lo studio di molti aspetti fisici legati al gas, all’ICM e all’evoluzione delle galassie. Lo studio degli ammassi di galassie è molto importante anche per la Cosmologia in quanto è possibile effettuare delle stime sui parametri cosmologici ed ottenere dei vincoli sulla geometria dell’Universo andando a valutare la loro massa e la loro distribuzione nell’Universo. Diventa quindi fondamentale l’utilizzo di algoritmi che ci permettano di utilizzare i dati ottenuti dalle osservazioni per cercare ed individuare gli ammassi di galassie in modo tale da definire meglio la loro distribuzione nell’Universo. Le più recenti survey di galassie ci forniscono molteplici informazioni a riguardo delle galassie, come ad esempio la loro magnitudine in varie bande osservative, il loro colore, la loro velocità ecc. In questo lavoro abbiamo voluto testare la performance di un algoritmo Optimal Filtering nella ricerca degli ammassi di galassie utilizzando prima solo l’informazione della magnitudine delle galassie e successivamente anche l’informazione sul loro colore. Quello che abbiamo voluto fare, quindi, è stato valutare se l’utilizzo combinato della magnitudine delle galassie e del loro colore permette all’algoritmo di individuare più facilmente, e in numero maggiore, gli ammassi di galassie.
Resumo:
Il presente lavoro di tesi è finalizzato all'ottimizzazione della formulazione iniziale e delle condizioni di stagionatura per ottenere un materiale utilizzabile come refrattario in applicazioni che richiedono elevate temperature di esposizione. L’interesse della ricerca scientifica verso questa nuova classe di materiali nasce dai vantaggi ambientali ed economici che essi possono fornire. Inoltre, le buone proprietà di resistenza e stabilità termica evidenziate dagli studi condotti negli ultimi anni inducono a sperimentare l’impiego dei materiali geopolimerici in sostituzione dei materiali refrattari o cementiferi attualmente in commercio. A tal fine sono state determinate le caratteristiche fisico-meccaniche, microstrutturali e termiche di matrici geopolimeriche additivate con scarti refrattari. Lo studio svolto, si può suddividere in tre fasi successive. Inizialmente sono state ottimizzazione le formulazioni geopolimeriche. Successivamente i prodotti ottenuti sono stati oggetto di caratterizzazione fisico-meccanica, microstrutturale e termica. Tali caratterizzazioni sono state eseguite attraverso: analisi al microscopio ottico, assorbimento di acqua, determinazione della densità geometrica, prove ultrasoniche per la determinazione dell’omogeneità del materiale, resistenza meccanica a compressione, diffrattometria ai raggi X (XRD), microscopio riscaldante, ciclo termico in muffola e analisi dilatometriche. Nella terza fase sono stati analizzati ed elaborati i risultati ottenuti, evidenziando le soddisfacenti proprietà di stabilità e resistenza termica. È stata inoltre effettuata una analisi economica preliminare evidenziando la competitività nel marcato del sistema geopolimerico studiato. Se a questo si aggiungono i considerevoli benefici ambientali dovuti al fatto che il prodotto è ottenuto con sostanze di recupero, non sarebbe sorprendente che in un futuro prossimo i geopolimeri possano essere largamente prodotti e commercializzati.
Resumo:
Lo scopo della tesi è creare un’architettura in FPGA in grado di ricavare informazioni 3D da una coppia di sensori stereo. La pipeline è stata realizzata utilizzando il System-on-Chip Zynq, che permette una stretta interazione tra la parte hardware realizzata in FPGA e la CPU. Dopo uno studio preliminare degli strumenti hardware e software, è stata realizzata l’architettura base per la scrittura e la lettura di immagini nella memoria DDR dello Zynq. In seguito l’attenzione si è spostata sull’implementazione di algoritmi stereo (rettificazione e stereo matching) su FPGA e nella realizzazione di una pipeline in grado di ricavare accurate mappe di disparità in tempo reale acquisendo le immagini da una camera stereo.
Resumo:
In questa tesi, viene illustrato un metodo risolutivo al problema dell’allocazione e schedulazione, su risorse eterogenee con capacità unaria rinnovabile e cumulativa non rinnovabile, di applicazioni multitask periodiche, con periodi in relazione armonica, strutturate in attività indipendenti o sottoposte a vincoli di precedenza e con durate dipendenti dalla specifica risorsa di allocazione. L’obiettivo è quello di fornire un’implementazione del modello in grado di gestire l’allocazione e la schedulazione di istanze (i.e. insieme di applicazioni) variabili, caratterizzate da una serie di parametri. La struttura implementativa, realizzata secondo la Logic-based Benders decomposition, prevede la suddivisione del problema in due moduli. Il primo in grado di generare un’allocazione e realizzato con tecniche di programmazione lineare intera mista, il secondo con lo scopo di controllare l’ammissibilità di tale allocazione attraverso una schedulazione ottima e realizzato mediante tecniche di programmazione a vincoli. Il meccanismo di comunicazione tra i due moduli avviene mediante vincoli lineari, denominati tagli di Benders, che vengono aggiunti dopo ogni iterazione del sistema. L’efficacia del modello sarà valutata confrontando i risultati ottenuti attraverso una serie di test, con i valori forniti da un metodo di allocazione e schedulazione alternativo.
Resumo:
ABSTRACT Il lavoro di tesi si basa sullo studio commissionato dall’azienda Pelliconi S.p.A di Ozzano dell'Emilia, specializzata nella produzione di tappi metallici per bottiglie. Questi tappi sono prodotti a partire da fogli sottili in lega di alluminio EN AW-5052 H39 e si necessita una ottimizzazione tecnico-economica nel settore della fornitura. L’obiettivo di questa tesi è analizzare le condizioni di fornitura della lega di alluminio EN AW-5052 H39 fornita da tre differenti fornitori (tra cui quello di riferimento) per stabilire quale di essi fornisca la lega più adatta al processo aziendale. L'elaborato è diviso in due parti, una compilativa ed una sperimentale. Nella prima, ci si occupa dei riferimenti normativi riguardanti le proprietà meccaniche delle leghe oggetto dello studio. Nella seconda, si introducono i materiali ed i metodi sperimentali utilizzati e si discutono i risultati ottenuti. A conclusione dello studio, si può affermare che, contrariamente a quanto imposto dalle specifiche aziendali e dalle normative sugli stati metallurgici di fornitura, tutti i laminati forniti mutano le loro proprietà a seguito del processo di laccatura subito dalle lamiere nel ciclo produttivo. Fra i tre fornitori, uno in particolare risulta fornire un materiale particolarmente suscettibile di variazione di proprietà a seguito di tale processo. Le ragioni di tale variazione sono legate alla composizione chimica ed alla microstruttura di questo laminato e dunque alle condizioni di fornitura del produttore.
Resumo:
Questa tesi riguarda il problema della schedulazione degli interventi nel blocco operatorio di un presidio ospedaliero, noto anche come Operating Theatre Planning & Scheduling. Il blocco operatorio è la struttura che eroga servizi a più alto impatto sui costi di un presidio ospedaliero ed è legato ad attività ad alto rischio. E' quindi fondamentale gestire in modo ottimale questa risorsa. In questa tesi, si considera come caso studio l'applicazione reale di un presidio ospedaliero dell'Emilia Romagna con un orizzonte temporale di una settimana, ovvero la cosiddetta programmazione operativa. L'obiettivo è quello di ottenere un utilizzo efficiente del blocco operatorio, garantendo al contempo la priorità agli interventi più urgenti. Data la complessità del problema, vengono proposti algoritmi euristici che permettano di ottenere buone soluzioni in tempi di calcolo ridotti. Studi precedenti hanno infatti evidenziato la difficoltà di trovare soluzioni ottime al problema, mediante l'utilizzo di solver commerciali per modelli di Programmazione Lineare Intera, senza introdurre ipotesi semplificative. Sono stati elaborati tre algoritmi euristici costruttivi di tipo multi-start che permettono di generare soluzioni ammissibili con diverse caratteristiche. Gli algoritmi si differenziano principalmente per le modalità con cui collocano gli interventi nel tempo disponibile delle risorse (induction room, operating room, recovery room), cercando di migliorarne l’utilizzazione e dando priorità ai pazienti più urgenti. Gli algoritmi sono stati implementati utilizzando il linguaggio JAVA e sono stati testati su istanze realistiche fornite dal presidio ospedaliero. I risultati hanno evidenziato un alto grado di utilizzazione delle sale operatorie, un fattore molto rilevante per una ottimale gestione del blocco operatorio. E' stata, infine, svolta un'analisi di sensitività alla variabilità delle durate.
Resumo:
Partendo da un’analisi dei problemi che si incontrano nella fase di conceptual design, si presentano le diverse tecniche di modellazione tridimensionale, con particolare attenzione al metodo subdivision e agli algoritmi che lo governano (Chaikin, Doo – Sabin). Vengono poi proposti alcuni esempi applicativi della modellazione free form e skeleton, con una successiva comparazione, sugli stessi modelli, delle sequenze e operazioni necessarie con le tradizionali tecniche di modellazione parametrica. Si riporta un esempio dell’utilizzo del software IronCAD, il primo software a unire la modellazione parametrica e diretta. Si descrivono le limitazioni della modellazione parametrica e di quella history free nella fase concettuale di un progetto, per arrivare a definire le caratteristiche della hybrid modeling, nuovo approccio alla modellazione. Si presenta brevemente il prototipo, in fase di sviluppo, che tenta di applicare concretamente i concetti dell’hybrid modeling e che vuole essere la base di partenza per una nuova generazione di softwares CAD. Infine si presenta la possibilità di ottenere simulazioni real time su modelli che subiscono modifiche topologiche. La simulazione real time è permessa dalla ridefinizione in forma parametrica del problema lineare elastico che viene successivamente risolto mediante l’applicazione congiunta delle R – Functions e del metodo PGD. Seguono esempi di simulazione real time.
Resumo:
Negli ultimi anni, tra le varie tecnologie che hanno acquisito una sempre maggiore popolarità e diffusione, una di particolare rilevanza è quella degli Unmanned Aerial Vehicles. Di questi velivoli, quelli che stanno riscuotendo maggiore successo sono i multirotori, alimentati esclusivamente da azionamenti elettrici disposti in opportune posizioni della struttura. Particolari sforzi sono stati recentemente dedicati al miglioramento di questa tecnologia in termini di efficienza e precisione, tuttavia quasi sempre si trascura la vitale importanza dello sfruttamento efficiente dei motori elettrici. La tecnica di pilotaggio adottata nella quasi totalità dei casi per questi componenti è il BLDC sensorless, anche se la struttura si dimostra spesso essere PMSM, dunque inadatta all’uso di questa strategia. Il controllo ideale per i PMSM risulterebbe essere FOC, tuttavia per l'implementazione sensorless molti aspetti scontati nel BLDC devono essere affrontati, in particolare bisogna risolvere problemi di osservazione e identificazione. Durante la procedura di avviamento, efficienti strategie di self-commissioning vengono adottate per l’identificazione dei parametri elettrici. Per la fase di funzionamento nominale viene proposto un osservatore composto da diversi componenti interfacciati tra loro tramite un filtro complementare, il tutto al fine di ottenere una stima di posizione e velocità depurata dai disturbi. In merito al funzionamento in catena chiusa, vengono esposte valutazioni preliminari sulla stabilità e sulla qualità del controllo. Infine, per provare la validità degli algoritmi proposti, vengono mostrati i risultati delle prove sperimentali condotte su un tipico azionamento per UAV, pilotato da una scheda elettronica progettata appositamente per l’applicazione in questione. Vengono fornite inoltre indicazioni sull’implementazione degli algoritmi studiati, in particolare considerazioni sull’uso delle operazioni a virgola fissa per velocizzare l'esecuzione.
Resumo:
La seguente tesi prevede la costruzione e caratterizzazione di un micro-supercapacitore asimmetrico composto da un anodo a base di ZnO ed un catodo a base di grafene ossido ridotto (rGO); la combinazione di due materiali con differente natura di accumulo di carica permette quindi di ottenere dispositivi con migliori performance elettrochimiche. Entrambi gli elettrodi sono stati depositati per via elettrochimica su substrati flessibili di PET-ITO. L'ottimizzazione delle proprietà dello ZnO è stata fatta tramite l'aggiunta di molecole di tensioattivi durante la deposizione dello stesso. I risultati ottenuti mostrano un effettivo miglioramento delle proprietà elettrochimiche e della trasparenza dei film di ZnO prodotto grazie all'effetto di tali tensioattivi. Inoltre anche le proprietà di rGO sono state ottimizzate allo scopo di ottenere buone proprietà elettrochimiche abbinate all'elevata trasparenza del film prodotto. Infine sono stati costruiti micro-supercapacitori allo stato semisolido con differenti agenti gelificanti (silice e Nanoclay) ed il loro funzionamento è stato dimostrato.
Resumo:
Negli ultimi anni, lo scenario di crescente competizione su cui si affaccia il mercato ha spinto le aziende a interessarsi sempre più frequentemente all’ingegneria della manutenzione, allo scopo di avvalersi di tecniche che permettano di pianificare strategie di manutenzione per i sistemi produttivi che siano efficaci nel minimizzare i costi di gestione garantendo prestazioni e livelli di sicurezza elevati. Le tecniche analitiche tipiche dell’ingegneria della manutenzione sono nate in settori industriali che richiedono elevati livelli di progresso tecnologico (aeronautico, nucleare), e si basano su ipotesi specifiche stringenti, che risultano limitanti nel panorama sempre più vasto ed eterogeneo in cui ne si richiede l’applicazione. D’altra parte, la rimozione di tali ipotesi rende necessario il ricorso a tecniche di risoluzione numeriche. In questa tesi si definisce un nuovo modello che permetta di caratterizzare un sistema di produzione tenendo conto di tutti i possibili aspetti di interesse nell’ambito dell’ingegneria della manutenzione. Inoltre, sono descritti gli algoritmi definiti per la risoluzione di tale modello.
Resumo:
Sono stati analizzati i circuiti neurali addetti all'elaborazione matematica, a partire da quelli di start-up neurocognitivo per l'apprendimento del numero e del calcolo, capacità innate e già presenti alla nascita. I protagonisti sono il sistema della stima approssimativa del numero e quello di individuazione degli oggetti multipli e, spesso, le difficoltà che si incontrano durante un compito matematico (o la lentezza per portarlo a termine) sono date dalla difficile interazione tra questi e le loro sottocomponenti, continuamente riprogrammate dall'esecutivo centrale per poter supervisionare i processi di problem solving. Per la costruzione e lo sviluppo del calcolo più elevato, occorrono alcune capacità di base come il concetto di corrispondenza biunivoca, quello di ordinamento di un insieme, di maggioranza, di raddoppio e di dimezzamento, per mezzo delle quali ogni procedura si può ridurre ad una serie di operazioni più semplici. Queste funzioni vengono controllate e coordinate dal Sistema Attentivo Esecutivo che presiede tutte le attività di problem solving. I ragazzi che presentano deficit altamente specifici in una o più abilità matematiche di base vengono definiti discalculici e tra i loro tratti caratteristici vi sono l'incapacità di comprendere le numerosità, i principi delle operazioni e di elaborare strategie risolutive adatte ad ogni esercizio. Non tutti i ragazzi che presentano difficoltà in matematica sono discalculici: a tal proposito ho svolto una sperimentazione didattica in 10 classi di un I.T.I.S. , per cercare di capire se i concetti reputati consolidati alla scuola secondaria di 1° grado, lo sono realmente in quella di 2° e per mostrare le diverse tipologie di errori compiuti dai ragazzi clinici e non. I risultati sono stati largamente al di sotto delle aspettative, anche negli esercizi in cui è stato permesso l'uso della calcolatrice, lasciandomi presagire che gli errori commessi siano perlopiù di concetto piuttosto che di calcolo.
Resumo:
Il seguente elaborato è la conclusione dell'esperienza di tesi volta alla progettazione di componenti, nello specifico sedili e punti di ancoraggio per le cinture di sicurezza, per il cruiser Emilia 4, veicolo solare che gareggerà con le più importanti università mondiali nella 2017 World Solar Challenge in Australia. L'attività compiuta risulta essere il punto di arrivo dell'ottimizzazione strutturale degli elementi, attribuendo fondamentale importanza al peso delle strutture; l'obiettivo è stato raggiunto mediante l'adozione della fibra di carbonio, nel rispetto del regolamento della corsa e delle norme stradali australiane. Gran parte delle attività sono state svolte a Castel San Pietro nell'azienda Metal Tig, impresa specializzata nella lavorazione dei laminati in composito; qui si sono tenute riunioni settimanali per discutere dei progressi del progetto e delle modifiche da apportare. Il lavoro di tesi si conclude con la quarta revisione dei componenti affidatomi: essa probabilmente non sarà la versione definitiva, ma sicuramente sarà un punto di riferimento per i prossimi progettisti impegnati nell'impresa.
Resumo:
Questa Tesi prende in esame tutte le fasi che portano alla realizzazione di un generico videogioco applicandole per creare, dal principio, un gioco 3D con Unity. Se ne analizzerà l'ideazione, la progettazione degli ambienti ma anche degli algoritmi implementati, la produzione e quindi la scrittura del codice per poi terminare con i test effettuati.
Resumo:
In questo elaborato ho analizzato un sistema di reazione-diffusione proposto come modello per descrivere un fenomeno di crescita tumorale. In particolare, è stato approfondito il processo in cui l'invasione neoplastica è originata dalla produzione di un eccesso di ioni acidi da parte delle cellule maligne. Il sistema preso in esame descrive l'andamento di tre grandezze: la concentrazione di tessuto sano, la concentrazione di tessuto maligno e l'eccesso di ioni acidi. Ho quindi cercato soluzioni compatibili con il sistema le quali fossero funzioni della tipologia travelling waves, ossia onde che si propagano lungo l'asse reale con un grafico fissato e ad una velocità costante. I risultati ottenuti in questo lavoro sono stati così suddivisi: nel Capitolo 1 viene descritto il processo di invasione tumorale dal punto di vista biologico, nel Capitolo 2 vengono forniti alcuni lemmi e proposizioni preliminari, nel Capitolo 3 viene calcolata un'approssimazione della soluzione del sistema tramite onde del tipo slow waves e infine nel Capitolo 4 sono state studiate la presenza e la larghezza dello spazio interstiziale, ossia di una regione situata tra il tessuto sano e quello neoplastico nella quale si registra una concentrazione di cellule, sia normali sia maligne, praticamente nulla. Infine, sono state rappresentate graficamente le soluzioni in tre possibili situazioni caratterizzate da un diverso parametro di aggressività del tumore.