485 resultados para Ottimizzazione topologica, manifattura additiva
Resumo:
Lo scopo di questa tesi è studiare alcune proprietà di base delle algebre di Hopf, strutture algebriche emerse intorno agli anni ’50 dalla topologica algebrica e dalla teoria dei gruppi algebrici, e mostrare un collegamento tra esse e le algebre di Lie. Il primo capitolo è un’introduzione basilare al concetto di prodotto tensoriale di spazi vettoriali, che verrà utilizzato nel secondo capitolo per definire le strutture di algebra, co-algebra e bi-algebra. Il terzo capitolo introduce le definizioni e alcune proprietà di base delle algebre di Hopf e di Lie, con particolare attenzione al legame tra le prime e l’algebra universale inviluppante di un’algebra di Lie. Questo legame sarà approfondito nel quarto capitolo, dedicato allo studio di una particolare classe di algebre di Hopf, quelle graduate e connesse, che terminerà con il teorema di Cartier-Quillen-Milnor-Moore, un teorema strutturale che fornisce condizioni sufficienti affinché un’algebra di Hopf sia isomorfa all’algebra universale inviluppante dei suoi elementi primitivi.
Resumo:
In questa tesi viene trattata la problematica di determinare le migliori K soluzioni per due problemi di ottimizzazione, il Knapsack Problem 0-1 e lo Shortest Path Problem. Tali soluzioni possono essere impiegate all'interno di metodi di column generation per la risoluzione di problemi reali, ad esempio Bin Packing Problems e problemi di scheduling di veicoli ed equipaggi. Sono stati implementati, per verificarne sperimentalmente le prestazioni, nuovi algoritmi di programmazione dinamica, sviluppati nell’ambito di un programma di ricerca. Inizialmente, per entrambi i problemi, è stato descritto un algoritmo che determinasse le migliori K soluzioni per ogni possibile sottoproblema; partendo da uno zaino con capacità nulla, nel caso del Knapsack Problem 0-1, e dalla determinazione di un cammino dal vertice sorgente in se stesso per lo Shortest Path Problem, l’algoritmo determina le migliori soluzioni di sottoproblemi via via sempre più grandi, utilizzando le soluzioni costruite per gli stati precedenti, fino a ottenere le migliori soluzioni del problema globale. Successivamente, è stato definito un algoritmo basato su un approccio di ricorsione backward; in questo caso si utilizza una funzione ricorsiva che, chiamata a partire dallo stato corrispondente al problema globale, viene richiamata solo sugli stati intermedi strettamente necessari, e per ognuno di essi non vengono determinate soluzioni superflue.
Resumo:
Il neuroblastoma è un tumore solido pediatrico che si sviluppa nel sistema nervoso e risulta una significativa causa di morte infantile. Per avanzare nella conoscenza della sua patogenesi, l’ingegneria dei tessuti biologici, e più nello specifico la microfabbricazione dei biomateriali, ha favorito lo sviluppo di piattaforme microfluidiche utili per riprodurre il sistema neurovascolare umano. Piattaforme di questo tipo, chiamate chip, prevedono spesso l’utilizzo di idrogel. Nel mio elaborato viene presentato un lavoro recentemente pubblicato da Sokullu et al., nel quale gli autori presentano le prorietà del GelMA, un idrogel che mostra caratteristiche molto simili a quelle della matrice extracellulare naturale. Nel lavoro presentato, l’idrogel viene posto all’interno del microchip come base per la co-coltura di due linee cellulari umane, cellule di neuroblastoma e cellule endoteliali di vena ombelicale. Tramite test specifici si riscontra che il GelMA mostra appropriate proprietà biomeccaniche e determina nelle cellule in coltura una vitalità superiore all’80%. Il GelMA si rivela dunque una piattaforma utile per gli studi di colture cellulari 3D per lunghi periodi. Il lavoro analizzato prova inoltre che questa struttura permette di valutare eventi di invasione e migrazione di cellule tumorali suggerendo che il chip microfluidico possa essere impiegato per studi di ottimizzazione del dosaggio e delle modalità di somministrazione di farmaci chemioterapici.
Resumo:
Questo elaborato ha analizzato le Event Related Spectral Perturbation (ERSP), cioè le variazioni nella potenza del segnale in corrispondenza di una frequenza o una banda di frequenze, suddivisi in Event Related Synchronization (ERS) nel caso di incremento di potenza e Event Related Desynchronization (ERD) nel caso di decremento di potenza, relative a movimenti di reaching eseguiti con l’arto superiore. In particolare, sono state prese in considerazione le potenze nel ritmo alpha (8-12 Hz) e ritmo beta (12-30 Hz), in quanto ritmi associati alla preparazione ed esecuzione del movimento. I segnali EEG analizzati (60 canali) sono relativi a 14 soggetti a cui è stato chiesto di compiere movimenti di reaching verso una posizione target, secondo una tempistica definita dall’accensione di uno stimolo visivo informativo (CUE, corrispondente al led nella posizione target) e un secondo stimolo visivo imperativo (GO) che dà il via libera all’esecuzione del movimento verso il target. Sono codificate 5 posizioni discrete, a 0°, 45°, 90°, 135° e 180°, su una semicirconferenza il cui centro rappresenta il punto di partenza e ritorno, chiamato base. I segnali preventivamente preprocessati, sono stati decomposti tramite trasformata wavelet ed elaborati con la tecnica dell’averaging, con lo scopo di evidenziare ERS e ERD in banda alpha e beta associati a eventi visivi e motori. È stata presentata l’evoluzione nel tempo della distribuzione topologica delle ERSP a livello dello scalpo e sono state svolte analisi suddividendo i dati secondo la direzione (destra, centro, sinistra) del target e secondo la profondità (vicino, medio, lontano) del target. I risultati mostrano una desincronizzazione (ERD) nella fase di preparazione del movimento (immediatamente prima dello stimolo GO), sia in banda alpha che beta e suggeriscono una modulazione dell’ERD in funzione della direzione/profondità del target.
Resumo:
Negli ultimi anni la competitività nei mercati è notevolmente cresciuta, la complessità dei prodotti industriali è considerevolmente aumentata e quest’ultimi devono ora essere accuratamente ottimizzati sotto ogni aspetto. I prodotti, oltre ad avere dei cicli di vita più brevi, sono soggetti a un’alta personalizzazione e a una domanda variabile. Per rimanere competitive, le aziende manifatturiere devono possedere nuovi tipi di sistemi di produzione che siano convenienti e molto reattivi a tutti questi cambiamenti del mercato, quali i Sistemi di produzione riconfigurabili (Reconfigurable Manufacturing System - RMS). La particolarità di tali sistemi risiede nella capacità di cambiare rapidamente le loro strutture hardware e software, aspetto che li renda idonei a soddisfare la produzione moderna. Oltre agli aspetti produttivi, l’attenzione odierna è incentrata anche sulle tematiche ambientali legate al risparmio energetico durante i processi produttivi, alla riduzione delle quantità di CO2 emesse e alla sostenibilità ambientale. L’obiettivo di questa tesi è quello di proporre un modello di ottimizzazione multi-obiettivo che tenga conto sia della minimizzazione del tempo complessivo necessario alla movimentazione dei prodotti e alla riconfigurazione delle macchine, e sia della minimizzazione del consumo energetico. Tale modello è stato applicato ad un caso studio realistico che ha permesso di individuare un trade-off tecnico-ambientale individuando la frontiera di Pareto con punto di ottimo (134.6 min; 9346.3 kWh) che si discosta del 57% dal valore trovato ottimizzando la funzione tempo, e dello 0.76% dal valore ottenuto ottimizzando la funzione energia.
Resumo:
Il trasformatore è uno degli elementi più importanti di una rete di trasmissione; essendo il tramite fra reti di alta e media tensione, il suo corretto funzionamento garantisce l’alimentazione di tutti i dispositivi e carichi connessi alla linea. Oltre a questo, il trasformatore è anche l’elemento più costoso di tutta la linea elettrica; la sua manutenzione è di vitale importanza per evitare costi elevati per la sostituzione e disagi lungo la linea. Qui entra in gioco il ruolo della diagnostica; attraverso misure periodiche e mirate sul trasformatore è possibile agire tempestivamente ed evitare tutti i fenomeni precedentemente elencati. Nell’elaborato si tratterà l’analisi del trasformatore elettrico trifase durante il suo funzionamento, evidenziando i sottocomponenti e le rispettive criticità; inoltre, verranno mostrate le varie tecniche di diagnostica del trasformatore, in modo tale da poter estrarre un indice legato allo stato di vita, ossia l’Health Index. Ad oggi esistono diverse tecniche di approccio al calcolo dell’Health Index, quella che viene presentata è una tecnica del tutto innovativa, ossia sviluppare una rete neurale artificiale (Artificial Neural Network, ANN) in grado di prevedere lo stato del trasformatore basandosi su misure effettuate sullo stesso. Dunque, verranno presentante le basi per lo sviluppo di una rete neurale, partendo dall’analisi e formattazione dei dati, fino alla fase di ottimizzazione delle prestazioni. Infine, si attraverseranno tutte le fasi intermedie di realizzazione del progetto da cui l’elaborato prende il titolo; osservando l’evoluzione di una rete neurale che si trasforma da un programma scritto in ambiente Python a una applicazione pronta all’uso per gli operatori durante le operazioni di diagnostica.
Resumo:
Questa tesi ha l’obbiettivo di studiare e seguire la creazione un modello matematico che possa risolvere un problema logistico di Hub Facility Location reale, per l’individuazione del posizionamento ottimale di uno o più depositi all’interno di una rete distributiva europea e per l’assegnazione dei rispettivi clienti. Si fa riferimento alla progettazione della rete logistica per rispondere alle necessità del cliente, relativamente ad una domanda multiprodotto. Questo problema è stato studiato a partire da un caso reale aziendale per la valutazione della convenienza nella sostituzione di quattro magazzini locali con uno/due hub logistici che possano servire tutte le aree. Il modello distributivo può anche essere adoperato per valutare l’effetto della variazione, dal punto di vista economico, del servizio di trasporto e di tariffario. La determinazione della posizione ottimale e del numero dei magazzini avviene tramite un modello matematico che considera al proprio interno sia costi fissi relativi alla gestione dei magazzini (quindi costo di stabilimento, personale e giacenza) e sia i costi relativi al trasporto e alla spedizione dei prodotti sulle diverse aree geografiche. In particolare, la formulazione matematica si fonda su un modello Programmazione Lineare Intera, risolto in tempi molto brevi attraverso un software di ottimizzazione, nonostante la grande mole di dati in input del problema. In particolare, si ha lo studio per l’integrazione di tariffari di trasporto diversi e delle economie di scala per dare consistenza ad un modello teorico. Inoltre, per ricercare la migliore soluzione di quelle ottenute sono poi emersi altri fattori oltre a quello economico, ad esempio il tempo di trasporto (transit-time) che è un fattore chiave per ottenere la soddisfazione e la fedeltà del cliente e attitudine dell’area geografica ad accogliere una piattaforma logistica, con un occhio sugli sviluppi futuri.
Resumo:
In un mondo in continua trasformazione cresce sempre più il numero delle aziende che hanno colto l’importanza della digitalizzazione dei processi produttivi. Alcune di esse si affidano ad esperti capaci di suggerire soluzioni per ottenere servizi di alta qualità e fruibilità con l’integrazione di sistemi gestionali. Il presente lavoro di tesi ha come obiettivo l’analisi del processo produttivo di una azienda che realizza armadi per stazioni di ricarica elettrica serie terra a colonna. Si compone di sei capitoli, il primo affronta il tema della Simulazione e le sue principali caratteristiche per analizzare un processo di produzione; il secondo esamina i linguaggi, le applicazioni e i modelli di simulazione; il terzo analizza e descrive le peculiarità e le caratteristiche del software utilizzato per la simulazione; il quarto capitolo affronta il tema dell’industria 4.0 spingendo all’innovazione nei sistemi produttivi per raggiungere una produzione del tutto automatizzata e interconnessa; nel quinto viene descritto il modello digitale per ottenere in modo preciso un oggetto fisico, così da avere una Simulazione precisa, infine, il sesto esamina la Simulazione e Modellizzazione come strumento per l’ottimizzazione del processo produttivo riguardante armadi per stazioni di ricarica elettrica serie terra a colonna. Il raggiungimento dell’uso della simulazione come supporto all’analisi dinamica di un processo consente di avere una panoramica complessiva di tutte le operazioni, rappresentando, così un vantaggio per le aziende che possono valutare con oggettività soluzioni progettuali alternative, di cui è difficile prevedere il comportamento, le prestazioni e l’impatto su altri sistemi. Questi risultati sono la risposta alle necessità di disporre strumenti per l’anticipazione, il dimensionamento e il contenimento dei rischi di progetto.
Resumo:
Lo studio condotto è relativo allo sviluppo del Digital Twin di macchine automatiche finalizzato all’implementazione del cosiddetto Virtual Commissioning, cioè simulazioni virtuali della messa in servizio delle macchine per la verifica preliminare e/o ottimizzazione dei codici di controllo (Part Program o G-code). In particolare, il caso di studio trattato in questa tesi è la macchina F2F prodotta dall’Azienda GIULIANI (gruppo Bucci Automations S.p.a., Faenza – RA), con centro di lavoro bi-mandrino con tavola rotante azionato tramite controllore Fanuc. Dopo aver creato il Digital Twin della macchina, che ha richiesto come primo passo la digitalizzazione di alcuni componenti di cui non si avevano a disposizione i modelli CAD 3D, sono state effettuate simulazioni di cicli di lavoro di diversi semigrezzi, così da validare il modello in modo approfondito sulla base dell’esame di varie casistiche. In questa tesi si analizzano nel dettaglio il processo di sviluppo del modello e le procedure di simulazioni di Virtual Commissioning implementate sul software Eureka Virtual Machining (Roboris S.r.l., Pisa), delle quali vengono presentati i maggiori problemi riscontrati e illustrate le relative soluzioni. L’obiettivo è quello di fornire linee guida di carattere generale per affrontare anche in futuro le criticità più significative durante la fase di digitalizzazione delle macchine prodotte dall’Azienda. Inoltre, come applicazione particolare delle simulazioni Virtual Commissiong, è stata svolta un’attività di ottimizzazione per la riduzione del tempo di ciclo di lavoro di un pezzo, con lo scopo di incrementare la produttività della macchina. Infine, si fa notare che il produttore del software ha eseguito modifiche alla versione corrente di Eureka sulla base delle criticità che sono state riscontrate e segnalate durante lo sviluppo di questa tesi.
Resumo:
Il progetto si presenta come un miglioramento di una particolare terapia sanitaria, dove la maggior parte dei pazienti, soprattutto quelli in un’età delicata, possono avvertire determinati problemi fisici o psicologici. La terapia in questione è la Chemioterapia, che consiste nella somministrazione di una o più sostanze capaci di aggredire le cellule tumorali che si moltiplicano grazie a una fleboclisi, ovvero una procedura che è in grado di somministrare via endovenosa una sostanza come il trattamento appena citato, sfruttando alcune vene solide del braccio come la Basilica. Grazie a un’esperienza personale, pareri (dottoressa Antonella Sau) e coinvolgimenti di altri pazienti dell’associazione AGBE che hanno avuto un problema simile, è stato possibile progettare e inventare un tutore polimerico ad alta compatibilità dermatologica, in grado di immobilizzare l’arto usato nella terapia regalando una maggiore comodità e stabilità sia della fleboclisi che del braccio stesso. Inizialmente il tutore sarà ideato prendendo specifiche misure dell’avambraccio/gomito del singolo paziente, per poi stamparlo in 3D e portarlo ad effettuare i cicli somministrati per combattere la malattia. A fine di tutto, il paziente avrà sostenuto una cura delicata come la Chemioterapia con un maggiore comfort, maggiore stabilità psicologica e soprattutto meno complicanze come stravaso, infezioni varie, fuoriuscite di sostante chemioterapeutiche, gonfiori, depressione e irritazioni endovenose.
Resumo:
Distribuire un’applicazione che soddisfi i requisiti del cliente e che sia in grado di accogliere rapidamente eventuali modifiche è, al giorno d’oggi, d’obbligo per aziende che si occupano di applicazioni mobile che vogliano rimanere competitive sul mercato. Il principale fattore chiave in grado di mantenere un’azienda al passo con la continua evoluzione sia del mercato che delle tecnologie mobile è la continua innovazione e ottimizzazione dell’intero processo di sviluppo. La collaborazione e la comunicazione tra diversi team, l’utilizzo di cicli iterativi di sviluppo, i rilasci frequenti e l’automazione dei test sono alcune delle pratiche incentivate dalla cultura DevOps, adottabile con successo (si vedrà in questa tesi) anche per lo sviluppo di applicazioni mobile. Innovare e ottimizzare il processo di sviluppo non significa solo automatizzare l’esecuzione dei task. Un ruolo importante è giocato anche da aspetti legati all’applicazione: l’architettura, il paradigma di programmazione, e gli strumenti utilizzati. In particolare, al fine di applicare il principio “Don’t repeat yourself ” (DRY) e semplificare la manutenzione, diversi moderni framework per lo sviluppo di applicazioni mobile, detti multipiattaforma, propongono meccanismi che consentono di condividere codice tra piattaforme differenti. L’obiettivo di questa tesi è dunque quello di discutere (capitoli 1, 2 e 3) e mostrare, applicate ad un caso di studio industriale (capitoli 4, 5 e 6), l’uso di tecniche DevOps nell’ambito di applicazioni mobile, ed in particolare mostrando come queste siano applicabili in congiunzione ai framework di sviluppo multipiattaforma (in particolare, Kotlin Multiplatform).
Resumo:
I problemi di ottimizzazione di dimensione finita di larga scala spesso derivano dalla discretizzazione di problemi di dimensione infinita. È perciò possibile descrivere il problema di ottimizzazione su più livelli discreti. Lavorando su un livello più basso di quello del problema considerato, si possono calcolare soluzioni approssimate che saranno poi punti di partenza per il problema di ottimizzazione al livello più fine. I metodi multilivello, già ampiamente presenti in letteratura a partire dagli anni Novanta, sfruttano tale caratteristica dei problemi di ottimizzazione per migliorare le prestazioni dei metodi di ottimizzazione standard. L’obiettivo di questa tesi è quello di implementare una variante multilivello del metodo del gradiente (MGM) e di testarlo su due diversi campi: la risoluzione delle Equazioni alle Derivate Parziali la ricostruzione di immagini. In questo elaborato viene illustrata la teoria dello schema multilivello e presentato l’algoritmo di MGM utilizzato nei nostri esperimenti. Sono poi discusse le modalità di utilizzo di MGM per i due problemi sopra presentati. Per il problema PDE, i risultati ottenuti mostrano un ottimo comportamento di MGM rispetto alla implementazione classica ad un livello. I risultati ottenuti per il problema di ricostruzione di immagini, al contrario delle PDEs, evidenziano come MGM sia efficace solo in determinate condizioni.
Resumo:
L’attività di Tesi svolta presso l’azienda Magni Telescopic Handlers è stata finalizzata all’implementazione e l’ottimizzazione dei principi fondamentali della teoria della Lean Manufacturing. Lo scopo del percorso si è concentrato in prima battuta sulla valutazione e analisi delle previsioni dei consumi delle macchine, per poi proseguire con la realizzazione di un database aggiornato costituito esclusivamente dal materiale gestito a Kanban. In questa maniera è stato possibile predisporre la formulazione della mappatura dei componenti a Kanban lungo le tre linee di montaggio dell’azienda, per riuscire a verificare il corretto collocamento dei codici. Sono quindi successivamente sviluppate due metodologie di implementazione per il dimensionamento del Kanban al fine di ottimizzare i processi interni, in accordo con la filosofia Lean Thinking. Al termine dell'elaborato sono illustrati i risultati e i vantaggi che si sono ottenuti per consentire un miglior livello di ottimizzazione delle attività di montaggio lungo la linea e uno standard di efficienza produttiva più elevato.
Resumo:
L’obiettivo della tesi è l’analisi delle potenzialità di produzione di una linea di processo dell’azienda Basf, trovando i colli di bottiglia e proponendo delle modifiche per migliorare il processo, sia in efficienza che in volumi prodotti. L’impianto è suddiviso in tre sezioni: sintesi, estrazione e distillazione del prodotto P1. Produrre maggiori quantità di P1 è fondamentale per mantenere lo stabilimento al passo con le richieste del mercato. Lo studio è stato caratterizzato dall’analisi delle apparecchiature della linea nelle condizioni di esercizio e da verifiche secondo le portate attuali; successivamente sono state valutate delle modifiche, intere o parziali, della sezione di distillazione. Le proposte si differenziano nell’investimento necessario, esse sono definite: "low cost”, “high cost 1”, “high cost 2”. La prima opzione equivale ad un classico revamping, in cui vengono sostituiti i riempimenti delle colonne di distillazione per migliorare l’efficienza fluidodinamica e assicurare un punto di esercizio sotto il limite dell’ingolfamento. La proposta high cost 1 suggerisce, invece, oltre ai riempimenti strutturati, la sostituzione di una colonna con un’altra di diametro maggiore nella sezione di esaurimento. La terza proposta prevede di modificare la quasi totalità della linea di processo, effettuando uno scambio delle tre colonne di distillazione, in cui la minore viene eliminata, con l’installazione di una terza di dimensioni superiori. Ogni proposta permette di ottenere delle quantità di P1 maggiori generando un beneficio economico stimato con il Valore Attuale Netto, il punto di ritorno e il Tasso Interno di Rendimento. Per ridurre la necessità di vapore e acqua di torre è stato valutato un recupero energetico che ha come ulteriore beneficio la diminuzione delle emissioni di CO2 in atmosfera. L’elaborato si conclude con la scelta della proposta più conveniente sulla base dei criteri sopra citati e della possibilità realistica di implementazione.
Resumo:
Il Routing rappresenta uno dei problemi più studiati nell’ambito della Ricerca Operativa in quanto offre molteplici possibilità di ottimizzazione da cui possono derivare altrettanti vantaggi per le aziende che decidono di gestirlo in maniera strutturata. Uno dei principali ambiti di applicazione del routing è la pianificazione operativa del trasporto merci a clienti sparsi in un determinato territorio. Ci sono aziende che devono organizzare la loro Logistica distributiva ogni giorno. Ormai è diventato evidente che la realizzazione di questo processo mediante modalità “standard”, senza l’utilizzo di appositi strumenti di ottimizzazione, non solo porta alla perdita di occasioni importanti in termini di vantaggi raggiungibili, ma è anche molto più dispendiosa a livello di tempo richiesto. Molte aziende si stanno quindi affidando a soluzioni SW che si vadano ad integrare con i loro processi decisionali. Questi sistemi hanno alla base delle componenti algoritmiche in grado di trovare la migliore soluzione possibile per la tipologia specifica di Routing da affrontare. Per questi motivi, lo sviluppo di algoritmi in grado di risolvere questo problema rappresenta una parte consistente della letteratura scientifica in ambito di ottimizzazione. In questo elaborato si andranno a definire le principali caratteristiche di un problema di Routing in forma base e nelle sue varianti principali. Si descriveranno le caratteristiche dei problemi di Routing incontrati da Optit S.r.l, un’azienda che opera nel settore dello sviluppo di soluzioni SW di ottimizzazione. Nel fare ciò, si cercherà di trovare sovrapposizione con quanto descritto in letteratura. Infine, si descriveranno alcuni solver Open-Source per risolvere problemi di Routing e si mostreranno i risultati da essi ottenuti su alcuni casi di interesse industriale.