626 resultados para Studio ottimizzazione convertiplano atterraggio orizzontale
Resumo:
In questa tesi è presentato il lavoro svolto per ottimizzare le selezioni dei decadimenti Λ 0 b → pK− e Λ 0 b → pπ− al fine di misurarne le asimmetrie di CP. Il campione di dati utilizzato corrisponde ad una luminosità integrata di 6 fb−1, raccolto dall'esperimento LHCb in collisioni protone-protone ad un'energia nel centro di massa di 13 TeV. L'ottimizzazione della selezione è di fondamentale importanza nello studio di questi decadimenti, per ottenere la minor incertezza statistica possibile sulle asimmetrie misurate. Il lavoro svolto in questa tesi ha portato ad avere incertezze statistiche sulle singole asimmetrie di CP pari a: σ(A pK CP ) = 0.76%, σ(A pπ CP) = 0.95%, che risultano essere minori di circa un fattore due rispetto ai risultati già pubblicati dalla Collaborazione LHCb. Il lavoro svolto in questa tesi sarà parte della pubblicazione dei risultati ottenuti su rivista internazionale, prevista per il 2023
Resumo:
La distribuzione del valore del raggio di core rispetto all’età cronologica per gli ammassi globulari della Grande Nube di Magellano (LMC) appare alquanto peculiare, poiché tutti gli ammassi più giovani sono caratterizzati da un raggio di core limitato, mentre quelli più vecchi presentano un ampio intervallo di valori. Questo comportamento, noto come “size-age conundrum”, è stato recentemente attribuito ad un diverso livello di evoluzione dinamica degli ammassi più vecchi, con i sistemi con valori elevati del raggio di core dinamicamente più giovani rispetto a quelli con configurazioni più compatte. È attesa dunque un’anticorrelazione tra il valore del raggio di core e l’età dinamica. Questo lavoro di tesi è stato indirizzato allo studio del sistema NGC1835, un ammasso globulare vecchio e compatto della LMC in grado di fornire un’ulteriore conferma del nuovo scenario. Grazie ad immagini ad alta risoluzione acquisite tramite HST è stato possibile studiarne la popolazione stellare, la struttura, l’età cronologica e il grado di evoluzione dinamica. La stima della sua età cronologica (t=12.5±1 Gyr) ha confermato che si tratta di un sistema stellare molto antico, che si è formato all’epoca di formazione della LMC. Il profilo di densità e di brillanza superficiale sono stati utilizzati per derivare le principali caratteristiche strutturali dell’ammasso, come il raggio di core rc e il raggio a metà massa rh. Infine l’età dinamica è stata calcolata tramite il parametro A+, che misura il grado di segregazione radiale delle Blue Straggler Stars. NGC1835 è risultato l’ammasso più compatto (rc=3.60’’) e dinamicamente evoluto (A+=0.28±0.04) finora studiato nella LMC e, inserendosi con precisione all’interno dell’anticorrelazione aspettata tra il raggio di core e A+, ha ulteriormente supportato lo scenario secondo cui il livello di compattezza di un sistema dipende dal suo stadio di evoluzione dinamica.
Resumo:
L'argomento principale discusso in questa tesi riguarda la proposta di un'attività laboratoriale circa la trattazione di problemi di ottimizzazione unidimensionale in una scuola secondaria di secondo grado. Tale argomento rientra, infatti, tra le voci all'interno dei programmi ministeriali stilati per le classi terze dei Licei Scientifici, come applicazione dello studio e dell'analisi della parabola e come preambolo per la trattazione di problemi isoperimetrici e geometrici. Si tratta, dunque, di risolvere dei problemi di massimo e minimo senza utilizzare la derivata, sfruttando solamente la parabola e l'aspetto grafico del problema. Da qui, l'importanza di soffermarsi sulla visualizzazione corretta della situazione problematica, facendo proprie le potenzialità di software didattici, come GeoGebra, che permettono agli studenti di risolvere le proprie difficoltà. Verrà quindi illustrato il percorso didattico progettato: i risultati teorici elaborati e le modalità di ragionamento; lo sviluppo storico che vi è dietro, soffermandosi sugli studi di alcuni matematici importanti; alcune applicazioni reali dell'ottimizzazione, mostrando specialmente qualche legame con la fisica. Viene riportato, anche, lo svolgimento di alcuni esercizi, confrontando sia la modalità più tradizionale che quella incentrata sulla costruzione grafica su GeoGebra. Nell'ultimo Capitolo, infine, viene fornita una analisi dei feedback e dei risultati relativa all'attività laboratoriale, che è stata presentata all'interno di una classe terza di un Liceo Scientifico: verranno esaminati i livelli di competenze raggiunti e gli eventuali vantaggi offerti da una trattazione di questo tipo.
Resumo:
Questa tesi è stata svolta in collaborazione con un’azienda di Cesena che si occupa della progettazione e costruzione di caricabatterie e saldatrici e si pone come scopo di analizzare quello che viene chiamato carico "rigenerativo" un dispositivo che permette di testare e collaudare questo tipo di macchine consumando la minor energia elettrica possibile. In particolare si discuterà come avviene il funzionamento del circuito di interfaccia e la sua resa energetica attraverso alcune simulazioni con vari tipi di carichi. Verrà anche presa in esame una prova con il circuito realizzato e confrontata con quella analoga svolta al simulatore.
Resumo:
L’attività di ricerca svolta in questa tesi ha riguardato gli aspetti microstrutturali, le proprietà meccaniche e l’ottimizzazione del trattamento termico di un acciaio inossidabile indurente per precipitazione processato mediante tecnologia additiva Laser Powder Bed Fusion (L-PBF). I provini, realizzati presso il competence center Bi-REX (Bologna) e lavorati presso il laboratorio di Metallurgia del DIN, sono stati oggetto di vari trattamenti termici sperimentali in cui è stata fatta variare la temperatura e la durata di mantenimento in forno, al fine di identificare la combinazione ottimale di temperatura e tempo sia per la fase di solubilizzazione che di invecchiamento. Nello specifico, la scelta dei parametri di solubilizzazione e invecchiamento è stata fatta solo sulla base dei trend di durezza. Da queste attività sono stati scelti i parametri di trattamento che garantissero elevata durezza, prossima alla massima ottenibile, senza durate di invecchiamento eccessive. L'esito della sperimentazione ha permesso di ridurre sensibilmente temperatura e durata di solubilizzazione rispetto al trattamento benchmark senza penalizzazione della durezza risultante. Dopodiché è stata eseguita una caratterizzazione microstrutturale e meccanica dell’acciaio, in termini di durezza, trazione e resilienza, per confrontare il trattamento termico ottimizzato con la condizione As-Built (AB) e con il trattamento termico standard indicato dal produttore. L’elevata durezza misurata dopo invecchiamento si deve alla presenza di precipitati di rinforzo in grado di ostacolare il moto delle dislocazioni. Le prove meccaniche hanno confermato l’ottenimento di elevata resistenza a snervamento e a trazione, superiore al benchmark, ma di un basso allungamento a rottura e bassissima resilienza a causa di difetti quali porosità, mancate fusioni e spattering. Infine, lo studio delle superfici di frattura ha permesso di analizzare i meccanismi di rottura dei campioni di trazione e resilienza.
Resumo:
L'obiettivo principale di molti problemi industriali è tipicamente massimizzare i profitti o minimizzare costi o tempi di produzione. Questi problemi sono detti "di ottimizzazione" poiché bisogna ottimizzare determinati processi o attività attraverso decisioni che portino alla soluzione ottima del problema. Il giusto utilizzo di modelli matematici può condurre, tramite l'utilizzo di algoritmi esatti, alla soluzione ottima di un problema di questo tipo. Queste tecniche sono spesso basate su l'enumerazione completa di tutte le possibili soluzioni e ciò potrebbe pertanto richiedere una quantità di calcoli talmente elevata da renderle di fatto inutilizzabili. Per risolvere problemi di grandi dimensioni vengono quindi utilizzati i cosiddetti algoritmi euristici, i quali non assicurano di trovare la soluzione ottima del problema, ma promettono di trovarne una di buona qualità. In questa tesi vengono analizzati, sviluppati e confrontati entrambi gli approcci, attraverso l'analisi di un problema reale che richiede la pianificazione delle attività di un satellite.
Resumo:
Questo elaborato è stato svolto all'interno della Marchesini Group, nell'Headquarter di Pianoro al secondo piano nell'ufficio analisi ordini. Nella prima parte di questo documento è stata fatta una profonda analisi di quello che è il contesto industriale di riferimento, packaging farmaceutico, dell'industria 4.0 e di come l'Azienda si approccia a tutto ciò. Prosegue con una breve descrizione dell'azienda e delle normative di rifermento. Nella seconda parte dell'elaborato è stata svolta una profonda analisi del processo che va dalla ricezione dell'ordine alla spedizione della macchina/linea al cliente, quindi dell'intero ciclo di vita della commessa. Attraverso questa analisi sono state analizzate le criticità delle diverse attività svolte, da diverse risorse e gli strumenti, utilizzati, attraverso cui vengono portate a termine. La figura del Project coordinator, la scheda prodotto, la macro-pianificazione e il cruscotto sono gli elementi che sono stati maggiormente analizzati. Sono stati analizzati i loro punti deboli e proposte soluzioni migliorative. E' stato analizzato il modo di introdurle e valutato il loro impatto a livello economico nel breve periodo. Alla fine c'è una piccola considerazione su quali aspetti andrebbero ulteriormente approfonditi.
Resumo:
Il presente elaborato si propone di raccogliere e dettagliare il lavoro svolto presso l’azienda Motori Minarelli durante il tirocinio curricolare. Minarelli ha dato l’avvio ad un nuovo progetto di nome ISSIMO e conseguentemente si è trovata ad approcciare una nuova tipologia di prodotto da assemblare attraverso linea di montaggio: una bicicletta elettrica. Il compito dell’azienda bolognese era quello di progettare e implementare la linea produttiva per la commercializzazione dell’e-bike. Al giorno d’oggi una buona progettazione del ciclo produttivo è alla base per la generazione di prodotti eccellenti e di qualità, per questo il ciclo di assemblaggio è stato definito tramite l’applicazione di una serie di algoritmi euristici di line balancing, per definire la struttura della linea di montaggio e la sequenza di produzione. Si è divisa la trattazione in quattro parti distinte: la prima parte è una analisi storica che parte dalla nascita della catena di montaggio sino alla teoria degli algoritmi di bilanciamento; la seconda parte permette di calarsi nel contesto aziendale; la terza parte dettaglia il progetto ISSIMO nei dettagli e la quarta parte, quella sperimentale, mostra l’applicazione degli algoritmi alla linea di assemblaggio in esame.
Resumo:
Il presente lavoro di tesi si occupa di identificare le possibili ubicazioni di hub logistici distributivi del gruppo aziendale FAAC Technologies e di valutare le alternative da un duplice punto di vista: economico e sostenibile. Per raggiungere il suddetto risultato è stata dapprima studiata l’attuale configurazione logistica nel centro Europa. Unendo le caratteristiche dell’azienda con le ricerche presenti in letteratura scientifica riguardo la risoluzione di Hub Location Problem, è stato implementato un modello matematico che ottimizzi economicamente il posizionamento degli stabilimenti secondo diversi scenari organizzativi. Una seconda versione del modello valuta il rispetto dei tempi di transito da parte delle soluzioni ottenute. Infine, gli stessi scenari sono stati comparati tra loro in base all’impatto ambientale in termini di CO2 emessa nell’atmosfera per via del trasporto. Sono state studiate strategie riguardanti la logistica distributiva sostenibile e sono state proposte soluzioni in grado di mitigare gli effetti dovuti all’immissione di anidride carbonica. Gli strumenti digitali utilizzati nella presente ricerca sono stati: Excel per visualizzare ed elaborare i dati aziendali; Flourish per visualizzare i dati in mappe geografiche; MATLAB per trasformare le tariffe di trasporto in equazioni matematiche; Gurobi Optimizer per ottenere le soluzioni date dall’ottimizzazione del modello matematico, programmando attraverso il linguaggio AMPL. I risultati più significativi dimostrano la possibilità di raggiungere un risparmio economico del 16,7% dei costi logistici nel caso di ubicazione di un solo hub e del 9,8% nel caso di due hub. Dal punto di vista ambientale le medesime soluzioni comportano un aumento delle emissioni di CO2 rispettivamente del 45% e 8%. L’azzeramento di queste emissioni aggiuntive è possibile e a tal fine sarebbe necessario sostenere extra costi, i quali farebbero convergere entrambe gli scenari ad un risparmio comune pari all’8,2%.
Resumo:
A seguito di un’esigenza esplicitata della Divisione IMA Ilapak Lugano, il team del PaLM Entreprise ha creato il Modulo Segnalazione Modifiche (MSM) con lo scopo di standardizzare e strutturare il flusso informativo relativo alle modifiche della distinta base dagli uffici tecnici a quelli della logistica e produzione. La prima analisi effettuata è stata incentrata sulla situazione AS-IS e sul primo applicativo che utilizzava Ilapak Lugano, il Segnalazione Modifiche (SM). Dopo aver appreso il funzionamento del vecchio SM, sono emerse diverse criticità come la scarsa integrazione con la piattaforma PaLM e con gli altri sistemi che conducevano a problemi di trasmissione di informazione tra gli uffici e ad errori nel recupero delle modifiche corrette. Dopo differenti riunioni tra i due team sono state concordate le prime specifiche. Successivamente l’elaborato procede con un’analisi della situazione TO-BE, descrivendo le caratteristiche ed i vantaggi del MSM. Uno dei principali benefici è che il Modulo è perfettamente integrato all’interno del PaLM e con tutti i sistemi PDM e CAD. Tutto ciò permette di migliorare la comunicazione e la collaborazione tra i vari dipartimenti, in special modo tra gli uffici tecnici e la logistica e con i fornitori. La terza ed ultima analisi è, invece, una valutazione economica: vengono calcolati i costi della situazione AS-IS, quelli della TO-BE e, in seguito, viene fatta un’analisi costi/benefici, confrontando i due scenari. Attraverso l’implementazione del MSM, si ottengono i seguenti risultati: non solo si ottiene una riduzione dei costi, ma anche un risparmio importante di tempo per gli operatori. Ilapak Lugano è risultata essere la portavoce di un progetto che, in realtà, molte altre Divisioni IMA desiderano. Senza dubbio, il fine ultimo del progetto del MSM è quello di introdurlo in quante più Divisioni possibili, rendendolo un modulo indispensabile all’interno dell’azienda.
Resumo:
I dati sono una risorsa di valore inestimabile per tutte le organizzazioni. Queste informazioni vanno da una parte gestite tramite i classici sistemi operazionali, dall’altra parte analizzate per ottenere approfondimenti che possano guidare le scelte di business. Uno degli strumenti fondamentali a supporto delle scelte di business è il data warehouse. Questo elaborato è il frutto di un percorso di tirocinio svolto con l'azienda Injenia S.r.l. Il focus del percorso era rivolto all'ottimizzazione di un data warehouse che l'azienda vende come modulo aggiuntivo di un software di nome Interacta. Questo data warehouse, Interacta Analytics, ha espresso nel tempo notevoli criticità architetturali e di performance. L’architettura attualmente usata per la creazione e la gestione dei dati all'interno di Interacta Analytics utilizza un approccio batch, pertanto, l’obiettivo cardine dello studio è quello di trovare soluzioni alternative batch che garantiscano un risparmio sia in termini economici che di tempo, esplorando anche la possibilità di una transizione ad un’architettura streaming. Gli strumenti da utilizzare in questa ricerca dovevano inoltre mantenersi in linea con le tecnologie utilizzate per Interacta, ossia i servizi della Google Cloud Platform. Dopo una breve dissertazione sul background teorico di questa area tematica, l'elaborato si concentra sul funzionamento del software principale e sulla struttura logica del modulo di analisi. Infine, si espone il lavoro sperimentale, innanzitutto proponendo un'analisi delle criticità principali del sistema as-is, dopodiché ipotizzando e valutando quattro ipotesi migliorative batch e due streaming. Queste, come viene espresso nelle conclusioni della ricerca, migliorano di molto le performance del sistema di analisi in termini di tempistiche di elaborazione, di costo totale e di semplicità dell'architettura, in particolare grazie all'utilizzo dei servizi serverless con container e FaaS della piattaforma cloud di Google.
Resumo:
Il presente lavoro di tesi riguarda lo studio di fattibilità e valutazione comparativa di soluzioni impiantistiche e di processo finalizzate all’ottimizzazione dell’attuale sezione di distillazione di un impianto di produzione dei catalizzatori Ziegler-Natta. Il TiCl4 figura tra i principali reagenti impiegati nella sintesi dei catalizzatori, ma la tecnologia attualmente in uso non ne consente il totale recupero. A partire da una panoramica dell’intero processo produttivo dei catalizzatori Ziegler-Natta, si sono analizzate le criticità della sezione di distillazione e si sono valutate possibili soluzioni. Con l’obiettivo di ottenere un significativo recupero del TiCl4 rispetto alla situazione attuale, lo studio di fattibilità si è orientato verso un processo di distillazione con solvente. Al fine di valutare l’efficacia di tale soluzione, si è utilizzato il programma Aspen Plus V12. I principali composti coinvolti nel processo, che verranno implementati nell’ambiente di simulazione, sono: il TiCl4, il TiCl3(OC2H5) e un solvente. Quest’ultimo è il risultato di una ricerca tra sostanze con proprietà idonee al processo di distillazione studiato. Per ognuno dei composti sono richieste le principali proprietà termo-fisiche. Tuttavia, per il TiCl3(OC2H5) non vi sono informazioni disponibili presso le banche dati e la molecola è termicamente instabile. È stato perciò impiegato un particolare approccio ai contributi di gruppo per stimarne le proprietà d’interesse. Il solvente adottato è costituito da una miscela di isomeri: sono state effettuate delle misurazioni al fine di confermare un composto puro per l’ambiente di simulazione. Le simulazioni di processo hanno permesso di condurre con successo lo studio di fattibilità. Ulteriori proposte impiantistiche e per apparecchiature sono state valutate a completamento di tale studio. Il presente lavoro è stato svolto presso il centro Ricerche e Sviluppo “Giulio Natta” nella sede di Ferrara di LyondellBasell Industries.
Resumo:
I CFRP laminati sono materiali dalle eccellenti proprietà meccaniche specifiche che hanno, però, il grande svantaggio di essere soggetti a delaminazione. Essa è una problematica che può seriamente comprometterne l’affidabilità in vita d’uso e va, perciò, contrastata cercando di prevenirla o cercando di ridurne gli effetti negativi. Lo scopo del presente elaborato di tesi è stato quello di produrre, mediante elettrofilatura, membrane polimeriche che, integrate in laminati compositi, abbiano funzione di rendere il composito delaminato in grado di “autoripararsi” tramite meccanismo di self-healing. È stato condotto uno studio di ottimizzazione di tutti i parametri riguardanti la soluzione ed il processo di elettrofilatura che conducesse all’ottenimento di membrane con una morfologia fibrosa esente da difetti e, contemporaneamente, ad una buona maneggiabilità delle stesse. Le membrane sono state caratterizzate morfologicamente tramite analisi SEM e analisi DSC.
Resumo:
I compositi a matrice polimerica rinforzati con fibre di carbonio (Carbon fiber reinforced polymers, CFRP) posseggono proprietà meccaniche uniche rispetto ai materiali convenzionali, ed un peso decisamente inferiore. Queste caratteristiche, negli ultimi decenni, hanno determinato un crescente interesse nei confronti dei CFRP che ha portato a numerose applicazioni in settori come l’industria aerospaziale e l’automotive. Le sollecitazioni cui i CFRP laminati sono soggetti durante la vita d’uso possono causare fenomeni di delaminazione che, portando ad una drastica riduzione delle proprietà meccaniche del materiale, ne compromettono l’integrità strutturale. Nel presente lavoro di tesi, sono state integrate in laminati CFRP membrane elettrofilate da blend polimeriche con capacità di self-healing. Le migliori condizioni da applicare in fase di cura del composito sono state approfonditamente investigate mediante analisi termica (DSC). Per verificare la capacità di autoriparazione dei laminati modificati, è stata valutata la tenacità a frattura interlaminare in Modo I e Modo II prima e dopo il trattamento di attivazione del self-healing.
Resumo:
Il neuroblastoma è un tumore solido pediatrico che si sviluppa nel sistema nervoso e risulta una significativa causa di morte infantile. Per avanzare nella conoscenza della sua patogenesi, l’ingegneria dei tessuti biologici, e più nello specifico la microfabbricazione dei biomateriali, ha favorito lo sviluppo di piattaforme microfluidiche utili per riprodurre il sistema neurovascolare umano. Piattaforme di questo tipo, chiamate chip, prevedono spesso l’utilizzo di idrogel. Nel mio elaborato viene presentato un lavoro recentemente pubblicato da Sokullu et al., nel quale gli autori presentano le prorietà del GelMA, un idrogel che mostra caratteristiche molto simili a quelle della matrice extracellulare naturale. Nel lavoro presentato, l’idrogel viene posto all’interno del microchip come base per la co-coltura di due linee cellulari umane, cellule di neuroblastoma e cellule endoteliali di vena ombelicale. Tramite test specifici si riscontra che il GelMA mostra appropriate proprietà biomeccaniche e determina nelle cellule in coltura una vitalità superiore all’80%. Il GelMA si rivela dunque una piattaforma utile per gli studi di colture cellulari 3D per lunghi periodi. Il lavoro analizzato prova inoltre che questa struttura permette di valutare eventi di invasione e migrazione di cellule tumorali suggerendo che il chip microfluidico possa essere impiegato per studi di ottimizzazione del dosaggio e delle modalità di somministrazione di farmaci chemioterapici.