734 resultados para Vicente Di Grado
Resumo:
L’argomento di questa tesi nasce dall’idea di unire due temi che stanno assumendo sempre più importanza nei nostri giorni, ovvero l’economia circolare e i big data, e ha come obiettivo quello di fornire dei punti di collegamento tra questi due. In un mondo tecnologico come quello di oggi, che sta trasformando tutto quello che abbiamo tra le nostre mani in digitale, si stanno svolgendo sempre più studi per capire come la sostenibilità possa essere supportata dalle tecnologie emergenti. L’economia circolare costituisce un nuovo paradigma economico in grado di sostituirsi a modelli di crescita incentrati su una visione lineare, puntando ad una riduzione degli sprechi e ad un radicale ripensamento nella concezione dei prodotti e nel loro uso nel tempo. In questa transizione verso un’economia circolare può essere utile considerare di assumere le nuove tecnologie emergenti per semplificare i processi di produzione e attuare politiche più sostenibili, che stanno diventando sempre più apprezzate anche dai consumatori. Il tutto verrà sostenuto dall’utilizzo sempre più significativo dei big data, ovvero di grandi dati ricchi di informazioni che permettono, tramite un’attenta analisi, di sviluppare piani di produzione che seguono il paradigma circolare: questo viene attuato grazie ai nuovi sistemi digitali sempre più innovativi e alle figure specializzate che acquisiscono sempre più conoscenze in questo campo.
Resumo:
L’obiettivo di questo elaborato è quello di analizzare i meccanismi che sono alla base di alcuni fenomeni che si verificano nel vino, e prevedere la loro incidenza per minimizzare l’impatto sul prodotto finito. Essi sono: l’instabilità proteica e l’instabilità tartarica. In entrambi i casi, le conseguenze sono l’inaccettabilità del prodotto da parte del consumatore, sebbene queste due problematiche non abbiano nessuna conseguenza negativa sulla salute. Nella prima parte dell’elaborato è trattato il fenomeno dell’instabilità proteica. Nel momento in cui questo fenomeno si verifica, si crea una velatura nel vino, più o meno marcata, che causa, soprattutto nei vini bianchi conservati in bottiglie trasparenti, impoverimento qualitativo e sensoriale del prodotto. È, quindi, fondamentale prevedere e conoscere quali sono i meccanismi alla base della formazione di questo fenomeno per poterlo evitare. Nel settore enologico sono disponibili dei trattamenti per la stabilità, per i quali è importante prevedere la quantità di prodotto da utilizzare. Nella seconda parte dell’elaborato viene trattato il problema dell’instabilità tartarica. Questo fenomeno si manifesta con la formazione di cristalli di sale nel vino, che precipitano. In questo caso, il trattamento a freddo è tradizionalmente considerato uno dei migliori approcci per poter contrastare questo fenomeno. Una valida alternativa può essere anche l’utilizzo di prodotti enologici il cui fine è quello di inibire la formazione e la crescita dei cristalli e raggiungere la stabilità in tempi anche più rapidi. In questo elaborato di tesi viene presentata una panoramica sui diversi prodotti attualmente disponibili nel settore enologico per poter fronteggiare questi due fenomeni e migliorare la qualità, la shelf-life e il grado di piacevolezza del vino e renderlo più apprezzato da parte del consumatore.
Resumo:
La maggior parte della rete viaria nazionale ha superato i 50 anni di vita, essendo stata progettata tra il dopo guerra e i primi anni ’70. Di conseguenza, le infrastrutture come ad esempio ponti e viadotti sono caratterizzate da un generalizzato stato di degrado. Nell’ottica delle verifiche di sicurezza delle opere in C.A.P. esistenti, quindi, conoscere la precompressione residua di un determinato elemento, con un certo grado di affidabilità, permette di valutare la necessità di intervento o meno sullo stesso. Tra le tecniche diagnostiche in maggior diffusione vi è quella del rilascio tensionale, che consiste nello stimare l’attuale stato di precompressione agente su specifiche sezioni di elementi precompressi a partire dal rilascio di deformazione di precompressione, agente sul calcestruzzo, isolandone una porzione tramite una serie di tagli fino al raggiungimento del completo rilascio. Esistono varie tecniche di rilascio tensionale ma nella letteratura scientifica non esiste ancora una robusta validazione di questi metodi dal punto di vista dell’affidabilità e dell’accuratezza. In questo lavoro di tesi sono state affrontate due tecniche, riconducibili a due macrogruppi di metodi di misura: metodo tramite la realizzazione di tagli inclinati o perpendicolari rispetto alla superficie del manufatto in calcestruzzo, al fine di estrarre un provino tronco piramidale; metodo tramite l’estrazione di una carota perpendicolare alla superficie del manufatto in calcestruzzo. L’obiettivo prefissato era la valutazione delle prove in termini di attendibilità dei risultati con, inoltre, una particolare attenzione all’invasività nei confronti della struttura e alla ripetibilità in situ. Per il lavoro di tesi sono state realizzate 10 colonne in cemento armato (C.A.) a cui, al fine di simulare uno stato di precompressione, è stata applicata una tensione nota di compressione per poi procedere con le prove di rilascio tensionale tramite i metodi considerati.
Resumo:
Questa Tesi di Laurea è legata agli aspetti tecnologici dell'esperimento Gamma-Flash, progetto coordinato dall'Istituto Nazionale di Astrofisica finanziato dall'Agenzia Spaziale Italiana che ha lo scopo di studiare eventi altamente energetici che avvengono in atmosfera denominati Terrestial Gamma-ray Flashes (TGFs). Questi eventi hanno uno stretto legame con i fulmini che avvengono durante episodi temporaleschi. I fulmini producono particelle ionizzate ed elettroni che per effetto bremmstrahlung emettono radiazione in un ampio intervallo di energie da centinaia di keV a decine di MeV. Questo tipo di eventi è stato rivelato da numerose missioni da satellite fin dagli anni '90 (BATSE/CGRO) e successivamente con i satelliti RHESSI, AGILE, BeppoSAX e Fermi. Molto più rare sono le osservazioni di questi eventi da terra o da rivelatori posti su velivoli. Gamma-Flash ha lo scopo di realizzare strumentazione per la rivelazione di questi eventi da un osservatorio posto su M.te Cimone (2165m s.l.m) e su un aereo in grado di raggiungere quote di 8-10000m. L'esperimento viene effettuato attraverso rivelatori a scintillazione e con elettronica dedicata la cui risposta in energia dipende dalla temperatura di funzionamento. È quindi importante conoscere come il detector si comporta al variare della temperatura, che, soprattutto nell'esperimento terrestre, può variare di decine di gradi anche su tempi scala brevi. Scopo di questa tesi è stato quindi di caratterizzare uno dei rivelatori che saranno posti all'Osservatorio O. Vittori di M.te Cimone utilizzando una camera climatica che simula le condizioni di temperatura variabili e riscontrabili durante l'esperimento.
Resumo:
L’adroterapia è un tipo di terapia oncologica in cui il tumore è irraggiato con particelle cariche (adroni) quali protoni e ioni carbonio. Il vantaggio principale rispetto alla radioterapia convenzionale a raggi X consiste nel fatto che l’irraggiamento con adroni non coinvolge i tessuti sani circostanti quelli malati. Tuttavia, si conosce ancora poco sui processi di frammentazione nucleare che avvengono tra gli adroni del fascio usato nel trattamento e i nuclei presenti nel corpo umano. Così, nel 2017 nasce l’esperimento FOOT (FragmentatiOn Of Target) con lo scopo di misurare le sezioni d’urto differenziali dei frammenti nucleari prodotti nell’interazione a energie di 200-400 MeV/u (tipicamente impiegate in adroterapia). Attualmente l’apparato sperimentale di FOOT è in grado di compiere misure accurate solo per frammenti carichi, ma nell’ultimo anno si è cominciata ad esplorare la possibilità di rivelare anche i neutroni. Per questa operazione è necessario servirsi di scintillatori liquidi affiancati ad un sistema di veto costituito da scintillatori plastici sottili accoppiati a sensori che segnalano il passaggio di eventuali frammenti carichi. In una precedente campagna di misure con la collaborazione FOOT, si sono utilizzati come sensori dei tubi fotomoltiplicatori (PMT). Per migliorare le prestazioni del sistema di veto si è reso necessario l’utilizzo di scintillatori plastici veloci, letti da sensori fotomoltiplicatori al silicio (SiPM). In questa tesi mi sono occupato della risoluzione temporale dei segnali acquisiti con scintillatori plastici EJ-204 di 3 mm di spessore, letti da SiPM SenseL®.
Resumo:
La presente tesi tratta lo studio di fattibilità di un impianto automatico per l’assemblaggio di stampati in materiale plastico. Lo sviluppo della tesi si è basato sulla riproduzione a computer (utilizzando il software AutoMod) del layout futuro, delle movimentazioni di materiale e dell’analisi dei flussi che servono all’impianto e l’utilizzo del personale a bordo dello stesso. Successivamente, sviluppato il modello, si è andati a calcolare quale potesse essere il lotto ottimale di produzione che fosse in grado di individuare una produzione efficiente. Infine, è stata fatta l’analisi dell’investimento tramite foglio di calcolo Excel riportando i dati uscenti dal modello di simulazione insieme ad altri dati stimati e rilevati sul campo. Il programma ha come obiettivo l’analisi di fattibilità e la successiva decisione estratta dai dati sulla vantaggiosità o meno dell’investimento ed in quanto tempo l’azienda potrà rientrare economicamente.
Resumo:
La crescente disponibilità di scanner 3D ha reso più semplice l’acquisizione di modelli 3D dall’ambiente. A causa delle inevitabili imperfezioni ed errori che possono avvenire durante la fase di scansione, i modelli acquisiti possono risultare a volte inutilizzabili ed affetti da rumore. Le tecniche di denoising hanno come obiettivo quello di rimuovere dalla superficie della mesh 3D scannerizzata i disturbi provocati dal rumore, ristabilendo le caratteristiche originali della superficie senza introdurre false informazioni. Per risolvere questo problema, un approccio innovativo è quello di utilizzare il Geometric Deep Learning per addestrare una Rete Neurale in maniera da renderla in grado di eseguire efficacemente il denoising di mesh. L’obiettivo di questa tesi è descrivere il Geometric Deep Learning nell’ambito del problema sotto esame.
Resumo:
Il seguente elaborato di tesi prevede la simulazione del comportamento di quattro diversi layout di magazzino contenenti lo stesso numero di vani, ipotizzando uno stoccaggio della merce secondo il criterio delle classi. Inoltre è stata analizzata l’influenza della variabile altezza sul tempo di ciclo dei singoli magazzini. I quattro layout analizzati sono stati: il layout tradizionale, il layout diagonal cross aisle, il layout fishbone e il layout leaf. Il primo è un magazzino “convenzionale”, nel quale l’intersezione dei corridoi genera sempre angoli retti, i restanti tre sono magazzini “non convenzionali”, ovvero l’intersezione dei corridoi genera angoli particolari. Per ciascun magazzino è stato realizzato un modello matematico discreto in grado di determinare la posizione di ogni singolo vano, la sua distanza dal punto I/O e la sua altezza da terra. Il modello matematico e la tipologia di gestione del magazzino sono stati successivamente implementati in un programma scritto su Microsoft Excel, mediante il linguaggio integrato VBA (Visual Basic for Application). Questo ha permesso di determinare i tempi di ciclo medi per ciascun magazzino, facendo il rapporto tra le distanze precedentemente calcolate e le velocità di traslazione e sollevamento del carrello elevatore. Per ottenere dalla simulazioni dei valori il più possibile prossimi alla realtà è stata adottata la metodologia di Simulazione Monte Carlo e un numero di estrazioni pari a 1000. Dai risultati ottenuti è emerso che il magazzino fishbone è in grado di garantire i miglior tempo di ciclo e che i tempi di ciclo più bassi si ottengono, a parità di vani presenti in un magazzino, aumentando le dimensioni in pianta piuttosto che aumentando l’altezza del magazzino.
Resumo:
Il fenomeno noto come Internet of Things costituisce oggi il motore principale dell'espansione della rete Internet globale, essendo artefice del collegamento di miliardi di nuovi dispositivi. A causa delle limitate capacità energetiche e di elaborazione di questi dispositivi è necessario riprogettare molti dei protocolli Internet standard. Un esempio lampante è costituito dalla definizione del Constrained Application Protocol (CoAP), protocollo di comunicazione client-server pensato per sostituire HTTP in reti IoT. Per consentire la compatibilità tra reti IoT e rete Internet sono state definite delle linee guida per la mappatura di messaggi CoAP in messaggi HTTP e viceversa, consentendo così l'implementazione di proxies in grado di connettere una rete IoT ad Internet. Tuttavia, questa mappatura è circoscritta ai soli campi e messaggi che permettono di implementare un'architettura REST, rendendo dunque impossibile l'uso di protocolli di livello applicazione basati su HTTP.La soluzione proposta consiste nella definizione di un protocollo di compressione adattiva dei messaggi HTTP, in modo che soluzioni valide fuori dagli scenari IoT, come ad esempio scambio di messaggi generici, possano essere implementate anche in reti IoT. I risultati ottenuti mostrano inoltre che nello scenario di riferimento la compressione adattiva di messaggi HTTP raggiunge prestazioni inferiori rispetto ad altri algoritmi di compressione di intestazioni (in particolare HPACK), ma più che valide perchè le uniche applicabili attualmente in scenari IoT.
Resumo:
I notevoli sviluppi tecnologici che hanno caratterizzato l’ultimo decennio hanno portato con sé alcune minacce alla sicurezza. In questa tesi, completamento di un progetto di tirocinio svolto presso il CINECA, ci si concentra sulla realizzazione di una baseline dinamica in grado di apprendere il comportamento degli utenti. Grazie ad essa e con l’aiuto di uno script Python, è possibile rilevare i comportamenti anomali e segnalarli agli interessati. Il focus principale del progetto riguarda il possibile esaurimento di sessioni in applicazioni web e la conseguente negazione del servizio. La raccolta dei dati dai vari applicativi è stata possibile utilizzando il SIEM QRadar di IBM, le funzionalità in esso presenti e le API che hanno consentito un agevole interfacciamento con gli script esterni.
Resumo:
Il progetto è stato sviluppato con l’idea di creare una rete attraverso la quale imbarcazioni da diporto relativamente vicine (10km), si possano scambiare informazioni sullo stato del mare e della navigazione, anche in assenza di una connessione a internet. In tal modo i dati dell’imbarcazione, come temperatura esterna, temperatura dell’acqua, vento, coordinate gps, AIS ecc... verrebbero condivisi attraverso la rete. In questo progetto è stata sviluppata un'infrastruttura in grado di far comunicare imbarcazioni da diporto su bande non licenziate, utilizzando solo materiale OpenSource, in particolare un protocollo chiamato LoRaMesh. Tale infrastruttura, non basandosi su uno standard definito, ha la possibilità di adattarsi a qualsiasi tipo di dato. Tutto il progetto si basa su schede PyCom, ed è stato sviluppato del codice in grado di fornire uno scambio di dati costante e un’interfacci BLE per comunicare con più dispositivi possibili. Per fornire un’esempio di come ci si può connettere con il BLE è stata scritta un’app per IOS che fornisce varie funzionalità, tra cui la possibilità di inviare dati GPS, molto utile per l’esecuzione dei vari test. Sono state svolte varie prove, in diversi luoghi e condizioni, utili a capire la portata massima dei dispositivi, e come la rete mesh si adatta e ripara.
Resumo:
Nell'industria farmaceutica la necessità di ottenere degli intermedi attivi con un elevato grado di purezza ha portato all'evoluzione di un processo di filtrazione altamente specializzato. Nasce così, negli anni 80, il filtro-essiccatore Nutsche. Si tratta di un'apparecchiatura che permette di integrare in un unico processo le operazioni di filtrazione, lavaggio ed essiccamento del pannello solido. Scopo di questo lavoro di tesi è stato quello di valutare le prestazione del filtro Nutsche definendo delle procedure per la valutazione dell'efficienza della fase di filtrazione e successiva fase di lavaggio ed essiccamento.
Resumo:
Il presente elaborato di tesi tratta della tematica relativa alla razionalizzazione del processo di pianificazione della produzione nell’azienda Schneider Electric Industrie Italia S.p.A. Tale progetto è nato dalla necessità aziendale di avere una schedulazione della produzione più standardizzata a seguito della crisi dei componenti e del loro difficile reperimento, in modo tale da ottenere un piano di produzione che, avviasse la produzione degli ordini producibili e ne monitorasse l’avanzamento con l’obiettivo di restituire ai clienti finali una data di consegna che fosse accurata. Per poter programmare e ottenere una sequenza di produzione ottimizzata si è deciso di applicare ad ogni linea di produzione diverse regole di carico e scegliere lo scenario migliore tra tutti quelli ottenuti. Per decidere quale fosse la schedulazione migliore sono stati calcolati diversi indici di prestazione e come parametro principale di scelta, in accordo con le priorità aziendali, si è data maggior importanza al metodo che fosse in grado di schedulare la produzione riducendo il numero di ordini in ritardo. Come risultato l’aspettativa era quella di trovare una regola di scheduling da poter applicare all’intero reparto di assemblaggio, per contro, a seguito dell’analisi effettuata, si è riscontrato che in funzione del portafoglio ordini specifico di ogni famiglia di prodotto esisteva, per ogni linea, un metodo diverso che andava a migliorare lo scenario attuale, minimizzando il numero di ordini in ritardo. Pertanto, senza congelare il piano di produzione in quanto si andrebbe a ridurre la flessibilità produttiva necessaria per rispondere prontamente ai cambiamenti dinamici del mercato, si è ottenuto che per schedulare la produzione è necessario applicare per ogni linea diversi metodi di scheduling, comparare tra di loro i risultati ottenuti e infine utilizzare quello che, a seconda del portafoglio ordini relativo a quella specifica linea, va migliorare le prestazioni di produzione.
Resumo:
Il presente elaborato si propone di studiare una soluzione ottimale per il dimensionamento di lotti economici di produzione nel settore lavorazioni meccaniche: il caso è stato studiato presso l’azienda Bonfiglioli Riduttori S.p.A all’interno del plant EVO, situato a Calderara di Reno (BO). Bonfiglioli Riduttori S.p.A è un’azienda che opera a livello globale occupandosi dell’intero ciclo di progettazione, produzione e distribuzione di una gamma completa di motoriduttori, dispositivi di azionamento, riduttori epicicloidali ed inverter. Il plant EVO è composto da due aree, produzione e assemblaggio, tra i quali è presente un magazzino che funge da buffer interoperazionale, contenente tutti i componenti necessari per il montaggio dei riduttori. L’obiettivo che ci si è posti è stato quello di trovare il lotto economico di produzione che fosse in grado di minimizzare i costi di gestione delle scorte ed i costi di set up della produzione, garantendo che non vi fossero rotture di stock, ossia mancanza di materiale con corrispondenti fermi macchina nel reparto assemblaggio. Ci si è concentrati sul ciclo di lavoro di uno dei componenti principali del riduttore, le corone in acciaio, e sono stati analizzati i seguenti modelli: i modelli di gestione tradizionale delle scorte, quali il modello del Lotto Economico di Acquisto (EOQ) ed il modello del Lotto Economico di Produzione (EMQ) ed il modello di gestione integrata delle scorte, noto come Consignment Stock. Studiando i risultati ottenuti è emerso che la soluzione ideale che verrà implementata a partire dai prossimi mesi è quella ibrida, ossia per i codici caratterizzati da bassi volumi si procede con i lotti calcolati attraverso il Consignment stock, caratterizzati da lotti con volumi elevati che comportano pochi set up, mentre per i codici alto rotanti si è cercato di aumentare il più possibile il numero di set up per abbassare il volume di ogni lotto e di conseguenza i costi di giacenza a magazzino.
Resumo:
La costante ricerca e lo sviluppo nel campo degli azionamenti e dei motori elettrici hanno portato ad una loro sempre maggiore applicazione ed utilizzo. Tuttavia, la crescente esigenza di sistemi ad alta potenza sempre più performanti da una parte ha evidenziato i limiti di certe soluzioni, dall’altra l’affermarsi di altre. In questi sistemi, infatti, la macchina elettrica trifase non rappresenta più l’unica soluzione possibile: negli ultimi anni si è assistito ad una sempre maggiore diffusione di macchine elettriche multifase. Grazie alle maggiori potenzialità che sono in grado di offrire, per quanto alcune di queste siano ancora sconosciute, risultano già essere una valida alternativa rispetto alla tradizionale controparte trifase. Sicuramente però, fra le varie architetture multifase, quelle multi-trifase (ovvero quelle con un numero di fasi multiplo di tre) rappresentano una soluzione particolarmente vantaggiosa in ambito industriale. Infatti, se impiegate all’interno di architetture multifase, la profonda conoscenza dei tradizionali sistemi trifase consente di ridurre i costi ed i tempi legati alla loro progettazione. In questo elaborato la macchina elettrica multi-trifase analizzata è una macchina sincrona esafase con rotore a magneti permanenti superficiali. Questa particolare tipologia di macchina elettrica può essere modellizzata attraverso due approcci completamente differenti: uno esafase ed uno doppio trifase. Queste possibilità hanno portato molti ricercatori alla ricerca della migliore strategia di controllo per questa macchina. L’obiettivo di questa tesi è di effettuare un’analisi comparativa tra tre diverse strategie di controllo applicate alla stessa macchina elettrica multi-trifase, analizzandone la risposta dinamica in diverse condizioni di funzionamento.