266 resultados para Palazzo Reale di Milano
Resumo:
L’obiettivo della tesi è quello di fare una panoramica sulla strategia BIM e quindi sulla digitalizzazione del processo costruttivo. Grazie alla analisi di un caso di studio, altro obiettivo è quello di analizzare e valutare la metodologia BIM 4D/5D, ossia la gestione dei tempi e dei costi di realizzazione dell’opera. Nella prima fase si affronta il tema del BIM, con una analisi sull’evoluzione degli strumenti di elaborazione e rappresentazione digitale del progetto architettonico, su come questi strumenti si differenzino sia dal punto di vista operativo che concettuale rivoluzionando il flusso di lavoro odierno. Quindi, partendo da un’analisi che e ritrae l’estrema frammentazione del settore delle costruzioni, si va ad analizzare come il BIM aumenti e favorisca la collaborazione delle parti interessate, armonizzando l’intero processo costruttivo dell’opera. Si prosegue con l'esame della diffusione e del livello di maturità degli strumenti BIM, di come i privati e le amministrazioni pubbliche, a livello mondiale, stiano spingendo per favorire l’adozione della metodologia BIM. Inoltre si analizzano le dinamiche dell’interoperabilità, delle metodologie e protocolli di interscambio dati, che sono un elemento chiave per il successo del BIM per via dei numerosi strumenti, specializzati nelle varie discipline del settore edile. Nella terza parte, dedicata al Project Management di un caso di studio, si verifica la bontà delle metodologie teorizzate attraverso la realizzazione di un modello virtuale in Revit. Dal modello realizzato dal laureando sono estrapolate le informazioni necessarie alla gestione, e tramite il software STRVison CPM, si elaborano i principali documenti per la progettazione e gestione del cantiere: il CM, il CME, i tempi operativi, il cronoprogramma Gantt. Obbiettivo è constatare l’effettivo livello di maturità della strategia BIM 4D e 5D e la reale possibilità di un impiego capillare nel panorama italiano del settore delle costruzioni.
Sviluppo di metodologie per la generazione automatica di calibrazioni di guidabilità motore e cambio
Resumo:
Il presente progetto ha riguardato lo studio e lo sviluppo di metodologie per la generazione automatica di calibrazioni di guidabilità motore cambio, dove con guidabilità si intende il legame intercorrente tra le richieste del conducente ed il reale comportamento del veicolo. La prima parte della tesi si è concentrata sullo studio delle calibrazioni motore e delle calibrazioni del cambio automatico attualmente sfruttate dai software di produzione, sviluppando un modello di simulazione in grado di verificare come queste calibrazioni influenzino il comportamento del veicolo, concentrandosi sugli andamenti delle accelerazioni e dei regimi motore risultanti. Dopo la validazione del modello, è stato creato uno strumento, in ambiente Matlab, che restituisce la calibrazione di guidabilità del cambio automatico, ovvero la mappa sfruttata dalla relativa centralina per gestire il cambio della marcia, ricevendo in ingresso le seguenti informazioni: le grandezze fisiche del veicolo nel suo complesso, quali la massa, i rapporti di trasmissione, il rapporto del differenziale, il raggio di rotolamento dinamico e tutte le inerzie dei componenti della driveline; le calibrazioni di guidabilità motore, costituite da otto mappe, una per ogni marcia, che definiscono la coppia motrice che si richiede al motore di erogare, in funzione della posizione del pedale acceleratore e del regime motore; il piano quotato del motore. Il codice, note queste informazioni, genera automaticamente la mappa di cambio marcia con le linee di Upshift (marcia innestata crescente) e Downshift (marcia innestata decrescente), in funzione della posizione del pedale e dei giri in uscita dal cambio. Infine, si è valutata una possibile strategia per la calibrazione delle otto mappe pedale con cui viene gestito il controllo motore. Si sono generate mappe a potenza costante in cui il pedale assume la funzione di regolatore di velocità.
Resumo:
La tesi si pone l'obiettivo di mappare le attività all'interno del magazzino di un operatore logistico, dalla consegna della merce da parte dei committenti, al flusso di ritorno dei pallet vuoti dai punti di consegna, attraverso la modellazione e la simulazione in linguaggio Arena. Dopo aver analizzato il ruolo e la posizione occupata da un provider logistico lungo la catena distributiva, è esposto il caso preso in considerazione, mediante lo studio dei committenti e dei punti di consegna serviti. Viene poi mappato nel dettaglio il processo di gestione all'interno del magazzino e approfonditi due aspetti principali: i costi di gestione e trasporto a carico dell'operatore e la gestione dei mezzi utilizzati per effettuare le consegne. Chiarito il sistema reale, si passa al modello in Arena. Al termine della simulazione, svoltasi in un adeguato orizzonte temporale, dall'analisi dei risultati sarà possibile trarre delle conclusioni al fine di migliorare l'efficienza del processo.
Resumo:
In questa tesi sono stati studiati i fattori che influenzano l'utilizzo del buffer in un magazzino manuale. Per poter realizzare le analisi è stato realizzato un programma C# che simula la gestione del magazzino. Per ottimizzare l'assegnamento dei pallet alle location si è inoltre costruito un modello AMPL. L'obiettivo del modello è minimizzare la differenza tra le classi ottime dei codici in ingresso e i posti pallet ai quali questi vengono assegnati. Il programma C# oltre all'interfaccia con il risolutore AMPL Gurobi, deve interfacciarsi anche con il data base Access nel quale sono stati organizzati i dati necessari per l'analisi. Questi dati sono reali e relativi agli ingressi e alle uscite di un magazzino contenente materiale farmaceutico di due settimane di lavoro. Per facilitare e velocizzare lo studio le informazioni considerate sono quelle di due soli corridoi e non dell'intero magazzino. I risultati hanno evidenziato quattro fattori principali che influenzano la differenza tra un l'allocazione dei pallet in ingresso ad un magazzino. Questi elementi sono: costo di utilizzo del buffer, numero di location libere ad inizio simulazione, momento d'esecuzione del picking a magazzino e tipologia di location vute ad inizio della simulazione. Per ognuno di questi si è cercato, per quanto possibile, di individuare le implicazioni che quanto studiato può avere nella progettazione di un sistema di stoccaggio reale sia dal punto di vista logistico sia dal punto di vista economico. Non sempre le osservazioni reali alle quali si è arrivati hanno un risvolto pratico immediato, ma senza dubbio possono essere utili nello studio preliminare per la realizzazione di un sistema di stoccaggio. All'interno delle conclusioni sono state inserite anche possibili studi e approfondimenti futuri che possono essere eseguiti partendo dal progetto di tesi qui presentato.
Resumo:
Il lavoro sviluppato intende affrontare in modo integrato la problematica ambientale relativamente allo sviluppo della flotta di veicoli di un grande operatore del trasporto pubblico. In prima istanza il lavoro si è focalizzato sull’analisi approfondita della flotta esistente, ed accanto ai dati tradizionali è stata sviluppata anche un’analisi dei costi totali comprensive anche delle esternalità calcolate come da direttiva 2009/33/CE. Sono state sviluppate numerose elaborazioni di uso aziendale relativamente alla metodologia del costo del ciclo di vita, LCC, che è in uso presso TPER S.p.A. sin dal 2001. Successivamente sono stati sviluppati gli scenari evolutivi della flotta automobilistica individuando per il confronto finale tre scenari distinti in ottica 2020: - Il primo scenario inerziale senza nessuna modifica della flotta consolidato al 31.12.2015, tale scenario è definito dai veicoli presenti, dai costi di gestione della manutenzione, dai costi di carburante e dai costi esterni come suddetto; - Il secondo con orizzonte 2016 prevede l’inserimento in servizio dei n. 49 filosnodati Crealis e viene consolidato al 31.12.2016; - Il terzo scenario è quello obiettivo e considera nel 2020 l’entrata in parco via via degli acquisti che TPER S.p.A. ha già programmato per il 2017, 2018 e compresi i n.55 snodati con alimentazione elettrica del progetto PIMBO. Le comparazioni di questi scenari permettono in modo molto realistico di individuare gli effetti su una flotta reale delle politiche di investimento reali e non simulate e di poter quantificare quindi l’andamento dei costi esterni in relazione alla modifica della flotta di TPER S.p.A.
Resumo:
In questo lavoro di tesi viene affrontato il tema del Miglioramento Continuo all'interno di un caso di studio reale. Viene posta come obiettivo la verifica delle potenzialità dei principi del Miglioramento Continuo nel settore di confezionamento e trasformazione di prodotti liquidi alimentari. Il progetto riguarda il reparto di consulenza della multinazionale svedese Tetra Pak, che offre l'implementazione del sistema ad un'azienda cliente sita nel Regno Unito. L'implementazione del progetto si sviluppa da un primo accurato studio della situazione aziendale, a seguito del quale sono state riscontrate necessità di cambiamento in aree specifiche. Successivamente a questa prima fase di studio segue una seconda fase di pianificazione e sviluppo della strategia di miglioramento che ha visto coinvolti il personale Tetra Pak e il personale dell'azienda locale. Il processo di miglioramento viene applicato inizialmente su una cella pilota, selezionata all'interno delle linee produttive dell'azienda cliente, per poi essere espanso a tutto il reparto produttivo qualora il risultato misurato confermi le aspettative.
Resumo:
Il riconoscimento delle gesture è un tema di ricerca che sta acquisendo sempre più popolarità, specialmente negli ultimi anni, grazie ai progressi tecnologici dei dispositivi embedded e dei sensori. Lo scopo di questa tesi è quello di utilizzare alcune tecniche di machine learning per realizzare un sistema in grado di riconoscere e classificare in tempo reale i gesti delle mani, a partire dai segnali mioelettrici (EMG) prodotti dai muscoli. Inoltre, per consentire il riconoscimento di movimenti spaziali complessi, verranno elaborati anche segnali di tipo inerziale, provenienti da una Inertial Measurement Unit (IMU) provvista di accelerometro, giroscopio e magnetometro. La prima parte della tesi, oltre ad offrire una panoramica sui dispositivi wearable e sui sensori, si occuperà di analizzare alcune tecniche per la classificazione di sequenze temporali, evidenziandone vantaggi e svantaggi. In particolare, verranno considerati approcci basati su Dynamic Time Warping (DTW), Hidden Markov Models (HMM), e reti neurali ricorrenti (RNN) di tipo Long Short-Term Memory (LSTM), che rappresentano una delle ultime evoluzioni nel campo del deep learning. La seconda parte, invece, riguarderà il progetto vero e proprio. Verrà impiegato il dispositivo wearable Myo di Thalmic Labs come caso di studio, e saranno applicate nel dettaglio le tecniche basate su DTW e HMM per progettare e realizzare un framework in grado di eseguire il riconoscimento real-time di gesture. Il capitolo finale mostrerà i risultati ottenuti (fornendo anche un confronto tra le tecniche analizzate), sia per la classificazione di gesture isolate che per il riconoscimento in tempo reale.
Resumo:
Scopo di questo elaborato di tesi è la modellazione e l’implementazione di una estensione del simulatore Alchemist, denominata Biochemistry, che permetta di simulare un ambiente multi-cellulare. Al fine di simulare il maggior numero possibile di processi biologici, il simulatore dovrà consentire di modellare l’eterogeneità cellulare attraverso la modellazione di diversi aspetti dei sistemi cellulari, quali: reazioni intracellulari, segnalazione tra cellule adiacenti, giunzioni cellulari e movimento. Dovrà, inoltre, essere ammissibile anche l’esecuzione di azioni impossibili nel mondo reale, come la distruzione o la creazione dal nulla di molecole chimiche. In maniera più specifica si sono modellati ed implementati i seguenti processi biochimici: creazione e distruzione di molecole chimiche, reazioni biochimiche intracellulari, scambio di molecole tra cellule adiacenti, creazione e distruzione di giunzioni cellulari. È stata dunque posta particolare enfasi nella modellazione delle reazioni tra cellule vicine, il cui meccanismo è simile a quello usato nella segnalazione cellulare. Ogni parte del sistema è stata modellata seguendo fenomeni realmente presenti nei sistemi multi-cellulari, e documentati in letteratura. Per la specifica delle reazioni chimiche, date in ingresso alla simulazione, è stata necessaria l’implementazione di un Domain Specific Language (DSL) che consente la scrittura di reazioni in modo simile al linguaggio naturale, consentendo l’uso del simulatore anche a persone senza particolari conoscenze di biologia. La correttezza del progetto è stata validata tramite test compiuti con dati presenti in letteratura e inerenti a processi biologici noti e ampiamente studiati.
Resumo:
La misurazione del gradiente pressorio venoso (HVPG) viene utilizzata per diagnosticare la gravità della malattia del fegato ma si tratta di una pratica invasiva e che non può essere effettuata in tutti i pazienti. Per questo motivo sono state studiate nuove metodiche per riuscire ad analizzare la cirrosi, una tra le quali l’indagine ecografica. Un progetto in fase di svolgimento (progetto CLEVER) è stato avviato per riuscire a sviluppare, validare e trasferire nella pratica clinica un nuovo sistema basato sull'analisi di immagini ecografiche con mezzo di contrasto al fine di valutare la gravità della degenerazione della rete vascolare causata dalla cirrosi. L'obiettivo principale della ricerca è quello di sviluppare uno strumento completamente automatico per l'analisi in tempo reale della rete vascolare del fegato in grado di valutare la connettività vascolare e quantificare il grado di squilibrio della rete.
Resumo:
Il lavoro svolto si concentra sulla termografia attiva e su come essa possa essere usata come tecnica diagnostica non distruttiva. La sperimentazione ha visto la realizzazione di un modello di prova consisntente in una porzione di muro a forma di c costituito da mattoni pieni, intonacato solo su un lato. Attraverso il riscaldamento della porzione intonacata e tramite l'utilizzo di termocoppie sono state monitorate le temperature superficiali interne ed esterne e dell'ambiente interno ed esterno. In fase di raffreddamento il monitoraggio è stato implementato dalle riprese termografiche effettuate ad istanti di tempo regolari, riprendendo la superficie intonacata e riscaldata. Elaborando le immagini è stato possibile individuare sia la tessitura muraria che la discontinuità inserita in fase di costruzione. Per avere una verifica è stato realizzato, tramite un software, un modello bidimensionale dell'elemento studiato, ed è stato studiato il raffreddamento in condizioni dinamiche. Si osserva che i risultati ottenuti sono qualitativamente opposti a quelli riscontrati dalle immagini della sperimentazione, uno dei motivo può essere attribuito all'alta tridimensionalità del problema reale che il modello non tiene in considerazione.
Resumo:
Lo scopo della tesi è creare un’architettura in FPGA in grado di ricavare informazioni 3D da una coppia di sensori stereo. La pipeline è stata realizzata utilizzando il System-on-Chip Zynq, che permette una stretta interazione tra la parte hardware realizzata in FPGA e la CPU. Dopo uno studio preliminare degli strumenti hardware e software, è stata realizzata l’architettura base per la scrittura e la lettura di immagini nella memoria DDR dello Zynq. In seguito l’attenzione si è spostata sull’implementazione di algoritmi stereo (rettificazione e stereo matching) su FPGA e nella realizzazione di una pipeline in grado di ricavare accurate mappe di disparità in tempo reale acquisendo le immagini da una camera stereo.
Resumo:
In questa tesi, viene illustrato un metodo risolutivo al problema dell’allocazione e schedulazione, su risorse eterogenee con capacità unaria rinnovabile e cumulativa non rinnovabile, di applicazioni multitask periodiche, con periodi in relazione armonica, strutturate in attività indipendenti o sottoposte a vincoli di precedenza e con durate dipendenti dalla specifica risorsa di allocazione. L’obiettivo è quello di fornire un’implementazione del modello in grado di gestire l’allocazione e la schedulazione di istanze (i.e. insieme di applicazioni) variabili, caratterizzate da una serie di parametri. La struttura implementativa, realizzata secondo la Logic-based Benders decomposition, prevede la suddivisione del problema in due moduli. Il primo in grado di generare un’allocazione e realizzato con tecniche di programmazione lineare intera mista, il secondo con lo scopo di controllare l’ammissibilità di tale allocazione attraverso una schedulazione ottima e realizzato mediante tecniche di programmazione a vincoli. Il meccanismo di comunicazione tra i due moduli avviene mediante vincoli lineari, denominati tagli di Benders, che vengono aggiunti dopo ogni iterazione del sistema. L’efficacia del modello sarà valutata confrontando i risultati ottenuti attraverso una serie di test, con i valori forniti da un metodo di allocazione e schedulazione alternativo.
Resumo:
La tesi è il risultato di uno studio condotto sulle reti distribuzione dell’energia termica, elettrica e frigorifera; queste reti possono essere sviluppate per aumentare la diffusione della microgenerazione e generazione diffusa con l’obiettivo di renderle autonome elettricamente, termicamente e in alcuni casi indipendenti dal punto di vista del combustibile sfruttando possibilmente cogeneratori integrati e sistemi a fonte rinnovabile. In particolare la tesi si sofferma sull’analisi di criteri di gestione di una rete di teleriscaldamento esistente in modo da ridurne al minimo le dispersioni di energia termica in ambiente e gli scambi di energia elettrica con la rete nazionale. Lo sviluppo della tesi è stato suddiviso sostanzialmente in tre parti: la prima riguarda la caratterizzazione del comportamento di una rete di teleriscaldamento reale nel comprensorio urbano di Corticella a Bologna con determinati sistemi di produzione dell’energia elettrica e termica in centrale; nella seconda parte vengono analizzati nuovi sistemi in centrale di produzione e presso le utenze; infine la terza parte riguarda l’analisi economica ed energetica di tutte le soluzioni di gestione esaminate. Quindi ogni configurazione, data da nuovi sistemi di produzione delle fonti energetiche richieste e di gestione della rete, viene prima analizzata in riferimento a tre tipologie di scambio termico presso le utenze e poi valutata in termini di consumo di combustibile e di scambi di energia elettrica con la rete nazionale attraverso il costo di acquisto del gas naturale, il costo d’acquisto dell’energia elettrica dalla rete e il prezzo di vendita dell’energia elettrica alla rete. Sebbene le utenze vengano considerate sempre in assetto passivo all’interno di alcune configurazioni viene sfruttata la delocalizzazione della produzione di energia termica e la gestione della rete a bassa temperatura per ridurre il più possibile l’impatto ambientale della centrale e della rete di teleriscaldamento.
Resumo:
Lo scopo del mio elaborato è stato quello di valutare se il denaro potesse essere un veicolo di trasmissione di microrganismi. Esistono infatti reperti storici che indicano che il denaro veniva visto come probabile portatore di infezioni fatali come la “morte nera”, la peste bubbonica e le pandemie di polmoniti descritte in Europa. Vi sono anche altri studi che hanno indicato come patogeni isolati con maggiore frequenza dalle banconote microrganismi quali enterobatteri e stafilococchi. In questa sperimentazione mi sono occupato del campionamento microbiologico di banconote di vario taglio, raccolte prevalentemente in piccoli esercizi alimentari, sulle quali è stato fatto un tampone al fine di determinare la presenza di: coliformi totali, E. coli, S. aureus, altri stafilococchi, muffe, lieviti, carica batterica totale. Le analisi condotte hanno mostrato che nelle banconote non sono mai stati isolati ceppi di S. aureus, a differenza di quanto riportato nella letteratura. Simili considerazioni si possono fare anche per E. coli. Per quel che riguarda la carica batterica totale, le banconote più contaminate sono risultate essere quelle da 20 euro (valore medio 474 UFC/cm2). I tamponi microbiologici effettuati sui tagli da 50 euro sono stati gli unici ad essere caratterizzati da una elevata presenza di coliformi totali. In conclusione possiamo affermare che le banconote posso effettivamente costituire un importante veicolo di contaminazione microbica, che può poi trasferirsi anche su altri matrici, come prodotti alimentari. Considerando la pressione che viene esercitata dalle Autorità di controllo su tutte le fasi della catena alimentare, dalla produzione alla vendita al dettaglio, la variabile posta dalle possibili contaminazioni attraverso il maneggiamento e la circolazione delle banconote potrebbe quindi costituire un rischio reale, sia pure non ancora quantificato e forse non quantificabile.
Resumo:
Questa tesi tratta nello specifico lo studio di un impianto micro-ORC, capace di sfruttare acqua alla temperatura di circa 70-90°C come sorgente termica. Questo sistema presenta una potenza dichiarata dal costruttore pari a 3kW e un rendimento del 9%. In primo luogo, si descrivono le caratteristiche principali dei fluidi organici, in particolare quelle del freon R134a, impiegato nel banco prova. Vengono illustrati dettagliatamente l’impianto e la sensoristica utilizzata per le misurazioni delle varie grandezze fisiche. Tramite esse, con l’utilizzo di un programma di acquisizione dati appositamente relizzato in ambiente LabVIEW, è stato possibile calcolare in tempo reale tutti i parametri di funzionamento, necessari per la caratterizzazione del sistema. Per una veloce ed efficiente elaborazione dei dati registrati durante le prove in laboratorio, è stato realizzato un programma in linguaggio VBA. L’utilizzo di questo codice ha permesso, in primo luogo, di individuare e correggere eventuali errori di calcolo e acquisizione presenti in ambiente LabVIEW e, in secondo luogo, si è reso indispensabile per comprendere il funzionamento dell’impianto nelle varie fasi, come accensione, spegnimento e produzione di potenza. Sono state inoltre identificate le modalità di risposta del sistema al variare dei comandi impostabili dall’utente, quali il numero di giri della pompa e la variazione della temperatura della sorgente calda. Si sono poi osservate le risposte del sistema al variare delle condizioni esterne, come ad esempio la temperatura dell’acqua di condensazione. Una specifica prova è stata analizzata in questo elaborato. Durante tale prova il sistema ha lavorato in forte off-design, erogando una potenza elettrica pari a 255 W, raggiungendo un basso valore del rendimento (pari a 1.8%). L’analisi dei dati ha portato ad identificare nuovi limiti di funzionamento, legati ad esempio alla quantità di fluido interna al sistema.