1000 resultados para SBR, aeratori a membrana, Air Lift, processo di nitrificazione, depurazione piccole comunità
Resumo:
La tesi ha l'obiettivo di analizzare e ottimizzare i flussi di approvvigionamento in un'azienda che produce su commessa: CT Pack S.r.L, specializzata nella realizzazione di macchine automatiche per il packaging di biscotti, gelato e cioccolato. Per raggiungere l'obiettivo si è preso come riferimento il modello proposto dal BPR (Business Process Reengineering): sono stati analizzati i principali attori coinvolti, in particolare fornitori e magazzino, mediante l'uso di KPI definiti ad hoc. Sulla base di questi sono stati individuati due processi critici: il primo riguarda la gestione del magazzino, che presenta un'elevata quantità di codici non movimentati anche a causa del processo di gestione del materiale avanzato al termine di ciascuna commessa; il secondo riguarda il materiale a consumo, che impiega i magazzinieri per un tempo eccessivo, è caratterizzato da giacenze per il 30% non movimentate e da supermarket collocati in officina ridondanti e caratterizzati da bassi tassi di utilizzo (anche sotto il 50%). Per risolvere questi problemi ed effettuare una riprogettazione si fa affidamento agli strumenti proposti dal project management: si imposta quindi un progetto che ha l'obiettivo di ridurre nel breve periodo il valore di magazzino mediante lo smaltimento attraverso diverse vie di codici non utilizzati e agisce nel lungo periodo per evitare che le criticità si ripropongano. Mediante la riprogettazione della gestione dei resi di produzione si prevede un maggior controllo, grazie al lavoro congiunto di ufficio tecnico e ufficio acquisti. La nuova gestione del materiale a consumo ha in se alcune delle tecniche proposte dalla lean production (il kanban, per esempio) e integra il fornitore nella catena di approvvigionamento, garantendo un maggior controllo sulle quantità, un risparmio di circa 7 h/mese di lavoro per i magazzinieri e una riduzione delle giacenze del 46%.
Resumo:
Il Selective Laser Melting è un processo di additive manufacturing che consiste nella realizzazione di componenti metallici tridimensionali, sovrapponendo strati di polvere, che viene via via fusa mediante una sorgente controllata di energia (laser). È una tecnica produttiva che viene utilizzata da più di 20 anni ma solo ora sta assumendo un ruolo rilevante nell’industria. È un processo versatile ma complesso che ad oggi permette di processare solo un numero limitato di leghe. Il presente lavoro di tesi riguarda in particolare lo studio, dal punto di vista microstrutturale, di componenti in acciaio inossidabile austenitico AISI-316L processato mediante Selective Laser Melting, attività svolta in collaborazione con il Gruppo di Tecnologia – Laser del Dipartimento di Ingegneria Industriale. Alla base dell’attività sperimentale è stata svolta anche un’ampia ricerca bibliografica per chiarire lo stato dell’arte sul processo e sulla lega in questione, la microstruttura, i difetti, le proprietà meccaniche e l’effetto dei parametri di processo sul componente finito. Le attività sperimentali hanno previsto una prima fase di caratterizzazione delle polveri di 316L, successivamente la caratterizzazione dei campioni prodotti tramite selective laser melting, in termini di microstruttura e difetti correlati al processo. Le analisi hanno rivelato la presenza di una microstruttura “gerarchica” costituita da melt pool, grani e celle submicrometriche. I difetti rinvenuti sono pori, delaminazione degli strati, particelle di polvere non fuse. Infine è stata eseguita la caratterizzazione frattografica dei campioni sottoposti a prove di trazione e di fatica a flessione rotante (attività condotte dal gruppo Laser) per identificare la morfologia di frattura e i siti di innesco della cricca di fatica.
Resumo:
Questo lavoro di tesi di laurea è stato realizzato in collaborazione con la Calzoni S.r.l di Calderara di Reno ed ha come obiettivo quello di mostrare come possa essere implementato un nuovo processo manutentivo in ottica TPM. Nell'elaborato è stata inizialmente illustrata la teoria facente riferimento ad una gestione ideale della manutenzione, ovvero di una manutenzione che possa fare affidamento su un sistema informativo di supporto per la presa delle migliori decisioni riguardanti il sistema manutentivo e successivamente la sua applicazione al caso aziendale. In particolare è stato mostrato come, all'interno di un'azienda come la Calzoni S.r.l, si è impostato il processo di raccolta dati e la loro organizzazione in un sistema informativo di manutenzione e come, nel frattempo, venga impostato un programma di manutenzione in ottica TPM.
Resumo:
Le prestazioni dei motori a combustione interna sono fortemente influenzate dalla formazione di un film fluido, a seguito dell'impatto di uno spray con una parete. Nell'ottica di favorire la formazione della miscela e di ridurre le emissioni, lo studio approfondito di tale fenomeno deve essere supportato da un processo di simulazione assistita dal calcolatore. Pertanto, la Fluidodinamica Computazionale (Computational Fluid Dynamics, CFD) ed i modelli ad essa associati rappresentano al giorno d'oggi uno strumento vantaggioso e sempre più utilizzato. In questo ambito si colloca il presente lavoro di tesi, che si propone di validare il modello di film fluido implementato nel software OpenFOAM-2.3.0, confrontando i risultati ottenuti, in termini di altezza del film fluido, con quelli del caso sperimentale di Le Coz et al.
Resumo:
La tesi descrive la mia esperienza di tirocinio presso l'azienda Marchesini Group, inserito all'interno dell'Ufficio Validazione Impianti. Dopo un'introduzione sul tema della qualità e dell'affidabilità, della loro evoluzione e della loro rilevanza nel mercato odierno, il cuore dell'elaborato descrive il progetto condotto all'interno dell'azienda. In particolare, la descrizione di uno strumento di standardizzazione per la compilazione di documenti di validazione. Infine è presente un modello di simulazione (realizzato con il software Arena Simulation) per l'analisi di congestioni e colli di bottiglia del macro processo di validazione. Lo stesso modello è stato poi utilizzato per lo studio del sistema dopo l'introduzione dello strumento standard.
Resumo:
Il contenuto della tesi riguarda un progetto di ricerca avente come scopo l’eliminazione degli olii di rettifica dal processo di taglio, avviato da alcune aziende del territorio emiliano, con la collaborazione dell’Università di Bologna e di Genova. In particolare essa tratta la rettifica degli ingranaggi a secco, poiché molte aziende del territorio emiliano si occupano della produzione di macchine per la realizzazione degli ingranaggi, oppure della fabbricazione vera e propria degli stessi. Inoltre viene trattato con particolare attenzione uno dei problemi fondamentali che si possono manifestare con la rettifica: le bruciature. Viene eseguita un’analisi dettagliata delle microstrutture dei materiali e di quali sono gli effetti provocati dalle bruciature nel processo di rettifica a secco degli ingranaggi.
Resumo:
Il Building Information Modelling nasce da un processo di integrazione sostenibile, basato sull'interoperabilità dei processi. La caratteristica vincente è la circolarietà delle informazioni: ogni informazione è gestita come parametro di un ricco e complesso modello parametrico dell'edificio; la geometria, i materiali, i costi ed i tempi sono gestiti come parametri internamente collegati e quindi variabili di uno stesso sistema. Nel caso di beni storici, la maggior parte degli edifici possiede vincoli intrinseci che influenzano tali parametri. I materiali non possono essere scelti liberamente, in quanto parte di un organismo esistente, la geometria dell'edificio è definita e difficilmente sarà variata negli interventi di recupero. Nella presente tesi si applica il metodo CLOUD2FEM al mondo dell'Historic Building Information Modelling (HBIM) concentrandosi sullo studio della Rocca Estense di San Felice sul Panaro, colpita dal sisma dell'Emilia e attualmente inagibile. La procedura CLOUD2FEM permette di trasformare le informazioni ricavate dal laser scanner in mesh chiuse e regolari, generando in modo semi-automatico un modello FEM 3D. Nel caso di costruzioni complesse, la cui geometria non può essere ricondotta a modelli semplificati, è necessario valutare l'attendibilità del modello strutturale. Nel caso in esame, la validazione è stata condotta mediante il confronto del danno rilevato con il danno simulato. La flessibilità del modello permette di aggiungere dettagli inizialmente non rilevati: ogni informazione è inserita nel modello attraverso un parametro differente, al fine di eseguire analisi sullo stato di fatto e su futuri stati di progetto con semplice aggiornamento dei parametri.
Resumo:
Il percorso di tesi che ho intrapreso è stato svolto presso l'azienda Datalogic, con l'intento di integrare un sistema di visione ad un sistema di marcatura laser. L'utilizzo di questo potente strumento è però vincolato dalla particolare posizione fisica occupata, di volta in volta, dall'oggetto; per questo motivo viene fissato nella posizione desiderata, attraverso dime meccaniche. Fin ad ora si riteneva assolutamente necessaria la presenza di un operatore per il controllo del corretto posizionamento, tramite una simulazione della marcatura. Per ovviare a questo limite strutturale, Datalogic ha pensato di introdurre uno strumento di aiuto e di visione del processo: la camera. L'idea di base è stata quella di impiegare le moderne smart camera per individuare l'oggetto da marcare e rendere quindi il processo più automatico possibile. Per giungere a questo risultato è stato necessario effettuare una calibrazione del sistema totale: Camera più Laser. Il mio studio si è focalizzato quindi nel creare un eseguibile che aiutasse il cliente ad effettuare questa operazione nella maniera più semplice possibile. E' stato creato un eseguibile in C# che mettesse in comunicazione i due dispositivi ed eseguisse la calibrazione dei parametri intrinseci ed estrinseci. Il risultato finale ha permesso di avere il sistema di riferimento mondo della camera coincidente con quello del piano di marcatura del laser. Ne segue che al termine del processo di calibrazione se un oggetto verrà rilevato dalla camera, avente il baricentro nella posizione (10,10), il laser, utilizzando le medesime coordinate, marcherà proprio nel baricentro dell'oggetto desiderato. La maggiore difficoltà riscontrata è stata la differenza dei software che permettono la comunicazione con i due dispositivi e la creazione di una comunicazione con il laser, non esistente prima in C#.
Resumo:
La risalita capillare di umidità nelle murature storiche è la principale responsabile del degrado dei materiali. La metodologia ad oggi più utilizzata in tale campo è quella basata sull’iniezione di prodotti chimici in grado di formare barriere artificiali che blocchino il flusso ascendente dell’acqua, ma è ancora in fase di perfezionamento. Per potere svolgere tale perfezionamento, è utile disporre di una metodologia attendibile per la valutazione dell’esito dei trattamenti, ossia un metodo standardizzato che possa garantire una corretta misurazione del contenuto di umidità nelle murature pre e post iniezioni. Nella presente tesi, che ha lo scopo di valutare l’efficacia di alcuni prodotti per barriere chimiche nelle murature, si è utilizzato un metodo di laboratorio standardizzato proposto dai ricercatori del LASTM (DICAM), che permette di riprodurre in laboratorio il processo di risalita dell’umidità e, allo stesso tempo, permette di potere svolgere le misurazioni del contenuto d’acqua interno ai materiali con il metodo diretto. I trattamenti, svolti in collaborazione con la Azienda inglese “Safeguard”, produttrice di resine impermeabilizzanti, sono stati effettuati su vari modelli, costituiti di laterizi e malta, preventivamente sottoposti a differenti condizioni ambientali. Successivamente si è svolto un monitoraggio periodico per potere determinare sia l’efficacia dell’intervento che l’attendibilità del modello. Dopo avere studiato un sistema di controllo delle condizioni di laboratorio, si è ritenuto opportuno svolgere anche alcune prove di caratterizzazione dei materiali utilizzati nella costruzione dei vari modelli, per conoscerne appieno le caratteristiche e potere valutare con maggiore attendibilità i risultati dei trattamenti. Infine, per approfondire le dinamiche di diffusione dei formulati chimici all’interno dei materiali, si sono svolte prove su travetti di malta.
Resumo:
L’elaborato propone una descrizione generale dei dispositivi protesici transtibiali, dalla storia, al processo di protesizzazione dei pazienti amputati alla struttura costitutiva modulare. Particolare importanza viene, inoltre, conferita all’analisi biomeccanica del movimento, della quale è data descrizione delle tecniche, della strumentazione, e dei risultati che vengono ottenuti nelle indagini di soggetti amputati rispetto alle persone normodotate. Considerazioni sulla biomeccanica di pazienti protesizzati transtibialmente offrono interessanti spunti di riflessione sulle componenti meccaniche, idrauliche ed elettroniche dei dispositivi modulari, delle quali si descrive in modo completo la struttura e il funzionamento, facendo riferimento ai brevetti tecnici più noti. Verranno, infine, riportati risultati di recenti studi e ricerche che evidenziano come l’utilizzo nei moduli prostesici transtibiali di caviglie idrauliche a controllo elettronico dello smorzamento sia la soluzione ottimale per ottenere risultati biomeccanicamente migliori, sia dal punto di vista dell’efficienza del movimento che per quanto riguarda l’equilibrio.
Resumo:
L’obiettivo del presente lavoro di tesi è quello di approfondire i processi di rigenerazione cosiddetti bottom-up o dal basso, poiché sono promossi da gruppi di cittadini, associazioni, cooperative o altre forme del terzo settore, che, esprimendo le proprie esigenze ed idee innovative, ottengono poi approvazione dall’amministrazione o dai proprietari dei beni. Si tratta di un fenomeno ancora poco presente in letteratura, poiché piuttosto recente e tuttora riscontrabile in maniera spontanea e disorganica. Per questo motivo una congrua parte della ricerca si è concentrata sull’analisi di casi studio italiani, per i quali sono state eseguite interviste ai protagonisti e sopralluoghi al fine di comprendere nel dettaglio il processo di riattivazione. A questi, si sono poi studiati alcuni esempi di realtà associative che mirano a mappare e a sistematizzare il fenomeno dell’abbandono architettonico. Sebbene le esperienze si siano dimostrate differenti tra loro e specifiche per il contesto e il territorio in cui sono collocate. si sono tuttavia individuate caratteristiche e dinamiche comuni che inducono a pensare a una tipologia di processo. Alla luce delle analisi dei casi studio, si è formulata una strategia possibile per un edificio che pur serbando valore storico e grandi potenzialità, si trova in stato di abbandono da più di quaranta anni: Villa Ghigi a Bologna. Si tratta di un’ex-villa padronale, all’interno di uno dei più importanti parchi pubblici bolognesi per la sua varietà vegetale e animale e per la sua posizione prossima al centro storico. Il progetto-processo che si propone si fonda su ipotesi realistiche e concrete di rigenerazione e si sviluppa secondo cinque fasi temporali differenti. Nell’iter si è infatti previsto l’alternarsi di momenti più astratti, incentrati sul networking e la definizione di prospettive, con tempi più fisici. dedicati all’intervento architettonico e alle trasformazioni concrete.
Resumo:
Quando si parla di shelf life di un prodotto alimentare si fa riferimento al periodo di tempo durante il quale un prodotto mantiene le sue caratteristiche qualitative nelle normali condizioni di conservazione/utilizzo e di conseguenza può essere consumato in totale sicurezza. Gli alimenti, infatti, sono prodotti facilmente deperibili che subiscono modifiche a carico della loro composizione a causa dell’innesco di una serie di reazioni sia di tipo microbiologico che chimico-fisico, con i conseguenti rischi per la sicurezza igienico sanitaria del prodotto. Nei prodotti ittici la degradazione biologica risulta essere una delle prime cause di deterioramento dell’alimento ciò perché essi stessi sono caratterizzati dalla presenza di microrganismi provenienti principalmente dalle materie prime impiegate e dal processo di produzione/preparazione utilizzato. Durante la conservazione e lo stoccaggio del prodotto ittico, in particolare sono tre i meccanismi che determinano il deterioramento e quindi la riduzione della shelf life, ovvero: l’autolisi enzimatica (post mortem e che modifica la consistenza del tessuto muscolare favorendo inoltre la crescita microbica ed il rilascio di ammine biogene); l’ossidazione (che riduce le qualità organolettiche del prodotto alterando gli acidi grassi poliinsaturi); la crescita microbica (con produzione di metaboliti come ammine biogene, acidi organici, solfiti, alcool, aldeidi e chetoni che causano i cattivi odori) (Jiang et al. 1990, Koohmaraie M., 1996, Koutsoumanis& Nychas, 1999, Aoki et al., 1997; Bremner, 1992). Risulta quindi strategico, il poter determinare la conservabilità di un alimento verificando dal punto di vista quantitativo, come tutti i fattori che contribuiscono all’alterazione della qualità del prodotto e all’incremento del processo degradativo (popolazione microbica, attività enzimatiche, variazioni chimiche) varino nel tempo.
Resumo:
Con lo sviluppo di sorgenti capaci di sostenere scariche di non equilibrio a pressione atmosferica è nato un notevole interesse per le applicazioni biomediche del plasma, data la generazione nella scarica di una varietà di agenti efficaci in più ambiti. I plasmi di questo tipo, caratterizzati principalmente da una temperatura macroscopica vicina a quella ambiente, sono infatti già utilizzati, ad esempio, per la sterilizzazione, per il trattamento di polimeri per migliorarne la biocompatibilità, e per l’accelerazione del processo di coagulazione del sangue. In questo lavoro verrà presentata un’altra possibilità applicativa, sempre nel settore della plasma medicine, ovvero l’utilizzo dei plasmi per il trattamento di cellule cancerose, che sta avendo un particolare successo a causa dei risultati ottenuti dai vari gruppi di ricerca che sottintendono un suo possibile futuro nel trattamento di neoplasie. Verrà presentata una breve introduzione alla fisica del plasma, mostrando alcuni parametri che caratterizzano questo stato della materia, concentrandosi in particolare sui plasmi non termici o di non equilibrio, per poi passare al processo di ionizzazione del gas. Nel secondo capitolo sono approfondite due sorgenti per la generazione di plasmi non termici, la scarica a barriera dielettrica e il plasma jet. Il terzo capitolo fornisce una preliminare spiegazione degli agenti generati nella scarica e il rapporto che hanno con la materia con cui interagiscono. L’ultimo capitolo è il fulcro della ricerca, e comprende risultati ottenuti negli ultimi anni da vari gruppi di ricerca di molte nazionalità, e una breve parte riguardante la sperimentazione originale svolta anche in mia presenza dal gruppo di ricerca del Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, rappresentato principalmente dal professor Carlo Angelo Borghi e dal professor Gabriele Neretti.
Resumo:
Le metodologie per la raccolta delle idee e delle opinioni si sono evolute a pari passo con il progresso tecnologico: dalla semplice comunicazione orale si è passati alla diffusione cartacea, fino a che l'introduzione e l'evoluzione di internet non hanno portato alla digitalizzazione e informatizzazione del processo. Tale progresso ha reso possibile l'abbattimento di ogni barriera fisica: se in precedenza la diffusione di un sondaggio era limitata dall'effettiva possibilità di distribuzione del sondaggio stesso, lo sviluppo della rete globale ha esteso tale possibilità (virtualmente) a tutto il mondo. Nonostante sia un miglioramento non indifferente, è importante notare come la valorizzazione della diffusione di un sondaggio abbia inevitabilmente portato a trascurarne le proprietà e i vantaggi intrinsechi legati alla sua diffusione prettamente locale. Ad esempio, un sondaggio che mira a valutare la soddisfazione degli utenti riguardo alla recente introduzione di una nuova linea di laptop ottiene un guadagno enorme dall'informatizzazione, e dunque delocalizzazione, del processo di raccolta dati; dall'altro lato, un sondaggio che ha come scopo la valutazione dell'impatto sui cittadini di un recente rinnovamento degli impianti di illuminazione stradale ha un guadagno pressoché nullo. L'idea alla base di QR-VEY è la ricerca di un ponte tra le metodologie classiche e quelle moderne, in modo da poter sfruttare le proprietà di entrambe le soluzioni. Tale ponte è stato identificato nella tecnologia del QR-Code: è possibile utilizzare un generico supporto che presenti proprietà di localizzazione, come un foglio cartaceo, ma anche un proiettore di una conferenza, come base per la visualizzazione di tale codice, ed associare alla scansione dello stesso funzionalità automatizzate di raccolta di dati e opinioni.
Resumo:
Il presente elaborato, mediante una panoramica sull’intero processo di recupero della cartografia storica con le moderne tecniche geomatiche (con particolare attenzione rivolta alla fase di elaborazione in ambiente digitale), e l’applicazione ad un caso di studio (l’ Ichnoscenografia di Bologna del 1702) vuole mostrare l’importanza dell’utilizzo di tali tecniche, unitamente alla loro versatilità per la salvaguardia, lo studio e la diffusione del patrimonio cartografico storico. L’attività principale consiste nella creazione di un modello 3D georeferenziato della Bologna del 1702, a partire dalla carta del de’ Gnudi, e della sua successiva rappresentazione mediante modalità di Realtà Virtuale. L’immediatezza della comunicazione con varie forme di rappresentazione consente non solo di apprezzare e scoprire in modo nuovo una carta antica, ma anche di effettuare analisi più specifiche, ad esempio in merito all’evoluzione del tessuto storico della città, oppure studi sui metodi di rappresentazione che venivano utilizzati all’epoca della redazione della carta, completamente differenti dagli attuali, soprattutto in termini di precisione. La parte finale della trattazione esamina la possibilità per il fruitore della ricerca di interrogare un database multimediale sulla città e di immergersi in modo virtuale in ambientazioni non più esistenti.