946 resultados para Autoclave, pressione, ILSS, moduli di elasticità
Resumo:
In questa Tesi di Laurea viene presentata un’interessante esperienza di implementazione numerica: lo sviluppo di un codice agli elementi finiti in grado di calcolare, verificare e ottimizzare edifici industriali in acciaio. Al giorno d’oggi, la tendenza delle imprese nel campo dell’ingegneria strutturale ed in particolare nel campo dell’edilizia industriale, è quella della specializzazione. E’ sempre più frequente, ad esempio nel campo dei capannoni industriali, che le aziende concentrino la loro attività solo su determinate tipologie costruttive, sulle quali ottimizzano il lavoro riducendo al massimo i tempi di progettazione, di costruzione e abbassando il prezzo. Il mondo dei programmi di calcolo, per la maggior parte, sembra aver preso una direzione di sviluppo opposta. Le case di produzione software mettono a disposizione dei progettisti strumenti sempre più raffinati, capaci di modellare dettagliatamente qualsiasi tipo di struttura, materiale, azione statica o dinamica; spesso questi programmi contengono anche un codice integrato CAD per il disegno della struttura e altri tools per lasciare all’utente la più grande libertà di azione possibile. Se da un lato questi strumenti danno al progettista la possibilità di una modellazione sempre più dettagliata, dall’altra parte hanno il limite di essere poco pratici per un tipo di progettazione standardizzato. Spesso quello di cui le imprese hanno bisogno è invece un programma creato ‘ad hoc’ per le loro attività che, grazie all’inserimento di pochi parametri, possa garantire una progettazione rapida e magari gestire non solo la fase di calcolo, ma anche quella di verifica e di ottimizzazione. In quest’ottica si inserisce lo sviluppo del codice eseguito in questa tesi. L’esposizione si articola in quattro parti. La prima, introduttiva, è dedicata alla descrizione delle tipologie di edifici monopiano in acciaio maggiormente diffuse, dei diversi tipi materiale, dei principali aspetti della normativa per queste costruzioni. Viene inoltre descritta la tipologia costruttiva implementata nel codice sviluppato. Il secondo capitolo è dedicato alla descrizione del metodo agli elementi finiti, esponendone i fondamenti teorici e le principali fasi della costruzione di un codice di calcolo numerico per elementi monodimensionali. Nella terza parte è illustrato il codice sviluppato. In particolare vengono dettagliatamente descritti i moduli di generazione del modello, del solutore, del post-processore in grado di eseguire le verifiche secondo le normative vigenti, e quello dedicato all’ottimizzazione strutturale. In fine, nell’ultimo capitolo viene illustrato un esempio progettuale con il quale si è potuta effettuare la validazione del codice confrontando i risultati ottenuti con quelli di riferimento forniti da programmi attualmente in commercio. La presente dissertazione non mira alla “certificazione” di un software che sia in grado di fare calcoli complessi nell’ambito dell’ingegneria strutturale, ma lo scopo è piuttosto quello di affrontare le problematiche e gestire le scelte operative che riguardano la scrittura di un codice di calcolo. Programmatori non si nasce, ma si diventa attraverso anni di esperienza che permettono di acquisire quella sensibilità numerica che è definibile come una vera e propria “arte”. Ed è in questa direzione che si è svolta la Tesi, ovvero comprendere prima di tutto l’atteggiamento da assumere nei confronti di un elaboratore elettronico e, solo successivamente, passare ad un utilizzo consapevole per scopi progettuali.
Resumo:
Nell’ambito delle problematiche relative agli impianti a rischio di incidente rilevante, riscontra particolare interesse l’analisi dell’effetto domino, sia per la grande severità delle conseguenze degli eventi incidentali che esso comporta, sia per l’indeterminazione ancora presente nelle metodologie di analisi e di valutazione del fenomeno stesso. Per effetto domino si intende la propagazione di un evento incidentale primario dall’apparecchiatura dalla quale ha avuto origine alle apparecchiature circostanti, che diventano sorgenti di eventi incidentali secondari. Infatti elevati valori dell’irraggiamento, della sovrappressione di picco ed il lancio di proiettili, imputabili all’evento primario, possono innescare eventi secondari determinando una propagazione a catena dell’incidente così come si propaga la catena di mattoncini nel gioco da tavolo detto “domino”. Le Direttive Europee 96/82/EC e 2012/18/EU denominate, rispettivamente “Seveso II” e “Seveso III” stabiliscono la necessità, da parte del gestore, di valutare l’effetto domino, in particolare in aree industriali ad elevata concentrazione di attività a rischio di incidente rilevante. L’analisi consiste nel valutare, in termini di frequenza e magnitudo, gli effetti indotti su apparecchiature cosiddette “bersaglio” da scenari incidentali che producono irraggiamenti, onde di pressione e lancio di proiettili. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha lo scopo di presentare una metodologia per l’analisi dell’effetto domino adottata in un caso reale, in mancanza di un preciso riferimento normativo che fissi i criteri e le modalità di esecuzione di tale valutazione. Inoltre esso si presta a valutare tutte le azioni preventive atte a interrompere le sequenze incidentali e quindi i sistemi di prevenzione e protezione che possono contrastare un incidente primario evitando il propagarsi dell’incidente stesso e quindi il temuto effetto domino. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo con l’illustrazione delle linee guida e delle normative in riferimento all’effetto domino, nel Capitolo 2 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per l’individuazione degli eventi incidentali credibili ovvero degli eventi incidentali primari e della loro frequenza di accadimento. Nel Capitolo 3 vengono esaminati i criteri impiegati da ENI Versalis per la valutazione dell’effetto domino. Nei Capitoli 4 e 5 sono descritti gli iter tecnico-procedurali messi a punto per la progettazione della protezione antincendio, rispettivamente attiva e passiva. Nel Capitolo 6 viene approfondito un aspetto particolarmente critico ovvero la valutazione della necessità di dotare di protezione le tubazioni. Nel Capitolo 7 viene illustrata la progettazione antifuoco di un caso di studio reale dello stabilimento ENI Versalis di Ravenna: l’unità di Idrogenazione Selettiva. Infine nel Capitolo 8 sono riportate alcune considerazioni conclusive.
Resumo:
Il rachide è stato suddiviso in tre colonne da Denis: anteriore e centrale comprendono la metà anteriore del corpo vertebrale, la metà posteriore e l’inizio dei peduncoli, mentre la colonna posteriore comprende l’arco e i peduncoli stessi. In caso di resezione o lesione della colonna anteriore e media è indicata la ricostruzione. Diverse tecniche e materiali possono essere usati per ricostruire il corpo vertebrale. Innesti vascolarizzati, autograft, allograft sono stati usati, così come impianti sintetici di titanio o materiale plastico come il PEEK (Poly etere etere ketone). Tutti questi materiali hanno vantaggi e svantaggi in termini di proprietà intrinseche, resistenza meccanica, modulo di elasticità, possibilità di trasmissione malattie, capacità di fondersi con l’osso ospite o meno. Le soluzioni più usate sono le cage in titanio o carbonio, il PMMA ( Poli methil metacrilato), gli innesti ossei massivi. Si è effettuato uno studio di coorte retrospettivo paragonando due gruppi di pazienti oncologici spinali trattati da due chirurghi esperti in un centro di riferimento, con vertebrectomia e ricostruzione della colonna anteriore: un gruppo con cage in carbonio o titanio, l’altro gruppo con allograft massivo armato di innesto autoplastico o mesh in titanio. Si sono confrontati i risultati in termini di cifosi segmenterai evolutiva, fusione ossea e qualità di vita del paziente. Il gruppo delle cage in carbonio / titanio ha avuto risultati leggermente migliori dal punto di vista biomeccanico ma non statisticamente significativo, mentre dal punto di vista della qualità di vita i risultati sono stati migliori nel gruppo allograft. Non ci sono stati fallimenti meccanici della colonna anteriore in entrambi i gruppi, con un Fu tra 12 e 60 mesi. Si sono paragonati anche i costi delle due tecniche. In conclusione l’allogar è una tecnica sicura ed efficace, con proprietà meccaniche solide, soprattutto se armato con autograft o mesi in titanio.
Resumo:
Nel corso degli ultimi decenni, ha assunto importanza crescente il tema della sicurezza e dell’affidabilità degli impianti dell’industria di processo. Tramite l’analisi di affidabilità è possibile individuare i componenti critici di un impianto più a rischio. Nel presente lavoro di tesi è stata eseguita l’analisi di affidabilità di tre impianti dello stabilimento SOL di Mantova: l’impianto di vaporizzazione azoto a bassa pressione, l’impianto di vaporizzazione azoto a media pressione e l’impianto di produzione di aria sintetica. A partire dai diagrammi P&ID degli impianti si è effettuata l’analisi delle possibili modalità di guasto degli impianti stessi tramite la tecnica FMECA, acronimo di Failure Modes & Effects Criticality Analisys. Una volta definite le modalità di guasto degli impianti, si è proceduto a quantificarne l’affidabilità utilizzando la tecnica FTA, acronimo di Fault Tree Analisys. I risultati ottenuti dall’analisi degli alberi dei guasti, hanno permesso di individuare gli eventi primari che maggiormente contribuiscono al fallimento dei sistemi studiati, consentendo di formulare ipotesi per l’incremento di affidabilità degli impianti.
Resumo:
Tirocinio in azienda in cui ho sviluppato alcuni moduli di un'applicazione mobile per la forza vendita in android
Resumo:
Nell’ambito di un progetto di ricerca sui sistemi di accumulo dell’energia elettrica, in corso di avvio al “Laboratorio di microreti di generazione e accumulo” di Ravenna, è stato sviluppato un modello di calcolo in grado di simulare il comportamento di un elettrolizzatore.Il comportamento di un generico elettrolizzatore è stato modellato mediante una serie di istruzioni e relazioni matematiche, alcune delle quali ricavate tramite un’analisi dettagliata della fisica del processo di elettrolisi, altre ricavate empiricamente sulla base delle prove sperimentali e dei dati presenti nella bibliografia. Queste espressioni sono state implementate all’interno di un codice di calcolo appositamente sviluppato, realizzato in linguaggio Visual Basic, che sfrutta come base dati i fogli di calcolo del software Microsoft Excel per effettuare la simulazione. A partire dalle caratteristiche dell’elettrolizzatore (pressione e temperatura di esercizio, dimensione degli elettrodi, numero di celle e fattore di tuning, più una serie di coefficienti empirici) e dell’impianto generale (potenza elettrica disponibile e pressione di stoccaggio), il modello è in grado di calcolare l’idrogeno prodotto e l’efficienza globale di produzione e stoccaggio. Il modello sviluppato è stato testato sia su di un elettrolizzatore alcalino, quello del progetto PHOEBUS, basato su una tecnologia consolidata e commercialmente matura, sia su di un apparecchio sperimentale di tipo PEM in fase di sviluppo: in entrambi i casi i risultati forniti dal modello hanno trovato pieno riscontro coi dati sperimentali.
Resumo:
Lo scopo dell'elaborato di tesi è la progettazione e lo sviluppo di alcuni moduli di un software per la lettura ad elevato throughput di dati da particolari dispositivi per elettrofisiologia sviluppati dall'azienda Elements s.r.l. Elements produce amplificatori ad alta precisione per elettrofisiologia, in grado di misurare correnti a bassa intensità prodotte dai canali ionici. Dato il grande sviluppo che l'azienda sta avendo, e vista la previsione di introdurre sul mercato nuovi dispositivi con precisione e funzionalità sempre migliori, Elements ha espresso l'esigenza di un sistema software che fosse in grado di supportare al meglio i dispositivi già prodotti, e, soprattutto, prevedere il supporto dei nuovi, con prestazioni molto migliori del software già sviluppato da loro per la lettura dei dati. Il software richiesto deve fornire una interfaccia grafica che, comunicando con il dispositivo tramite USB per leggere dati da questo, provvede a mostrarli a schermo e permette di registrarli ed effettuare basilari operazioni di analisi. In questa tesi verranno esposte analisi, progettazione e sviluppo dei moduli di software che si interfacciano direttamente con il dispositivo, quindi dei moduli di rilevamento, connessione, acquisizione ed elaborazione dati.
Resumo:
Progetto di un sistema di controllo della pressione dellʼaria compressa in un serbatoio. In particolare, dopo aver introdotto gli impianti ad aria compressa e mostrato i vari parametri di tali impianti, si vedrà̀ un modo di progettare un sistema di controllo che permetta di inviare allʼutenza una portata di aria che consenta di mantenere costante la pressione nel serbatoio di accumulo, dal quale lʼutenza preleva la portata. Il sistema permetterà di variare allʼoccorrenza lo spazio nocivo (o volume nocivo) del compressore volumetrico dellʼimpianto, in base a quanto volume dʼaria viene richiesto ad ogni ciclo di mandata dallʼutenza (volume dʼaria per ciclo o portata dʼaria); in generale i compressori di questo tipo di impianti possono essere o volumetrici o rotativi, ma in questo lavoro di tesi ci si concentrerà su compressori volumetrici. Il sistema servirà a fare in modo di mantenere la pressione nel serbatoio costante, per evitare dannose sovrappressioni al suo interno (o al contrario pressioni troppo basse), che con lʼausilio di pressostati inducono lo spegnimento del compressore (pressioni troppo basse al contrario ne inducono lʼaccensione se spento), con successivo riavviamento. Quindi il sistema aiuterà a limitare il più possibile il numero di avviamenti, riducendo il consumo energetico dovuto alle correnti di spunto ed evitando di danneggiare il compressore. Per verificare il corretto funzionamento del sistema si utilizzerà un modello simulato del sistema di controllo della pressione nel serbatoio realizzato in ambiente software Simulink. Verrà infine anche quantificato il risparmio economico che si ottiene con lʼintroduzione del sistema.
Resumo:
Progettazione e implementazione dei moduli di visualizzazione, memorizzazione e analisi di un sistema software di acquisizione dati in real-time da dispositivi prodotti da Elements s.r.l. La tesi mostra tutte le fasi di analisi, progettazione, implementazione e testing dei moduli sviluppati.
Resumo:
ALMA MASTER STUDIORUM - UNIVERSITÀ DI BOLOGNA CAMPUS DI CESENA SCUOLA DI AGRARIA E MEDICINA VETERINARIA CORSO DI LAUREA IN SCIENZE E TECNOLOGIE ALIMENTARI Impiego di ingredienti funzionali nel rallentamento del raffermamento in prodotti da forno Relazione finale in Tecnologia dei Cereali e Derivati Relatore Dr. Giangaetano Pinnavaia Correlatrice Dr.ssa Federica Balestra Presentato da Caterina Azzarone Sessione II° Anno Accademico 2014/2015 Introduzione La focaccia è un prodotto lievitato da forno molto diffuso e consumato in tutta Italia. Essendo un prodotto fresco è soggetta al raffermamento. Lo scopo della sperimentazione è stato quello di valutare l’influenza di un amido waxy e di un enzima sulle caratteristiche chimico-fisiche e sensoriali di un prodotto da forno tipo focaccia durante lo stoccaggio. Materiali e metodi Le focacce sono state realizzate addizionando alla formulazione degli ingredienti in grado di contrastare il fenomeno del raffermamento: il Panenzyme AM 100 allo 0,005% (E5)e 0,01%(E10); e il Novation TM 2700 (amido di mais waxy) al 2.5%(N2.5) e 5%(N5). I campioni sono stati posti a confronto con un campione di controllo (C) I campioni sono stati stoccati in cella termostatata a 5C° e 50% UR. Le analisi sono state effettuate rispettivamente dopo 1,2,3,7 e 10 giorni dalla preparazione. Sull’impasto è stato valutato lo sviluppo in volume ogni 30 minuti durante la lievitazione (2h) a 36C° e 86% UR. Sulle focacce sono state effettuate le seguenti determinazioni analitiche: • Analisi dei gas nello spazio di testa delle confezioni. • La determinazione dell’umidità • Texture Profile Analysis (TPA) test • Test di rilassamento (Hold until Time test) • L’analisi sensoriale effettuata sia dopo 1 giorno (T1) sia dopo 10 giorni di conservazione (T10). Conclusioni In particolare, il campione addizionato con enzima in percentuale dello 0,005% (E5) mostra le caratteristiche chimico-fisiche migliori al termine del periodo di conservazione, presentando il valore più elevato di umidità, il valore inferiore di durezza e maggiore di elasticità valutati strumentalmente. Anche a livello sensoriale il campione E5 presenta punteggi molto elevati. Sono state trovate, inoltre, interessanti correlazioni tra i dati dell’analisi sensoriale e quelli ottenuti dai test strumentali. Il campione realizzato con il 2.5% di amido di mais waxy (N2.5) nonostante abbia presentato a fine conservazione valori di umidità e di elasticità inferiori e risultasse più duro rispetto al campione di controllo (C), ha ottenuto i punteggi più elevati nel test sensoriale, mentre nei confronti del campione con una percentuale maggiore di amido di mais waxy (N5) è risultato migliore per tutti i parametri valutati. Si deduce che l’utilizzo di NOVATION 2007 al 2.5% e PANEENZYME AM100 allo 0,005% sono stati in grado di migliorare le caratteristiche strutturali e sensoriali del prodotto durante la conservazione, risultando il secondo il migliore in assoluto
Resumo:
Lo scopo di questa tesi è valutare la resistenza a compressione e il valore del modulo elastico di tre laminati ottenuti con lo stesso materiale composito, CFRP, distinti in fase di laminazione dall’utilizzo di tre diverse tipologie di distaccante (peel-ply, film distaccante e controstampo). In questo modo è stato possibile valutare come quest’ultimi abbiano influito, in modo diverso per ogni laminato, sull’omogeneità dello spessore, sul peso, sulla fuoriuscita di resina e sulla percentuale volumetrica delle fibre. Tali fattori a loro volta hanno caratterizzato i valori di resistenza a compressione e modulo elastico. Nei capitoli successivi è descritto un metodo di analisi a compressione dei materiali compositi, a matrice epossidica rinforzata con fibre di carbonio (CFRP), denominato Combined Loading Compression (CLC) Test Method, basato sull’applicazione, combinata, del carico sul campione, a taglio e all’estremità. La realizzazione dei provini è stata effettuata presso i laboratori dell’università: sono stati realizzati 3 laminati, per ognuno dei quali si è scelto di utilizzare su ogni pezzo una diversa tipologia di distaccante: controstampo, film distaccante e peel-ply, allo scopo di valutare quanta resina uscirà dal manufatto una volta in autoclave e quanta variazione di spessore avremo. Da ognuno di questi laminati sono stati ricavati 5 provini. La campagna sperimentale è stata condotta presso il Laboratorio Tecnologie dei Materiali Faenza (TEMAF). L’elaborazione dei dati è stata effettuata mediante l’utilizzo del software Office Excel, in cui sono stati calcolati i parametri fondamentali, suggeriti dalla normativa ASTM D6641/D6641M, per la caratterizzazione meccanica a compressione dei materiali CFRP.
Resumo:
L'elasticità è un concetto fondamentale nell'ambito del cloud computing, ma propone problemi di coordinazione che, se non compresi nella loro natura, rischiano di renderla inefficiente. Tramite il concetto di “elasticità consapevole della coordinazione” (coordination-aware elasticity), in questa tesi si discute come si possa espandere il linguaggio per l’elasticità cloud SYBL in modo che possa eseguire alcune funzioni elastiche tramite il linguaggio di coordinazione ReSpecT.
Resumo:
All’interno di questo progetto ci proponiamo di creare un infrastruttura cloud grazie a Openstack, un supporto software Opensurce. Grazie a questa infrastruttura effettueremo dei test per valutare le varie tecniche di migrazione messe a disposizione da OpenStack, le loro caratteristiche e le loro prestazioni. Nel primo capitolo introduciamo i concetti base del cloud e delle tecnologie a cui esso è strettamente legato. In particolare definiremo i concetti di Infrastructure as a Service (IaaS) e di virtualizzazione che riguardano nello specifico il nostro caso di studio. Nel secondo capitolo viene descritto nel dettaglio OpenStack e i vari moduli di cui esso è composto. Nel terzo capitolo vengono descritte le varie tipologie di migrazione disponibili in OpenStack in tutte le loro fasi e vengono anticipate alcune considerazioni sui vantaggi e svantaggi che la scelta di una determinata tipologia di migrazione porta. Nel quarto e quinto capitolo vengono descritti rispettivamente l’infrastruttura utilizzata, il processo per crearla e i test a cui è stata sottoposta l’infrastruttura. Nel sesto capitolo vengono analizzati i risultati dei test da cui dedurre un quadro più completo sul comportamento e l’applicabilità delle varie migrazioni nei diversi scenari. Infine viene presentato nell'ultimo capitolo il sunto dei risultati dei test effettuati insieme ai possibili sviluppi futuri
Resumo:
Questa tesi si pone l'obiettivo di implementare in ambiente Linux un'applicazione di sincronizzazione, chiamata DTNbox, che permetta lo scambio di file tra due nodi di una rete classificabile come Delay-/Disruption-Tolerant Network (DTN), ossia una rete in cui a causa di ritardi, interruzioni, partizionamento, non sia possibile utilizzare l'usuale architettura di rete TCP/IP. E' evidente che i problemi menzionati rendono estremamente più complessa la sincronizzazione fra cartelle rispetto ad Internet, da cui le peculiarità di DTNbox rispetto ad altre applicazioni in rete visto che, ad esempio, non è possibile la sincronizzazione tramite un nodo centrale, come in Dropbox e similari, ma occorre basarsi su comunicazioni peer-to-peer. L'oggetto della mia tesi si è quindi sviluppato principalmente su tre direzioni: • Implementare, utilizzando il linguaggio di programmazione C, le funzionalità previste dal nuovo progetto per Linux • Integrarne e modificarne le parti ritenute carenti, man mano che i test parziali ne hanno mostrato la necessità • Testarne il suo corretto funzionamento Si è deciso pertanto di dare precedenza alla scrittura delle parti fondamentali del programma quali i moduli di controllo, la struttura e gestione del database e lo scambio di messaggi tra due nodi appartenenti ad una rete DTN per poter arrivare ad una prima versione funzionante del programma stesso, in modo che eventuali future tesi possano concentrarsi sullo sviluppo di una interfaccia grafica e sull'aggiunta di nuovi comandi e funzionalità accessorie. Il programma realizzato è stato poi testato su macchine virtuali grazie all'uso dello strumento Virtualbricks.
Resumo:
L’attività di tesi ha previsto la progettazione e realizzazione di sorgenti di plasma di non equilibrio a pressione atmosferica e l’individuazione delle condizioni operative ottimali per l’idrofobizzazione di materiali tessili. La prima parte delle attività di tesi hanno riguardato lo studio e l’approfondimento della letteratura scientifica al fine di individuare le sorgenti e i processi plasma assistiti per l’idrofobizzazione dei materiali. Relativamente alle sorgenti di plasma di non-equilibrio a pressione atmosferica, studi di letteratura riportano che sorgenti di tipo APPJ (Atmospheric Pressure Plasma Jet) consentono di effettuare un trattamento localizzato in un punto, mentre sorgenti DBD (Dielectric Barrier Discharge) risultano idonee a trattamenti di materiali large area. Per quanto riguarda i processi plasma assistiti, sulla base di quanto riportato in letteratura il processo di idrofobizzazione può avvenire principalmente mediante polimerizzazione di gas organici contenenti fluoro, introdotti nella regione di plasma, con la conseguente deposizione di coating fluorurati. Le attività sperimentali condotte durante la tesi hanno avuto l’obbiettivo di valutare la possibilità di rendere idrofobico un filato di fibra tessile naturale mediante l’utilizzo di una sorgente plasma jet operante con miscela di argon e gas organoflorurato. Il filato, messo in moto a diverse velocità, è stato fatto transitare attraverso la piuma di plasma. In particolare, si è passati da una velocità di movimentazione di 1 m/min a una di 10 m/min. I risultati ottenuti hanno evidenziato che maggiore è la velocità di movimentazione del filato attraverso la piuma di plasma, minore è il grado di idrofibizzazione raggiungibile sul filato stesso, in quanto minore è il tempo di esposizione del materiale al plasma. Infine, nell’ultima parte dell’attività di tesi, è stata progettata una sorgente DBD, che caratterizzata da una maggiore area di generazione del plasma rispetto alla sorgente plasma jet, consente di incrementare il tempo di esposizione del filato al plasma a parità di velocità di movimentazione del filato.