941 resultados para Flusso, anemometria, velocità di flusso, catetere
Resumo:
La tesi è incentrata sullo studio del flusso di neutroni e della funzione di risoluzione del progetto n_TOF al CERN di Ginevra. Dopo aver ricordato le motivazioni scientifiche e tecnologiche che stanno alla base di questo progetto di collaborazione internazionale, si trattano sommariamente alcune delle più importanti applicazioni della fisica neutronica e si descrive la facility di Ginevra. Nella parte finale del lavoro si presenta una misura di precisione ottenuta dal flusso di neutroni utilizzato nell'esperimento n_TOF nel 2012, la cui conoscenza è di fondamentale importanza per la misura di sezioni d'urto di reazioni indotte da neutroni. L'esperimento n_TOF ha proprio lo scopo di misurare sezioni d'urto di reazioni indotte da neutroni, in particolare reazioni di fissione e cattura neutronica. Ad n_TOF si utilizza un fascio di protoni, accelerato a 20 GeV dal ProtoSincrotrone del CERN, per crearne due di neutroni, uno verticale e uno orizzontale, tramite spallazione nucleare indotta su un bersaglio di Piombo. Dalle analisi dei dati si deduce come questo studio possa essere maggiormente ottimizzato migliorando la funzione di risoluzione energetica dei neutroni, attraverso simulazioni Monte Carlo.
Resumo:
Nella presente tesi vengono presentati gli strumenti necessari ad un dispositivo mobile per spostarsi attraverso una molteplicità di reti wi-fi senza perdere l'identità della connessione in essere.
Resumo:
Nella prima sezione di questo lavoro verranno esposti i ragionamenti fisici alla base della scrittura delle equazioni di London-London (1935), capaci di descrivere due importanti fenomeni riguardanti i materiali superconduttori quali la conduttività perfetta (resistenza nulla) e il diamagnetismo perfetto (Effetto Meissner). Verrà in essa infine brevemente descritto l'effetto della più generale conservazione del flusso magnetico nei superconduttori secondo il modello classico. Nella seconda sezione verrà esposto il ragionamento alla base della scrittura del Modello Quantistico Macroscopico, proposto da F.London nel 1948 per cercare di unificare la descrizione elettrodinamica classica della superconduttività con la meccanica quantistica, attraverso la scrittura di una funzione d'onda macroscopica capace di descrivere l'intero ensemble di portatori di carica superelettronici nel loro moto di conduzione.Esso permetterà di prevedere il fenomeno della quantizzazione del flusso magnetico intrappolato da una regione superconduttrice molteplicemente connessa.
Resumo:
Value Stream Mapping di un flusso di produzione in un reparto di lavorazioni meccaniche. Riduzione del Working Capital tramite livelellamento della produzione per la riduzione del lotto medio. Analisi e razionalizzazione dei magazzini interoperazionali.
Resumo:
Il lavoro di tesi riguarda i sistemi naturali di fitodepurazione, focalizzandosi in particolare sui sistemi a flusso orizzontale sub-superficiale. Vengono esposte la loro applicabilità e diffusione e le principali normative di riferimento. Vengono trattati i principali parametri progettuali e metodi di dimensionamento e inoltre si svolge lo studio di uno specifico sito sperimentale.
Resumo:
Progettazione ed ottimizzazione di parte di un sistema pico-idroelettrico ad acqua fluente (potenza < 5 kW) per sfruttare grandi corsi d’acqua.
Resumo:
Analisi e applicazione dei processi di data mining al flusso informativo di sistemi real-time. Implementazione e analisi di un algoritmo autoadattivo per la ricerca di frequent patterns su macchine automatiche.
Resumo:
La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.
Resumo:
Il presente lavoro ha come obiettivo la descrizione dello studio del degassamento diffuso di CO2 (acquisizione dei dati e loro trattazione) effettuato nell'area vulcanica dei Campi Flegrei (NA), nello specifico nell'area della Solfatara di Pozzuoli. Questo infatti rappresenta attualmente il punto di massimo rilascio di fluidi ed energia dell'intero Distretto Vulcanico Flegreo attraverso attività quali fumarole e degassamento diffuso dal suolo, nonché deformazioni del terreno (bradisismo). Tramite l'acquisizione dei valori di flusso diffuso e delle temperature dei primi 10 cm di suolo, attraverso una trattazione dei dati statistica e geostatistica, è stato possibile distinguere e caratterizzare le sorgenti di CO2 (biologica o vulcanica), la realizzazione di sviluppo di mappe di probabilità e di flusso medio e la quantificazione dell'output totale giornaliero di CO2. Il lavoro è stato suddiviso in due fasi principali: 1. La prima fase ha riguardato l'acquisizione dei dati sul campo nei giorni 19 e 20 marzo 2015, tramite l'utilizzo di una camera d'accumulo ed un termometro munito di sonda, in 434 punti all'interno del cratere della Solfatara e nelle aree circostanti. 2. Nella seconda fase sono stati elaborati i dati, utilizzando il metodo statistico GSA (Graphical Statistic Approach) ed il metodo geostatistico della simulazione sequenziale Gaussiana (sGs). Tramite il GSA è stato possibile ripartire i dati in popolazioni e definire una media (con relativa varianza) per ognuna di esse. Con la sGs è stato possibile trattare i dati, considerando la loro distribuzione spaziale, per simulare valori per le aree prive di misurazioni; ciò ha permesso di generare delle mappe che mostrassero l'andamento dei flussi e la geometria della struttura del degassamento diffuso (Diffuse Degassing Structure, DDS; Chiodini et al., 2001). Infine i dati ottenuti sono stati confrontati con i risultati di precedenti studi e si è messo in relazione la geometria e l'intensità di degassamento con la geologia strutturale dell'area flegrea indagata.
Resumo:
Questo lavoro si concentra sullo studio fluidodinamico del flusso multifase cavitante di un iniettore per applicazioni a motori ad iniezione diretta (GDI). L’analisi è stata svolta tramite l’uso del software CFD (Computational Fluid Dynamics) Star-CCM+^® sviluppato da CD-ADAPCO. L’obiettivo di questo studio è investigare i motivi che portano ad un diverso comportamento tra i rilievi della prova sperimentale di caratterizzazione dell’iniettore e quanto atteso dai valori nominali dettati dalla specifica dell’iniettore, con particolare riferimento alla distribuzione di portata fra i diversi ugelli. Il presente lavoro fa parte di una coppia di elaborati collegati tra loro e, pertanto, ha inoltre lo scopo di fornire dati utili allo sviluppo dell’altro tema di analisi mirato alla individuazione di parametri di qualità della miscela aria-combustibile non reagente utili alla previsione della formazione del particolato prodotto dalla combustione di un motore GDI. L’elaborato, costituito di 5 capitoli, è strutturato secondo lo schema sottostante. Nel capitolo 1 vengono presentate le motivazioni che lo hanno avviato e viene esposto lo stato dell’arte della tecnologia GDI. Il capitolo 2 è a sfondo teorico: in esso vengono riportati i fondamenti del processo di cavitazione nella prima parte e i modelli numerici utilizzati nell’analisi nella seconda. Il capitolo 3 descrive la modellazione e successiva validazione dei modelli tramite confronto con il test case ‘Comprensive hydraulic and flow field documentation in model throttle experiments under cavitation conditions’ (E. Winklhofer, 2001). Nella scelta dei modelli e dei parametri relativi, l’analisi si è basata su precedenti lavori trovati in letteratura. Successivamente è stato svolto uno studio di sensibilità per valutare la stabilità della soluzione a piccole variazioni nei valori dei parametri. La scelta dei parametri modellistici nel caso di interesse, l’iniettore multihole, si è basata inizialmente sui valori ‘ottimali’ ottenuti nel test case ed è l’argomento del capitolo 4. All’interno del capitolo si parla inoltre dell’analisi di sensibilità successiva, svolta con lo scopo di comprendere i motivi che portano allo sbilanciamento tra fori corrispondenti e al maggiore sviluppo del getto centrale rispetto agli altri. Nel capitolo 5 dopo un breve riepilogo dei punti fondamentali trattati nello svolgimento dell’elaborato, si tirano le conclusioni sull’analisi e si espongono gli sviluppi futuri.
Resumo:
Nell'elaborato presentato vengono analizzati ed elaborati i dati raccolti nei monitoraggi effettuati in alcune sezioni della tangenziale delle biciclette nel periodo di fine settembre 2015.
Resumo:
Le acque sotterranee rappresentano una risorsa fondamentale di acqua potabile; per questo motivo esse devono essere preservate, controllate, e se necessario, trattate e decontaminate. Nella presente tesi è stato analizzato, dal punto di vista idraulico, uno dei metodi di risanamento delle acque sotterranee più efficaci ed ampiamente utilizzati: il sistema Pump & Treat. Esso consiste nella costruzione di una barriera idraulica formata da pozzi che pompano acqua dal sottosuolo per consentirne il trattamento e la conseguente reimmissione nel corpo idrico. In questo contesto, sono stati approfonditi i principali criteri di progettazione ed è stato sviluppato un esempio applicativo utilizzando il codice numerico MODFLOW per la risoluzione delle equazioni di flusso e trasporto in acque sotterranee.
Resumo:
La tesi ha l'obiettivo di analizzare e ottimizzare i flussi di approvvigionamento in un'azienda che produce su commessa: CT Pack S.r.L, specializzata nella realizzazione di macchine automatiche per il packaging di biscotti, gelato e cioccolato. Per raggiungere l'obiettivo si è preso come riferimento il modello proposto dal BPR (Business Process Reengineering): sono stati analizzati i principali attori coinvolti, in particolare fornitori e magazzino, mediante l'uso di KPI definiti ad hoc. Sulla base di questi sono stati individuati due processi critici: il primo riguarda la gestione del magazzino, che presenta un'elevata quantità di codici non movimentati anche a causa del processo di gestione del materiale avanzato al termine di ciascuna commessa; il secondo riguarda il materiale a consumo, che impiega i magazzinieri per un tempo eccessivo, è caratterizzato da giacenze per il 30% non movimentate e da supermarket collocati in officina ridondanti e caratterizzati da bassi tassi di utilizzo (anche sotto il 50%). Per risolvere questi problemi ed effettuare una riprogettazione si fa affidamento agli strumenti proposti dal project management: si imposta quindi un progetto che ha l'obiettivo di ridurre nel breve periodo il valore di magazzino mediante lo smaltimento attraverso diverse vie di codici non utilizzati e agisce nel lungo periodo per evitare che le criticità si ripropongano. Mediante la riprogettazione della gestione dei resi di produzione si prevede un maggior controllo, grazie al lavoro congiunto di ufficio tecnico e ufficio acquisti. La nuova gestione del materiale a consumo ha in se alcune delle tecniche proposte dalla lean production (il kanban, per esempio) e integra il fornitore nella catena di approvvigionamento, garantendo un maggior controllo sulle quantità, un risparmio di circa 7 h/mese di lavoro per i magazzinieri e una riduzione delle giacenze del 46%.
Resumo:
Quattro sistemi pilota, cilindrici, rappresentanti SFS a flusso verticale sono stati adoperati in parallelo per attività di ricerca. Il refluo trattato, defluente dalla sede di Ingegneria di via Terracini e classificabile come urbano, è stato immesso negli SFSV a valle di una sedimentazione primaria. Segue una breve descrizione dei sistemi. 1. VFF - Vertical Flow Filter - Reattore assimilabile ad un filtro a sabbia; 2. VFCWW - Vertical Flow Constructed Wetland with worms - Reattore dotato sia di piante (tipologia Phragmites Australis) sia di vermi (lombrichi); 3. VFCW - Vertical Flow Constructed Wetland - Reattore dotato di piante (tipologia Phragmites Australis); 4. VFFW - Vertical Flow Filter with worms - Reattore assimilabile ad un filtro a sabbia dotato di vermi (lombrichi). Il rendimento offerto da ciascun sistema è stato calcolato sulla base dei risultati forniti dalle analisi eseguite in laboratorio su campioni prelevati in input ed output da ciascun reattore. L'obiettivo dello studio è stato quello di valutare l'efficienza dei sistemi in relazione ai parametri misurati (azoto e fosforo totale, solidi sospesi, COD, ione ammoniacale, ortofosfato).