825 resultados para reattore digestione anaerobica girante agitatore viscosità reometro moto vettore velocità
Resumo:
Le peculiarità del contesto competitivo attuale richiedono alle aziende di muoversi con la massima velocità per rispondere il più rapidamente possibile al soddisfacimento delle richieste dei clienti. La ricerca di massima flessibilità non può prescindere dall’esigenza di mantenere alti livelli di efficienza produttiva e di tendere ad un continuo miglioramento dei flussi interni. L’elaborato ripercorre i passaggi fondamentali di un progetto di miglioramento delle performance di un impianto svolto nel primo semestre 2016 presso Philip Morris Manufacturing & Technology Bologna S.p.A. La metodologia utilizzata riprende strumenti, modelli e metodi dai principi alla base del Focus Improvement, primo pilastro del tempio della Total Productive Maintenance. Attraverso l’applicazione sistematica di tecniche tipiche del problem solving (ciclo di Deming) e di approcci analitici per la determinazione delle cause di guasto (curva di Pareto, Diagramma di Ishikawa), è stato possibile identificare i principali tipi di perdite (tempo, performance, difetti qualitativi) di una macchina industriale e mettere in atto gli interventi migliorativi necessari. L’analisi si conclude con la valutazione dei futuri sviluppi dello scenario, proponendo diverse alternative a seconda dell’abilità dell’organizzazione di sostenere i risultati raggiunti o addirittura di superarli.
Resumo:
The SBBrasil 2010 Project (SBB10) was designed as a nationwide oral health epidemiological survey within a health surveillance strategy. This article discusses methodological aspects of the SBB10 Project that can potentially help expand and develop knowledge in the health field. This was a nationwide survey with stratified multi-stage cluster sampling. The sample domains were 27 State capitals and 150 rural municipalities (counties) from the country's five major geographic regions. The sampling units were census tracts and households for the State capitals and municipalities, census tracts, and households for the rural areas. Thirty census tracts were selected in the State capitals and 30 municipalities in the countryside. The precision considered the demographic domains grouped by density of the overall population and the internal variability of oral health indices. The study evaluated dental caries, periodontal disease, malocclusion, fluorosis, tooth loss, and dental trauma in five age groups (5, 12, 15-19, 35-44, and 65-74 years).
Resumo:
The SBBrasil 2010 Project (SBB10) was designed as a nationwide oral health epidemiological survey within a health surveillance strategy. This article discusses methodological aspects of the SBB10 Project that can potentially help expand and develop knowledge in the health field. This was a nationwide survey with stratified multi-stage cluster sampling. The sample domains were 27 State capitals and 150 rural municipalities (counties) from the country's five major geographic regions. The sampling units were census tracts and households for the State capitals and municipalities, census tracts, and households for the rural areas. Thirty census tracts were selected in the State capitals and 30 municipalities in the countryside. The precision considered the demographic domains grouped by density of the overall population and the internal variability of oral health indices. The study evaluated dental caries, periodontal disease, malocclusion, fluorosis, tooth loss, and dental trauma in five age groups (5, 12, 15-19, 35-44, and 65-74 years).
Resumo:
Dallo studio della sismicità storica della città di Bologna (Guidoboni e Boschi, 2003) emerge che la maggior parte dei danni causati dai terremoti è concentrata nella parte Nord e Nord-Ovest della città, a nord delle attuali vie S. Donato e S. Isaia. In questo lavoro abbiamo studiato la risposta sismica in diversi siti del centro storico di Bologna, per capirne il comportamento in caso di terremoto e verificare se i risultati fossero compatibili con i dati storici. È stata effettuata una campagna di misure geofisiche: 52 con tecnica passiva a stazione singola HVSR per misurare le frequenze di amplificazione dei sottosuoli (47 all’interno delle mura), 5 in array per misurare l’andamento delle velocità delle onde di taglio nel sottosuolo (tutte all’interno delle mura). 22 delle 47 misure H/V mostrano amplificazione nell’intervallo di frequenze tra 1 e 10 Hz, quello di interesse per le strutture del centro storico. Le cause di queste amplificazioni si ipotizzano essere un livello ghiaioso a circa 10-15 m di profondità (Fiori, 2002) in approfondimento da centro città verso est, e un livello sabbioso a circa 10 m di profondità (Amorosi, 2014). Le misure in array, invece, indicano sostanzialmente che l’estremità orientale della città storica ha rigidezze maggiori a profondità maggiori di 50 m. Il dato derivante dalla sismologia storica, in sintesi, non pare essere completamente supportato da evidenze geologiche o geofisiche: la risposta sismica all’interno delle mura di Bologna varia leggermente da punto a punto, ma senza mostrare trend applicabili ad estese macroaree. Solo l’estremo Nord-Est della città ha un comportamento amplificativo più omogeneo (amplificazione a 1-3 Hz) in linea con la geologia locale, che presenta livelli marcatamente ghiaiosi sotto i 15 m di profondità. La variabilità geologica e di risposta sismica locale è stata verificata essere molto maggiore fuori dalle mura di cinta della città.
Resumo:
Il lavoro di tesi consiste nella caratterizzazione, nell’analisi a ritroso e di stabilità attuale di un fenomeno franoso avvenuto a Casola Valsenio, in provincia di Ravenna. La caratterizzazione è comprensiva di analisi geomorfologica dell’area, indagine sismo-stratigrafica e indagine geotecnica di laboratorio. Quindi è stato definito il meccanismo di rottura della frana e sono stati cartografati gli elementi morfologici costituenti l’area di frana. L’indagine geofisica si basa su tecniche ad onde di superficie e include misure tromografiche di rumore sismico ambientale e misure attive multicanale. Queste forniscono, rispettivamente, le curve H/V e gli spettri di velocità di fase e di gruppo, dalle quali è possibile ricavare informazioni di carattere stratigrafico. La caratterizzazione fisico meccanica del materiale pelitico marnoso, prelevato sul piano di scorrimento basale, include analisi granulometrica, determinazione dei limiti di consistenza e test di taglio anulare per ottenere il valore di angolo di attrito residuo. Le informazioni ottenute dalle indagini hanno consentito di definire il modello geologico tecnico del fenomeno, che viene rappresentato rispetto a quattro sezioni, tre relative alla situazione attuale e una relativa al versante prefrana. Sulla base di questi sono state condotte delle analisi a ritroso, che hanno consentito di ricavare le condizioni idrauliche del versante al momento della rottura, per differenti combinazioni di geometria del cuneo e diagramma di spinta dell’acqua. Grazie ai risultati ottenuti in modalità backward, sono state effettuate le analisi di stabilità della scarpata attuale, aventi lo scopo di determinare la distanza orizzontale tra scarpata e frattura di trazione che determinerebbe una situazione di instabilità. Infine sono state condotte analisi di sensitività rispetto ai parametri geometrici del cuneo, di resistenza del materiale e di riempimento idraulico della frattura dii trazione.
Resumo:
Lo scopo di questo studio è la comprensione della dinamica dello strato limite urbano per città dell’Emilia Romagna tramite simulazioni numeriche. In particolare, l’attenzione è posta sull’ effetto isola di calore, ovvero sulla differenza di temperatura dell’aria in prossimità del suolo fra zone rurali e urbane dovuta all’urbanizzazione. Le simulazioni sono state effettuate con il modello alla mesoscala "Weather Research and Forecasting" (WRF), accoppiato con le parametrizzazioni urbane "Building Effect Parametrization" (BEP) e "Building Energy Model" (BEM), che agiscono a vari livelli verticali urbani. Il periodo di studio riguarda sei giorni caldi e senza copertura nuvolosa durante un periodo di heat wave dell’anno 2015. La copertura urbana è stata definita con il "World Urban Databes and Access Portal Tools" (WUDAPT), un metodo che permette di classificare le aree urbane in dieci "urban climate zones" (UCZ), attraverso l’uso combinato di immagini satellitari e "training areas" manualmente definite con il software Google Earth. Sono state svolte diverse simulazioni a domini innestati, con risoluzione per il dominio più piccolo di 500 m, centrato sulla città di Bologna. Le differenze fra le simulazioni riguardano la presenza o l’assenza delle strutture urbane, il metodo di innesto e tipo di vegetazione rurale. Inoltre, è stato valutato l’effetto dovuto alla presenza di pannelli fotovoltaici sopra i tetti di ogni edificio e le variazioni che i pannelli esercitano sullo strato limite urbano. Per verificare la bontà del modello, i dati provenienti dalle simulazioni sono stati confrontati con misure provenienti da 41 stazioni all’interno dell’area di studio. Le variabili confrontate sono: temperatura, umidità relativa, velocità e direzione del vento. Le simulazioni sono in accordo con i dati osservativi e riescono a riprodurre l’effetto isola di calore: la differenza di temperatura fra città e zone rurali circostanti è nulla durante il giorno; al contrario, durante la notte l’isola di calore è presente, e in media raggiunge il massimo valore di 4°C alle 1:00. La presenza dei pannelli fotovoltaici abbassa la temperatura a 2 metri dell’aria al massimo di 0.8°C durante la notte, e l’altezza dello strato limite urbano dell’ordine 200mrispetto al caso senza pannelli. I risultati mostrano come l’uso di pannelli fotovoltaici all’interno del contesto urbano ha molteplici benefici: infatti, i pannelli fotovoltaici riescono a ridurre la temperatura durante un periodo di heat wave, e allo stesso tempo possono parzialmente sopperire all’alto consumo energetico, con una conseguente riduzione del consumo di combustibili fossili.
Resumo:
Con l’avvento di Internet, il numero di utenti con un effettivo accesso alla rete e la possibilità di condividere informazioni con tutto il mondo è, negli anni, in continua crescita. Con l’introduzione dei social media, in aggiunta, gli utenti sono portati a trasferire sul web una grande quantità di informazioni personali mettendoli a disposizione delle varie aziende. Inoltre, il mondo dell’Internet Of Things, grazie al quale i sensori e le macchine risultano essere agenti sulla rete, permette di avere, per ogni utente, un numero maggiore di dispositivi, direttamente collegati tra loro e alla rete globale. Proporzionalmente a questi fattori anche la mole di dati che vengono generati e immagazzinati sta aumentando in maniera vertiginosa dando luogo alla nascita di un nuovo concetto: i Big Data. Nasce, di conseguenza, la necessità di far ricorso a nuovi strumenti che possano sfruttare la potenza di calcolo oggi offerta dalle architetture più complesse che comprendono, sotto un unico sistema, un insieme di host utili per l’analisi. A tal merito, una quantità di dati così vasta, routine se si parla di Big Data, aggiunta ad una velocità di trasmissione e trasferimento altrettanto alta, rende la memorizzazione dei dati malagevole, tanto meno se le tecniche di storage risultano essere i tradizionali DBMS. Una soluzione relazionale classica, infatti, permetterebbe di processare dati solo su richiesta, producendo ritardi, significative latenze e inevitabile perdita di frazioni di dataset. Occorre, perciò, far ricorso a nuove tecnologie e strumenti consoni a esigenze diverse dalla classica analisi batch. In particolare, è stato preso in considerazione, come argomento di questa tesi, il Data Stream Processing progettando e prototipando un sistema bastato su Apache Storm scegliendo, come campo di applicazione, la cyber security.
Resumo:
La VMAT (Volumetric Modulated Arc Therapy) è una delle più recenti tecniche radioterapiche, in cui, oltre alla modulazione geometrica della fluenza del campo di radiazione come avviene nell’IMRT (Intensity Modulated Radiotherapy), sono variati durante il trattamento anche la velocità del gantry e il rateo di dose. La radiazione è erogata senza interruzioni lungo uno o più archi continui della testata dell’acceleratore, così da ridurre i tempi di trattamento in modo sostanziale rispetto all’IMRT. Nelle tecniche ad intensità modulata, ed in particolare nella VMAT, il lettino porta paziente modifica la distribuzione di dose durante gli irraggiamenti posteriori, riducendo quella al target e aumentando quella superficiale. Il presente lavoro di tesi, che ha proprio l’obiettivo di valutare questi aspetti dosimetrici in un’ottica pre-clinica, è stato svolto presso il Servizio di Fisica Sanitaria del Policlinico S.Orsola–Malpighi, Azienda Ospedaliero-Universitaria di Bologna. Le misure sono state effettuate presso le U.O. Radioterapia-Morganti e Radioterapia-Frezza f.f. della medesima Azienda Sanitaria, al fine di caratterizzare dal punto di vista dosimetrico il lettino di trattamento iBEAM evo dell’acceleratore lineare Synergy Elekta. L’attenuazione misurata in caso di incidenza perpendicolare del fascio sul lettino, in buon accordo con gli articoli di riferimento, è stata: (2.81±0.06)% per fotoni di energia di 6 MV, (1.81±0.10)% a 10 MV e (1.38±0.05)% a 15 MV. L’attenuazione massima misurata con fotoni di energia di 6 MV si è avvicinata al 4% negli irraggiamenti obliqui. Infine, è stato analizzato il confronto con statistica gamma fra distribuzione di dose pianificata e misurata prima e dopo aver modellizzato le caratteristiche del lettino nel software per l’elaborazione del piano di trattamento. Solo dopo tale operazione, i due casi VMAT analizzati (tumore dell’orofaringe e prostatico) superano i criteri più restrittivi e affidabili utilizzati nella pratica clinica.
Resumo:
Gli ammassi di galassie sono le strutture più grandi che possiamo osservare nell’Universo. La loro formazione deriva direttamente dalla crescita delle perturbazioni primordiali di densità e dal loro conseguente collasso gravitazionale indotto appunto dalla gravità. Gli ammassi di galassie sono molto importanti in Astrofisica in quanto possono essere considerati come dei laboratori per lo studio di molti aspetti fisici legati al gas, all’ICM e all’evoluzione delle galassie. Lo studio degli ammassi di galassie è molto importante anche per la Cosmologia in quanto è possibile effettuare delle stime sui parametri cosmologici ed ottenere dei vincoli sulla geometria dell’Universo andando a valutare la loro massa e la loro distribuzione nell’Universo. Diventa quindi fondamentale l’utilizzo di algoritmi che ci permettano di utilizzare i dati ottenuti dalle osservazioni per cercare ed individuare gli ammassi di galassie in modo tale da definire meglio la loro distribuzione nell’Universo. Le più recenti survey di galassie ci forniscono molteplici informazioni a riguardo delle galassie, come ad esempio la loro magnitudine in varie bande osservative, il loro colore, la loro velocità ecc. In questo lavoro abbiamo voluto testare la performance di un algoritmo Optimal Filtering nella ricerca degli ammassi di galassie utilizzando prima solo l’informazione della magnitudine delle galassie e successivamente anche l’informazione sul loro colore. Quello che abbiamo voluto fare, quindi, è stato valutare se l’utilizzo combinato della magnitudine delle galassie e del loro colore permette all’algoritmo di individuare più facilmente, e in numero maggiore, gli ammassi di galassie.
Resumo:
Per investigare i carichi sopportati dal corpo nella vita di tutti i giorni, è neccesario un metodo semplice per la stima delle forze di reazione piede-suolo (GRFs) . In questo studio viene presentato un modello per stimare l’andamento delle GRFs durante la corsa, a partire dalle accelerazioni misurate tramite sensori inerziali. I due soggetti che hanno partecipato all’esperimento hanno corso a 4 diverse velocità predefinite e indossato cinque sensori: uno su pelvi, due su tibia (destra e sinistra) e due su piede (destro e sinitro). A partire dai dati ottenuti è stato elaborato un modello che stima l’andamento delle GRFs (verticali e anteroposteriori) e i tempi di contatto e volo del passo tramite l’accelerazione assiale tibiale. Per la stima delle forze di reazione viene utilizzato un modello di stima basato sui tempi di contatto e volo, unito ad un modello che prevede la presenza o meno e il modulo degli impact peak sfruttando due picchi negativi individuati nelle accelerazioni assiali tibiali. Sono state utilizzate due pedane di carico come gold standard per valutare la qualità delle stime ottenute. Il modello prevede correttamente la presenza dell'impact peak nell'85% dei casi, con un errore sul modulo compreso fra il 6% e il 9%. Le GRFs verticali massime vengono approssimate con un errore fra l'1% e 5%, mentre le GRFs antero-posteriori con un errore fra l'8% e il 14% del range massimo-minimo del segnale.
Resumo:
Lo studio delle regioni più interne degli ammassi globulari risulta fondamentale per la ricerca di buchi neri di massa intermedia (IMBH). La scoperta di tali oggetti avrebbe un impatto sostanziale su un gran numero di problemi astrofisici aperti, dalla formazione dei buchi neri supermassicci, all'interpretazione delle Ultra Luminous X-ray Sources, fino allo studio delle onde gravitazionali. Il presente lavoro di tesi si inserisce all'interno di un progetto osservativo mirato a studiare la dinamica interna degli ammassi globulari e volto ad investigare la presenza di IMBH nel centro di tali sistemi tramite l'analisi sistematica dei profili di dispersione di velocità e di rotazione. In questo elaborato presentiamo lo studio della cinematica del core dell'ammasso globulare NGC 6266, realizzato con lo spettrografo a campo integrale IFU-SINFONI, assistito da un sistema di ottiche adattive. Grazie all'utilizzo dell'ottica adattiva, SINFONI è in grado di realizzare osservazioni ad alta risoluzione spaziale e misurare la velocità radiale di stelle individuali anche nelle regioni più interne degli ammassi globulari, dove le misure spettroscopiche tradizionali falliscono a causa dell'elevato crowding stellare. Questo ci ha permesso di determinare il profilo centrale della dispersione di velocità di NGC 6266 dalla misura delle velocità radiali individuali di circa 400 stelle, localizzate negli 11 arcsec più interni dell'ammasso. Utilizzando dati complementari, provenienti da osservazioni realizzate con lo spettrografo multi-oggetto FLAMES, siamo stati in grado di costruire il profilo di dispersione di velocità di NGC 6266 fino ad una distanza radiale di 250 arcsec. Il profilo di dispersione di velocità osservato permette di escludere la presenza di un IMBH di massa superiore a 2500 masse solari e mostra un calo nella regione centrale, simile a quello rilevato in un numero crescente di ammassi globulari, che potrebbe indicare la presenza di anisotropia tangenziale.
Resumo:
La tesi tratta l'analisi della sicurezza delle piste ciclabili di Bologna, mediante tecnologie innovative quali Mobile Eye e Video V-Box. Si trattano due percorsi: "Sabotino" e "Sant'Orsola", comprendenti ciascuno due itinerari alternativi, uno ciclabile e uno no. In prima fase, si sono somministrati dei questionari di gradimento ad un campione composto da 50 utenti per percorso. I questionari sono composti da una parte generale e da una specifica dell'itinerario. Dall'analisi dei risultati delle interviste, eseguita esclusivamente per il percorso "Sabotino", è stato possibile evidenziare le criticità segnalate dai ciclisti. Sono state poi condotte, esclusivamente nel tratto Nord-Ovest della tangenziale delle biciclette, indagini sperimentali con Mobile Eye, con lo scopo di conoscere quali elementi stradali sono maggiormente guardati e considerati dall'utente e con Video V-Box, in grado di fornire posizione, velocità puntuale e accelerazione. A tali sperimentazioni hanno partecipato 17 utenti, ignari dello scopo del test. Ottenuti i dati, sono stati analizzati i risultati provenienti da V-Box quindi analizzate le velocità in prossimità delle intersezioni significative. Dal confronto dei risultati provenienti dai questionari e dai test sperimentali è stato possibili giundere a delle conclusioni.
Resumo:
Il presente testo viene redatto con lo scopo di studiare l’effettiva interazione tra i cantieri stradali, con la relativa segnaletica, e gli utenti che transitano sulla sede stradale interessata da lavori di rifacimento, manutenzione o adeguamento della stessa, partendo dalla conoscenza di tutta la normativa che disciplina i cantieri su strada. Nel presente testo verrà esposta in modo dettagliato la sperimentazione effettuata, analizzando il percorso di prova, il campo prove con i relativi partecipanti, la tipologia dei cantieri presenti lungo il percorso e il segnalamento di ciascuno di essi. Questo studio verrà svolto analizzando nel dettaglio il comportamento dell’utente alla guida ed in particolare la sua risposta alle informazioni fornite dalla segnaletica temporanea di cantiere, sia verticale che orizzontale, grazie a strumenti specifici quali il Mobile-Eye ed il V-Box. I risultati ottenuti, infine, saranno discussi per valutare quali siano le migliori pratiche di installazione di un cantiere su strada e di posizionamento della relativa segnaletica, per ottenere la massima visibilità e considerazione da parte dei conducenti, e quindi la regolazione del loro comportamento in termini di adeguamento della velocità di marcia in relazione ad una situazione straordinaria che si presenta lungo il tracciato che stanno percorrendo. Tutto ciò potrà servire a redigere delle linee guida specifiche in merito all’installazione dei cantieri e al posizionamento della relativa segnaletica di avviso e preavviso, sempre nel rispetto di tutta la normativa che ne disciplina gli stessi.
Resumo:
Lo scopo di questa tesi è quello di analizzare a fondo il concetto sovrastruttura ferroviaria senza ballast e sottolinearne pregi e difetti rispetto a quella tradizionale con pietrisco, al fine di identificare chiaramente quando e dove i sistemi senza massicciata forniscono prestazioni migliori. L'aumento dei costi di manutenzione delle sovrastrutture ferroviarie al giorno d'oggi stanno aprendo la strada a nuovi sistemi, la maggior parte sviluppati in paesi che hanno linee di velocità elevate e tanti altri paesi si stanno preparando per aggiornare le proprie linee esistenti, nonché per creare nuove linee ferroviarie ad alta velocità. In molti casi i sistemi senza ballast sembrano avere le potenzialità per offrire un servizio per linee ad alta velocità più efficiente rispetto alle tracce tradizionali con ballast, soprattutto a causa della loro maggiore stabilità strutturale, del basso bisogno di manutenzione e del lungo ciclo di vita. Il primo capitolo è dedicato alla descrizione della struttura del binario tradizionale con ballast analizzando gli strati che formano la sovrastruttura. Il secondo capitolo è dedicato alla descrizione di varie tipologie, utilizzate nel mondo, di sovrastrutture ferroviarie senza ballast, di ognuna di esse sono state elencate le caratteristiche costruttive e prestazionali. Il terzo capitolo è dedicato al confronto tra le due tipologie di sovrastruttura, sono state descritte le capacità elastiche e deformative delle due soluzioni, il degrado cui incorrono le due soluzioni, gli stati sollecitanti a cui sono sottoposte e la risposta delle stesse. Di particolare importanza è il confronto di costo dei due sistemi e il rumore e le vibrazioni generate da questi; infatti negli ultimi anni questi sono gli aspetti fondamentali su cui si basa la scelta di un sistema costruttivo; a seguito di questo confronto è stato possibile trarre le conclusioni.
Resumo:
Questa tesi riguarda l'implementazione e la verifica di alcuni algoritmi di determinazione d'assetto, con l'obiettivo di verificarne le prestazioni e valutarne la possibilità di utilizzo sul ADS del satellite DustCube, operante nel sistema binario Didymos. I filtri si basano sulla combinazione delle misure di diversi sensori, tra i quali star tracker, sensori di Sole, camera a infrarossi e giroscopio. I sensori in questione sono stati modellizzati all'interno di un simulatore implementato in MATLAB/Simulink. L'approccio utilizzato per la determinazione dell'assetto è quelllo di impiegare due differenti filtri: il primo per la calibrazione del giroscopio, il secondo che utilizza i parametri di calibrazione calcolati dal primo per correggere la velocità angolare misurata da giroscopio e determinare l'assetto con un maggiore accuratezza. Le prestazioni dei vari filtri sono state caratterizzate attraverso un'analisi statistica: le simulazioni Monte Carlo. I risultati, nei limiti delle ipotesi fatte, hanno confermato la validità dell'approccio. Per la determinazione effettiva delle prestazioni di questo sistema sull'ADS del DustCube si rimanda ad uno studio di maggior dettaglio.