1000 resultados para indirizzo :: 759 :: Curriculum Ingegneria di processo


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo del presente lavoro di tesi è stato quello di effettuare, tramite l’applicazione di una metodologia RBM – Risk Based Maintenance, l’analisi dei guasti avvenuti nel biennio 2012-2013 nel termovalorizzatore di rifiuti solidi urbani di Modena gestito dalla società Herambiente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato andremo a descrivere, sia a livello strutturale che implementativo, il progetto sperimentale da noi ideato volto alla creazione di un laboratorio virtuale di testing. Lo scopo principale del laboratorio è appunto quello di delocalizzare la fase preliminare di testing di un'applicazione; nel nostro caso specifico siamo partiti dallo scenario riguardante la rete ferroviaria ed abbiamo preso in esame il software utilizzato per la gestione del traffico. Il vincolo principale che grava su questo progetto è che l'applicazione da collaudare non deve minimamente essere modificata, e ciò significa che occorre creare intorno ad essa un ambiente di testing conforme alle caratteristiche in cui il software si aspetta di operare. Ed è qui che entra in gioco la virtualizzazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli spazi di Teichmuller nacquero come risposta ad un problema posto diversi anni prima da Bernhard Riemann, che si domandò in che modo poter parametrizzare le strutture complesse supportate da una superficie fissata; in questo lavoro di tesi ci proponiamo di studiarli in maniera approfondita. Una superficie connessa, orientata e dotata di struttura complessa, prende il nome di superficie di Riemann e costituisce l’oggetto principe su cui si basa l’intero studio affrontato nelle pagine a seguire. Il teorema di uniformizzazione per le superfici di Riemann permette di fare prima distinzione netta tra esse, classificandole in superfici ellittiche, piatte o iperboliche. Due superfici di Riemann R ed S si dicono equivalenti se esiste un biolomorfismo f da R in S, e si dice che hanno la stessa struttura complessa. Certamente se le due superfici hanno genere diverso non possono essere equivalenti. Tuttavia, se R ed S sono superfci con lo stesso genere g ma non equivalenti, è comunque possibile dotare R di una struttura complessa, diversa dalla precedente, che la renda equivalente ad S. Questo permette di osservare che R è in grado di supportare diverse strutture complesse non equivalenti tra loro. Lo spazio di Teichmuller Tg di R è definito come lo spazio che parametrizza tutte le strutture complesse su R a meno di biolomorfismo. D’altra parte ogni superficie connessa, compatta e orientata di genere maggiore o uguale a 2 è in grado di supportare una struttura iperbolica. Il collegamento tra il mondo delle superfici di Riemann con quello delle superfici iperboliche è stato dato da Gauss, il quale provò che per ogni fissata superficie R le metriche iperboliche sono in corrispondenza biunivoca con le strutture complesse supportate da R stessa. Questo teorema permette di fornire una versione della definizione di Tg per superfici iperboliche; precisamente due metriche h1, h2 su R sono equivalenti se e soltanto se esiste un’isometria φ : (R, h1 ) −→ (R, h2 ) isotopa all’identità. Pertanto, grazie al risultato di Gauss, gli spazi di Teichmuller possono essere studiati sia dal punto di vista complesso, che da quello iperbolico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio effettuato si inserisce all’interno di una collaborazione tra il DICAM e la Provincia di Bologna ed ha come obiettivo l’analisi di sicurezza della SP26 “Valle del Lavino”, poichè risulta la terza tratta stradale a maggior costo sociale di tutta la rete provinciale. Il rapporto di analisi redatto a seguito del Road Safety Review ha infatti evidenziato numerosi deficit in termini di sicurezza dell’infrastruttura, tra cui gli attraversamenti pedonali. Obiettivo specifico della tesi è stato quello di valutare lo stato attuale di sicurezza degli attraversamenti pedonali presenti lungo il tracciato stradale in esame, in maniera tale da individuare, sulla base di una correlazione fra l’ubicazione degli attraversamenti stessi e il comportamento degli utenti alla guida dei veicoli, le intersezioni pedonali più gravosi, che per questo, in un piano di riqualifica della tratta stradale, richiederebbero opportuni interventi di adeguamento e messa in sicurezza. Con questa finalità è stata programmata ed eseguita una campagna di prove su strada che ha coinvolto un campione di 10 utenti, aventi determinati requisiti di base, del tutto ignari dell’obiettivo che si voleva perseguire e inesperti del tracciato di prova. La sperimentazione ha previsto l’impiego, fondamentale, di metodologie innovative, quali il V-Box e il Mobile Eye Detector, in grado di tener conto del comportamento degli utenti alla guida: il primo permette di rilevare l’andamento delle velocità dei partecipanti lungo il tracciato, il secondo restituisce il tracciamento del punto di vista del conducente alla guida. A ciascun partecipante è stato richiesto di condurre un veicolo, non di loro proprietà, per l’intero tratto della SP26 posto esame, compreso tra la progressiva 0+000, in comune di Zola Predosa, e la progressiva 19+200, in località Badia (comune di Monte San pietro), in andata e in ritorno per un complessivo di 38,4 km di tracciato da esaminare. Al conducente alla guida è stato richiesto di indossare durante tutta la guida l’occhiale Mobile Eye mentre l’auto di prova è stata dotata della strumentazione V-Box.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il continuo sviluppo negli ultimi anni di diverse declinazioni della spettroscopia d'assorbimento a raggi X (XAS) con radiazione di sincrotrone ha permesso la determinazione della struttura locale di campioni di ogni tipo, dagli elementi puri, ai più moderni materiali, indagando e approfondendo la conoscenza di quei meccanismi che conferiscono a questi ultimi delle proprietà innovative e, a volte, rivoluzionarie. Il vantaggio di questa tecnica è quello di poter ottenere informazioni sulla struttura del campione soprattutto a livello locale, rendendo relativamente agevole l'analisi di sistemi senza ordine a lungo raggio, quali per esempio i film molecolari. Nell'elaborato verrà preliminarmente illustrata la fenomenologia della XAS e l’interpretazione teorica dell'origine della struttura fine. Saranno successivamente descritte le innovative tecniche di misura che permettono di studiare i cambiamenti della struttura locale indotti dall'illuminazione con luce visibile, inclusi gli esperimenti di tipo pump probe. Un capitolo della tesi è interamente dedicato alla descrizione dei campioni studiati, di cui sono stati analizzati alcuni dati acquisiti in condizioni statiche. Quest'analisi è stata compiuta sfruttando anche dei cammini di multiplo scattering dedicando particolare attenzione alla trattazione del fattore di Debye Waller. Nella parte principale della tesi verranno descritti la progettazione ed il test di un apparato sperimentale per l'acquisizione di spettri differenziali da utilizzare alla beamline BM08 dell'European Synchrotron Radiation Facility di Grenoble. Saranno presentate principalmente le modifiche apportate al software d'acquisizione della linea e la progettazione di un sistema ottico d'eccitazione da montare nella camera sperimentale. Nella fase di studio dell'ottica è stato creato in LabView un simulatore basato sul metodo Monte Carlo, capace di prevedere il comportamento del sistema di lenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è lo studio, mediante misure sperimentali con un telescopio per raggi cosmici, della risposta temporale di rivelatori a scintillazione accoppiati a diversi tipi di fotorivelatori. In particolare sono stati studiati due tipi di fotorivelatori: i fotomoltiplicatori al silicio (SiPM) ed i rivelatori MicroChannel Plate (MCP); entrambi i sensori presentano ottime caratteristiche per ciò che concerne la risposta temporale. Per una migliore caratterizzazione dei fotorivelatori e per una maggiore completezza dello studio sono stati analizzati anche diversi modelli di accoppiamento tra gli scintillatori ed i sensori, sia a diretto contatto che tramite fibre ottiche. Per cercare di sfruttare al meglio le eccellenti proprietà temporali, sono state utilizzate anche diverse schede di front end veloce e diversa elettronica di read out. In particolare in questa tesi, per la prima volta, è stata usata, per lo studio di questi nuovi fotorivelatori, l’elettronica di front end e read out realizzata per il rivelatore TOF dell’esperimento ALICE a LHC. I risultati di questa tesi rappresentano un punto di partenza per la realizzazione di rivelatori con ottima risoluzione temporale in esperimenti di fisica nucleare ed subnucleare (definizione del trigger, misure di tempo di volo, calorimetria). Altre interessanti applicazioni sono possibili in ambito medico, in particolare strumenti di diagnostica avanzata quali ad esempio la PET.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’Alpha Magnetic Spectrometer (AMS-02) é un rivelatore per raggi cosmici (CR) progettato e costruito da una collaborazione internazionale di 56 istituti e 16 paesi ed installato il 19 Maggio del 2011 sulla Stazione Spaziale Internazionale (ISS). Orbitando intorno alla Terra, AMS-02 sará in grado di studiare con un livello di accuratezza mai raggiunto prima la composizione dei raggi cosmici, esplorando nuove frontiere nella fisica delle particelle, ricercando antimateria primordiale ed evidenze indirette di materia oscura. Durante il mio lavoro di tesi, ho utilizzato il software GALPROP per studiare la propagazione dei CR nella nostra Galassia attraverso il mezzo interstellare (ISM), cercando di individuare un set di parametri in grado di fornire un buon accordo con i dati preliminari di AMS-02. In particolare, mi sono dedicata all’analisi del processo di propagazione di nuclei, studiando i loro flussi e i relativi rapporti. Il set di propagazione ottenuto dall’analisi é stato poi utilizzato per studiare ipotetici flussi da materia oscura e le possibili implicazioni per la ricerca indiretta attraverso AMS-02.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In areas of seasonal frost, frost susceptibility composed by frost heaving during the winter and thaw softening during the spring is one of the most dangerous phenomenon for transportation, road and railway infrastructure. Therefore, the need for frost protection layer becomes imperative. The purpose of frost protection layer is to prevent frost from penetrating down through the pavement and into the sub-soils. Frost susceptible soils under the road can be cause damages on the roads or other structures due to frost heave or reduced capacity characteristics thaw period. "Frost heave" is the term given to the upwards displacement of the ground surface caused by the formation of ice within soils or aggregates (Rempel et al., 2004). Nowadays in Scandinavia the most common material used in frost protection layer in the pavement structure of roads and in the ballast of the railway tracks are coarse-grain crushed rocks aggregates. Based on the capillary rise, the mechanics of frost heave phenomenon is based on the interaction between aggregates and water, as suggested by Konrad and Lemieux in 2005 that said that the fraction of material below the 0.063 mm sieve for coarse-grained soils must be controlled so as to reduce the sensitivity to frost heave. The study conducted in this thesis project is divided in two parts: - the analysis of the coarse grained aggregates used in frost protection layer in Norway; - the analysis of the frost heave phenomenon in the laboratory under known boundary conditions, through the use of the most widely used method, the frost heave test, in” closed system” (without access of water).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi è incentrata sullo studio del flusso di neutroni e della funzione di risoluzione del progetto n_TOF al CERN di Ginevra. Dopo aver ricordato le motivazioni scientifiche e tecnologiche che stanno alla base di questo progetto di collaborazione internazionale, si trattano sommariamente alcune delle più importanti applicazioni della fisica neutronica e si descrive la facility di Ginevra. Nella parte finale del lavoro si presenta una misura di precisione ottenuta dal flusso di neutroni utilizzato nell'esperimento n_TOF nel 2012, la cui conoscenza è di fondamentale importanza per la misura di sezioni d'urto di reazioni indotte da neutroni. L'esperimento n_TOF ha proprio lo scopo di misurare sezioni d'urto di reazioni indotte da neutroni, in particolare reazioni di fissione e cattura neutronica. Ad n_TOF si utilizza un fascio di protoni, accelerato a 20 GeV dal ProtoSincrotrone del CERN, per crearne due di neutroni, uno verticale e uno orizzontale, tramite spallazione nucleare indotta su un bersaglio di Piombo. Dalle analisi dei dati si deduce come questo studio possa essere maggiormente ottimizzato migliorando la funzione di risoluzione energetica dei neutroni, attraverso simulazioni Monte Carlo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'utilizzo di polimeri organici coniugati in dispositivi elettronici per applicazioni biologiche, grazie alle loro proprietà meccaniche ed elettriche, insieme alla loro biocompatibilità, è un campo di ricerca relativamente nuovo e in rapida espansione. In questo lavoro di tesi si utilizza la tecnica del Voltage Clamp in configurazione whole cell per caratterizzare le proprietà elettrofisiologiche della linea cellulare di glioblastoma multiforme (T98G) e per registrare le correnti ioniche di cellule adese su una matrice polimerica biocompatibile di poli(etilenediossitiofene)-poli(stirenesulfonato) (PEDOT:PSS). La tecnica consiste nel bloccare il potenziale di membrana al valore desiderato, secondo un preciso protocollo di stimolazione, misurando la corrente necessaria per mantenere costante il potenziale presente tra le due superfici della membrana cellulare. Nella prima parte del lavoro le cellule sono state perfuse con farmaci inibitori dei canali potassio, prima con il bloccante non specifico tetraetilammonio (TEA), e poi selettivamente tramite bloccanti specifici come iberiotossina e dendrotossina. Il 44% circa delle cellule ha evidenziato una significativa corrente residua riconducibile all'attività dei canali ionici voltaggio-dipendenti Kv1.2. Al contrario nelle cellule restanti questi canali non sono espressi. Successivamente, sempre utilizzando le T98G, si è analizzato come lo stato di ossido-riduzione del polimero coniugato PEDOT:PSS possa influenzare le correnti dei canali ionici di membrana; è emerso che il substrato di PEDOT:PSS ridotto provoca una diminuzione significativa della corrente registrata rispetto al substrato di controllo (petri in polistirene). Questi risultati sono stati confrontati con le curve di proliferazione delle cellule T98G coltivate per 24h, 48h e 72h sui diversi substrati considerati, evidenziando interessanti correlazioni nel caso del substrato PEDOT:PSS ridotto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si inserisce nell'ambito delle analisi statistiche e dei metodi stocastici applicati all'analisi delle sequenze di DNA. Nello specifico il nostro lavoro è incentrato sullo studio del dinucleotide CG (CpG) all'interno del genoma umano, che si trova raggruppato in zone specifiche denominate CpG islands. Queste sono legate alla metilazione del DNA, un processo che riveste un ruolo fondamentale nella regolazione genica. La prima parte dello studio è dedicata a una caratterizzazione globale del contenuto e della distribuzione dei 16 diversi dinucleotidi all'interno del genoma umano: in particolare viene studiata la distribuzione delle distanze tra occorrenze successive dello stesso dinucleotide lungo la sequenza. I risultati vengono confrontati con diversi modelli nulli: sequenze random generate con catene di Markov di ordine zero (basate sulle frequenze relative dei nucleotidi) e uno (basate sulle probabilità di transizione tra diversi nucleotidi) e la distribuzione geometrica per le distanze. Da questa analisi le proprietà caratteristiche del dinucleotide CpG emergono chiaramente, sia dal confronto con gli altri dinucleotidi che con i modelli random. A seguito di questa prima parte abbiamo scelto di concentrare le successive analisi in zone di interesse biologico, studiando l’abbondanza e la distribuzione di CpG al loro interno (CpG islands, promotori e Lamina Associated Domains). Nei primi due casi si osserva un forte arricchimento nel contenuto di CpG, e la distribuzione delle distanze è spostata verso valori inferiori, indicando che questo dinucleotide è clusterizzato. All’interno delle LADs si trovano mediamente meno CpG e questi presentano distanze maggiori. Infine abbiamo adottato una rappresentazione a random walk del DNA, costruita in base al posizionamento dei dinucleotidi: il walk ottenuto presenta caratteristiche drasticamente diverse all’interno e all’esterno di zone annotate come CpG island. Riteniamo pertanto che metodi basati su questo approccio potrebbero essere sfruttati per migliorare l’individuazione di queste aree di interesse nel genoma umano e di altri organismi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

OPERA è un esperimento installato ai Laboratori del Gran Sasso, lungo la linea del fascio di neutrini CNGS prodotto al CERN. Il suo scopo principale è osservare - per la prima volta in modo diretto - il fenomeno dell'oscillazione di neutrini muonici del CNGS, in neutrini-tau. L'esperimento è attualmente in fase di analisi dati. Accanto al canale di oscillazione dominante nu_mu--> nu_tau OPERA può studiare anche il canale nu_mu--> nu_e grazie all'ottima capacità di identificazione degli elettroni. OPERA utilizza un bersaglio attivo, finemente segmentato in moduli ("brick") costituiti da pile di fogli di emulsioni nucleare e lastre di piombo. Ogni "brick", il cui spessore è equivalente a 10 lunghezze di radiazione, è un rivelatore "stand-alone" attraverso il quale è possibile identificare e ricostruire gli sciami elettromagnetici e quindi le interazioni a corrente carica di neutrini elettronici. Il progetto di tesi si inquadra in questo contesto. Gli obiettivi specifici sono: - implementazione di una nuova procedura di trigger applicata per l'identificazione degli sciami elettromagnetici; - validazione della suddetta procedura sui dati simulati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi cinquant’anni, il trasporto aereo ha sperimentato una rapida espansione, parallelamente alla crescita dell’economia globale. Gli aeroporti, oggi, rappresentano strutture complesse, sulle quali si concentrano interessi economici, sociali e strategici di notevole importanza. Il traffico passeggeri, espresso in RPK (Revenue Passenger Kilometers – ricavo per passeggero-chilometro trasportato), dal 1960, è cresciuto di quasi il 9% l’anno, più del doppio del Prodotto Interno Lordo (PIL), e con un tasso di crescita superiore rispetto alle altre modalità di trasporto. Si prevede che il traffico aereo, sia passeggeri che merci, continuerà ad aumentare nel prossimo futuro: le stime di crescita del traffico aereo riportate nell’ultimo rapporto di valutazione ambientale prodotto dall’ICAO (ICAO Environmental Report 2013) prevedono, per il periodo 2010-2030, un aumento del tasso di crescita annuo dei passeggeri, espresso in RPK, pari al +4,9%. Il valore stimato di RPK per il 2030 è pari a 13 bilioni, quasi tre volte maggiore di quello registrato nel 2010. Come conseguenza, anche le emissioni nocive per l’ambiente e per il clima direttamente legate al trasporto aereo sono aumentate, perché l’aumento della domanda di trasporto aereo ha superato la riduzione delle emissioni dovute ai continui miglioramenti apportati dalla tecnologia e dall’ottimizzazione delle procedure operative.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’assioma di scelta ha una preistoria, che riguarda l’uso inconsapevole e i primi barlumi di consapevolezza che si trattasse di un nuovo principio di ragionamento. Lo scopo della prima parte di questa tesi è quello di ricostruire questo percorso di usi più o meno impliciti e più o meno necessari che rivelarono la consapevolezza non solo del fatto che fosse indispensabile introdurre un nuovo principio, ma anche che il modo di “fare matematica” stava cambiando. Nei capitoli 2 e 3, si parla dei moltissimi matematici che, senza rendersene conto, utilizzarono l’assioma di scelta nei loro lavori; tra questi anche Cantor che appellandosi alla banalità delle dimostrazioni, evitava spesso di chiarire le situazioni in cui era richiesta questa particolare assunzione. Il capitolo 2 è dedicato ad un caso notevole e rilevante dell’uso inconsapevole dell’Assioma, di cui per la prima volta si accorse R. Bettazzi nel 1892: l’equivalenza delle due nozioni di finito, quella di Dedekind e quella “naturale”. La prima parte di questa tesi si conclude con la dimostrazione di Zermelo del teorema del buon ordinamento e con un’analisi della sua assiomatizzazione della teoria degli insiemi. La seconda parte si apre con il capitolo 5 in cui si parla dell’intenso dibattito sulla dimostrazione di Zermelo e sulla possibilità o meno di accettare il suo Assioma, che coinvolse i matematici di tutta Europa. In quel contesto l’assioma di scelta trovò per lo più oppositori che si appellavano ad alcune sue conseguenze apparentemente paradossali. Queste conseguenze, insieme alle molte importanti, sono analizzate nel capitolo 6. Nell’ultimo capitolo vengono riportate alcune tra le molte equivalenze dell’assioma di scelta con altri enunciati importanti come quello della tricotomia dei cardinali. Ci si sofferma poi sulle conseguenze dell’Assioma e sulla sua influenza sulla matematica del Novecento, quindi sulle formulazioni alternative o su quelle più deboli come l’assioma delle scelte dipendenti e quello delle scelte numerabili. Si conclude con gli importanti risultati, dovuti a Godel e a Cohen sull’indipendenza e sulla consistenza dell’assioma di scelta nell’ambito della teoria degli insiemi di Zermelo-Fraenkel.