855 resultados para parametri cosmologici
Resumo:
Il guadagno di un PMT è il fattore di amplificazione tra la corrente generata dal fotocatodo e quella finale dell’anodo. Quando un PMT è soggetto a una sorgente luminosa per lunghi periodi di tempo (processo noto come "invecchiamento"), il suo guadagno tende a diminuire. In questa tesi sono riportati i risultati della campagna di invecchiamento di un fotomoltiplicatore Hamamatsu R760. In particolare, è stato studiato come variasse il guadagno in funzione della carica integrata dal PMT tramite due principali tipi di misure: quella del guadagno assoluto, che consiste in singole misure di guadagno nella condizione di emissione di un singolo fotoelettrone alla volta, e quelle di guadagno relativo, le quali hanno permesso di studiare la dipendenza tra guadagno e voltaggio applicato al PMT. Il PMT in esame è stato fatto invecchiare fino a una carica integrata totale pari a 342 C. Una volta raggiunti i 282 C, è stato spento per 20 giorni, in modo da studiare l’eventuale capacità di recuperare guadagno durante i periodi di inattività. É stata osservata una rapida decrescita del guadagno nei primi 40 C integrati, com- inciando da 7.79 · 10^6 fino a un valore pari a 1.68 · 10^6, seguita da oscillazioni minori attorno a una decrescita lineare media. Dopo il periodo di inattività non è stato rilevato alcun recupero significativo di guadagno. Il guadagno del PMT dipende dal voltaggio applicato tramite una legge a potenza, i cui parametri sono stati misurati. In particolare, gli esponenti di tale relazione sono stati soggetti a una decrescita rapida iniziale (nei primi 40 C di carica integrata), seguita da una stabilizzazione. Inoltre, sono stati ricavati i valori di tensione da applicare al PMT per mantenere il guadagno a un valore costante di 1.5 · 10^5 in funzione della carica integrata. Questo valore è stato scelto come punto di lavoro per il rivelatore PLUME installato nell’esperimento LHCb, che utilizzerà questo tipo di PMT per la sua campagna di misure.
Resumo:
Lo studio si basa sull’analisi di campioni di neve superficiale (0-3 cm) e sub-superficiale (3-6 cm) raccolti nei pressi della “clean area” di Concordia Station, nel plateau Antartico, e di campioni di deposizione raccolti a seguito di eventi di precipitazione nello stesso sito. Il sito di campionamento “clean area” è designato allo studio dei valori di fondo nel plateau antartico, poiché ritenuto privo di contaminazione antropica. L’obiettivo è la quantificazione delle concentrazioni in ultra-tracce di mercurio per lo studio di eventuali patterns relativi al ciclo geochimico dell’elemento nei periodi interessati da radiazione solare. Inoltre, per studiare i processi che controllano il ciclo del mercurio nel plateau Antartico sono stati considerati sia i parametri meteorologici che le variazioni di elementi chimici usati per tracciare le possibili sorgenti emissive ed i meccanismi di scambio che avvengono per il mercurio all’interfaccia aria-neve. Le analisi sono state svolte con ICP-SFMS, una tecnica di spettrometria in grado di rilevare concentrazioni nell’ordine del ppt. A causa dei limiti di rilevazione molto bassi, tutte le provette usate per le analisi e la conservazione dei campioni sono state trattate al fine di minimizzare la contaminazione. I campioni destinati alle analisi di mercurio sono stati trattati con acido, seguendo la procedura per la stabilizzazione di metalli volatili. Il lavoro svolto non ha identificato particolari processi di trasporto e di scambio mentre invece riporta episodi di contaminazione della “clean area” dovuti in parte alla non usuale provenienza del vento ed in parte al crescente impatto antropico dovuto alle attività delle stazioni di ricerca. Lo studio ha messo in luce le problematiche legate al possibile impatto della base di ricerca Concordia Station sui processi naturali evidenziando la necessità di ulteriori studi e approfondimenti sul tema della contaminazione della designata “area pulita” per il campionamento di neve.
Resumo:
DUNE (Deep Underground Neutrino Experiment) è un esperimento internazionale attualmente in costruzione al laboratorio Fermilab in Illinois, Stati Uniti. Il suo scopo sarà quello di studiare alcuni dei fenomeni e quesiti aperti che riguardano i neutrini: particelle debolmente interagenti facenti parte del Modello Standard. In particolare DUNE intende studiare il fenomeno dell'oscillazione di sapore dei neutrini, osservare neutrini provenienti da supernove e stelle di neutroni per studiarne la formazione e ricercare l'eventuale decadimento dei protoni. L'esperimento sarà formato da due siti sperimentali distanti circa 1300 km tra loro: il Near Detector situato a Fermilab ed il Far Detector, situato al Sanford Underground Research Facility (SURF) in South Dakota. Questa tesi è rivolta in particolare al sistema di fotorivelazione del Far Detector, che utilizza fotomoltiplicatori al silicio (Silicon Photomultipliers, o SiPM). Questi dispositivi dovranno funzionare in condizioni criogeniche in argon liquido, perciò è stata avviata un'intensiva campagna di test volta alla caratterizzazione e validazione dei sensori che saranno montati nell'apparato. La sezione INFN di Bologna è coinvolta in questa campagna e dovrà testare una parte dei SiPM destinati all'impiego in DUNE. A tale scopo è stato realizzato, nei laboratori INFN, un sistema per il test di tali dispositivi in criogenia su larga scala. L'attività di tesi ha previsto la caratterizzazione di diversi SiPM sia a temperatura ambiente sia in criogenia e l'analisi delle distribuzioni statistiche dei parametri di diversi campioni di SiPM.
Resumo:
Negli ultimi anni la necessità di processare e mantenere dati di qualsiasi natura è aumentata considerevolmente, in aggiunta a questo, l’obsolescenza del modello centralizzato ha contribuito alla sempre più frequente adozione del modello distribuito. Inevitabile dunque l’aumento di traffico che attraversa i nodi appartenenti alle infrastrutture, un traffico sempre più in aumento e che con l’avvento dell’IoT, dei Big Data, del Cloud Computing, del Serverless Computing etc., ha raggiunto picchi elevatissimi. Basti pensare che se prima i dati erano contenuti in loco, oggi non è assurdo pensare che l’archiviazione dei propri dati sia completamente affidata a terzi. Così come cresce, quindi, il traffico che attraversa i nodi facenti parte di un’infrastruttura, cresce la necessità che questo traffico sia filtrato e gestito dai nodi stessi. L’obbiettivo di questa tesi è quello di estendere un Message-oriented Middleware, in grado di garantire diverse qualità di servizio per la consegna di messaggi, in modo da accelerarne la fase di routing verso i nodi destinazione. L’estensione consiste nell’aggiungere al Message-oriented Middleware, precedentemente implementato, la funzione di intercettare i pacchetti in arrivo (che nel caso del middleware in questione possono rappresentare la propagazione di eventi) e redirigerli verso un nuovo nodo in base ad alcuni parametri. Il Message-oriented Middleware oggetto di tesi sarà considerato il message broker di un modello pub/sub, pertanto la redirezione deve avvenire con tempi molto bassi di latenza e, a tal proposito, deve avvenire senza l’uscita dal kernel space del sistema operativo. Per questo motivo si è deciso di utilizzare eBPF, in particolare il modulo XDP, che permette di scrivere programmi che eseguono all’interno del kernel.
Resumo:
Lo scopo del presente lavoro di tesi sperimentale è stato quello di caratterizzare il controllo motorio di bambini affetti da scoliosi idiopatica e di valutarne le alterazioni rispetto ad una popolazione a sviluppo tipico dello stesso range di età. La caratterizzazione è avvenuta grazie ad un approccio basato su sensori indossabili, che ha consentito di estrarre e quantificare un gruppo di metriche che includono parametri temporali del cammino, la loro variabilità e le metriche non lineari (RQA, MSE, HR). Queste ultime sono state estrapolate mediante l'elaborazione dei segnali provenienti dai sensori applicati su caviglie e tronco dei singoli soggetti. L'implementazione degli script utili è avvenuta mediante il software Matlab. I risultati suggeriscono che la scoliosi idiopatica influisca sul controllo motorio dei pazienti scoliotici e ciò si traduce in un cammino più lento, meno stabile e meno maturo, denotato da un’asimmetria temporale ma anche da un’asimmetria con pendolazione destrutturata.
Resumo:
L'incidenza complessiva dell'insufficienza cardiaca a livello globale sta aumentando, sia a causa della crescente aspettativa di vita per i pazienti che ricevono una diagnosi, sia per un progressivo invecchiamento della popolazione. Nonostante i continui progressi clinici, questa patologia continua ad avere una alta mortalità e a causare una forte sintomatologia nei pazienti che ne sono affetti. Per questo motivo e per il forte peso che questa patologia ha sulla sanità si è reso necessario cercare di prevenire eventi di scompenso cardiaco o di peggioramento della condizione di insufficienza cardiaca. Questo elaborato si sofferma inizialmente sull'insufficienza cardiaca, sulla sua patologia, le sue classificazioni, la sua epidemiologia e sui dispostivi impiantabili utilizzati nel trattamento di quest'ultima. Successivamente sono stati analizzati cinque studi clinici longitudinali, di cui uno monoparametrico e gli altri multiparametrici, caratterizzati dal monitoraggio remoto di alcuni parametri vitali con l'obiettivo di individuare, e quindi prevenire, eventi avversi o un peggioramento della condizione di insufficienza cardiaca.
Resumo:
Con la presente tesi di laurea si vuole analizzare la nuova procedura di ordini di “Scheduling Agreement” all’interno della realtà aziendale di ACMA S.p.A., azienda produttrice di macchine automatiche. Con il termine Scheduling Agreement si identifica una gestione di ordini con il fornitore, il quale mantiene i pezzi prodotti all’interno del proprio magazzino per massimo 18 mesi. L’accordo si basa sul principio per cui il fornitore ha una maggiore continuità di fornitura mentre ACMA S.p.A. vede un risparmio degli investimenti aziendali e nel tempo di approvvigionamento. Il principale focus dello studio verterà sulla proposta di soluzioni di stoccaggio per ricercare un punto di ottimo che permetta di ridurre al minimo il rischio di stock out e al tempo stesso minimizzi il livello delle scorte. L’analisi partirà con l’identificazione dei prodotti per cui risulta conveniente aprire uno Scheduling. Tale processo valutativo si estrinseca nell’analisi di due parametri fondamentali: frequenza e consumo. Verranno poi analizzati alcuni casi TO BE con il fine di trovare il Lead Time migliore per ridurre al minimo le giacenze ed evitare rotture di stock. Questi studi utilizzano il software di estrapolazione dati “SAP” per poi analizzarli sulla piattaforma Excel e forniscono una valutazione realistica nella gestione di tale procedura in ACMA S.p.A.. La soluzione conclusiva riesce a risolvere il problema di stock out introducendo la “scorta di sicurezza” calcolata sulla domanda futura. In particolare, utilizzando un Lead Time di approvvigionamento di 21 giorni si è riusciti a ridurre del 75% le scorte a magazzino rispetto al caso più cautelativo, mantenendo comunque basso il rischio di stock out. I risultati ottenuti forniranno un effettivo miglioramento delle prestazioni dell’azienda e il modello verrà sfruttato in futuro per l’applicazione iterativa della soluzione descritta, con risparmio di tempo e di fondi aziendali.
Resumo:
L’obiettivo della tesi è quello di realizzare un progetto basato sull’interazione tra Raspberry Pi e NanoVNA, allo scopo di rendere automatico il processo di acquisizione dei dati di questo strumento di misura. A tal fine è stato sviluppato un programma in linguaggio Python, eseguibile dal terminale del Raspberry Pi, che permette all’utente di inserire agevolmente i parametri essenziali, come l’orario di inizio e termine delle misurazioni e l'intervallo di tempo tra una rilevazione e l’altra.
Resumo:
La quantificazione non invasiva delle caratteristiche microstrutturali del cervello, utilizzando la diffusion MRI (dMRI), è diventato un campo sempre più interessante e complesso negli ultimi due decenni. Attualmente la dMRI è l’unica tecnica che permette di sondare le proprietà diffusive dell’acqua, in vivo, grazie alla quale è possibile inferire informazioni su scala mesoscopica, scala in cui si manifestano le prime alterazioni di malattie neurodegenerative, da tale tipo di dettaglio è potenzialmente possibile sviluppare dei biomarcatori specifici per le fasi iniziali di malattie neurodegenerative. L’evoluzione hardware degli scanner clinici, hanno permesso lo sviluppo di modelli di dMRI avanzati basati su acquisizioni multi shell, i quali permettono di ovviare alle limitazioni della Diffusion Tensor Imaging, in particolare tali modelli permettono una migliore ricostruzione trattografica dei fasci di sostanza bianca, grazie ad un’accurata stima della Orientation Distribution Function e la stima quantitativa di parametri che hanno permesso di raggiungere una miglior comprensione della microstruttura della sostanza bianca e delle sue eventuali deviazioni dalla norma. L’identificazione di biomarcatori sensibili alle prime alterazioni microstrutturali delle malattie neurodegenerative è uno degli obbiettivi principali di tali modelli, in quanto consentirebbero una diagnosi precoce e di conseguenza un trattamento terapeutico tempestivo prima di una significante perdità cellulare. La trattazione è suddivisa in una prima parte di descrizione delle nozioni fisiche di base della dMRI, dell’imaging del tensore di diffusione e le relative limitazioni, ed in una seconda parte dove sono analizzati tre modelli avanzati di dMRI: Diffusion Kurtosis Imaging, Neurite Orientation Dispersion and Density Imaging e Multi Shell Multi Tissue Constrained Spherical Deconvolution. L'obiettivo della trattazione è quello di offrire una panoramica sulle potenzialità di tali modelli.
Resumo:
L’aumento della quantità di inquinanti emessi in atmosfera, legati all’attività antropica che si è osservato negli ultimi anni, ha portato all’emanazione di normative allo scopo di migliorare la qualità dell’aria e mitigare il cambiamento climatico. I settori responsabili di queste emissioni sono molteplici ma quello dei trasporti risulta essere uno dei maggiori indagati, condizione che ha portato ad una maggiore complessità dei motori a combustione interna, cercando così di ridurre l’impatto che hanno sull’ambiente, il clima e la salute umana. Nonostante tutto, l’abbassamento continuo dei limiti massimi, relativi alla quantità di sostanze che possono essere emesse dai veicoli, ha spinto le case automobilistiche a ricercare nuovi sistemi di propulsione. In questo contesto di riduzione degli inquinanti, sta assumendo una posizione di rilievo la scelta di utilizzare l’idrogeno come combustibile alternativo, concetto che verrà approfondito in questa tesi. Tenendo presente che un ciclo motore è suddiviso in 4 fasi: aspirazione, compressione, espansione e scarico, nell’elaborato di questa tesi, verranno analizzate la sola compressione e successiva combustione sfruttando il software di simulazione AVL FIRE. Lo studio prevede la realizzazione di un modello in grado di descrivere e simulare in maniera realistica il fenomeno di combustione dell’idrogeno e la definizione di una procedura per la caratterizzazione dei parametri di iniezione, prestando particolare attenzione all’influenza che questi hanno sul processo di formazione della miscela in modo da giungere ad una configurazione ottimale. Inizialmente sarà utilizzata una geometria con un iniettore a foro singolo posizionato centralmente, la quale progressivamente verrà modificata allo scopo di ottenere una rappresentazione sempre più simile alla condizione reale.
Resumo:
L’attività di tirocinio è iniziata con lo studio dei sottomarini e dei loro apparati. Una volta individuate le criticità del caso di studio è stata avviata una fase di ricerca bibliografica sui materiali e sui relativi processi tribologici coinvolti nello strisciamento tra vite e madrevite. La ricerca si è poi concentrata sui fenomeni di corrosione e sui materiali adatti a contrastarla; in base ai dati raccolti ne è stata selezionata una coppia per vite e madrevite. A questo punto è stata effettuata la modellazione CAD 3D del sistema di sollevamento, modellando i principali elementi del meccanismo, cioè la vite, la madrevite e i componenti che ospitano cuscinetti e guarnizioni. Contemporaneamente alla fase di disegno è stato effettuato il dimensionamento del sistema vite-madrevite e dei dispositivi necessari al suo funzionamento. Durante questa fase è stata progettata una legge di moto della vite tale da consentire prestazioni equivalenti o migliori del sistema idraulico da sostituire. Per la vite, oltre alle verifiche statiche e a fatica, è stato necessario effettuare le verifiche a carico di punta e di velocità critica. Durante i calcoli riguardanti la fatica, sono stati valutati gli effetti dovuti alla presenza della filettatura, calcolando i coefficienti di concentrazione delle tensioni grazie ad apposite simulazioni FEM. Inoltre, è stato dimensionato il collegamento tramite linguetta al motoriduttore. Dopo aver effettuato il dimensionamento statico della madrevite ed eseguito una verifica dei parametri che ne determinano l’usura, sono stati scelti i componenti commerciali come cuscinetti, guarnizioni e tenute. Terminata la fase di dimensionamento dei componenti è stato effettuato un approfondimento relativo al gruppo motoriduttore e al meccanismo frenante. Nei capitoli conclusivi sono stati valutati aspetti come la gestione dei carichi radiali, i test necessari ad ultimare la progettazione e i possibili sviluppi futuri.
Resumo:
Questo elaborato è il risultato dell’approfondimento del brief di tirocinio presso Focchi S.p.A. L’idea di progetto è quella di ricavare un prodotto industriale dai rifiuti, dai campioni inutilizzati e dagli avanzi di magazzino. Questo obiettivo richiede ideazione e costituzione di un’architettura prodotto, ma anche selezione dei materiali, implementazione tecnica e inserimento nel processo aziendale. Quindi il lavoro è cominciato con una documentazione sull’ambiente delle costruzioni, e i danni ambientali che progettare in maniera non-circolare comporta. Poi è stata studiata l’azienda e il percorso che i materiali fanno durante la produzione. Una volta inquadrato il problema è cominciata la fase di concept. La varietà di materiali ha generato molte idee, quindi ne è stata selezionata una utilizzando criteri misurabili, attraverso il metodo QFD, tenendo conto di vari parametri di natura ambientale, economica e sociale. Il concept selezionato è stato quindi una serra, da donare alle scuole primarie, in cui praticare l’idroponica: la struttura vetrata della serra è simile agli involucri trattati da Focchi e la destinazione didattica garantisce un buon impatto sulla comunità. A questo punto, il progetto è stato sviluppato, tramite uno studio dei dettagli tecnici. Quindi un inquadramento storico-architettonico è stato integrato con una documentazione normativa sulle strutture vetrate, oltre all’analisi del territorio circostante l’azienda in cui individuare possibili beneficiari del progetto. In seguito, c’è stata una fase di sketching, attraverso un’analisi dei requisiti della struttura e dei materiali a disposizione. Oltre ad una soluzione scalabile per il collegamento fra cellule, è stata definita la forma, disegnata con approccio modulare. Le ultime considerazioni riguardo la fattibilità del progetto sono state fatte dal punto di vista logistico ed economico, per un prodotto ormai sufficientemente dettagliato e pronto per l’implementazione.
Resumo:
Il lavoro proposto si pone l’obiettivo di progettare l’impianto di climatizzazione del Museo Nazionale della Resistenza, sito in Milano, sulla base dei criteri di riduzione delle emissioni climalteranti e valorizzando l’utilizzo delle fonti energetiche rinnovabili presenti nel territorio, nella fattispecie attraverso lo sfruttamento dell’acqua di falda e dell’energia solare. Il primo capitolo è dedicato alla descrizione del processo di dimensionamento effettuato ed ai criteri di progettazione adottati. Lo sfruttamento diretto dell’energia solare avviene attraverso un impianto fotovoltaico integrato alla struttura museale; nel secondo capitolo viene stimata la sua capacità di produzione elettrica annuale. Vengono quindi messi a confronto i risultati ottenuti, calcolati sia su base mensile in relazione alla norma UNI 10349, sia attraverso una simulazione energetica di tipo dinamico condotta su base oraria mediante l’utilizzo del software IES VE. Viene inoltre valutata la capacità della cella fotovoltaica nel convertire la radiazione incidente in energia elettrica ed analizzato il suo comportamento al variare delle condizioni operative. Nel terzo capitolo vengono studiati gli effetti dell’irraggiamento estivo sulle pareti opache del museo, valutando la capacità delle murature di ritardare l’onda di flusso termico. È inoltre effettuata una trattazione analitica per il calcolo dei parametri necessari a determinare il comportamento dinamico dell’involucro. Attraverso la simulazione dinamica è stato possibile stimare le richieste energetiche ed elettriche, estive e invernali, della struttura museale. La soluzione impiantistica proposta per la generazione di acqua calda e refrigerata, fa uso di gruppi polivalenti acqua-acqua con possibilità di condensare o evaporare con acqua di falda. Tale soluzione viene poi analizzata e confrontata con una più versatile, ma meno efficiente, una pompa di calore aria-acqua.
Resumo:
Il lavoro di tesi presentato ha come obiettivo la valutazione delle potenzialità del metodo di risk assessment per la stima dei rischi nel campo della progettazione geotecnica. In particolare, è stata approfondita l’applicazione dei metodi di trattamento dell’incertezza alla modellazione numerica di terreni caratterizzati da alcune tipologie di argille, il cui comportamento, al variare del grado di saturazione, può oscillare tra ritiro e rigonfiamento, provocando dissesti alle strutture sovrastanti. Ai modelli numerici creati sono stati associati dei modelli probabilistici sui quali sono state eseguite delle analisi di affidabilità associate a parametri del terreno opportunamente scelti in funzione dell’influenza sul meccanismo espansivo del suolo. È stata scelta come soglia, e dunque come stato limite, per il calcolo della probabilità di fallimento, il movimento massimo caratteristico del terreno ottenuto applicando il metodo di Mitchell per i due fenomeni. Questo metodo è adottato nelle Australian Standards, uno dei riferimenti scientifici più rilevanti per la progettazione su suoli espansivi, nonché normativa vigente in Australia, territorio ricco di argille attive. Le analisi hanno permesso di condurre alcune riflessioni circa la conservatività dei termini da normativa, fondati su approcci di carattere puramente deterministico, mostrando come a piccole variazioni plausibili degli input nel modello numerico, si possano ottenere variazioni discutibili nei risultati, illustrando così i vantaggi che comporta il trattamento dell’incertezza sui dati.
Resumo:
A seguito di recenti risultati nel campo dell’Astrofisica, con questo elaborato ci si propone di approfondire il ruolo della viscosità in una classe di modelli cosmologici. La discussione ha lo scopo di generalizzare delle tecniche applicate con successo nello studio dei fluidi ideali a sistemi dove anche la viscosità é un parametro che necessita di essere largamente preso in considerazione. Nello specifico, ci si serve di strumenti computazionali e geometrici e di teoria delle equazioni differenziali alle derivate parziali per comprendere, da un punto di vista matematico, come associare le Equazioni di Einstein ai fluidi in specifici background cosmologici. Questo elaborato parte dallo studio dei fluidi ideali in un background di tipo FLRW al fine di generalizzarlo a fluidi viscosi che scorrono in un background di tipo Bianchi I. Infine si indicano alcuni problemi ancora aperti relativi al caso dissipativo e le possibili strategie risolutive di tali questioni.