1000 resultados para indirizzo :: 955 :: Curriculum A: Generale e applicativo
Resumo:
La sezione d’urto totale adronica gioca un ruolo fondamentale nel programma di fisica di LHC. Un calcolo di questo parametro, fondamentale nell’ambito della teoria delle interazioni forti, non é possibile a causa dell’inapplicabilità dell’approccio perturbativo. Nonostante ciò, la sezione d’urto può essere stimata, o quanto meno le può essere dato un limite, grazie ad un certo numero di relazioni, come ad esempio il Teorema Ottico. In questo contesto, il detector ALFA (An Absolute Luminosity For ATLAS) sfrutta il Teorema Ottico per determinare la sezione d’urto totale misurando il rate di eventi elastici nella direzione forward. Un tale approccio richiede un metodo accurato di misura della luminosità in condizioni sperimentali difficoltose, caratterizzate da valori di luminosità istantanea inferiore fino a 7 ordini di grandezza rispetto alle normali condizioni di LHC. Lo scopo di questa tesi è la determinazione della luminosità integrata di due run ad alto β*, utilizzando diversi algoritmi di tipo Event-Counting dei detector BCM e LUCID. Particolare attenzione è stata riservata alla sottrazione del fondo e allo studio delle in- certezze sistematiche. I valori di luminosità integrata ottenuti sono L = 498.55 ± 0.31 (stat) ± 16.23 (sys) μb^(-1) and L = 21.93 ± 0.07 (stat) ± 0.79 (sys) μb^(-1), rispettivamente per i due run. Tali saranno forniti alla comunità di fisica che si occupa della misura delle sezioni d’urto protone-protone, elastica e totale. Nel Run II di LHC, la sezione d’urto totale protone-protone sarà stimata con un’energia nel centro di massa di 13 TeV per capire meglio la sua dipendenza dall’energia in un simile regime. Gli strumenti utilizzati e l’esperienza acquisita in questa tesi saranno fondamentali per questo scopo.
Resumo:
L'utilizzo dell'idrogeno come vettore energetico è uno dei temi, riguardanti la sostenibilità energetica, di maggior rilievo degli ultimi anni. Tuttavia ad oggi è ancora in corso la ricerca di un sistema che ne permetta un immagazzinamento efficiente. Il MgH2 costituisce un valido candidato per la produzione di sistemi per lo stoccaggio di idrogeno allo stato solido. In questa tesi, per migliorare le proprietà cinetiche e termodinamiche di cui questo sistema, sono stati sintetizzati dei campioni nanostrutturati composti da Mg-Ti attraverso la tecnica Inert Gas Condensation. I campioni così ottenuti sono stati analizzati dal punto di vista morfologico e composizionale, mediante la microscopia elettronica a scansione, la microanalisi e la diffrazione di raggi X. Tali analisi hanno mostrato che le dimensioni delle nanoparticelle sono comprese tra i 10-30 nm e che la tecnica IGC permette una distribuzione uniforme del titanio all'interno della matrice Mg. Le misure di caratterizzazione per l'assorbimento reversibile di idrogeno sono state effettuate attraverso il metodo volumetrico, Sievert. I campioni sono stati analizzati a varie temperature (473K-573K). Cineticamente la presenza di titanio ha provocato un aumento della velocità delle cinetiche sia per i processi di desorbimento che per quelli di assorbimento ed ha contribuito ad una diminuzione consistente delle energie di attivazione di entrambi i processi rispetto a quelle note in letteratura per il composto MgH2. Dal punto di vista termodinamico, sia le pressioni di equilibrio ottenute dalle analisi PCT a diverse temperature, che l'entalpia e l'entropia di formazione risultano essere in accordo con i valori conosciuti per il sistema MgH2. All'interno di questo lavoro di tesi è inoltre presentata un'analisi preliminare di un campione analizzato con la tecnica Synchrotron Radiation-Powder X Ray Diffraction in situ, presso la facility MAX-lab (Svezia), all’interno dell’azione COST, MP1103 per la ricerca di sistemi per lo stoccaggio di idrogeno allo stato solido.
Resumo:
Nel documento vengono trattate le principali tecniche di geolocalizzazione basate sull'elaborazione dei segnali elettromagnetici ricevuti. E' altresì introdotto un sistema di remote positioning basato su test di prossimità rafforzato tramite machine learning tramite un approccio simulativo ed una implementazione reale.
Resumo:
In questo lavoro saranno inizialmente discusse le tecniche medianti le quali sono cresciuti i monocristalli organici confrontando le tecniche di crescita proprie dell’elettronica organica con quelle utilizzate comunemente in quella inorganica. Successivamente si introdurrà il problema del trasporto elettronico con particolare riguardo verso alcune molecole come il rubrene o il pentacene. Tramite il modello microscopico verranno studiate le interazioni elettrone-fonone, locale e non locale, in particolare nei cristalli di rubrene e DMQtT–F4TCNQ attraverso la teoria del piccolo polarone di Holstein. Dopo aver sottolineato i limiti di questa teoria ne verrà proposta una alternativa basata sui lavori di Troisi e supportata da evidenze sperimentali. Tra le tecniche utilizzate per l’analisi dei campioni verranno discusse le basi della teoria del funzionale di densità. L’attenzione sarà rivolta ai cristalli ordinati mentre una breve descrizione sarà riservata per quelli disordinati o amorfi. Nel capitolo 3 verrà trattato il ruolo degli eccitoni all’interno dei semiconduttori organici, mentre nell’ultimo capitolo si discuterà di diverse applicazioni dei semiconduttori organici come la costruzione di FET e di detector per raggi X. Infine verranno mostrati il setup sperimentale e il procedimento per l’estrazione di parametri di bulk in un semiconduttore organico tramite analisi SCLC.
Resumo:
Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.
Resumo:
Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.
Resumo:
Abbiamo sintetizzato un nuovo sistema nanogranulare consistente di nanoparticelle di magnetite inserite in idrossiapatite carbonata biomimetica per possibili future prospettive nell'ambito del tissue engineering osseo. Sono stati sintetizzati e studiati tre campioni nanogranulari, uno composto di nanoparticelle di magnetite e due composti di idrossiapatite contenenti magnetite per circa lo 0.8wt.% ed il 4wt.%. Le nanoparticelle di magnetite e il materiale composto sono stati analizzati tramite diffrazione a raggi X (XRD), spettroscopia all'infrarosso (FT-IR) e microscopia in trasmissione elettronica (TEM). Queste analisi hanno fornito informazioni sulla struttura delle nanoparticelle, come il size medio di circa 6 nm e hanno rivelato, sulla loro superficie, la presenza di gruppi idrossilici che incentivano la crescita successiva della fase di idrossiapatite, realizzando una struttura nanocristallina lamellare. I primi studi magnetici, condotti tramite un magnetometro SQUID, hanno mostrato che sia le nanoparticelle as-prepared sia quelle ricoperte di idrossiapatite sono superparamagnetiche a T=300K ma che il rilassamento della magnetizzazione è dominato da interazioni magnetiche dipolari di intensità confrontabile all'interno dei tre campioni. I valori di magnetizzazione più bassi di quelli tipici per la magnetite bulk ci hanno portato ad ipotizzare un possibile fenomeno di canting superficiale per gli spin delle nanoparticelle, fenomeno presente e documentato in letteratura. Nei tre campioni, quello di sole nanoparticelle di magnetite e quelli di idrossiapatite a diverso contenuto di magnetite, si forma uno stato collettivo bloccato a temperature inferiori a circa 20K. Questi risultati indicano che le nanoparticelle di magnetite tendono a formare agglomerati già nello stato as-prepared che sostanzialmente non vengono alterati con la crescita di idrossiapatite, coerentemente con la possibile formazione di legami idrogeno elettrostatici tra i gruppi idrossilici superficiali. L'analisi Mossbauer del campione di magnetite as-prepared ha mostrato un comportamento bimodale nelle distribuzioni dei campi iperfini presenti alle varie temperature. Passando dalle basse alle alte temperature lo spettro collassa in un doppietto, coerentemente con il passaggio dallo stato bloccato allo stato superparamagnetico per il sistema.
Resumo:
L'obiettivo di questo lavoro di tesi consiste nel progettare, realizzare e testare due collimatori multi-slit da applicare ad un sistema tomografico a raggi X con geometria cone-beam, caratterizzato da un voltaggio massimo di 320 kV. I collimatori che verranno realizzati sono un pre-collimatore e un post-collimatore entrambi multi-slit. Il fine ultimo è quello di riuscire ad avere un sistema di collimazione che permetta attraverso due sole tomografie di ottenere la ricostruzione dell'intero campione. L'abbattimento del tempo necessario per eseguire l'analisi costituisce il target su cui si basa questa tesi. Successivamente sulle immagini prodotte mediante questo nuovo sistema di collimazione saranno condotte delle specifiche analisi e i risultati saranno confrontati con quelli ottenuti mediante un sistema di collimazione a singola fenditura, anch'esso progettato in questa tesi e appositamente realizzato.
Resumo:
In questo lavoro, svolto presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) (I.R.C.C.S) di Meldola, si sono studiate le caratteristiche di un tomografo Philips Brilliance iCT 256 strati, con l'obiettivo di individuare le variazioni di qualità delle immagini e di dose in funzione dei parametri di acquisizione dello strumento, al fine di una successiva ottimizzazione dei protocolli degli esami tomografici. Le valutazioni sono state fatte sul tomografo multistrato Philips mediante uso di diversi fantocci e dosimetri, seguendo le linee guida della pubblicazione per il controllo di qualità in tomografia computerizzata dell'International Atomic Energy Agency (IAEA). Si è utilizzato il fantoccio Catphan per la caratterizzazione della qualità dell'immagine, acquisendo immagini sia in modalità assiale che spirale e variando parametri di acquisizione quali spessore di strato, kV, mAs e pitch. Per le varie combinazioni di questi parametri sono state misurate, mediante l'utilizzo dei software ImageJ ed ImageOwl, grandezze oggettive quali risoluzione spaziale, risoluzione a basso contrasto e rumore dell'immagine acquisita. Due fantocci di polimetilmetacrilato (PMMA) head e body sono serviti, insieme ad una camera a ionizzazione di tipo pencil, per la misura di indici di dose per la tomografia computerizzata (CTDI). L'irraggiamento di questi strumenti è stato effettuato a diversi valori di tensione del tubo radiogeno e ha permesso di confrontare i valori CTDI misurati con quelli forniti dal tomografo. Si sono quindi calcolate le dosi efficaci di alcuni protocolli della macchina per poi confrontarle con livelli di riferimento diagnostici (DRL), strumenti utilizzati con l'obiettivo di raggiungere valori di dose adeguati per lo scopo clinico dell'esame. Come ulteriore valutazione dosimetrica, si è utilizzato il fantoccio antropomorfo Rando, in cui sono stati inseriti dei dosimetri a termoluminescenza (TLD) per la misura della dose organo. Dai risultati si osserva un andamento inversamente proporzionale tra tensione del tubo radiogeno e contrasto dell'immagine. Impostando valori alti di kV si ottiene però un'immagine meno rumorosa. Oltre alla tensione del tubo, si è valutato come anche lo spessore di strato e la corrente influiscano sul rumore dell'immagine. I risultati ottenuti dimostrano che i valori dei parametri oggettivi di qualità delle immagini rientrano nei limiti di attendibilità, così come i valori di CTDI visualizzati dal tomografo. Lo studio della dipendenza di questi parametri oggettivi dalle impostazione di scansione permette di ottimizzare l'acquisizione TC, ottenendo un buon compromesso fra dose impartita e qualità dell'immagine.
Resumo:
The performances of the H → ZZ* → 4l analysis are studied in the context of the High Luminosity upgrade of the LHC collider, with the CMS detector. The high luminosity (up to L = 5 × 10^34 cm−2s−1) of the accelerator poses very challenging experimental con- ditions. In particular, the number of overlapping events per bunch crossing will increase to 140. To cope with this difficult environment, the CMS detector will be upgraded in two stages: Phase-I and Phase-II. The tools used in the analysis are the CMS Full Simulation and the fast parametrized Delphes simulation. A validation of Delphes with respect to the Full Simulation is performed, using reference Phase-I detector samples. Delphes is then used to simulate the Phase-II detector response. The Phase-II configuration is compared with the Phase-I detector and the same Phase-I detector affected by aging processes, both modeled with the Full Simulation framework. Conclusions on these three scenarios are derived: the degradation in performances observed with the “aged” scenario shows that a major upgrade of the detector is mandatory. The specific upgrade configuration studied allows to keep the same performances as in Phase-I and, in the case of the four-muons channel, even to exceed them.
Resumo:
Analisi di vulnerabilità sismica edificio ex-geografia, verifica agli slu, meccanismi globali e meccanismi locali edificio in muratura
Resumo:
Il lavoro di tesi si basa sull'analisi del database pubblico ReconX, il quale costituisce lo stato dell'arte della ricostruzione in silico del metabolismo umano. Il modello che se ne può estrarre è stato impiegato per simulazioni di metabolismo cellulare in condizioni di ossigeno variabile, valutando l'impatto della carenza di ossigeno sulle reazioni e su i pathways metabolici. Le tecniche impiegate appartengono alla systems biology e sono di tipo bioinformatico e riguardano flux balance analysis e flux variability analysis. I risultati trovati vengono quindi confrontati con la letteratura di settore. E' stato inoltre possibile estrarre dei sotto network dal modello principale, analizzando la rete di connessioni esistente fra i metaboliti e fra le reazioni separatamente. Viene estratto e studiato anche il network di interazione fra pathways, su cui è introdotta una misura ad hoc per valutare la forza di connessione fra i vari processi. Su quest'ultimo network viene anche effettuata un'analisi di tipo stocastico, mostrando che tecniche di tipo markoviano possono essere applicate per indagini diverse da quelle più in uso basate sui flussi. Infine viene mostrata una possibile soluzione per visualizzare graficamente i network metabolici così costituiti.
Resumo:
Dai Sumeri a Galileo lo studio dei cinque pianeti conosciuti era stato effettuato ad occhio nudo e aveva consentito di comprendere le modalità del loro moto. Con Galileo gli strumenti tecnologici sono posti a servizio della scienza, per migliorare le prestazioni dei sensi umani. La ricerca subisce così una netta accelerazione che porta, nell'arco di soli tre secoli, alla scoperta dei satelliti di Giove e dei pianeti Urano e Nettuno. Quest'ultima è considerata il trionfo della matematica perché effettuata esclusivamente con lunghi e complessi calcoli.
Resumo:
Valutazione degli impatti economici ed ambientali derivanti dall'introduzione di un veicolo semi-robotico prodotto dall'israel aerospace industries che permette di eseguire il rullaggio con i motori principali dell'aeromobile spenti. Vengono valutati gli aspetti tecnici legate alle criticità e alle procedure di dispatch towing. Viene valutato il beneficio economico delle compagnie aeree derivante dal risparmio di cherosene.
Resumo:
L'interazione in maniera sicura e compliante è una caratteristica sempre più richiesta per i sistemi robotici. La modellazione di sistemi eseguita tramite l'uso di sistemi port-Hamiltoninani permette di comprendere cosa avviene a livello energetico durante l'interazione e aiuta nella progettazinoe di un controllore tale che il comportamento del sistema controllato sia passivo e sicuro durante essa. Ciò sfocia nel cosiddetto Controllore Intrinsicamente Passivo (IPC). Dal momento che questo un controllo impone la rigidezza desiderata al sistema controllato, è possibile, tra le altre cose, replicare il comportamento del dispositivo RCC (Centro Remoto di Complianza) e di migliorarlo in modo tale che durante l'azione di peg-in-hole il buco sia meno sollecitato dal robot.