71 resultados para Massa efetiva (Fisica)
Resumo:
La presenza di materia oscura nell'universo venne ipotizzata negli anni '30 a seguito di alcune anomalie nei risultati sperimentali ottenuti in astrofisica e cosmologia. La distribuzione di materia ottenuta non concordava infatti con i dati provenienti dalle osservazioni astronomiche e gli scienziati ipotizzarono l'esistenza di un tipo di materia, denominata appunto materia oscura, che interagisse debolmente con la radiazione elettromagnetica e fosse quindi interamente invisibile ai telescopi, sia che fossero a radiofrequenze che operanti nel campo del visibile o con raggi gamma e X, ma che producesse effetti gravitazionali. Nel corso degli anni si sono aggiunte ulteriori evidenze a sostegno dell'esistenza di materia oscura, provenienti anche dallo studio della cosmologia, e numerosi esperimenti (tra cui XENON, IGEX, DAMA/LIBRA) sono stati condotti per cercare di determinare tipo e massa delle particelle o la loro abbondanza (PLANCK). Il lavoro di questa tesi consiste in uno studio delle interazioni dei neutroni con lo xenon per l'esperimento XENON1T. I neutroni costituiscono un fondo particolarmente pericoloso per l'esperimento, in quanto producono uno scattering direttamente sul nucleo allo stesso modo delle particelle di materia oscura. Nel lavoro svolto sono state dapprima analizzate le caratteristiche delle singole interazioni con lo xenon contenuto nella camera, per poi passare ad uno studio più specifico sul comportamento dei neutroni prodotti dai fotomoltiplicatori del rivelatore. In seguito alle analisi svolte è stato possibile caratterizzare il fondo di neutroni in modo più preciso, permettendo di determinare alcuni criteri di selezione per il loro riconoscimento.
Resumo:
L’acceleratore di protoni e ioni pesanti LHC costruito presso i laboratori del CERN di Ginevra permette sviluppi straordinari nel campo della fisica delle particelle alle alte energie. Tra le diverse linee di ricerca attualmente operative lo studio del quark top riveste un ruolo di particolare rilevanza. Infatti, l’elevata energia accessibile alla macchina rende possibile la raccolta di campioni di elevata statistica necessari per uno studio dettagliato delle proprietà del quark top, la particella più pesante fino ad oggi nota. In particolare in questa tesi viene studiato, e confrontato con l'analisi standard, un nuovo metodo, chiamato “template overlap method”, per la selezione di quark top prodotti ad alta energia. L'obiettivo è valutare se questo nuovo metodo permetterà una migliore precisione nella misura della sezione d'urto differenziale di produzione di coppie tt nelle prossime prese dati dove l'energia nel centro di massa raggiungerà i 13 TeV. L'analisi, per ora, è stata svolta su dati montecarlo simulati per l'esperimento ATLAS ad una energia del centro di massa di 8 TeV. I risultati ottenuti sono incoraggianti perchè mostrano un'alta efficienza di selezione all'aumentare dell'energia dei prodotti di decadimento del top.
Resumo:
Negli ultimi decenni sono stati studiati sul mar Mediterraneo dei fenomeni con caratteristiche comuni a quelle dei cicloni tropicali, chiamati medicane. L'obiettivo principale di questa tesi è quello di migliorare le attuali conoscenze sui medicane utilizzando un approccio di tipo satellitare per ottenere un algoritmo di detection. Per tale ragione sono stati integrati dati di diverse tipologie di sensori satellitari e del modello numerico WRF. Il sensore SEVIRI ha fornito misure di TB a 10.8μm e informazioni sulla distribuzione del vapor d’acqua atmosferico attraverso i due canali a 6.2 e 7.3 μm. I sensori AMSU–B/MHS hanno fornito informazioni sulle proprietà delle nubi e sulla distribuzione verticale del vapor d’acqua atmosferico attraverso le frequenze nelle microonde nell’intervallo 90-190 GHz. I canali a 183.31 GHz, sono stati utilizzati per alimentare gli algoritmi 183-WSL, per la stima delle precipitazioni, e MWCC, per la classificazione del tipo di nubi. Infine, le simulazioni tramite modello WRF hanno fornito i dati necessari per l’analisi dei campi di vento e di vorticità nella zona interessata dal ciclone. Lo schema computazione a soglie di sensibilità dell’algoritmo di detection è stato realizzato basandosi sui dati del medicane “Rolf” che, nel novembre 2011, ha interessato la zona del Mediterraneo occidentale. Sono stati, inoltre, utilizzati i dati di fulminazione della rete WWLLN, allo scopo di identificare meglio la fase di innesco del ciclone da quella matura. La validità dell’algoritmo è stata successivamente verificata su due casi studio: un medicane che nel settembre 2006 ha interessato la Puglia e un MCS sviluppatosi sulla Sicilia orientale nell'ottobre 2009. I risultati di questo lavoro di tesi da un lato hanno apportato un miglioramento delle conoscenze scientifiche sui cicloni mediterranei simil-tropicali, mentre dall’altro hanno prodotto una solida base fisica per il futuro sviluppo di un algoritmo automatico di riconoscimento per sistemi di tipo medicane.
Resumo:
In questo elaborato sono stati analizzati i dati raccolti nel Corso-Laboratorio “L’esperimento più bello”, realizzato nel periodo marzo-aprile 2013 nell'ambito delle attività del Piano Lauree Scientifiche del Dipartimento di Fisica e Astronomia di Bologna. Il Corso, frequentato da studenti volontari del quinto anno di Liceo Scientifico, era finalizzato ad introdurre concetti di Fisica Quantistica seguendo, come filo conduttore, l’esperimento di interferenza con elettroni singoli e le sue varianti. I principali dati considerati e analizzati riguardano le risposte degli studenti a questionari proposti a fine Corso per avere un riscontro sul tipo di coinvolgimento e sul livello di comprensione raggiunto. L’analisi è stata condotta con l’obiettivo specifico di valutare come gli studenti si siano posti di fronte ad alcuni approfondimenti formali sviluppati per interpretare gli esperimenti e come abbiano colto i concetti trattati, ritenuti necessari per entrare nel “nuovo modo di vedere il mondo della quantistica”: il concetto di stato, sovrapposizione, ampiezza di probabilità, entanglement.
Resumo:
Obiettivo della tesi è sviluppare riflessioni per una proposta d’insegnamento inerente episodi significativi nella formulazione del Modello Standard e rivolta principalmente a studenti universitari del corso magistrale di “Storia della fisica”. Il lavoro di tesi è incentrato su un’analisi di articoli originali degli anni ’60, mirata a evidenziare il significato assunto dalla simmetria nella fisica del XX e XXI secolo, ovvero quello di principio alla base della formulazione di teorie fisiche; nello specifico, ci si è focalizzati sull’analisi di un episodio di particolare interesse culturale nella storia della fisica: la formulazione dell’ Eightfold Way (“Via dell’Ottetto”) sulla base del gruppo di simmetria SU(3) e la conseguente ipotesi sull'esistenza dei quark.
Resumo:
Il documento contiene un'analisi sull'accordo fra le misure delle sezioni d’urto differenziali del sistema top-antitop registrate nel 2011 dall’esperimento ATLAS a un'energia del centro di massa di 7 TeV e le predizioni teoriche.
Resumo:
Questa tesi si propone di investigare l'origine di effetti non gaussiani nella distribuzione del segnale del rivelatore Time of Flight (TOF) dell'esperimento A Large Ion Collider Experiment (ALICE). Con la presa dati iniziata nel 2009 si è infatti osservata un'asimmetria nel segnale la cui origine è ancora oggetto di studio. L'analisi svolta mostra come essa sia dovuta a motivi strumentali piuttosto che fenomenologici e permette quindi di correggere in parte questa anomalia migliorando la risoluzione del rivelatore. ALICE è uno dei quattro esperimenti allestiti lungo l'anello del LHC e ha come obiettivo principale verificare l'esistenza di prove sperimentali che confermino l'esistenza di un nuovo stadio della materia, il cosiddetto Quark Gluon Plasma (QGP). Secondo la Cromodinamica Quantistica (QCD), la teoria che descrive l'interazione forte, caratteristica fondamentale di quark e gluoni è il loro confinamento all'interno di adroni. Studi recenti nell'ambito della QCD non-perturbativa hanno tuttavia dimostrato che in condizioni estreme di densità di materia adronica e temperatura sarebbe possibile un'inversione di tendenza nell'andamento della costante di accoppiamento forte. Le condizioni necessarie alla formazione del QGP sono ben riproducibili nelle collisioni ad energie ultrarelativistiche tra ioni pesanti, come quelle che sono state prodotte a LHC negli ultimi due anni, fra ioni di piombo con energie del centro di massa pari a 2.76 TeV per coppia di nucleoni. L'esperimento ALICE si propone di studiarne i prodotti e poiché la molteplicità di particelle che si generano nell'urto e considerevole, e necessario un sistema di rivelazione che permetta l'identificazione di particelle cariche su un grande angolo solido e in un ampio intervallo di impulsi. Il TOF, utilizzando un particolare rivelatore a gas detto Multigap Resistive Plate Chamber (MRPC), svolge brillantemente questo compito permettendo di raggiungere una risoluzione temporale inferiore ai 100 ps.
Resumo:
Il plasma, quarto stato della materia, rappresenta un gas ionizzato in cui ioni ed elettroni si muovono a diverse energie sotto l’azione di un campo elettro-magnetico applicato dall’esterno. I plasmi si dividono in plasmi di equilibrio e di non equilibrio termodinamico, quest’ultimi sono caratterizzati da un’alta temperatura elettronica (oltre 10000 K) e da una bassa temperatura traslazionale degli ioni e delle specie neutre (300-1000 K). I plasmi di non equilibrio trovano largo impiego nella microelettronica, nei processi di polimerizzazione, nell’industria biomedicale e del packaging, consentendo di effettuare trattamenti di sterilizzazione e attivazione superficiale. Il lavoro di tesi è incentrato sui processi di funzionalizzazione e polimerizzazione superficiale con l’obbiettivo di realizzare e caratterizzare sorgenti di plasma di non equilibrio a pressione atmosferica operanti in ambiente controllato. È stata realizzata una sorgente plasma operante a pressione atmosferica e in ambiente controllato per realizzare trattamenti di modifica superficiale e di polimerizzazione su substrati polimerici. L’efficacia e l’omogeneità dei trattamenti eseguiti sono stati valutati tramite misura dell’angolo di contatto. La caratterizzazione elettrica ha consentito di determinare i valori di densità di energia superficiale trasferita sui substrati al variare delle condizioni operative. Lo strato depositato durante il processo di polimerizzazione è stato analizzato qualitativamente tramite l’analisi chimica in spettroscopia infrarossa. L’analisi delle prove di funzionalizzazione dimostra l’uniformità dei processi plasma eseguiti; inoltre i valori dell’angolo di contatto misurati in seguito ai trattamenti risultano confrontabili con la letteratura esistente. Lo studio dei substrati trattati in atmosfera satura d’azoto ha rivelato una concentrazione superficiale di azoto pari al 3% attribuibile alla presenza di ammine, ammine protonate e gruppi ammidici; ciò conferma la bontà della soluzione realizzata e dei protocolli operativi adottati per la funzionalizzazione delle superfici. L’analisi spettroscopica dei trattamenti di polimerizzazione, ha fornito spettri IR confrontabili con la letteratura esistente indicando una buona qualità del polimero depositato (PEG). I valori misurati durante la caratterizzazione elettrica della sorgente realizzata risulteranno fondamentali in futuro per l’ottimizzazione del dispositivo. I dati raccolti infatti, determineranno le linee guida per il tailoring dei trattamenti plasma e per lo sviluppo della sorgente. Il presente lavoro di tesi, pur prendendo in esame una piccola parte delle applicazioni industriali dei plasmi non termici, conferma quanto queste siano pervasive nei comuni processi industriali evidenziandone le potenzialità e i numerosi campi d’applicazione. La tecnologia plasma è destinata ad essere imprescindibile per la ricerca di soluzioni innovative ai limiti dei processi tradizionali.
Resumo:
Ho studiato la possibilità di soluzione per il problema cosmologico dei moduli (CMP) presente a causa della compattificazione delle dimensioni extra tramite un periodo di inflazione a basse energie (Thermal Inflation). L'elaborato consta di cinque capitoli. Il primo introduce il lettore alla problematica dei moduli partendo dalla teoria Kaluza-Klein. Il secondo riguarda interamente il CMP e altri problemi cosmologici associati ai moduli. Nel terzo viene descritta la thermal inflation e le condizioni di funzionamento. Nel quarto capitolo viene preso in esame il problema di stabilizzazione dei moduli nella teoria di stringa tipo IIB: vengono descritti sia il meccanismo KKTL che il LVS. L'ultimo capitolo consiste nel calcolo della diluizione dei moduli, enunciata prima in un contesto generale e infine applicata al LVS, tramite la thermal inflation. Viene altresì presa in esame la possibilità di due epoche di thermal inflation, al fine di ottenere una diluizione più efficiente dei moduli. In LVS sono presenti due moduli, differenti per massa e vita media. Il più leggero è soggetto al CMP e si trova che, anche dopo due periodi di thermal inflation vi è ancora un numero eccessivo di tali campi, in quanto se da un lato la thermal inflation ne diliusca la densità iniziale, dall'altro ne causa una forte riproduzione, dovuta essenzialmente alle caratteristiche del modulo
Resumo:
Il presente lavoro e’ stato svolto nell'ambito della collaborazione NUCLEX, esperimento della Commissione Nazionale 3 dell'INFN per lo studio della dinamica delle reazioni nucleari indotte da ioni pesanti. In particolare l'oggetto della tesi riguarda l'analisi della competizione fra i diversi processi di emissione di particelle cariche leggere da sistemi composti. Piu’ precisamente in questa tesi si studiano e si confrontano le emissioni da sorgenti equilibrate e di pre-equilibrio di particelle alfa e protoni per due diverse reazioni di fusione, 16O +65Cu a 256 MeV e 19F +62Ni a 304 MeV, che portano entrambe alla formazione del nucleo composto 81Rb. I due sistemi sono stati scelti in modo da avere una reazione indotta da un proiettile costituito da un numero intero di particelle alfa (alfa-cluster) (16O) ed una seconda indotta da un proiettile non alfa cluster (19F), con la medesima energia del fascio (16 MeV/n). Lo scopo e’ di cercare evidenze sulla struttura a cluster di alfa dei nuclei con numero di massa A multiplo di 4 ed N=Z. Allo scopo di evidenziare i contributi delle diverse sorgenti di emissione delle particelle si e’ appli- cata la tecnica del Moving Source Fit agli spettri delle particlelle emesse e rivelate con l'apparato GARFIELD in coincidenza con i residui di evaporazione misurati tramite il rivelatore anulare Ring Counter. I risultati sperimentali ottenuti applicando la tecnica del Moving Source Fit ai nostri dati sperimentali sono interessanti e sembrano contraddire la maggiore emissione di particelle alfa da parte del sistema con proiettile a struttura alfa-cluster 16O. Le possibili ipotesi alla base di questo risultato abbastanza sorprendente sono tuttora in fase di discussione e saranno oggetto di ulteriori verifiche tramite lo studio di correlazioni piu’ esclusive e confronto con modelli di pre-equilibrio complessi.
Resumo:
L'utilizzo dell'idrogeno come vettore energetico �è negli ultimi anni uno dei temi in maggior rilievo riguardo la sostenibilit�à energetica, questo per via della sua abbondanza in natura, della sua elevata energia chimica per unità di massa, e della non tossicità dei prodotti della sua combustione. Tuttavia non si conosce ancora una maniera e�fficiente di immagazzinarlo per poterlo utilizzare per applicazioni mobili. In questo lavoro di tesi sono state cresciute, e analizzate mediante microscopia elettronica, nanoparticelle di magnesio decorate con metalli di transizione (Pd e Ti), che si collocano tra i candidati più promettenti per lo stoccaggio di idrogeno a stato solido.
Resumo:
Valutazione della vulnerabilità sismica di una struttura mista in muratura e calcestruzzo armato esistente. Caratterizzazione meccanica dei materiali mediante prove diagnostiche. Modellazione strutturale attraverso un programma agli elementi finiti (SAP2000), verifiche statiche e sismiche condotte secondo le attuali normative italiane (NTC2008). Caso di studio: facoltà di Fisica a Bologna (A. Righi)
Resumo:
La risonanza magnetica cardiaca è una tecnica di imaging non invasiva, in quanto non necessita l’uso di radiazioni ionizzanti, caratterizzata da un’elevata risoluzione spaziale e che permette acquisizioni in 4-D senza vincoli di orientazione. Grazie a queste peculiarità, la metodica della risonanza magnetica ha mostrato la sua superiorità nei confronti delle altre tecniche diagnostiche ed è riconosciuta come il gold standard per lo studio della fisiologia e fisiopatologia della pompa cardiaca. Nonostante la potenza di questi vantaggi, esistono ancora varie problematiche che, se superate, potrebbero probabilmente migliorare ulteriormente la qualità delle indagini diagnostiche. I software attualmente utilizzati nella pratica clinica per le misure del volume e della massa ventricolare richiedono un tracciamento manuale dei contorni dell’endocardio e dell’epicardio per ciascuna fetta, per ogni frame temporale del ciclo cardiaco. Analogamente avviene per il tracciamento dei contorni del tessuto non vitale. In questo modo l’analisi è spesso qualitativa. Di fatti, la necessità dell’intervento attivo dell’operatore rende questa procedura soggettiva e dipendente dall’esperienza, provocando un’elevata variabilità e difficile ripetibilità delle misure intra e inter operatore, oltre ad essere estremamente dispendiosa in termini di tempo, a causa dell’elevato numero di immagini da analizzare. La disponibilità di una tecnica affidabile per il tracciamento automatico dei contorni dell’endocardio e dell’epicardio consente di superare queste limitazioni ed aumentare l’accuratezza e la ripetibilità delle misure di interesse clinico, quali dimensione, massa e curve di volume ventricolari. Lo scopo di questa tesi è di sviluppare e validare una tecnica di segmentazione automatica che consenta l’identificazione e la quantificazione di cicatrici nel miocardio, a seguito di infarto cardiaco. Il lavoro è composto da due tappe principali. Inizialmente, è presentato un metodo innovativo che permette, in via totalmente automatica, di tracciare in modo accurato e rapido i contorni dell’endocardio e dell’epicardio nel corso dell’intero ciclo cardiaco. Successivamente, l’informazione sulla morfologia cardiaca ricavata nella prima fase è utilizzata per circoscrivere il miocardio e quantificare la transmuralità dell’infarto presente in pazienti ischemici.
Resumo:
Ruolo della fisica della matrice extracellulare nello sviluppo del tumore
Resumo:
Da anni l’insegnamento “trasmissivo” delle scienze è messo in discussione e le ricerche condotte su grandi numeri di studenti di diverso livello scolare ne stanno dimostrando la scarsa efficacia. Si è cercato di documentare e interpretare le difficoltà esistenti per trovare soluzioni che garantiscano un apprendimento significativo. Il lavoro di tesi cerca di mettere a punto una proposta efficace per una formazione iniziale su un concetto matematico significativo: la funzione. Il percorso che presentiamo si sviluppa a partire da un’esperienza didattica in una terza secondaria inferiore in cui il passaggio dalla fase percettiva a quella più formale è affiancato dalla rappresentazione grafica relativa al moto del proprio corpo. L’attività ha permesso di avvicinare gli studenti ai fenomeni partendo da situazioni reali, di indagare le regolarità dei grafici, interpretare la relazione tra le grandezze e ha permesso a ciascuno di costruirsi un modello intuitivo. La proposta didattica si rivolge agli studenti più grandi del biennio della secondaria superiore ed è risultato abbastanza naturale adattare le prime fasi alla pre-sperimentazione. Si introduce la dipendenza lineare tra due variabili associandola ad un grafico rettilineo e si definisce la relazione che lega le variabili spazio temporali. Il passaggio al concetto di limite viene delineato attraverso l’ingrandimento e l’approssimazione della curva senza necessariamente introdurre rigore e formalismo ma sottolineando la finezza del significato matematico e il senso del procedimento. Tale proposta è un intreccio di contenuti matematici e fisici che avvicina gli studenti allo studio e alla comprensione della realtà di cui fanno parte.