276 resultados para Rilevatori, TLE, satelliti, collisioni, simulatori, filtri, orbite, apocentro, pericentro, detriti
Resumo:
Tra tutti i fenomeni naturali osservabili, ne era presente uno particolarmente interessante e con il quale si aveva diretto contatto quotidianamente: la gravità. Dopo le innumerevoli osservazioni astronomiche effettuate da Galileo, fu Newton nel diciassettesimo secolo a capire che il moto dei pianeti era governato dalle medesime leggi che descrivono la caduta dei gravi sulla Terra e fu quindi lui che ci fornì una prima teoria della gravità con la quale si spiegarono le orbite dei pianeti con ottima precisione. Grazie al contributo di Einstein, la teoria si rinnovò e si arricchì, ma rimase pur sempre lontana dall' essere completa, tant' è che ancora oggi sono presenti molte domande a cui non siamo in grado di rispondere. In questo articolo ci occuperemo di tali quesiti, provando a formulare una teoria che sia in accordo con le attuali evidenze sperimentali. Nella prima parte, tratteremo le ragioni che hanno spinto i ricercatori ad introdurre le nuove teorie della gravità f(R); in particolare vedremo la peculiarità delle curve di rotazione delle galassie e perché ci sia il bisogno di tirare in ballo la materia oscura. Discuteremo anche alcuni problemi derivanti dall' evoluzione cosmica e altre incongruenze riguardanti la stabilità delle stelle di neutroni. In seguito mostreremo come ricavare l' equazione di Einstein partendo dai principi variazionali di Hamilton, e estenderemo tale ragionamento con lo scopo di ottenere un' equazione corrispondente ad una gravità modificata. Infine, verranno introdotte le teorie della gravità f(R), per mezzo delle quali cercheremo di discutere alcune possibili spiegazioni alle problematiche mosse nella parte introduttiva.
Resumo:
Questo lavoro di tesi è stato svolto nell'ambito del gruppo Nucl-ex di Bologna dell'INFN. L'esperimento specifico si inquadra nello studio di collisioni di nuclei con numero di neutroni N uguale al numero di protoni Z (nuclei pari-pari). In particolare si vuol analizzare una reazione centrale, cioè a piccoli parametri d'impatto, nella quale i nuclei del proiettile e del bersaglio fondono assieme formando un sistema unico eccitato (nucleo composto) che successivamente decade. Nel caso della misura descritta sono stati utilizzati un fascio di 16O ed un bersaglio di 12C ed il sistema fuso che si forma è 28Si. Per rivelare le particelle provenienti dal decadimento è stato impiegato l'apparato G.AR.F.I.E.L.D. (General Array for Fragment Identification and Emitted Light particles in Dissipative collisions) accoppiato al rivelatore denominato Ring Counter (RCo). La misura è stata realizzata presso i Laboratori Nazionali dell'INFN di Legnaro (Pd) in collaborazione tra le Università e le sezioni INFN di Bologna, Firenze, Napoli e Padova. Il fascio è stato accelerato mediante l'acceleratore elettrostatico Tandem XTU, mentre il bersaglio era fisso nel sistema di riferimento del laboratorio. La misura di collisione è stata realizzata per tre diverse energie cinetiche del fascio: 90.5 MeV, 110 MeV e 130 MeV. Il lavoro è consistito principalmente nella partecipazione a diverse fasi della misura, tra cui preparazione, presa dati ed alcune calibrazioni energetiche dei rivelatori, fino ad ottenere risultati preliminari sulle distribuzioni di frequenza dei frammenti rivelati, sulle molteplicità e sulle distribuzioni angolari di particelle leggere. L'analisi preliminare effettuata ha mostrato che il valore medio di carica del residuo di evaporazione {Definito come il frammento che rimane nello stato fondamentale alla fine della catena di decadimento.} diminuisce all'aumentare dell'energia a disposizione. In modo consistente aumenta, all'aumentare dell'energia, la molteplicità media delle delle particelle leggere. Le distribuzioni angolari di particelle leggere mostrano andamenti molto simili fra le diverse energie, ma poco compatibili con il fatto che, all'aumentare dell'energia del fascio, diminuisce il cono di emissione di particelle di decadimento, in quanto aumenta la velocità del sistema fuso.
Resumo:
In questo lavoro viene presentato l'utilizzo di simulatori quantistici nello studio di sistemi a molte componenti. Dall'idea iniziale di Feynman della intersimulazione tra sistemi quantistici in questi anni si è sempre più sviluppata la tecnica sperimentale necessaria a creare sistemi di atomi in reticoli ottici ben controllati, nei quali riprodurre il comportamento di sistemi di natura diversa, ottenendo risultati promettenti nell'indagine di situazioni non trattabili analiticamente o numericamente. Tra questi, la conduzione di elettroni in materiali disordinati è ancora un problema aperto. In questa tesi nello specifico sono trattati i modelli di Anderson e di André-Aubry, i quali prevedono una transizione da stati estesi a localizzati in presenza di disordine nel materiale. I due modelli sono stati investigati numericamente su reticoli monodimensionali e i risultati confrontati con una realizzazione sperimentale realizzata con atomi freddi.
Resumo:
La scoperta dei semiconduttori amorfi ha segnato l’era della microelettronica su larga scala rendendo possibile il loro impiego nelle celle solari o nei display a matrice attiva. Infatti, mentre i semiconduttori a cristalli singoli non sono consoni a questo tipo di applicazioni e i s. policristallini presentano il problema dei bordi di grano, i film amorfi possono essere creati su larga scala (>1 m^2) a basse temperature (ad es. <400 °C) ottenendo performance soddisfacenti sia su substrati rigidi che flessibili. Di recente la ricerca sta compiendo un grande sforzo per estendere l’utilizzo di questa nuova elettronica flessibile e su larga scala ad ambienti soggetti a radiazioni ionizzanti, come lo sono i detector di radiazioni o l’elettronica usata in applicazioni spaziali (satelliti). A questa ricerca volge anche la mia tesi, che si confronta con la fabbricazione e la caratterizzazione di transistor a film sottili basati su ossidi semiconduttori ad alta mobilità e lo studio della loro resistenza ai raggi X. La micro-fabbricazione, ottimizzazione e caratterizzazione dei dispositivi è stata realizzata nei laboratori CENIMAT e CEMOP dell’Università Nova di Lisbona durante quattro mesi di permanenza. Tutti i dispositivi sono stati creati con un canale n di ossido di Indio-Gallio-Zinco (IGZO). Durante questo periodo è stato realizzato un dispositivo dalle ottime performance e con interessanti caratteristiche, una delle quali è la non variazione del comportamento capacitivo in funzione della frequenza e la formidabile resistenza alle radiazioni. Questo dispositivo presenta 114 nm di dielettrico, realizzato con sette strati alternati di SiO2/ Ta2O5. L’attività di ricerca svolta al Dipartimento di Fisica e Astronomia di Bologna riguarda prevalentemente lo studio degli effetti delle radiazioni ionizzanti su TFTs. Gli esperimenti hanno rivelato che i dispositivi godono di una buona stabilità anche se soggetti alle radiazioni. Infatti hanno mostrato performance pressoché inalterate anche dopo un’esposizione a 1 kGy di dose cumulativa di raggi X mantenendo circa costanti parametri fondamentali come la mobilità, il threshold voltage e la sub-threshold slope. Inoltre gli effetti dei raggi X sui dispositivi, così come parametri fondamentali quali la mobilità, si sono rivelati essere notevolmente influenzati dallo spessore del dielettrico.
Resumo:
Questo lavoro di tesi si inserisce nel recente filone di ricerca che ha lo scopo di studiare le strutture della Meccanica quantistica facendo impiego della geometria differenziale. In particolare, lo scopo della tesi è analizzare la geometria dello spazio degli stati quantistici puri e misti. Dopo aver riportato i risultati noti relativi a questo argomento, vengono calcolati esplicitamente il tensore metrico e la forma simplettica come parte reale e parte immaginaria del tensore di Fisher per le matrici densità 2×2 e 3×3. Quest’ultimo altro non é che la generalizzazione di uno strumento molto usato in Teoria dell’Informazione: l’Informazione di Fisher. Dal tensore di Fisher si può ottenere un tensore metrico non solo sulle orbite generate dall'azione del gruppo unitario ma anche su percorsi generati da trasformazioni non unitarie. Questo fatto apre la strada allo studio di tutti i percorsi possibili all'interno dello spazio delle matrici densità, che in questa tesi viene esplicitato per le matrici 2×2 e affrontato utilizzando il formalismo degli operatori di Kraus. Proprio grazie a questo formalismo viene introdotto il concetto di semi-gruppo dinamico che riflette la non invertibilità di evoluzioni non unitarie causate dall'interazione tra il sistema sotto esame e l’ambiente. Viene infine presentato uno schema per intraprendere la stessa analisi sulle matrici densità 3×3, e messe in evidenza le differenze con il caso 2×2.
Resumo:
Rispetto alle loro controparti inorganiche, i semiconduttori organici presentano proprietà che consentono di usarli in modi fino a qualche anno fa impensabili: sono facili ed economici da depositare, flessibili, leggeri e robusti. Queste caratteristiche li rendono tra le altre cose ottimi candidati come rilevatori a stato solido di raggi X che possono persino essere comodamente indossati o utilizzati in situazioni e luoghi prima inaccessibili a quelli inorganici. I semiconduttori organici sono tuttavia fondamentalmente diversi da quelli inorganici e i fenomeni che regolano il trasporto e la generazione di cariche sono più complessi e non ancora compiutamente compresi. Allo scopo di migliorare la loro comprensione, questa tesi mette a confronto alcuni modelli teorici di generazione e ricombinazione di eccitoni, così da individuare quello più rispondente alle misure sperimentali effettuate relativamente alla risposta fotoconduttiva di cristalli singoli di TIPS-pentacene irradiati con raggi X.
Resumo:
Le grandi catene di distribuzione, per sviluppare strategie commerciali sempre più efficaci, sono interessate a comprendere il percorso che ogni cliente effettua all’interno del punto vendita, che reparti visita, il tempo di permanenza in un’area specifica ecc… Quindi è stato necessario trovare un sistema per localizzare e tracciare un cliente all’interno di un ambiente chiuso (indoor position). Prima di tutto ci si è concentrati sulla ricerca e sviluppo di una nuova idea che potesse superare gli ostacoli delle soluzioni attualmente in commercio. Si è pensato di sostituire le tessere punti del punto vendita con delle tessere bluetoothLE e di creare un sistema di posizionamento al chiuso utilizzando la stessa logica di funzionamento del GPS per gli ambienti aperti. Il ricevitore è la tessera BLE posseduta dal cliente e i satelliti sono tre device Android dotati di un’app specifica per rilevare il segnale radio (RSSI) emesso dalla tessera ogni secondo. Le rilevazioni dei tre device Android sono successivamente trasferite all’interno di una web application che si occupa di elaborare i dati tramite il processo di trilaterazione. L’output sono le coordinate x,y di ciascuna tessera in ogni secondo di visita all’interno del punto vendita. Questi dati sono infine utilizzati per mostrare graficamente il percorso effettuato dal cliente, l’orario di ingresso e di uscita e il tempo di permanenza. Riepilogando, il progetto comprende una fase di ricerca e intuizione di una nuova idea, una fase di progettazione per traslare i meccanismi del funzionamento GPS all’utilizzo in un ambiente chiuso, una fase di implementazione dell’app e della web application e infine una fase di sperimentazioni sul campo che si concluderà dopo la laurea con test reali in un supermercato della zona.
Resumo:
La tomografia ad emissione di positroni (PET) è una tecnica di imaging di medicina nucleare, utilizzata oggi diffusamente in ambito clinico. Essa fornisce immagini e informazioni fisiologiche dei processi funzionali all’interno del corpo. La PET si basa sulla rilevazione di fotoni di annichilazione prodotti in seguito al decadimento di un radio farmaco iniettato nel paziente. I rilevatori convenzionali sono costituiti da un materiale scintillatore accoppiato ad un fotomoltiplicatore, solitamente un PMT o SiPM. Uno sviluppo della PET è la Time of Flight PET (ToF PET), attualmente già in commercio ed utilizzata con prestazioni eccellenti. Un’ulteriore modifica, che potenzialmente permetterebbe di ottenere una migliore risoluzione temporale, è la ToF PET basata sulla rilevazione di fotoni tramite radiazione Cherenkov, invece che luce di scintillazione. Questo lavoro di tesi è incentrato dunque su questa tecnica specifica. Si illustra una rassegna di pubblicazioni scientifiche degli ultimi anni riguardo ad essa con i relativi risultati ottenuti e i possibili sviluppi futuri. Infine si propone un approfondimento personale, nel quale, tramite un programma scritto in ROOT, si è realizzata una geometria di un sistema di rilevazione ToF PET. Esso prevede la rilevazione dei fotoni di annichilazione tramite un radiatore Cherenkov accoppiato ad un SiPM. In futuro questo potrà essere implementato e utilizzato per simulare il processo fisico della PET, verificando la validità e le prestazioni del sistema così sviluppato.
Resumo:
La fisica delle collisioni ad alte energie è, ad oggi, uno dei campi di ricerca più interessante per la verifica di modelli teorici che spieghino la nascita e la formazione dell'universo in cui viviamo. In quest'ottica lavorano esperimenti presso i più importanti acceleratori di particelle: tra questi anche l'esperimento ALICE, presso il Large Hadron Collider LHC del CERN di Ginevra. Il suo scopo principale è quello di verificare e ampliare l'insieme delle prove sperimentali alla base sull'esistenza di un nuovo stato della materia: il Quark Gluon Plasma. La presenza della transizione di fase della materia adronica ordinaria a QGP era stata teorizzata da diversi studi termodinamici e da calcoli di QCD su reticolo: in particolare si prevedeva l'esistenza di uno stato della materia in cui i quark sono deconfinati. Il QGP è dunque un plasma colorato e densissimo di quark e gluoni, liberi di interagire tra loro. Queste condizioni sarebbero state quelle dell'universo primordiale, circa 1µs dopo il Big Bang: a seguito di una transizione di fase, si sarebbe poi formata tutta la materia adronica ordinaria. Per riprodurre le condizioni necessarie alla formazione del QGP occorrono collisioni ad energie ultrarelativistiche come quelle prodotte, negli ultimi anni, dall'acceleratore LHC. Uno dei principali rivelatori dedicati all'identificazione di particelle in ALICE è il sistema a tempo di volo TOF. Nonostante un attento processo di ottimizzazione della risoluzione delle sue componenti, persistono residui errori strumentali che limitano la qualità (già ottima) del segnale, tutt'oggi oggetto di studio. L'elaborato presentato in questa tesi è suddiviso in tre capitoli: nel primo ripercorriamo gli aspetti teorici del Modello Standard e del Quark Gluon Plasma. Nel secondo descriviamo la struttura di rivelazione di ALICE, analizzando il funzionamento delle singole componenti. Nel terzo, infine, verifichiamo le principali correzioni al TOF ad oggi note, confrontando i dati a nostra disposizione con delle simulazioni Monte Carlo: questo ci permette da un lato di approfondirne la conoscenza, dall'altro di cercarne di migliorare la descrizione del comportamento del rivelatore.
Resumo:
Il teorema di Borsuk-Ulam asserisce che, data una funzione continua f da S^n in R^n, esiste una coppia di punti antipodali sulla sfera che vengono mandati da f nello stesso punto. In questa tesi si vede l'equivalenza di sei diverse formulazioni del teorema e se ne dà una dimostrazione nel caso 2-dimensionale, utilizzando spazi di orbite, gruppo fondamentale e rivestimenti. Si studiano alcune sue dirette conseguenze come generalizzazioni di risultati preliminari sulla suddivisione di regioni piane, dandone anche un’interpretazione fisica e si vede come tutto questo si applica al “Ham Sandwich Theorem” in R^3.
Resumo:
L’interruzione dell’attività di formazione stellare nelle galassie attraverso l’azione di venti guidati dalla potenza dell’AGN e/o dall’attività di starburst è una fase prevista da tutti i modelli di coevoluzione tra i buchi neri super massicci e la galassia ospite. La recente scoperta di venti molecolari massivi in alcune ULIRG locali ha fornito una prova forte a favore dell’esistenza del meccanismo di feedback negativo nelle galassie. Ad oggi non è chiaro il ruolo che l'attività di AGN e di starburst hanno nella produzione dei venti: tuttavia, la maggior parte delle ULIRG in cui sono stati osservati i venti molecolari presentano elevati tassi e velocità di outflow, suggerendo che l'AGN giochi un ruolo principale. IRAS 13120-5453 rappresenta un caso particolare: la sua attività e dominata dalla formazione stellare, ma sembra anche ospitare un AGN oscurato al suo interno. Tuttavia, non presenta elevati tassi di outflow e velocità dei venti: non è quindi chiaro quale dei due fenomeni vi sia all'origine. In questo lavoro di tesi si è operata un'analisi multibanda di questa sorgente con lo scopo di studiarne le principali proprietà fisiche. Lo studio in banda X attraverso l'analisi dei dati provenienti dai satelliti XMM-Newton, Chandra e NuSTAR ha permesso di conoscere parametri importanti come il grado di oscuramento della sorgente e la potenza dell'AGN. Con l'analisi in banda IR, è stato possibile conoscere il contributo dell'AGN e della starburst alla luminosità IR e i principali parametri fisici di questa galassia. L’obiettivo di tale lavoro è quello di capire il ruolo svolto da questi due principali fenomeni e quale possa essere la connessione con i venti molecolari.
Resumo:
I Polar Codes sono la prima classe di codici a correzione d’errore di cui è stato dimostrato il raggiungimento della capacità per ogni canale simmetrico, discreto e senza memoria, grazie ad un nuovo metodo introdotto recentemente, chiamato ”Channel Polarization”. In questa tesi verranno descritti in dettaglio i principali algoritmi di codifica e decodifica. In particolare verranno confrontate le prestazioni dei simulatori sviluppati per il ”Successive Cancellation Decoder” e per il ”Successive Cancellation List Decoder” rispetto ai risultati riportati in letteratura. Al fine di migliorare la distanza minima e di conseguenza le prestazioni, utilizzeremo uno schema concatenato con il polar code come codice interno ed un CRC come codice esterno. Proporremo inoltre una nuova tecnica per analizzare la channel polarization nel caso di trasmissione su canale AWGN che risulta il modello statistico più appropriato per le comunicazioni satellitari e nelle applicazioni deep space. In aggiunta, investigheremo l’importanza di una accurata approssimazione delle funzioni di polarizzazione.
Resumo:
I movimenti lenti delle colate in terra sono una caratteristica geomorfologica comune nell’Appennino settentrionale e sono uno dei principali agenti di modellazione del paesaggio. Spesso case e piccoli centri abitati sorgono in zone affette da questo tipo di movimento franoso e di conseguenza subiscono danni causati da piccoli spostamenti. In questo lavoro di Tesi vengono presentati i risultati ottenuti dall’interferometria radar ad apertura sintetica (InSAR) mediante elaborazione tramite StaMPS (Stanford Method of Persistent Scatterers), utilizzando la tecnica avanzata Small Baseline Subset (Berardino et al., 2002). Questo metodo informatico è applicato alle acquisizioni rilevate dai satelliti Envisat e COSMO-SkyMed in orbita ascendente e discendente, ottenendo una copertura di dati che va dal 2004 al 2015, oltre ad un rilevamento geologico-geomorfologico in dettaglio eseguito nell’area di studio. Questa tecnica di telerilevamento è estremamente efficace per il monitoraggio dei fenomeni di deformazione millimetrica che persistono sulla superficie terrestre, basata sull'impiego di serie temporali d’immagini radar satellitari (Ferretti et al., 2000). Lo studio è stato realizzato nel paese di Gaggio Montano nell’Appennino bolognese. In questa zona sono stati identificati diversi corpi di frana che si muovono con deformazioni costanti durante il tempo di investigazione e grazie ai risultati ottenuti dai satelliti è possibile confrontare tale risultato. Gli spostamenti misurati con il metodo InSAR sono dello stesso ordine di grandezza dei movimenti registrati dai sondaggi inclinometrici. Le probabili cause dell’instabilità di versante a Gaggio Montano sono di natura antropica, in quanto alti tassi di deformazione sono presenti nelle zone dove sorgono case di recente costruzione e complessi industriali. Un’altra plausibile spiegazione potrebbe essere data dalla ricarica costante d’acqua, proveniente dagli strati dei Flysch verso l’interno del complesso caotico sottostante, tale dinamica causa un aumento della pressione dell’acqua nelle argille e di conseguenza genera condizioni d’instabilità sul versante. Inoltre, i depositi franosi rilevati nell’area di studio non mostrano nessun tipo di variazione dovuta ad influenze idrologiche. Per questo motivo le serie temporali analizzare tendo ad essere abbastanza lineari e costanti nel tempo, non essendo influenzate da cicli stagionali.
Resumo:
Elaborato che si propone di evidenziare come i veicoli a benzina e a diesel possano soddisfare la normativa Euro 6. Si analizza il funzionamento dei principali sistemi di after-treatment come: catalizzatore SCR e DeNOx, trappola LNT, filtri FAP e DPF, sistemi EGR, per i motori ad accensione per compressione e catalizzatore TWC per motori ad accensione comandata. Parallelamente, si spiega l'evoluzione della normativa da Euro 6b a Euro 6c in termini di riduzione del numero di particelle di particolato emesse per km e come rispondere a queste più restrittive condizioni; viene introdotto, in via ancora sperimentale, il filtro antiparticolato GPF e un sistema di misurazione di nano particelle di dimensioni inferiori a 23 nm cioè una rivalutazione del metodo PMP. Contestualmente si definisce il progetto CARS 2020, il quale aggiunge una limitazione anche sulla quantità di anidride carbonica emessa a 95 g/km e le eventuali possibili soluzioni per rispettarla: da un maggior uso di combustibili alternativi a miglioramenti tecnologici dei motori stessi. Infine si studiano gli sviluppi dei cicli di omologazione, dal 2017 infatti entreranno in gioco test su strada con dispositivi PEMS on-board e cicli armonizzati WLTC. Le procedure RDE e WLTP permetteranno di testare i vecioli in maniera più reale e globale, rispettivamente, riuscendo a fornire anche valori attendibili dei consumi registrati durante le prove.
Resumo:
I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.