989 resultados para quantizzazione,mappa,operatore,distribuzione,probabilità,ottica,oscillatore,Weyl,Wigner,autostati
Resumo:
“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.
Resumo:
Questo progetto di tesi ha come obiettivo lo sviluppo di un algoritmo per la correzione e la calibrazione delle immagini in microscopia a fluorescenza e della sua implementazione come programma. Infatti, senza tale calibrazione le immagini di microscopia a fluorescenza sarebbero intrinsecamente affette da molteplici tipi di distorsioni ottiche. Questo limita fortemente la possibilità di effettuare analisi quantitative del livello di fluorescenza osservato. Il difetto sul quale ci siamo soffermati è la disomogeneità di campo, ossia una non uniforme fluorescenza causata dalla forma irregolare del fascio di eccitazione. Per conseguire l'obiettivo da noi proposto è necessaria l'acquisizione, in parallelo al campione in esame, di immagini di calibrazione contenenti sfere nanometriche a fluorescenza nota. A partire da queste, tramite procedure di image processing da noi implementate, abbiamo stimato la funzione di correzione della fluorescenza, localmente per ogni punto dell'immagine. Per la creazione di tale algoritmo abbiamo ipotizzato una possibile distribuzione dell'intensità dovuta alla non omogeneità del fascio ed abbiamo quindi stimato i parametri tramite un'apposita procedura di maximum likelihood. Tale stima è stata eseguita tenendo conto di possibili effetti dovuti alla luminosità di background, alla sovrapposizione di più nanosfere e ad effetti di bordo nel corso dell'elaborazione. Questa procedura è stata ripetuta su quattro diverse immagini di calibrazione, per valutarne la consistenza e la validità. Inoltre, per poter verificare che il software di elaborazione abbia le desiderate proprietà di linearità tra segnale misurato ed intensità nota, ci siamo serviti di un'ulteriore immagine di calibrazione contenente una mistura di sfere nanometriche con intensità variabili su due ordini di grandezza. Il risultato di questo lavoro di tesi verrà incluso in un programma per la calibrazione delle immagini in fluorescenza acquisite al laboratorio di biofisica del Dipartimento di Fisica ed Astronomia di Bologna.
Resumo:
Uno dei settori che più si stanno sviluppando nell'ambito della ricerca applicata è senza dubbio quello dell'elettronica organica. Nello specifico lo studio è sospinto dagli indubbi vantaggi che questi dispositivi porterebbero se venissero prodotti su larga scala: basso costo, semplicità realizzativa, leggerezza, flessibilità ed estensione. È da sottolineare che dispositivi basati su materiali organici sono già stati realizzati: si parla di OLED (Organic Light Emitting Diode) LED realizzati sfruttando le proprietà di elettroluminescenza di alcuni materiali organici, OFET (Organig Field Effect Transistor) transistor costruiti con semiconduttori organici, financo celle solari che sfruttano le buone proprietà ottiche di questi composti. Oggetto di analisi di questa tesi è lo studio delle proprietà di trasporto di alcuni cristalli organici, al fine di estrapolarne la mobilità intrinseca e verificare come essa cambi se sottoposti a radiazione x. I due cristalli su cui si è focalizzata questa trattazione sono il 1,5-Dinitronaphtalene e il 2,4-Dinitronaphtol; su di essi è stata eseguita una caratterizzazione ottica e una elettrica, in seguito interpretate con il modello SCLC (Space Charge Limited Current). I risultati ottenuti mostrano che c'è una differenza apprezzabile nella mobilità nei due casi con e senza irraggiamento con raggi x.
Resumo:
Lo scopo del presente lavoro è quello di analizzare il ben noto concetto di rotazione attraverso un formalismo matematico. Nella prima parte dell'elaborato si è fatto uso di alcune nozioni di teoria dei gruppi nella quale si definisce il gruppo ortogonale speciale in n dimensioni. Vengono studiati nel dettaglio i casi di rotazione in 2 e 3 dimensioni introducendo le parametrizzazioni più utilizzate. Nella seconda parte si introduce l'operatore di rotazione, il quale può essere applicato ad un sistema fisico di tipo quantistico. Vengono infine studiate le proprietà di simmetria di rotazione, definendone le caratteristiche e analizzando il caso particolare del potenziale centrale.
Resumo:
Lo scopo di questa tesi è quello di presentare alcuni degli algoritmi di ricostruzione utilizzati nei sistemi a microonde per l'imaging della mammella. Sebbene, la mammografia a raggi X sia la tecnica che a oggi presenta le migliori caratteristiche per la rilevazione di lesioni tumorali ai tessuti del seno, la compressione necessaria nel processo di imaging e la probabilità non trascurabile di falsi negativi hanno portato alla ricerca e allo sviluppo di metodi alternativi di imaging alla mammella. Tra questi, l'imaging attraverso microonde sfrutta la differenza delle proprietà dielettriche tra tessuto sano e tumorale. Nel seguente elaborato verrà descritto come è ottenuta l'immagine dell'interno della mammella attraverso gli algoritmi di ricostruzione utilizzati da vari prototipi di sistemi di imaging. Successivamente verranno riportati degli esempi che mostrano i risultati ottenuti attraverso simulazioni o, quando possibile, in ambiente clinico.
Resumo:
il profilo verticale del gas dipende sia dal potenziale galattico, e quindi dalla distribuzione di materia, sia dalla dispersione di velocit`a del gas La nostra analisi teorica ha mostrato che l’altezza scala dell’idrogeno gassoso ad un certo raggio `e fortemente legata alla componente di massa dominate: nelle parti centrali, dove domina la materia barionica, il disco gassoso incrementa il suo spessore esponenzialmente con una lunghezza scala pari al doppio di quella del disco stellare; dalle zone intermedie fino alla fine del disco, il profilo verticale del gas `e influenzato dalla distribuzione di DM. In queste zone lo spessore del disco gassoso cresce con il raggio in maniera circa lineare. Tale fenomeno viene definito gas flaring. Lo scopo principale di questa tesi `e la ricerca di una nuova tecnica per poter stimare il profilo vertical del gas in galassie con inclinazione intermedia.
Resumo:
I GC rappresentano i laboratori ideali nei quali studiare la dinamica stellare e i suoi effetti sull'evoluzione stellare; infatti, sono gli unici sistemi astrofisici soggetti a quasi tutti i processi fisici noti nella dinamica stellare, entro il tempo scala dell'età dell'Universo. Questo lavoro di tesi si inserisce nell'ambito di un progetto di ricerca che mira ad una dettagliata caratterizzazione dell'evoluzione dinamica dei GC della Galassia. In particolare, la misura delle velocità radiali di un ampio campione di stelle poste a differenti distanze dal centro dell’ammasso permette di derivare il profilo di dispersione di velocità del sistema,il quale ne riflette lo stato dinamico ed è utile per verificare la possibile presenza di un buco nero di massa intermedia al centro dell'ammasso. Lo studio delle velocità radiali delle singole stelle può altresì fornire informazioni riguardo la distribuzione di massa del sistema,oltreché la presenza di un'eventuale rotazione. Inoltre, la conoscenza della sola distribuzione di densità non è sufficiente a vincolare univocamente i modelli e fornire una visione completa della fisica dei GC, in quanto ad ogni determinato profilo di densità possono corrispondere diverse condizioni dinamiche. La contemporanea conoscenza del profilo di dispersione di velocità e della eventuale curva di rotazione permette di rimuovere la degenerazione causata dalla sola conoscenza del profilo di densità. Seguendo un approccio multi-strumentale,è possibile campionare l'intera estensione radiale dell'ammasso globulare: con lo spettrografo FLAMES, le regioni esterne (da distanze di circa 20 arcsec dal centro fino al raggio mareale dell'ammasso), con lo spettrografo KMOS, quelle intermedie e con lo strumento IFU ad ottiche adattive SINFONI, le regioni centrali (pochi arcsec dal centro). Questo lavoro di tesi consiste nell'analisi di spettri ad alta risoluzione acquisiti con FLAMES per un grande campione di stelle (979) localizzate nelle regioni esterne dell'ammasso NGC 2808,con lo scopo di misurare le loro velocità radiali.
Resumo:
Partendo dal campione di AGN presente nella survey di XMM-COSMOS, abbiamo cercato la sua controparte ottica nel database DR10 della Sloan Digital Sky Survey (SDSS), ed il match ha portato ad una selezione di 200 oggetti, tra cui stelle, galassie e quasar. A partire da questo campione, abbiamo selezionato tutti gli oggetti con un redshift z<0.86 per limitare l’analisi agli AGN di tipo 2, quindi siamo giunti alla selezione finale di un campione di 30 sorgenti. L’analisi spettrale è stata fatta tramite il task SPECFIT, presente in IRAF. Abbiamo creato due tipi di modelli: nel primo abbiamo considerato un’unica componente per ogni riga di emissione, nel secondo invece è stata introdotta un’ulteriore com- ponente limitando la FWHM della prima ad un valore inferiore a 500 km\s. Le righe di emissione di cui abbiamo creato un modello sono le seguenti: Hβ, [NII]λλ 6548,6581, Hα, [SII]λλ 6716,6731 e [OIII]λλ 4959,5007. Nei modelli costruiti abbiamo tenuto conto della fisica atomica per quel che riguarda i rapporti dei flussi teorici dei doppietti dell’azoto e dell’ossigeno, fissandoli a 1:3 per entrambi; nel caso del modello ad una componente abbiamo fissato le FWHM delle righe di emissione; mentre nel caso a due componenti abbiamo fissato le FWHM delle componenti strette e larghe, separatamente. Tenendo conto del chi-quadro ottenuto da ogni fit e dei residui, è stato possibile scegliere tra i due modelli per ogni sorgente. Considerato che la nostra attenzione è focalizzata sulla cinematica dell’ossigeno, abbiamo preso in considerazione solo le sorgenti i cui spettri mostravano la riga suddetta, cioè 25 oggetti. Su questa riga è stata fatta un’analisi non parametrica in modo da utilizzare il metodo proposto da Harrison et al. (2014) per caratterizzare il profilo di riga. Sono state determinate quantità utili come il 2 e il 98 percentili, corrispondenti alle velocità massime proiettate del flusso di materia, e l’ampiezza di riga contenente l’80% dell’emissione. Per indagare sull’eventuale ruolo che ha l’AGN nel guidare questi flussi di materia verso l’esterno, abbiamo calcolato la massa del gas ionizzato presente nel flusso e il tasso di energia cinetica, tenendo conto solo delle componenti larghe della riga di [OIII] λ5007. Per la caratterizzazione energetica abbiamo considerato l’approccio di Cano-Diaz et al (2012) e di Heckman (1990) in modo da poter ottenere un limite inferiore e superiore della potenza cinetica, adottando una media geometrica tra questi due come valore indicativo dell’energetica coinvolta. Confrontando la potenza del flusso di gas con la luminosità bolometrica dell’AGN, si è trovato che l’energia cinetica del flusso di gas è circa lo 0.3-30% della luminosità dell’AGN, consistente con i modelli che considerano l’AGN come principale responsabile nel guidare questi flussi di gas.
Resumo:
Questa tesi descrive il processo di progettazione e di implementazione della versione dimostrativa di una piattaforma pensata per permettere ai frequentatori del Policlinico Sant'Orsola-Malpighi di Bologna di orientarsi con maggiore facilità. La piattaforma comprende funzionalità di ricerca per punto di interesse, navigazione su mappa e navigazione per immagini.
Resumo:
In questo lavoro di Tesi viene studiata la realizzazione di un sistema per la generazione di seconda armonica di una luce laser infrarossa. Il lavoro è stato svolto presso l'Univerità di Firenze nell'ambito di un esperimento di fisica atomica, nel quale viene studiato il comportamento di una miscela di atomi freddi di Potassio-Rubidio. Per la realizzazione sperimentale è richiesto l'utilizzo di un fascio laser con luce verde a 532 nm. Per ottenere questo fascio si è ricorso alla generazione di seconda armonica di un laser con luce infrarossa a 1064 nm, sfruttando le proprietà dei cristalli non lineari. Il cristallo utilizzato è un cristallo periodically poled di Tantalato di Litio, che sfrutta la tecnica del Quasi-Phasematching per generare seconda armonica. L'obiettivo principale di questo lavoro è stato quello di caratterizzare il sistema di duplicazione per poter ottimizzare la produzione del fascio verde. Infatti la produzione di seconda armonica dipende da diversi fattori sperimentali, quali la temperatura alla quale si trova il cristallo e la posizione del fuoco del fascio incidente rispetto al cristallo. Per prima cosa si sono ottimizzati i parametri del fascio infrarosso, cercando quelli per i quali la produzione di seconda armonica è maggiormente efficiente. Questo è stato effettuato caratterizzando il fascio per trovarne la posizione del fuoco e la sua larghezza. Nella seconda parte si è studiata l'efficienza di produzione di seconda armonica. La temperatura del cristallo influenza notevolmente la produzione di seconda armonica, quindi si è cercata la temperatura ottimale a cui l'efficienza di duplicazione è massima. Inoltre si è anche calcolata l'ampiezza massima delle oscillazioni di temperatura a cui è possibile sottoporre il cristallo senza uscire dalla zona in cui la duplicazione è efficiente. Per trovare la temperatura ottimale si è studiato l'andamento dell'efficienza in funzione della temperatura del cristallo. Analizzando questo andamento si sono anche verificati i coefficienti non lineari del cristallo dichiarati dal produttore.
Resumo:
Lo studio effettuato raccoglie informazioni al fine di svolgere un’analisi globale delle tecniche attualmente in uso, o in fase di studio, nel campo della localizzazione di dispositivi all’interno di un ambiente chiuso, ovvero laddove non è possibile sfruttare la copertura del sistema GPS. La panoramica è frutto dell’analisi e dello studio di paper tecnici pubblicati dai collaboratori dell’IEEE, fruibili all’interno del portale IEEE Xplore. A corredo di questo studio è stata sviluppata una applicazione per dispositivi Android basata sulla tecnica del Wi-Fi fingerprint; l’applicazione, che rappresenta un primo approccio alle tecniche di localizzazione, è a tutti gli effetti un sistema standalone per la localizzazione, consente cioè di costruire sia la mappa per la localizzazione, partendo da un ambiente sconosciuto, sia di ottenere la posizione dell’utente all’interno di una mappa conosciuta. La tesi si conclude con una analisi dei risultati e delle performance ottenute dall’applicazione in un uso comune, al fine di poter valutare l’efficacia della tecnica presa in considerazione. I possibili sviluppi futuri sono analizzati in un capitolo a parte e trovano spazio in ambienti nei quali si vogliono offrire servizi "context-based", ovvero basati sulla posizione esatta dell’utente.
Resumo:
La tesi espone il caso della Valve Corporation, una azienda produttrice e distributrice di Videogiochi. Questa azienda, leader nel suo settore, ha adottato una organizzazione di tipo "flat" ed ha ideato particolari e innovative soluzioni per la produzione dei suoi software. Ha inoltre sviluppato una piattaforma di distribuzione digitale per la vendita online di Videogiochi.
Resumo:
Il lavoro che si presenta ha la principale funzione di proporre un metodo di interconnessione di strumenti musicali digitali che utilizzi i più comuni protocolli e strumenti hardware di rete. Nell'ottica di Internet of Things, si vuole rendere MIDI un sotto-protocollo di rete.
Resumo:
La tesi dottorale si incentra sull'analisi del principio di precauzione e sulla sua portata applicativa in quella che possiamo definire “la vita del medicinale”. La disamina prende le sue mosse dalla teoria generale relativa al principio di precauzione e ne indaga, in primis, le sue origini e la sua evoluzione e successivamente ne considera la trasposizione giuridica nel settore ambientale e della salute umana. Si può sintetizzare, in via generale, come il ricorso al principio di precauzione avvenga quando il rischio connesso ad un evento non è un rischio determinato, ma è un rischio potenziale, cioè non supportato da dati scientifici che dimostrino in modo chiaro la connessione esistente tra avvenimento e danni (causa – effetto). In particolare, i dati scientifici che tentano di analizzare detto rischio non sono sufficienti o non sono giunti ad un risultato concludente e quindi la valutazione che viene fatta non consente di determinare il rischio con sufficiente certezza. La tesi dottorale focalizza la sua attenzione sull’applicazione del principio di precauzione ad un particolare bene, il medicinale; la necessità di minimizzare i rischi derivanti dall’assunzione del farmaco richiede un presidio dei pubblici poteri e di conseguenza questo comporta la necessità di “amministrare” il medicinale anche attraverso una serie di autorizzazioni amministrative quali l’autorizzazione alla produzione, l’autorizzazione all’immissione in commercio, l’autorizzazione alla distribuzione ed alla commercializzazione.
Resumo:
La tesi ha come oggetto il rinnovamento urbano che fu realizzato a Faenza per opera del suo signore Carlo II Manfredi tra il 1468 e il 1477, d’accordo con il fratello, il vescovo Federico. La prima opera realizzata da Carlo fu il portico a due livelli che dotò di una nuova facciata il suo palazzo di residenza, di origini medievali. Questa architettura sarebbe stata il preludio di un riordino generale della piazza principale della città, probabilmente allo scopo di ricreare un foro all’antica, come prescritto dai trattati di Vitruvio e di Alberti. L’aspetto originale del loggiato rinascimentale, desumibile da documentazione archivistica e iconografica, permette di attribuirlo con una certa probabilità a Giuliano da Maiano. Oltre alla piazza, Carlo riformò profondamente il tessuto urbano, demolendo molti portici lignei di origine medievale, rettificando le principali strade, completando la cerchia muraria. Federico Manfredi nel 1474 diede inizio alla fabbrica della Cattedrale, ricostruita dalle fondamenta su progetto dello stesso Giuliano da Maiano. L’architettura della chiesa ha uno stile largamente debitore all’architettura sacra di Brunelleschi, ma con significative differenze (come la navata definita da un’alternanza tra pilastri e colonne, o la copertura composta da volte a vela). L’abside della cattedrale, estranea al progetto maianesco, fu realizzata nel 1491-92 e mostra alcuni dettagli riconducibili alla coeva architettura di Bramante. A Faenza si realizza in un periodo di tempo brevissimo una profonda trasformazione del volto della città: loggiato, riforma della piazza, riordino delle strade, una nuova cattedrale, tutto contribuisce a dare lustro ai Manfredi e a fare di Faenza una città moderna e in cui si mettono in pratica, forse per la prima volta nell’Italia settentrionale, i dettami di Vitruvio e di Alberti.