373 resultados para Olografia, Ologramma, Luce, Interferenza
Resumo:
La ferroelettricità è la proprietà di alcuni materiali solidi di presentare una polarizzazione elettrica in assenza di campo elettrico. Tutti i materiali ferroelettrici sin'ora studiati esibiscono anche proprietà piezoelettriche, ossia si deformano in maniera elastica quando sottoposti ad un campo elettrico e, viceversa, si polarizzano se soggetti a deformazioni meccaniche. Questa sensibilità a stimoli elettrici e meccanici rende questi materiali particolarmente interessanti da un punto di vista pratico: applicazioni importanti si trovano nella nanotecnologia (e.g. memory devices), nella sensoristica e nell'energy harvesting. Lo scopo dell'elaborato è fornire un'introduzione allo studio delle transizioni ferroelettriche. Inizialmente il fenomeno delle transizioni di fase viene affrontato utilizzando come riferimento il caso standard dei materiali ferromagnetici: a tal riguardo viene presentato il modello di Ising, che rappresenta il paradigma per la descrizione di fenomeni collettivi in numerosi ambiti. In seguito viene presentata la teoria fenomenologica di Landau, dove si interpreta il fenomeno sulla base delle simmetrie del sistema, utilizzando un approccio di campo medio. Successivamente viene introdotto il tema centrale dell'elaborato, ossia le transizioni ferroelettriche, analizzando similitudini e differenze dal caso ferromagnetico; in particolare si presenta un' applicazione della teoria fenomenologica di Landau-Devonshire allo studio della transizione ferroelettrica del BaTiO3, un cristallo del gruppo delle perovskiti. L'ultima parte dell'elaborato ha lo scopo di introdurre un approccio più moderno allo stesso fenomeno, che utilizza la teoria quantistica del funzionale densità (DFT): utilizzando il pacchetto software VASP viene esposto un semplice calcolo a primi principi dell'energia del sistema in funzione degli spostamenti atomici, mettendone in luce la centralità nella transizione in esame.
Resumo:
Il seguente elaborato si prefigge l’obiettivo di fornire una panoramica completa ed esau- stiva sullo studio delle statistiche di fotoconteggio, ricavando i fondamentali risultati di natura teorica e al contempo illustrando le procedure di determinazione sperimentale. Il principale risultato conseguibile in tale ambito è l’inequivocabile dimostrazione della natura quantizzata della luce, rendendo definitivamente superato l’alternativo model- lo semiclassico, in cui l’ipotesi di quantizzazione è limitata all’interazione radiazione- rilevatore, mentre la luce viene considerata interamente trattabile come onda. Se infatti entrambi gli approcci forniscono previsioni in accordo con le osservazioni sperimentali per quanto riguarda sorgenti coerenti e termiche, che producono rispettivamente distri- buzioni Poissoniane o Super-Poissoniane, il secondo modello non è in grado di motivare in alcun modo l’esistenza delle distribuzioni Sub-Poissoniane, caratterizzate matemati- camente da una varianza inferiore al valor medio di conteggi ̄n. Il primo capitolo è dedicato a ricavare la forma delle statistiche di fotoconteggio basan- dosi sul modello a fotoni, riportando le più rilevanti dimostrazioni matematiche; il secondo capitolo ha invece l’obiettivo di analizzare i risultati forniti dal modello semi- classico, rivelando la perfetta compatibilità con quelli ottenuti nel capitolo precedente per quanto riguarda sorgenti di tipo classico; nel terzo capitolo si illustra una serie di esperimenti svolti presso il ”Laboratorio di Ottica Quantistica dell’Istituto Nazionale di Ottica-CNR”, nel polo scientifico di Sesto Fiorentino, realizzati con l’obiettivo di confermare la validità delle conclusioni di natura teorica esposte nei primi due capitoli; infine il quarto capitolo si prefigge lo scopo di dare un breve accenno alle distribuzioni di tipo Sub-Poissiano, attraverso una breve trattazione matematica e illustrando alcune modalità di osservazione sperimentale.
Resumo:
Circa 2500 anni fa, a Magnesia, l’uomo scopriva la magnetite, un minerale del ferro che ha un contenuto di metallo particolarmente alto. Fu così che l’umanità venne a contatto per la prima volta, più o meno consapevolmente, con gli effetti dei campi magnetici. Già il filosofo greco Talete di Mileto nel VI secolo a.C. descrisse gli effetti di tali pietre, ma l’umanità non smise di esserne affascinata. Un esempio astronomicamente noto di campo magnetico su ampia scala è quello terrestre: il nostro pianeta si può pensare come un grosso magnete con un campo di BE ≈ 0.3...0.5G, che tra le altre cose ci protegge dalle particelle ad altissima energia intrappolandole nelle cosiddette fasce di Van Allen. Vi sono poi campi magnetici molto più intensi, a partire da quelli generati in altri pianeti, come Giove, o di stelle e altri corpi celesti particolarmente densi, che possono raggiungere i 10^15G. Ma i campi magnetici sono largamente diffusi anche in tutto lo spazio interstellare e intergalattico, dove hanno valori molto inferiori, che sfiorano i pochi μG. Come si può intuire, un così ampio spettro di valori si traduce in un’altrettanto ricca gamma di metodi di rilevazione. In particolare, in questo elaborato, ci concentreremo soprattutto sui metodi di studio dei campi magnetici meno intensi, la cui conoscenza si basa sulle proprietà osservabili della radiazione di sincrotrone, principalmente indi- viduabili dai dati radio. Dedichiamo quindi un breve capitolo alla derivazione dello spettro della radiazione suddetta (Capitolo 2), preceduto da un accenno alle proprietà energetiche dei plasmi magnetizzati (Capitolo 1). Ci occupiamo infine per l’intero Capitolo 3 di alcuni tra i più diffusi metodi diagnostici, preferendo, come già anticipa- to quelli che analizzano gli spettri prodotti da elettroni relativistici in moto in campi magnetici, ma attraversando comunque gli effetti dei plasmi magnetizzati sulla propagazione della luce e sulla separazione delle righe spettrali.
Resumo:
La dinamica dei due corpi è un problema di meccanica celeste di grande rilevanza per l’astrofisica, permette di studiare l’interazione tra due masse puntiformi che si muovono sotto una mutua attrazione gravitazionale, descritta dalle leggi universali della gravi- tazione di Newton. Inoltre è l’unico problema riguardante la dinamica gravitazionale per il quale si ha una completa e generale soluzione analitica. Nel capitolo 1 vengono introdotti gli strumenti matematici e il formalismo alla base del problema dei due corpi, utile per lo studio dell’interazione gravitazionale tra due masse puntiformi; arrivando a ricavare anche le leggi di Keplero. Risulta immediato immaginare che i sistemi osservati nell’universo non siano strettamente formati da soli due corpi, bensì potrebbe capitare che il numero n di corpi sia tale che n > 2. Successivamente, nel capitolo 2, viene trattato un caso più generale del problema dei due corpi, il problema dei tre corpi. Come si può intuire in questo caso si estenderà l’analisi all’interazione gravitazionale di 3 corpi, trattando inizialmente il problema nel quale uno dei tre corpi ha massa trascurabile rispetto agli altri due, detto problema dei tre corpi circolare ristretto. A seguire si tratta il caso generale del problema dei tre corpi, in cui le masse sono tra loro confrontabili. Al contrario del problema dei due corpi quello dei tre corpi non ha una soluzione analitica, viene risolto numericamente. In conclusione, nel capitolo 3, si trattano le interazioni di stelle o altri corpi in sistemi binari o a tre corpi, con alcune applicazioni astrofisiche. Vengono messi in luce esempi riguardanti il problema dei due corpi in ammassi globulari e dei tre corpi nel sistema solare, trattando in questo caso l’effetto dell’interazione a più corpi sulla precessione del perielio di Mercurio.
Resumo:
L’accrescimento è un fenomeno di assoluta rilevanza in astrofisica per il fatto di essere uno dei meccanismi di produzione energetica più efficienti conosciuti. Inoltre esso riveste un ruolo fondamentale sia nella caratterizzazione di oggetti astronomici noti come AGN, che per la descrizione di sistemi binari in cui una stella è nella condizione di trasferire parte della propria massa alla compagna. Nell’Introduzione è messa in risalto l’elevata efficienza del processo di accrescimento, soprattutto se confrontata con una delle reazioni termonucleari più celebri come la catena protone-protone. Sono poi mostrati alcuni aspetti qualitativi riguardanti gli AGN e il modo in cui alcune loro particolarità possono essere giustificate proprio grazie ai fenomeni di accrescimento. Il Capitolo 2 è dedicato alla determinazione della luminosità di Eddington, ovvero quel valore limite di luminosità che un corpo in accrescimento può raggiungere e che, se superato, determinata l’innescarsi di processi che portano l’accrescimento a rallentare. All’interno del Capitolo 3 è analizzato il modello di Bondi per l’accrescimento di un oggetto compatto immerso in una distribuzione infinita di gas. Il modello preso in considerazione rappresenta la versione più semplice del modello di Bondi, che fornisce una soluzione idrodinamica e che, tuttavia, presenta ipotesi molto stringenti. Per tale motivo a fine capitolo è stato aggiunto un primo sguardo al problema di Bondi in presenza di electron scattering, andando a vedere il modo in cui questo influenza i risultati classici precedentemente ottenuti. Infine, nel Capitolo 4 è introdotto il problema dell’accrescimento all’interno di sistemi binari in modo da mettere in luce i principali meccanismi che possono dare vita all’accrescimento e le ipotesi sotto le quali questi possono avvenire.
Resumo:
La luce è il mezzo con cui ricaviamo informazioni sull'universo che studiamo ma per poter ottenere queste informazioni sono necessarie le strumentazioni di raccolta dati e sopra ogni cosa diviene fondamentale l'impianto teorico solidamente costruito attraverso i secoli accumulati dalla nostra disciplina. Nella prima parte una breve introduzione storica per poter capire come siamo arrivati alla modernità. Subito dopo formule e definizioni per avere il quadro completo sui 3 argomenti con le relative dimostrazioni e sopratutto cosa si ricava da tali dati.
Resumo:
HERMES (High Energy Rapid Modular Ensemble of Satellites) è una missione basata su una costellazione di nano-satelliti in orbita terrestre bassa, ospitanti rivelatori di raggi X e gamma, avente l'obiettivo di indagare l'emissione di Gamma Ray Burst (GRB). Si tratta di un insieme di spettrografi ad alta risoluzione temporale, attivi nella banda 3–2000 keV, che operando congiuntamente sono in grado di localizzare eventi transienti. Questo esperimento fornirà un metodo veloce e complementare alla rivelazione di onde gravitazionali per l'osservazione di eventi brillanti come i GRB nell'ambito dell'astrofisica multimessaggero. Il rivelatore di ogni nano-satellite di HERMES è composto da Silicon Drift Deterctors (SDD) collegati otticamente a cristalli scintillatori di tipo GAGG:Ce. Il GAGG:Ce è uno scintillatore inorganico di nuova generazione (sviluppato attorno al 2012). L'obiettivo di questa tesi è studiare la risposta, in termini di ampiezza assoluta e uscita luce, del GAGG:Ce accoppiato a una SDD, concentrandosi nello studio della risposta non lineare dello scintillatore, dovuta al K-edge del gadolinio all'energia di 50.23 keV, per contribuire all'ottimizzazione della calibrazione strumentale per il satellite HERMES. Per l'esperimento sono stati usati tre diversi campioni di scintillatore GAGG:Ce. L'esperimento si è basato sull'osservazione di sorgenti radioattive di calibrazione e di un fascio monocromatico di fotoni X, prodotto attraverso il generatore disponibile presso la facility LARIX-A dell'Università di Ferrara, con un rivelatore composto dallo scintillatore in analisi letto con una SDD. L'intervallo di energie scelto per il fascio monocromatico è di 20-160 keV, mentre i radioisotopi consentono di acquisire dati anche ad energie maggiori. La risposta dello scintillatore è stata quindi studiata dalla minima energia rivelabile (20-40 keV) all'energia della riga del 137Cs a 661.65 keV.
Resumo:
La memoria semantica, e la sua correlazione con il linguaggio, sono alla base di molti studi di neuroscienze cognitive e della formulazione di diverse teorie volte a comprendere la loro organizzazione, le unità neurali coinvolte e i meccanismi di apprendimento. In passato si cercava di rispondere a queste domande attraverso lo studio anatomico di lesioni della corteccia cerebrale in relazione al danno mnemonico che ne derivava per andare ad ipotizzare in quale area del cervello una determinata informazione veniva immagazzinata. Ricerche sempre più recenti hanno introdotto nel metodo di studio strumenti ed apparecchiature volte ad aiutare l’indagine e la ricerca, in modo da poter osservare e visualizzare quale area della corteccia viene attivata o disattivata in funzione ad uno specifico stimolo esterno. Infatti, l’attenzione dei ricercatori sui sintomi dei disturbi e sui disturbi stessi della memoria semantica, ha dato luce a molti aspetti importanti riguardo i meccanismi cerebrali fondamentali per la funzione corretta di tale memoria. Nel corso degli anni quindi attraverso questi studi sono stati sviluppati diversi modelli teorici con lo scopo di analizzare e studiare i meccanismi alla base delle diverse memorie, in questo caso della memoria semantica. È grazie a questi modelli che si può cercare di comprendere come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Pertanto, si esaminano i modelli computazionali tradizionali nell'ambito dei modelli di rete (basati su associazioni libere), dei modelli di caratteristiche (basati su norme di generazione di proprietà) e dei modelli distributivi, discutendo il loro contributo a importanti dibattiti in letteratura sulla rappresentazione della conoscenza e apprendimento. Inoltre, si valuta come i moderni modelli computazionali, ad esempio modelli basati sul recupero, stanno rivisitando il tradizionale concetto di memoria "statica".
Resumo:
L’intensificarsi della concorrenza globale, il rapido sviluppo delle tecnologie e le mutevoli richieste dei clienti hanno portato a una tendenza verso maggiori differenze nei requisiti dei clienti, maggiore necessità di personalizzazione, cicli di vita dei prodotti sempre più brevi e la necessità di una rapida introduzione di nuovi prodotti. I produttori devono tenere conto di queste nuove tendenze e devono essere in grado di fronteggiarle per ottenere un vantaggio competitivo. I sistemi di produzione riconfigurabili RMS sono adatti nella gestione di queste richieste in quanto il sistema può essere continuamente riconfigurato per adattarsi alle richieste del mercato in termini di volumi richiesti e personalizzazione esatta dai clienti. Lo sviluppo effettivo di RMS risulta, ad oggi, molto impegnativo per le aziende e questo è il principale motivo per il quale si ricorre ancora a sistemi di produzione maggiormente tradizionali come DMS e FMS. Questo elaborato definisce le caratteristiche fondamentali ed i principi di progettazione dei RMS, facendone un confronto con quelle dei sistemi DMS e FMS. Successivamente, partendo da un esempio industriale e seguendo i principi fondamentali dei RMS, si sviluppano dei concept di linea produttiva, con celle e stazioni idonee allo sviluppo di un sistema riconfigurabile. In ultima analisi, presso il laboratorio dell’Università di Aalborg, in Danimarca, vengono condotte prove pratiche sulla linea di produzione riconfigurabile Festo. Queste hanno permesso di mettere in luce gli aspetti di forza e le criticità di tali sistemi. Infine, vengono proposte idee per rendere più efficaci i RMS e vengono brevemente illustrate altre possibili tipologie di riconfigurazione in cui viene completamente stravolto il concetto di linea di produzione odierno.
Resumo:
Questa tesi tratterà principalmente la fase di studio preliminare e successivamente la progettazione del retrotreno di una moto supersportiva. Il lavoro centrale della tesi si è focalizzato quindi sul forcellone posteriore di questa nuova motocicletta. È stato dunque indispensabile valutare, definire e progettare anche altri componenti meccanici ad esso collegati come ad esempio lo schema sospensivo posteriore e l’ingombro dell’impianto di scarico. Alla base di questo progetto c’è la volontà di creare una moto supersportiva con cilindrata pari a 1000 cm3 e capace di erogare oltre 200 cv che possa essere venduta nel mercato europeo ad un prezzo concorrenziale. Per tale scopo sono state prese in considerazione e successivamente studiate in modo molto approfondito motociclette già in commercio capaci di rispettare tali vincoli progettuali. L’evoluzione naturale di tale studio si è fondata sulla valutazione delle diverse scelte progettuali e le diverse metodologie di produzione. Le motociclette sono state scansionate per intero per valutarne le geometrie fondamentali e successivamente è stato creato un modello dei componenti passando da una valutazione preliminare degli ingombri fino ad ottenere dei veri e propri componenti realizzabili attraverso le diverse tecnologie. Il componente è stato simulato attraverso analisi FEM seguendo una procedura standard all’interno dell’azienda che ha permesso di evidenziare le geometrie critiche che successivamente sono state migliorate alla luce di tali risultati. Per ottenere un buon prodotto a livello di leggerezza e proprietà meccaniche si è scelto come materiale la lega di alluminio da fonderia che in futuro sarà anche utilizzata per la produzione di serie. Questo processo produttivo è funzionale per ridurre i costi in fase di realizzazione per una produzione in serie ed un altro importante vantaggio è dato dal fatto che in questo modo si possono evitare spiacevoli fenomeni legati alla saldatura dell’alluminio.
Resumo:
Il presente studio mira all’esposizione della proposta di traduzione di due capitoli tratti dal saggio “Translating into Democracy” di Anna Bogic, inserito all’interno del volume “Translating Women. Different Voices and New Horizons” editato da Luise von Flotow e Farzaneh Farahzad. I capitoli in esame si intitolano rispettivamente “Our Bodies, Ourselves in the United States” e “The Politics of Translation and the ‘Other’ Europe”. Attraverso la presentazione del testo tradotto, l’elaborato riflette sul percorso editoriale di Our Bodies, Ourselves, opera di fondamentale rilevanza nata nel corso della seconda ondata femminista. Successivamente all’analisi dei contenuti del libro, il discorso fa luce sulle dinamiche di diffusione del sapere attraverso i flussi traduttivi adottando l’ottica dello schema “centro-periferia” teorizzato da Immanuel Wallerstein. Inoltre, l’elaborato propone un’analisi del testo di partenza attraverso il metodo funzionale, identificando le principali componenti che costituiscono la comunicazione testuale: il genere testuale, il mittente, lo stile linguistico e lo skopos. Successivamente, il discorso analitico individua i diversi generi di problemi traduttivi, distinguendoli in problemi pragmatici, problemi legati alle convenzioni e problemi linguistici, che vengono esplicati attraverso l’esposizione di esempi tratti direttamente dal testo originale e dalla sua versione tradotta. Infine, l’elaborato riflette sull’impatto socioculturale di “Our Bodies, Ourselves” ed evidenzia l’importanza del coordinamento femminista internazionale alla base dell’intero flusso traduttivo che ha interessato l’opera.
Resumo:
Il presente elaborato finale del corso di laurea in Mediazione Linguistica Interculturale si pone come obiettivo quello di fare luce sulla condizione che l’Andalusia versava durante gli anni che precedono e che definiscono la transizione politica degli anni 1975-1979 attraverso l’analisi dell’opera teatrale Quejío della compagnia La Cuadra de Sevilla, guidata da Salvador Távora. Dagli spettacoli di flamenco nelle storiche vie alle tradizioni centenarie e religiose che attraggono turisti da tutto il mondo, mi sono sempre chiesta se il ritratto così perfetto di questa città, e più generalmente, dell’Andalusia, rispecchiasse davvero la realtà, come quella dipinta nelle cartoline e nei quadretti che vendono ai turisti dietro Plaza de España. È proprio da qui che parte la mia analisi: ripercorrere quelle che sono le peculiarità che definiscono la regione dell’Andalusia, comprendendone limiti e manipolazioni folkloriche da parte di generazioni politiche con lo scopo di nascondere la sua vera realtà storica. A questo proposito, prenderò in analisi l’opera Quejío, come ho precedentemente detto, la quale, ricca di metafore e allusioni, rappresenta una denuncia alla povertà e repressione che dilagavano in Andalusia in quegli anni. Significativa è stata la nascita del cosiddetto Teatro Independiente, da cui La Cuadra de Sevilla ne trae gli ideali e le caratteristiche, che fa da sfondo a un periodo critico per l’Andalusia: quello della transizione spagnola, nonché il passaggio dalla dittatura di Francisco Franco alla democrazia. La regione è stata segnata negativamente dalla situazione sociale e politica: una terra rurale e di latifondisti, destinata alla precarietà e alla censura a cui La Cuadra de Sevilla si oppone contribuendo a restituire alla cultura andalusa la propria realtà storica, lontana dallo stereotipo inculcato nei viaggiatori, attraverso un grido di protesta sulle note del flamenco.
Resumo:
Il presente elaborato finale ha lo scopo di illustrare tutti i parametri necessari alla progettazione di un “buon” impianto di illuminazione stradale, dotato di tutte le nuove tecnologie, per un maggior risparmio energetico incentrato alla valorizzazione e riqualificazione urbana. L’illuminazione pubblica negli ultimi decenni ha ricoperto un’importanza sempre maggiore all’interno della città e del territorio aumentando in modo esponenziale la presenza di corpi illuminanti e formando spesso una vera e propria macchia di luce durante la notte. L’implementazione degli apparecchi di illuminazione ha portato ad una maggiore sicurezza e, a volte, un maggiore comfort nelle zone cittadine, ma anche un notevole aumento di costi energetici a carico delle amministrazioni comunali. Pertanto, alla luce degli ultimi mesi, è necessario incrementare i servizi tecnologici basati sull’efficientamento energetico degli impianti, in particolare, adottando sempre di più la sorgente a LED e sistemi di riduzione del flusso luminoso, in sostituzione alle lampade obsolete esistenti con un basso rendimento energetico. Con lo sviluppo del traffico veicolare degli ultimi anni, l’illuminazione urbana ha modificato il suo aspetto nelle città, concentrandosi sul rispetto dei valori prescritti per consentire una maggiore sicurezza e scorrevolezza del traffico motorizzato durante le ore notturne a discapito della valorizzazione urbana. Infatti, le statistiche hanno mostrato che il tasso degli incidenti notturni, ossia il rapporto tra gli incidenti e il numero di veicoli in circolazione, è più elevato rispetto agli incidenti durante le ore diurne.
Resumo:
Il seguente elaborato dal titolo "La moschea attraverso il tempo: fra tradizione e contemporaneità" offre un'analisi architettonica della Moschea della Luce di Dubai, presa come campione e progettata da Sumaya Dabbagh, prima donna architetto degli Emirati Arabi Uniti ad aver preso in carico l'ideazione di un luogo di culto islamico. L'elaborato include, inoltre, un'ampia sezione sugli elementi principali che caratterizzano la moschea tradizionale per poi metterla a confronto con quella campione.
Resumo:
L’utilizzo di informazioni di profondità è oggi di fondamentale utilità per molteplici settori applicativi come la robotica, la guida autonoma o assistita, la realtà aumentata e il monitoraggio ambientale. I sensori di profondità disponibili possono essere divisi in attivi e passivi, dove i sensori passivi ricavano le informazioni di profondità dall'ambiente senza emettere segnali, bensì utilizzando i segnali provenienti dall'ambiente (e.g., luce solare). Nei sensori depth passivi stereo è richiesto un algoritmo per elaborare le immagini delle due camere: la tecnica di stereo matching viene utilizzata appunto per stimare la profondità di una scena. Di recente la ricerca si è occupata anche della sinergia con sensori attivi al fine di migliorare la stima della depth ottenuta da un sensore stereo: si utilizzano i punti affidabili generati dal sensore attivo per guidare l'algoritmo di stereo matching verso la soluzione corretta. In questa tesi si è deciso di affrontare questa tematica da un punto di vista nuovo, utilizzando un sistema di proiezione virtuale di punti corrispondenti in immagini stereo: i pixel delle immagini vengono alterati per guidare l'algoritmo ottimizzando i costi. Un altro vantaggio della strategia proposta è la possibilità di iterare il processo, andando a cambiare il pattern in ogni passo: aggregando i passi in un unico risultato, è possibile migliorare il risultato finale. I punti affidabili sono ottenuti mediante sensori attivi (e.g. LiDAR, ToF), oppure direttamente dalle immagini, stimando la confidenza delle mappe prodotte dal medesimo sistema stereo: la confidenza permette di classificare la bontà di un punto fornito dall'algoritmo di matching. Nel corso della tesi sono stati utilizzati sensori attivi per verificare l'efficacia della proiezione virtuale, ma sono state anche effettuate analisi sulle misure di confidenza: lo scopo è verificare se le misure di confidenza possono rimpiazzare o assistere i sensori attivi.