700 resultados para nonclassicità, nonlinearità, meccanica quantistica, ottica quantistica, nonGaussianità


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il grafene è un cristallo bidimensionale di atomi di carbonio, isolato per la prima volta nel 2004 da due fisici che per questo risultato vinsero il premio Nobel per la Fisica nel 2010. Il grafene possiede proprietà chimiche e fisiche superiori, quali un’elevata resistenza chimica e meccanica e un’eccellente conducibilità termica ed elettrica. Inoltre possiede altre due caratteristiche che lo rendono particolarmente promettente in diversi ambiti applicativi: leggerezza e trasparenza ottica. In questo elaborato ho descritto le attività svolte seguendo le ricerche che vengono svolte al CNR-IMM di Bologna, dove questo materiale viene prodotto tramite la tecnica di Chemical Vapor Deposition e studiato per l’integrazione in dispositivi elettronici ed elettro-meccanici innovativi. Durante la mia esperienza di laboratorio all’IMM ho seguito i procedimenti che portano al trasferimento del grafene sintetizzato su substrati catalitici di rame sui substrati finali per la successiva integrazione nella tecnologia del silicio. Nell’elaborato vengono da prima descritte la struttura cristallina ed elettronica e successivamente presentate alcune proprietà di cui gode e messe in relazione con i materiali attualmente in uso. Segue una breve trattazione bibliografica di alcune delle principali tecniche di produzione del grafene, trattando più nel dettaglio la tecnica CVD attualmente in uso per la sintesi di grafene all’interno dei laboratori del CNR-IMM di Bologna. La parte principale di questa esperienza di laboratorio è stato di seguire in prima persona le attuali ricerche del gruppo di lavoro per la messa a punto di un metodo alternativo che utilizza il ciclododecano per il trasferimento del grafene sintetizzato su rame al posto del classico strato sacrificale polimerico di PMMA. Nell’elaborato il confronto tra le due tecniche viene eseguito confrontando i risultati del trasferimento analizzando la morfologia dei campioni finali con tecniche di microscopia elettronica in scansione

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi vengono presentati i piu recenti risultati relativi all'estensione della teoria dei campi localmente covariante a geometrie che permettano di descrivere teorie di campo supersimmetriche. In particolare, si mostra come la definizione assiomatica possa essere generalizzata, mettendo in evidenza le problematiche rilevanti e le tecniche utilizzate in letteratura per giungere ad una loro risoluzione. Dopo un'introduzione alle strutture matematiche di base, varieta Lorentziane e operatori Green-iperbolici, viene definita l'algebra delle osservabili per la teoria quantistica del campo scalare. Quindi, costruendo un funtore dalla categoria degli spazio-tempo globalmente iperbolici alla categoria delle *-algebre, lo stesso schema viene proposto per le teorie di campo bosoniche, purche definite da un operatore Green-iperbolico su uno spazio-tempo globalmente iperbolico. Si procede con lo studio delle supervarieta e alla definizione delle geometrie di background per le super teorie di campo: le strutture di super-Cartan. Associando canonicamente ad ognuna di esse uno spazio-tempo ridotto, si introduce la categoria delle strutture di super-Cartan (ghsCart) il cui spazio-tempo ridotto e globalmente iperbolico. Quindi, si mostra, in breve, come e possibile costruire un funtore da una sottocategoria di ghsCart alla categoria delle super *-algebre e si conclude presentando l'applicazione dei risultati esposti al caso delle strutture di super-Cartan in dimensione 2|2.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente tesi si occupa di identificare la metodologia utilizzata per la definizione di percorsi Real Driving Emissions. Nel particolare sono stati individuati due percorsi, uno in piano, definite RDE Moderate Track ed uno in quota, definito RDE Extended Track. Si è anche eseguita una analisi dei cicli su banco a rulli NEDC e WLTC in ottica Real Driving Emissions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il lavoro sviluppato intende affrontare in modo integrato la problematica ambientale relativamente allo sviluppo della flotta di veicoli di un grande operatore del trasporto pubblico. In prima istanza il lavoro si è focalizzato sull’analisi approfondita della flotta esistente, ed accanto ai dati tradizionali è stata sviluppata anche un’analisi dei costi totali comprensive anche delle esternalità calcolate come da direttiva 2009/33/CE. Sono state sviluppate numerose elaborazioni di uso aziendale relativamente alla metodologia del costo del ciclo di vita, LCC, che è in uso presso TPER S.p.A. sin dal 2001. Successivamente sono stati sviluppati gli scenari evolutivi della flotta automobilistica individuando per il confronto finale tre scenari distinti in ottica 2020: - Il primo scenario inerziale senza nessuna modifica della flotta consolidato al 31.12.2015, tale scenario è definito dai veicoli presenti, dai costi di gestione della manutenzione, dai costi di carburante e dai costi esterni come suddetto; - Il secondo con orizzonte 2016 prevede l’inserimento in servizio dei n. 49 filosnodati Crealis e viene consolidato al 31.12.2016; - Il terzo scenario è quello obiettivo e considera nel 2020 l’entrata in parco via via degli acquisti che TPER S.p.A. ha già programmato per il 2017, 2018 e compresi i n.55 snodati con alimentazione elettrica del progetto PIMBO. Le comparazioni di questi scenari permettono in modo molto realistico di individuare gli effetti su una flotta reale delle politiche di investimento reali e non simulate e di poter quantificare quindi l’andamento dei costi esterni in relazione alla modifica della flotta di TPER S.p.A.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nella tesi è analizzata nel dettaglio una proposta didattica sulla Fisica Quantistica elaborata dal gruppo di ricerca in Didattica della Fisica dell’Università di Bologna, in collaborazione con il gruppo di ricerca in Fisica Teorica e con ricercatori del CNR di Bologna. La proposta è stata sperimentata in diverse classi V di Liceo scientifico e dalle sperimentazioni sono emersi casi significativi di studenti che non sono riusciti ad accettare la teoria quantistica come descrizione convincente ad affidabile della realtà fisica (casi di non accettazione), nonostante sembrassero aver capito la maggior parte degli argomenti e essersi ‘appropriati’ del percorso per come gli era stato proposto. Da questa evidenza sono state formulate due domande di ricerca: (1) qual è la natura di questa non accettazione? Rispecchia una presa di posizione epistemologica o è espressione di una mancanza di comprensione profonda? (2) Nel secondo caso, è possibile individuare precisi meccanismi cognitivi che possono ostacolare o facilitare l’accettazione della fisica quantistica? L’analisi di interviste individuali degli studenti ha permesso di mettere in luce tre principali esigenze cognitive (cognitive needs) che sembrano essere coinvolte nell’accettazione e nell’apprendimento della fisica quantistica: le esigenze di visualizzabilità, comparabilità e di ‘realtà’. I ‘cognitive needs’ sono stati quindi utilizzati come strumenti di analisi delle diverse proposte didattiche in letteratura e del percorso di Bologna, al fine di metterne in luce le criticità. Sono state infine avanzate alcune proposte per un suo miglioramento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo elaborato di tesi presenta uno studio volto a identificare il ruolo dell’autofagia nella patogenesi della neuropatia ottica ereditaria di Leber (LHON), una patologia neurodegenerativa mitocondriale dovuta a mutazioni nel mtDNA. Tali mutazioni generano difetti nella catena respiratoria, nelle vie apoptotiche mediate dai mitocondri e nella produzione di ROS; dati preliminari hanno dimostrato una correlazione tra le mutazioni LHON e l’omeostasi mitocondriale, regolata dai processi contrapposti di autofagia e mitobiogenesi. Secondo questa ipotesi, le alterazioni LHON aumentano il flusso autofagico soprattutto negli individui affetti, mentre i portatori di mutazione sani (carrier) risultano protetti da un importante incremento nella mitobiogenesi che agisce da meccanismo compensatorio. È stata dunque caratterizzata tramite Western Blotting l’espressione proteica di due marker autofagici, LC3 e p62, in PBMCs (Peripheral Blood Mononuclear Cells) estratte da pazienti LHON, affetti e carrier, e individui di controllo. Sono stati inoltre quantificati i livelli cellulari di due proteine della membrana interna mitocondriale, COX IV e SDHA, al fine di valutare la massa mitocondriale come parametro di confronto rispetto ai livelli di autofagia. È stata infine analizzata l’influenza dell’idebenone sull’autofagia e sulla massa mitocondriale, confrontando pazienti affetti in terapia con questo farmaco e pazienti affetti non trattati. Lo studio ha in parte avvalorato i risultati preliminari; l’elevata variabilità riscontrata porta però all’esigenza, nelle analisi future, di una maggiore campionatura, nonché di indagini di diversa natura condotte in parallelo per validare i risultati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi si occupa principalmente della revisione grafica in ottica Modern UI dell'app tuProlog Android, nella prospettiva di renderlo in futuro disponibile anche in modalità as-a-service. Dopo una attenta analisi preliminare dell'architettura di tuProlog in generale e in particolare della struttura dell'app tuProlog preesistente e del relativo progetto in ambiente Eclipse, ci si è focalizzati sulla riprogettazione dell'app, dall'analisi dei requisiti - ivi incluso il nuovo strumento di sviluppo da utilizzare, Android Studio - alla successiva analisi e progettazione della nuova soluzione, seguita da implementazione e collaudo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi si occupa della realizzazione, in ottica Modern UI, di una nuova interfaccia per l'applicazione Android del sistema domotico Home Manager. Dopo una prima fase di analisi preliminare, si affronta la progettazione dell'app, dall'analisi dei requisiti - ivi incluso il nuovo strumento di sviluppo da utilizzare, Android Studio - alla successiva analisi e progettazione della nuova soluzione, seguita da implementazione e collaudo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo della tesi è di stimare le prestazioni del rivelatore ALICE nella rivelazione del barione Lambda_c nelle collisioni PbPb usando un approccio innovativo per l'identificazione delle particelle. L'idea principale del nuovo approccio è di sostituire l'usuale selezione della particella, basata su tagli applicati ai segnali del rivelatore, con una selezione che usi le probabilità derivate dal teorema di Bayes (per questo è chiamato "pesato Bayesiano"). Per stabilire quale metodo è il più efficiente , viene presentato un confronto con altri approcci standard utilizzati in ALICE. Per fare ciò è stato implementato un software di simulazione Monte Carlo "fast", settato con le abbondanze di particelle che ci si aspetta nel nuovo regime energetico di LHC e con le prestazioni osservate del rivelatore. E' stata quindi ricavata una stima realistica della produzione di Lambda_c, combinando i risultati noti da esperimenti precedenti e ciò è stato usato per stimare la significatività secondo la statistica al RUN2 e RUN3 dell'LHC. Verranno descritti la fisica di ALICE, tra cui modello standard, cromodinamica quantistica e quark gluon plasma. Poi si passerà ad analizzare alcuni risultati sperimentali recenti (RHIC e LHC). Verrà descritto il funzionamento di ALICE e delle sue componenti e infine si passerà all'analisi dei risultati ottenuti. Questi ultimi hanno mostrato che il metodo risulta avere una efficienza superiore a quella degli usuali approcci in ALICE e che, conseguentemente, per quantificare ancora meglio le prestazioni del nuovo metodo si dovrebbe eseguire una simulazione "full", così da verificare i risultati ottenuti in uno scenario totalmente realistico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo lavoro di tesi si pone l’obiettivo di illustrare i principi fisici che stanno alla base del teletrasporto quantistico, una tecnica importante utilizzata nelle tecnologie del l’informatica quantistica. In particolare, verranno introdotti i principali concetti della computazione quantistica, come il qubit e le porte logiche quantistiche, intese come trasformazioni unitarie che operano su qubit, e verrà illustrato il protocollo di teletrasporto dello stato quantico di un qubit da un punto ad un altro dello spazio. In seguito verrà descritto il fenomeno quantistico del l’entanglement e si porrà l’accento su come tale fenomeno possa essere sfruttato nel protocollo di teletrasporto quantistico. Segue, infine, una descrizione delle principali tecniche utilizzate negli esperimenti di verifica dell’entanglement e di teletrasporto quantistico condotti fino ai giorni nostri, con enfasi ai possibili sviluppi futuri.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tomografia a coerenza ottica (Optical Coherence Tomography, OCT) rappresenta fondamentalmente una nuova modalità di diagnostica per immagini non invasiva e ad alta risoluzione. L’OCT fornisce immagini, sotto forma di sezioni trasversali o tomografiche, delle microstrutture dei tessuti biologici tramite la misura del ritardo dell’eco e dell’intensità della luce retrodiffusa o riflessa dal campione in analisi. L’OCT è una potente tecnica poiché fornisce in tempo reale immagini in situ delle strutture tissutali normali o patologiche, con una risoluzione da 1 a 15 micron, che è da uno a due ordini di grandezza maggiore rispetto alle tecniche per immagini convenzionali come ultrasuoni, risonanza magnetica o tomografia computerizzata. Tutto questo senza la necessità di ottenere e analizzare un campione tramite biopsia e studio istopatologico. Sin dall’inizio della sua utilizzazione nel 1991, l’OCT è stata impiegata in un vasto spettro di applicazioni cliniche, principalmente l'oftalmologia. In strutture non trasparenti, diverse da quelle oculari, la profondità massima esplorabile è limitata a 2-3 mm a causa dei fenomeni di attenuazione secondari e alla dispersione della luce. Inoltre, i numerosi sviluppi fatti dalla tecnologia OCT hanno portato ad alte velocità di acquisizione e, grazie all’utilizzo di sorgenti laser di ultima generazione, risoluzioni assiali dell’ordine di 1 micrometro. Dunque, la tomografia a coerenza ottica può essere sfruttata: - Quando la biopsia escissionale è pericolosa o impossibile. - Quando si rischiano errori di campionamento, come guida alla biopsia in modo da ridurre errori nel prelievo del campione. - Come guida alla procedura d’intervento, in associazione alle procedure di cateterismo, endoscopia e laparoscopia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nelle società moderne, il problema del “rifiuto”, costituisce un fenomeno strettamente connesso allo stile di vita dei cittadini, nonché al sistema di produzione e distribuzione dei beni di consumi e alle normative che regolano questi due aspetti.Ogni anno, solamente in Italia, sono circa 380.000 le tonnellate di pneumatici che sono destinate a discarica, e sono oltre 100 gli anni che un pneumatico impiega per la biodegradazione. L’utilizzo del bitume modificato con polverino di gomma è nato negli Stati Uniti, ma al giorno d'oggi viene utilizzato sempre più frequentemente anche in Italia e in Europa quale valida alternativa per il confezionamento di conglomerati bituminosi. L’attività sperimentale presentata in questa tesi consiste nel confronto di 2 miscele: una di conglomerato bituminoso standard e l’altra sperimentale con polverino di gomma da PFU, progettata nel Laboratorio di Strade dell’Università di Ingegneria e Architettura di Bologna. Per procedere con la comparazione delle due materiali si è realizzato un campo prove in vera grandezza, in viale Togliatti a Bologna. Nel laboratorio di Strade dell'Università di Bologna si sono poi confezionati dei provini con il materiale prelevato in sito, e su di essi sono state svolte le prove di caratterizzazione statica (ITS) e dinamica (ITSM). Il risultati ottenuti dimostrano che la miscela sperimentale presenta caratteristiche meccaniche inferiori a quella vergine, ma in ogni caso soddisfacenti e superiori a quelli mediamente riconosciuti per miscele bituminose tradizionali per strati di usura. Da sottolineare è che la minore rigidezza presentata dalle miscele additivate con PFU, secondo consolidata bibliografia scientifica, potrebbe conferirle una maggiore resistenza ai carichi ripetuti e determinare così un miglioramento delle caratteristiche di durabilità della pavimentazione bituminosa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi si propone di analizzare l’influenza dei parametri caratteristici di una macchina laser temprante. Il materiale su cui sono state effettuate le prove è un acciaio C48 . Il lavoro è suddiviso nelle seguenti fasi : Studio delle sorgenti laser Prove in laboratorio Preparazione e studio metallografico dei campioni Analisi dei risultati Nei primi tre capitoli verranno esposte, in maniera più o meno dettagliata, le nozioni teoriche riguardanti le sorgenti laser, sul quale verte il lavoro di tesi. Nel dettaglio verranno descritte: la natura fisica delle sorgenti laser, ossia delle onde elettromagnetiche, le loro proprietà, la sorgente più comune dal punto di vista industriale, i sistemi di trasporto e di focalizzazione del fascio in fibra ottica e l’interazione laser-materia, che rappresenta il punto di partenza delle lavorazioni mediante laser. Successivamente, nel capitolo 4, l’esposizione verterà sul particolare impiego del laser nelle operazioni di tempra. nel capitolo 5, verrà descritta l’attività svolta: le specifiche della macchina, i parametri dell’impulso utilizzati, i risultati numerici delle misurazioni e le foto delle zone temprate. Per rendere più chiaro il seguito, passerò ad una piccola parte introduttiva, che verrà poi approfondita nel dettaglio successivamente, sui principali campi d’impiego della tecnologia laser, le applicazioni industriali ed i componenti di una generica stazione di lavorazione mediante laser.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il percorso di tesi che ho intrapreso è stato svolto presso l'azienda Datalogic, con l'intento di integrare un sistema di visione ad un sistema di marcatura laser. L'utilizzo di questo potente strumento è però vincolato dalla particolare posizione fisica occupata, di volta in volta, dall'oggetto; per questo motivo viene fissato nella posizione desiderata, attraverso dime meccaniche. Fin ad ora si riteneva assolutamente necessaria la presenza di un operatore per il controllo del corretto posizionamento, tramite una simulazione della marcatura. Per ovviare a questo limite strutturale, Datalogic ha pensato di introdurre uno strumento di aiuto e di visione del processo: la camera. L'idea di base è stata quella di impiegare le moderne smart camera per individuare l'oggetto da marcare e rendere quindi il processo più automatico possibile. Per giungere a questo risultato è stato necessario effettuare una calibrazione del sistema totale: Camera più Laser. Il mio studio si è focalizzato quindi nel creare un eseguibile che aiutasse il cliente ad effettuare questa operazione nella maniera più semplice possibile. E' stato creato un eseguibile in C# che mettesse in comunicazione i due dispositivi ed eseguisse la calibrazione dei parametri intrinseci ed estrinseci. Il risultato finale ha permesso di avere il sistema di riferimento mondo della camera coincidente con quello del piano di marcatura del laser. Ne segue che al termine del processo di calibrazione se un oggetto verrà rilevato dalla camera, avente il baricentro nella posizione (10,10), il laser, utilizzando le medesime coordinate, marcherà proprio nel baricentro dell'oggetto desiderato. La maggiore difficoltà riscontrata è stata la differenza dei software che permettono la comunicazione con i due dispositivi e la creazione di una comunicazione con il laser, non esistente prima in C#.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’obbiettivo di questa tesi è quello di analizzare le conseguenze della scelta del frame (Jordan o Einstein) nel calcolo delle proprietà degli spettri primordiali generati dall’inflazione ed in particolare dell’osservabile r (rapporto tensore su scalare) al variare del potenziale del campo che genera l’espansione accelerata. Partendo dalla descrizione della teoria dell’inflazione in relatività generale, focalizzando l’attenzione sui motivi che hanno portato all’introduzione di questa teoria, vengono presentate le tecniche di utilizzo comune per lo studio della dinamica omogenea (classica) inflazionaria e di quella disomogenea (quantistica). Una particolare attenzione viene rivolta ai metodi di approssimazione che è necessario adottare per estrarre predizioni analitiche dai modelli inflazionari per poi confrontarle con le osservazioni. Le tecniche introdotte vengono poi applicate ai modelli di inflazione con gravità indotta, ovvero ad una famiglia di modelli con accoppiamento non minimale tra il campo scalare inflatonico e il settore gravitazionale. Si porrà attenzione alle differenze rispetto ai modelli con accoppiamento minimale, e verrà studiata la dinamica in presenza di alcuni potenziali derivanti dalla teoria delle particelle e diffusi in letteratura. Il concetto di “transizione tra il frame di Jordan e il frame di Einstein” viene illustrato e le sue conseguenze nel calcolo approssimato del rapporto tensore su scalare sono discusse. Infine gli schemi di approssimazione proposti vengono analizzati numericamente. Risulterà che per due dei tre potenziali presentati i metodi di approssimazione sono più accurati nel frame di Einstein, mentre per il terzo potenziale i due frames portano a risultati analitici similmente accurati.