725 resultados para contactless sistema di misura ottico elettrofilatura triangolazione


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La realizzazione di stati non classici del campo elettromagnetico e in sistemi di spin è uno stimolo alla ricerca, teorica e sperimentale, da almeno trent'anni. Lo studio di atomi freddi in trappole di dipolo permette di avvicinare questo obbiettivo oltre a offrire la possibilità di effettuare esperimenti su condesati di Bose Einstein di interesse nel campo dell'interferometria atomica. La protezione della coerenza di un sistema macroscopico di spin tramite sistemi di feedback è a sua volta un obbiettivo che potrebbe portare a grandi sviluppi nel campo della metrologia e dell'informazione quantistica. Viene fornita un'introduzione a due tipologie di misura non considerate nei programmi standard di livello universitario: la misura non distruttiva (Quantum Non Demolition-QND) e la misura debole. Entrambe sono sfruttate nell'ambito dell'interazione radiazione materia a pochi fotoni o a pochi atomi (cavity QED e Atom boxes). Una trattazione delle trappole di dipolo per atomi neutri e ai comuni metodi di raffreddamento è necessaria all'introduzione all'esperimento BIARO (acronimo francese Bose Einstein condensate for Atomic Interferometry in a high finesse Optical Resonator), che si occupa di metrologia tramite l'utilizzo di condensati di Bose Einstein e di sistemi di feedback. Viene descritta la progettazione, realizzazione e caratterizzazione di un servo controller per la stabilizzazione della potenza ottica di un laser. Il dispositivo è necessario per la compensazione del ligh shift differenziale indotto da un fascio laser a 1550nm utilizzato per creare una trappola di dipolo su atomi di rubidio. La compensazione gioca un ruolo essenziale nel miglioramento di misure QND necessarie, in uno schema di feedback, per mantenere la coerenza in sistemi collettivi di spin, recentemente realizzato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Descrizione, debug ed implementazione di un sistema di analisi della combustione Real-Time.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro nasce dall’intento di dare un’indicazione sul legame esistente tra la temperatura e la concentrazione di ozono. La correlazione, rintracciata sui dati osservati, è stata poi utilizzata allo scopo di elaborare proiezioni di evoluzioni future. Lo studio si è concentrato su un’area piuttosto ristretta della provincia di Parma, selezionata per la buona disponibilità di dati, sia di temperatura che di ozono, ma anche per la sua rappresentatività, dimostrata, delle caratteristiche dell’Emilia Romagna. Sulla base della scelta della stazione di misura di ozono sono state individuate tre località nelle vicinanze per avere dati di temperatura sia osservati sia provenienti da downscaling statistico. Proprio per quest’ultimo dataset sono stati elaborati scenari di temperatura per il periodo 2021-2050, rispetto al trentennio climatologico di riferimento 1961-1990, applicando il metodo di regionalizzazione statistica a cinque modelli globali. Le anomalie stagionali sono poi state date in ingresso a un generatore climatico in grado di produrre serie sintetiche giornaliere per il punto in esame. Un modello appositamente creato, ispirato al metodo di campionamento casuale stratificato, ha sfruttato sia queste informazioni sul futuro andamento della temperatura, sia la relazione trovata su dati osservati, per la costruzione di un set di concentrazioni di ozono previste per lo stesso trentennio futuro. Confrontando dal punto di vista statistico queste distribuzioni con quelle ricostruite per i periodi 1961-1990 e 2001-2012 si è valutato l’andamento della concentrazione di ozono. La conclusione più evidente a cui si giunge è la conferma del fatto che la situazione attuale dell’inquinamento da ozono nell’area di studio è decisamente più critica rispetto a quella che il modello ha ricostruito per il trentennio passato. La distribuzione dei valori di concentrazione di ozono degli ultimi dodici anni è invece molto più simile ormai al set di proiezioni previste per il futuro. Quello che potrà succedere a livello dell’inquinamento da ozono nel prossimo trentennio climatologico in Emilia Romagna dipende da quale modello si rivelerà più veritiero riguardo alla proiezione futura di temperatura: è infatti possibile che tutto rimanga molto simile alla situazione attuale o che si verificherà un ulteriore aumento, aggravando una situazione già critica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi di laurea è suddiviso in quattro parti principali: nel primo capitolo sono presentati i CubeSat progettati e in fase di realizzazione; successivamente viene presentata la descrizione dei materiali scelti per la realizzazione dei pannelli solari; nel terzo capitolo è illustrato il sistema di potenza necessario a soddisfare le esigenze dei satelliti prendendo in esame l'ambiente spaziale dove dovranno orbitare ed infine sono analizzati gli effetti osservati e le valutazioni fatte a seguito dei test a cui è stato sottoposto il sistema fotovoltaico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un sistema di distribuzione idropotabile (Water Distribution Network -WDN), data la sua complessità strutturale e funzionale, per l' ordinario esercizio richiede elevati quantitativi di energia. L'attuale trend tecnico/scientifico incoraggia la loro gestione e progettazione nell'ottica di un generale risparmio di energia che, oltre ad un indiscusso vantaggio economico, implica sopratutto una razionalizzazione dell'impiego di risorsa idrica. Questo è il contesto scientifico/culturale in cui il presente elaborato si colloca. Nello specifico, ci si propone la caratterizzazione energetica di la rete di distribuzione idrica Cabrera_network.(rivisitazione della rete presentata da E.Cabrera e M.Pardo nel loro studio del 2010) . Si sono quindi qualificati i legami tra i consumi energetici ed aspetti, quali: dimensionamento dei condotti, perdite idriche, tipologia di pompa centrifuga sfruttata e livello idrico massimo del serbatoio di compenso. Ciò è stato esplicato in due fasi di analisi. In una primo momento, si sono impiegati strumenti classi quali il simulatore idraulico Epanet2 e i fogli di calcolo Excel. In un secondo momento, il problema dell'ottimizzazione energetica della rete è stato risolto a mezzo l'algoritmo euristico GHEST. Al di là delle specifiche conclusioni, cui si rinvia, l'elaborato consente di cogliere un più generale profilo di ordine metodologico: l'importanza di una visione d'insieme del problema energetico in un sistema di distribuzione idropotabile, dalla quale, nel caso di specie, emerge che la scelta più ragionevole, al fine dell'ottimizzazione energetica, consiste nell'individuazione del più idoneo modello di pompa alimentante la rete. Per poi, data l'onere progettuale e applicativo che comporta, provvedere al reinvestimento dei capitali risparmiati in attività volte alla riduzione delle perdite idriche. Sono questi infatti, i due aspetti che più incidono sui consumi energetici nel caso di studio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi è stato elaborato un modello analitico al fine di ottenere una stima dell’ampiezza di delaminazione a seguito di impatti a bassa velocità in laminati in composito, in particolare carbon/epoxy. Nel capitolo 2 è descritto il comportamento meccanico di tali laminati (equazioni costitutive della singola lamina, dell’intero laminato e costanti ingegneristiche dell’intero laminato per qualsiasi sistema di riferimento). Nel capitolo 3 viene descritta la filosofia di progettazione damage tolerance per tali materiali sottoposti a low-velocity impact (LVI) e richiamato il concetto di structural health monitoring. In particolare vengono descritti i tipi di difetti per un laminato in composito, vengono classificati gli impatti trasversali e si rivolge particolare attenzione agli impatti a bassa velocità. Nel paragrafo 3.4 sono invece elencate diverse tecniche di ispezione, distruttive e non, con particolare attenzione alla loro applicazione ai laminati in composito. Nel capitolo 4 è riportato lo stato dell’arte per la stima e la predizione dei danni dovuti a LVI nei laminati: vengono mostrate alcune tecniche che permettono di stimare accuratamente l’inizio del danno, la profondità dell’indentazione, la rottura delle fibre di rinforzo e la forza massima di impatto. L’estensione della delaminazione invece, è difficile da stimare a causa dei numerosi fattori che influenzano la risposta agli impatti: spesso vengono utilizzati, per tale stima, modelli numerici piuttosto dispendiosi in termini di tempo e di calcolo computazionale. Nel capitolo 5 viene quindi mostrata una prima formula analitica per il calcolo della delaminazione, risultata però inaffidabile perché tiene conto di un numero decisamente ristretto di fattori che influenzano il comportamento agli LVI. Nel capitolo 6 è mostrato un secondo metodo analitico in grado di calcolare l’ampiezza di delaminazione mediante un continuo aggiornamento della deflessione del laminato. Dal confronto con numerose prove sperimentali, sembra che il modello fornisca risultati vicini al comportamento reale. Il modello è inoltre fortemente sensibile al valore della G_IIc relativa alla resina, alle dimensioni del laminato e alle condizioni di vincolo. É invece poco sensibile alle variazioni delle costanti ingegneristiche e alla sequenza delle lamine che costituiscono il laminato. La differenza tra i risultati sperimentali e i risultati del modello analitico è influenzata da molteplici fattori, tra cui il più significativo sembra essere il valore della rigidezza flessionale, assunto costante dal modello.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'attività di tesi consiste sia nella calibrazione di un banco di misura per analisi di rumore a basse frequenze nei dispositivi MOSFET di potenza, sia nella valutazione dei relativi e successivi dati sperimentali (con particolare attenzione anche ai processi di stress e recupero applicati ai dispositivi).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro riguarda la caratterizzazione fluidodinamica di un reattore agitato meccanicamente utilizzato per la produzione di biogas. Lo studio è stato possibile attraverso l’impiego della PIV (Particle Image Velocimetry), tecnica di diagnostica ottica non invasiva adatta a fornire misure quantitative dei campi di velocità delle fasi all’interno del reattore. La caratterizzazione è stata preceduta da una fase di messa a punto della tecnica, in modo da definire principalmente l’influenza dello spessore del fascio laser e dell’intervallo di tempo tra gli impulsi laser sui campi di moto ottenuti. In seguito, il reattore è stato esaminato in due configurazioni: con albero in posizione centrata e con albero in posizione eccentrica. Entrambe le geometrie sono state inoltre analizzate in condizione monofase e solido-liquido. Le prove in monofase con albero centrato hanno permesso di identificare un particolare regime transitorio del fluido nei primi minuti dopo la messa in funzione del sistema di agitazione, caratterizzato da una buona efficienza di miscelazione in tutta la sezione di analisi. In condizioni di regime stazionario, dopo circa 1 ora di agitazione, è stato invece osservato che il fluido nella zona vicino alla parete è essenzialmente stagnante. Sempre con albero centrato, le acquisizioni in condizione bifase hanno permesso di osservare la forte influenza che la presenza di particelle di solido ha sui campi di moto della fase liquida. Per l’assetto con albero in posizione eccentrica, in condizione monofase e regime di moto stazionario, è stata evidenziata una significativa influenza del livello di liquido all’interno del reattore sui campi di moto ottenuti: aumentando il livello scalato rispetto a quello usato nella pratica industriale è stato osservato un miglioramento dell’efficienza di miscelazione grazie al maggior lavoro svolto dal sistema di agitazione. In questa configurazione, inoltre, è stato effettuato un confronto tra i campi di moto indotti da due tipologie di giranti aventi stesso diametro, ma diversa geometria. Passando alla condizione bifase con albero eccentrico, i risultati hanno evidenziato la forte asimmetria del reattore: è stato evidenziato, infatti, come il sistema raggiunga regimi stazionari differenti a seconda delle velocità di rotazione e delle condizioni adottate per il raggiungimento della stabilità. Grazie alle prove su piani orizzontali del reattore in configurazione eccentrica e condizioni bifase, è stato concluso che i sistemi in uso inducano un campo di moto prettamente tangenziale, non ottimizzato però per la sospensione della fase solida necessaria in questa tipologia di processi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Essendo la percentuale di raccolta differenziata un indicatore che preso singolarmente risulta insufficiente a misurare la virtuosità di un Comune nella gestione dei rifiuti, si è elaborato un indicatore multi criteria che amplia l'orizzonte dell'analisi agli altri aspetti inerenti la gestione dei rifiuti. I criteri individuati sono otto: -Percentuale di raccolta differenziata -Produzione pro capite di rifiuti indifferenziati -Produzione pro capite di rifiuti totali -Impatto ambientale del sistema di raccolta e trattamento dei rifiuti -Costi del servizio -Tracciabilità dei rifiuti domestici -Coinvolgimento della popolazione -Comodità per il cittadino. Ad ogni Comune analizzato (il caso di studio è l'Unione Terre di Castelli) viene attribuito un punteggio per ogni criterio, in seguito moltiplicato per il peso attribuito al criterio stesso. I punteggi dati da ciascun criterio sono stati poi normalizzati in una scala da 0 a 1 con l'intervento di figure di esperti di ciascun ambito; i pesi sono stati determinati con la metodologia della Pairwise Comparison (T.Saaty, 1980) dai Sindaci e dagli Amministratori di tutti i Comuni del caso di studio. L'indicatore così costruito è stato poi applicato ai Comuni del caso di studio mostrando risultati, in termini di virtuosità, differenti da quelli prodotti dal solo indicatore di raccolta differenziata, evidenziando così l'importanza di un approccio multi disciplinare al tema dei rifiuti. L'indicatore, mostrando i punteggi ed il margine di miglioramento relativo a ciascun criterio, si è poi rivelato un efficace strumento di supporto alle decisioni per i Comuni nell'indirizzo degli investimenti in materia di gestione dei rifiuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Comprensione della città di Bogotá attraverso lo studio del Piano Maestro di Le Corbusier. Trasposizione del sistema di città lineare al caso concreto della città e nuovo modello di settore come metodo di intervento. Piano urbano per la riqualificazione dell’area industriale di Fontibón e approfondimento architettonico e strutturale del grande edificio cruciforme in prossimità della calle 13. Sviluppo di un nuovo isolato residenziale che sia in grado di aumentare la densità abitativa e favorire la socialità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Attualmente Usme, caratterizzata come visto da un territorio principalmente a bassa densità, è ancora fortemente relazionata con la campagna perché costituita dall’insieme di aree agricole, o di quelli che una volta erano spazi coltivati più prossimi alla città compatta. Questo tipo di paesaggio rurale che caratterizza Usme è caratterizzato come già visto da un tessuto sfrangiato e discretizzato e rappresenta la porzione di territorio dove la città esercita l’impatto ambientale più intenso dovuto sia alla sua immediata vicinanza al contesto urbano che al carattere di scarsa identità che sembra esprimere. Qualunque intervento architettonico in un territorio di margine come quello di Usme dovrebbe confrontarsi con un sistema di relazioni a grande scala, che si rapporti con la geografia stessa del luoghi e con un orientamento e una misurazione visiva e fisica del territorio stesso. Allo stesso modo è necessario che il progetto comprenda anche il suolo stesso delle grande aree attualmente lasciate libere, ovvero che il progetto architettonico si integri con il progetto paesaggistico creando in questo modo nuove relazioni e nuove geometrie nell’assetto territoriale. In questo senso il progetto può dialogare con il territorio e mettere in relazione differenti situazioni morfologiche, sfruttandone le potenzialità. L’obiettivo è quindi quello di non costruire semplici volumi appoggiati sulla terra ma quello di modificare la terra stessa, entrando in relazione con essa in modo profondo. Il progetto così inteso è concepito, e prima ancora letto, secondo strati, i quali possono contaminarsi o possono semplicemente sovrapporsi. L’area di progetto, come già detto, è essenzialmente all’interno di un vuoto presente tra le due parti di città. Il nuovo edificio si conforma come un segno netto nel territorio, un viadotto, un tronco d’albero caduto che protegge il parco dalla città, un elemento primordiale che da una parte si incunea nel terreno e dall’altra si affaccia sulla valle. Vuole essere il segno di un naturale artificio, proponendosi al tempo stesso come simbolo e funzione. Il museo emerge dalla terra, ma sembra anche immergersi in essa. L’architettura del museo crea un nuovo paesaggio morfologicamente radicato al suolo, attraverso uno spazio parzialmente ipogeo che integra il museo all’interno della montagna attraverso la copertura continua con la topografia esistente, sottolineando il profilo della collina.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le lesioni cerebrali possono generare danni permanenti e richiedono trattamenti immediati e a lungo termine. L’ipotermia cerebrale di 1 o 2°C inibisce il rilascio di aminoacidi neuro eccitatori e interrompe la risposta infiammatoria. L'effetto è maggiore se il raffreddamento viene eseguito immediatamente dopo il trauma. Oggi il raffreddamento viene effettuato in ospedale, raramente sul luogo dell’incidente (con ghiaccio). Tale soluzione è ostacolata dall’applicazione dei collari cervicali ed è condizionata dagli effetti a breve termine del ghiaccio. In questo studio è stata effettuata un’analisi di fattibilità di un dispositivo che, alle tecnologie per l’immobilizzazione cervicale, associ l'induzione terapeutica controllata e prolungata di una lieve ipotermia cerebrale (2-3°C), tramite raffreddamento transcutaneo del sangue nelle arterie carotidee. Il lavoro è suddiviso in due fasi: 1) modellizzazione teorica del fenomeno in esame; 2) verifica dei modelli teorici mediante test in vitro. Mediante i modelli numerici, sono state calcolate le temperature e i tempi per produrre un raffreddamento di 3°C. Considerando lo scambio di calore attraverso il collo, i vasi sanguigni e i tessuti cerebrali è stato calcolato un tempo minimo di circa 50 minuti per produrre il ΔT richiesto, con l’applicazione all’esterno del collo di un dispositivo che mantenga la temperatura a 5°C. Per la verifica è stata utilizzata una carotide sintetica ed una in tessuto biologico: queste sono state immerse in un contenitore isolato contenente acqua e connesse ad un simulatore dell’apparato circolatorio. Mantenendo costante la temperatura dell’acqua circolante mediante un termostato, sono stati misurati gli abbassamenti di temperatura nel vaso in funzione di quella esterna applicata. Il raffreddamento dei tessuti è stato realizzato con una cella di Peltier. La verifica dei modelli ha evidenziato un ΔT di -2°C. Il valore è inferiore a quello ipotizzato ma può ritenersi già efficace in ambito clinico e può essere migliorato ottimizzando il sistema di raffreddamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Prima di fornire una formulazione esaustiva dell'onda d'urto, è d'uopo definire il gas come oggetto fisico e le sue principali caratteristiche. Quanto si farà nei paragrafi seguenti quindi, sarà tentare di formalizzare il sistema gassoso dal punto di vista fisico e matematico. Sarà necessario introdurre un modello del sistema (par. 1.1) che ci permetta di lavorare a livello statistico sull'insieme di particelle che lo compongono per caratterizzare le funzioni termodinamiche classiche come medie temporali. Tramite queste considerazioni si stabilirà quali sono le quantità che si conservano nel moto di un fluido e si vedrà che tali leggi di conservazione formano un sistema di 5 equazioni differenziali parziali in 6 incognite. Tramite la linearizzazione di questo sistema si individueranno delle soluzioni chiamate onde sonore che danno un'indicazione sul modo in cui si propagano delle perturbazioni all'interno di un fluido; in particolar modo saranno utili per la determinazione del numero di Mach che rende possibile la distinzione tra due regimi: subsonico e supersonico (par. 1.2). Sarà possibile, a questo punto, indagare il fenomeno dell'onda d'urto (par. 2.1) e, nel dettaglio, due casi particolarmente utili in contesto astrofisico quali: l'onda d'urto per un gas politropico (par. 2.2), un'onda d'urto sferica che avanza verso il suo centro (2.2). Lo scopo di questa trattazione è indagare, o se non altro tentare, quanto avviene in un'esplosione di Supernova (par. 3). Relativamente a questo fenomeno, ne viene data una classificazione sommaria (par. 3.1), mentre particolare attenzione sarà rivolta alle Supernovae di tipo Ia (par. 3.2) che grazie alla loro luminosità standard costituiscono un punto di riferimento nell'Universo visibile.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I calibratori di attività dei radionuclidi sono strumenti fondamentali per la pratica diagnostica e terapeutica in Medicina Nucleare. Il loro ruolo principale è quello di quantificare accuratamente l’attività dei radiofarmaci somministrata ai pazienti, vengono pertanto progettati per avere una accuratezza di misura ottimale per attività relativamente alte. Lo scopo di questo studio è stato quello di determinare il livello di minima attività rivelabile (o Minimum Detectable Activity, MDA) di diversi modelli di calibratori di attività, al fine di estendere l’utilizzo di questi strumenti ad altre applicazioni. E’ stata quindi eseguita un’estesa campagna di misure sperimentali sui principali modelli di calibratori commercialmente distribuiti. Le modalità di misura della MDA sviluppate sono basate su un adattamento delle tecniche di riferimento per altri tipi di strumenti; tali tecniche, non solo rispondono all’obiettivo immediato, ma hanno permesso di dimostrare che è possibile una determinazione generalizzata della MDA di questa classe di apparecchiature. I risultati che verranno presentati sono stati ottenuti con una metodologia indipendente dal tipo di apparecchiatura e sono basati su misurazioni che possono essere replicate in ogni laboratorio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il rivelatore di luminosità LUCID di ATLAS, in LHC, deve cambiare fotomoltiplicatori durante il Long Shutdown I. Due modelli candidati per la sostituzione sono stati irradiati con raggi gamma per studiarne la resistenza alla radiazione. In questa tesi si riportano i risultati delle misure di dark current, guadagno relativo e risposta spettrale prima e dopo l'irraggiamento. L'unica differenza di rilievo dopo l'irraggiamento risulta essere l'aumento di dark current. All'interno dell'incertezza di misura, non ci sono variazioni negli altri parametri e non ci sono differenze sostanziali fra i due modelli.