73 resultados para Intensité


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tecnica olografica venne introdotta nel 1948 da Denis Gabor. Creò la parola holography combinando tra loro le parole greche holos, che vuol dire tutto, e graphein, che invece vuol dire scrivere. Con il termine olografia si intende le registrazione e la ricostruzione dell'ampiezza e della fase di un'onda. La prima si ricava dalle informazioni contenute nell'intensità delle frange luminose che costituiscono l'immagine di diffrazione, mentre la seconda si ottiene dalla distanza delle stesse. L'immagine di diffrazione non è altro che il prodotto dell'interferenza tra l'onda oggetto e l'onda di riferimento, che viene registrato solitamente su una lastra olografica o una pellicola, che si presenta come un susseguirsi di frange chiare e scure molto sottili, tanto da non essere visibili a occhio nudo a causa delle alte frequenze spaziali. Questa immagine riproduce l'oggetto se illuminato con un fascio luminoso simile all'onda di riferimento. Negli anni a seguire si sviluppò molto velocemente la tecnologia alla base dei computer che permise di trasferire sia il processo di registrazione che quello di ricostruzione su tali dispositivi. Un passo avanti venne fatto con l’introduzione dei Charged Coupled Devices (CCD) nella registrazione diretta di ologrammi, ad opera di Schnars e Juptner, con i quali venne eliminato definitivamente ogni tipo di passaggio fotografico intermedio. L'intero procedimento numerico di registrazione e ricostruzione venne riconosciuto in seguito come Olografia Digitale, e i suoi vantaggi rispetto all'olografia ottica erano ben chiari e ne permisero un largo impiego: dall'interferometria alla shearografia alla fotografia speckle. Questa tesi ha l'obiettivo di mostrare un'applicazione dell'olografia ottica e di infine tentare un primo approccio all'olografia digitale per mezzo di acquisizioni di figure di diffrazione attraverso un CCD e di simulazioni di generazione e ricostruzione di ologrammi su dispositivi elettronici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro si è tentato di fornire un metodo per la calibrazione di modelli numerici in analisi dinamiche spettrali. Attraverso una serie di analisi time history non lineari sono stati ottenuti gli spostamenti relativi orizzontali che nascono, in corrispondenza della connessione trave-pilastro di tipo attritivo, quando una struttura prefabbricata monopiano viene investita dalla componente orizzontale e verticale del sisma. Con un procedimento iterativo su varie analisi spettrali sono state calibrate delle rigidezze equivalenti che hanno permesso di ottenere, con buona approssimazione, gli stessi risultati delle analisi time history. Tali rigidezze sono state poi restituite in forma grafica. Per riprodurre gli spostamenti relativi orizzontali con un’analisi dinamica spettrale è quindi possibile collegare le travi ai pilastri con degli elementi elastici aventi rigidezza Kcoll. I valori di rigidezza restituiti da questo studio valgono per un’ampia gamma di prefabbricati monopiano (periodo proprio 0.20s < T < 2.00s) e tre differenti livelli di intensità sismica; inoltre è stata data la possibilità di considerare la plasticizzazione alla base dei pilastri e di scegliere fra due diverse posizioni nei confronti della rottura di faglia (Near Fault System o Far Fault System). La diminuzione di forza d’attrito risultante (a seguito della variazione dell’accelerazione verticale indotta dal sisma) è stata presa in considerazione utilizzando un modello in cui fra trave e pilastro è posto un isolatore a pendolo inverso (opportunamente calibrato per funzionare come semplice appoggio ad attrito). Con i modelli lineari equivalenti si riescono ad ottenere buoni risultati in tempi relativamente ridotti: è possibile così compiere delle valutazioni approssimate sulla perdita di appoggio e sulle priorità d’intervento in una determinata zona sismica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro riguarda lo studio delle colate detritiche, fenomeno che rappresenta un importante argomento di studio sia per la sua caratterizzazione e analisi a livello scientifico che per attuare una corretta pianificazione e gestione del territorio. Nell’ambiente alpino, ed in particolare nell’area Dolomitica, le colate detritiche rappresentano un fenomeno complesso, le cui caratteristiche di velocità ed intensità, congiuntamente alla difficile previsione temporale, determinano l’alto grado di pericolosità che espone a rischi elevati infrastrutture e persone. Il monitoraggio delle colate detritiche assume quindi una notevole importanza nella determinazione delle condizioni idrologiche e morfologiche che inducono la generazione e la propagazione di tali fenomeni. Il presente lavoro ha come obiettivo la caratterizzazione della risposta idrologica nella zona d’innesco di un canale detritico, localizzato nella Conca Ampezzana. La caratterizzazione è stata definita attraverso l’analisi dei dati ottenuti dal monitoraggio eseguito mediante una stazione di rilevamento appositamente progettata e realizzata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La VMAT (Volumetric Modulated Arc Therapy) è una delle più recenti tecniche radioterapiche, in cui, oltre alla modulazione geometrica della fluenza del campo di radiazione come avviene nell’IMRT (Intensity Modulated Radiotherapy), sono variati durante il trattamento anche la velocità del gantry e il rateo di dose. La radiazione è erogata senza interruzioni lungo uno o più archi continui della testata dell’acceleratore, così da ridurre i tempi di trattamento in modo sostanziale rispetto all’IMRT. Nelle tecniche ad intensità modulata, ed in particolare nella VMAT, il lettino porta paziente modifica la distribuzione di dose durante gli irraggiamenti posteriori, riducendo quella al target e aumentando quella superficiale. Il presente lavoro di tesi, che ha proprio l’obiettivo di valutare questi aspetti dosimetrici in un’ottica pre-clinica, è stato svolto presso il Servizio di Fisica Sanitaria del Policlinico S.Orsola–Malpighi, Azienda Ospedaliero-Universitaria di Bologna. Le misure sono state effettuate presso le U.O. Radioterapia-Morganti e Radioterapia-Frezza f.f. della medesima Azienda Sanitaria, al fine di caratterizzare dal punto di vista dosimetrico il lettino di trattamento iBEAM evo dell’acceleratore lineare Synergy Elekta. L’attenuazione misurata in caso di incidenza perpendicolare del fascio sul lettino, in buon accordo con gli articoli di riferimento, è stata: (2.81±0.06)% per fotoni di energia di 6 MV, (1.81±0.10)% a 10 MV e (1.38±0.05)% a 15 MV. L’attenuazione massima misurata con fotoni di energia di 6 MV si è avvicinata al 4% negli irraggiamenti obliqui. Infine, è stato analizzato il confronto con statistica gamma fra distribuzione di dose pianificata e misurata prima e dopo aver modellizzato le caratteristiche del lettino nel software per l’elaborazione del piano di trattamento. Solo dopo tale operazione, i due casi VMAT analizzati (tumore dell’orofaringe e prostatico) superano i criteri più restrittivi e affidabili utilizzati nella pratica clinica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato di tesi tratta la valutazione di differenti sistemi di controventatura, sia dal punto di vista di risposta ad un evento sismico che in termini di perdite economiche legate al danneggiamento delle varie componenti. Tra di esse è presentata anche una nuova tipologia strutturale, ideata per ridurre il comportamento “soft-story” e “weak-story”, tipico delle strutture controventate convenzionali. In questo caso, è integrata alla struttura una trave reticolare metallica, che funge da supporto verticale ed è progettata per rimanere in campo elastico. Tale sostegno garantisce una distribuzione più uniforme degli sforzi lungo l’intera altezza della struttura, anziché concentrarli in un unico piano. La ricerca tratta lo studio della fattibilità economica di questa nuova tecnologia, rispetto alle precedenti soluzioni di controventatura adottate, confrontando le perdite economiche delle diverse soluzioni, applicate ad un unico prototipo di edificio collocato a Berkeley, CA. L’analisi sismica tiene in considerazione di tre diversi livelli di intensità, riferiti a un periodo di ritorno di 50 anni, corrispondente alla vita dell’edificio: questi sono caratterizzati dalla probabilità di ricorrenza, rispettivamente del 2%, 10% e 50% ogni 50 anni. L’ambito di ricerca presentato è estremamente innovativo e di primario interesse per lo sviluppo di uno studio sulla resilienza, che può essere adattato anche in un modello di urbanizzazione futura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di tesi riguarda lo studio dettagliato di un ciclone di tipo tropicale (tropical like cyclone, TLC) verificatosi nel Canale di Sicilia nel novembre 2014, realizzato attraverso un'analisi modellistica effettuata con i modelli BOLAM e MOLOCH (sviluppati presso il CNR-ISAC di Bologna) e il confronto con osservazioni. Nel primo capitolo è fornita una descrizione generale dei cicloni tropicali e dei TLC, indicando come la formazione di questi ultimi sia spesso il risultato dell'evoluzione di cicloni extratropicali baroclini nel Mediterraneo; sono identificate le aree geografiche con i periodi dell'anno maggiormente soggetti all'influenza di questi fenomeni, riportando un elenco dei principali TLC verificatisi nel Mediterraneo negli utlimi tre decenni e lo stato dell'arte sullo studio di questi eventi. Nel secondo capitolo sono descritte le modalità di implementazione delle simulazioni effettuate per il caso di studio e presentati i principali prodotti dell'analisi modellistica e osservazioni da satellite. Il terzo capitolo si apre con la descrizione della situazione sinottica e l'analisi osservativa con immagini Meteosat e rilevazioni radar che hanno permesso di ricostruire la traiettoria osservata del TLC. In seguito, viene dapprima fornito l'elenco completo delle simulazioni numeriche, quindi sono presentati alcuni dei più importanti risultati ottenuti, dai quali emerge che la previsione della traiettoria e intensità del TLC differisce notevolmente dalle osservazioni. Tenendo conto della bassa predicibilità che ha caratterizzato l'evento, nel quarto capitolo è descritto il metodo usato per ricostruire in maniera ottimale la traiettoria, utilizzando spezzoni da varie simulazioni, che ha permesso un confronto più realistico con i dati osservati e un'analisi dei processi fisici. Nel quinto capitolo sono riportati i principali risultati di alcuni test mirati a valutare l'impatto di aspetti legati all'implementazione delle simulazioni e ad altre forzanti fisiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di questa tesi è focalizzato sulla valutazione della sensibilità delle microonde rispetto a differenti idrometeore per le frequenze a 89 GHz e 150 GHz e nella banda di assorbimento del vapor d'acqua a 183.31 GHz. Il metodo di indagine consiste nell'utilizzo del modello di trasferimento radiativo RTTOV (Eyre, 1991) per simulare radianze dei canali dei sensori satellitari nelle microonde Advanced Microwave Sounding Unit-B (AMSU-B) e Microwave Humidity Sounder (MHS). Le simulazioni basate sul modello RTTOV si sono focalizzate su tre dataset indipendenti, forniti da ECMWF. Il primo passo tiene conto di una selezione di categorie dei profili atmosferici basato su una distinzione della fase delle idrometeore, LWP, IWP e WVP, con sottoclassi terra e oceano. La distinzione in diverse categorie permette di valutare la sensibilità di ciascuna frequenza utilizzata nelle simulazioni al variare del contenuto di acqua e ghiaccio. Un secondo approccio è usato per valutare la risposta di ciascuna frequenza nei casi di nevicate sulla terraferma. Questa indagine ha permesso lo sviluppo di un nuovo algoritmo prototipale per la stima dell'intensità di precipitazione nevosa basato su una serie di test a soglia e una equazione di combinazione lineare multipla che sfrutta una combinazione dei canali più sensibili alla snowfall: 150, 186 e 190 GHz. Una prima verifica su casi di studio pre-selezionati di snowstorm sembra fornire risultati promettenti. Infine è stato realizzato uno studio di sensibilità dell’algoritmo 183-WSL (Laviola and Levizzani, 2011) utilizzando le simulazioni di RTTOV con precipitazione/non precipitazione come predittori discreti e con le intensità di precipitazione come predittori continui. Le simulazioni RTTOV rivelano una sovrastima delle radianze in presenza di profili di pioggia e ciò potrebbe essere dovuto alle approssimazioni e parametrizzazioni adottate nel modello RTTOV-SCATT usato per la risoluzione dello scattering in presenza di precipitazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'ambito della meccanica quantistica è stato sviluppato uno strumento di calcolo al fine di studiare sistemi per i quali è troppo difficile risolvere il problema di Schrödinger. Esso si basa sull'idea di considerare un sistema semplice, totalmente risolvibile, e perturbarlo fino ad ottenere un'Hamiltoniana simile a quella che si vuole studiare. In questo modo le soluzioni del sistema più complicato sono le soluzioni note del problema semplice corrette da sviluppi in serie della perturbazione. Nonostante il grande successo della Teoria perturbativa, essendo una tecnica di approssimazione, presenta delle limitazioni e non può essere usata in ogni circostanza. In questo lavoro di tesi è stata valutata l'efficacia della Teoria perturbativa ricercando la compatibilità tra le soluzioni trovate col metodo analitico e quelle esatte ottenute numericamente. A tale scopo è stato usato il sistema fisico dell'oscillatore anarmonico, ovvero un oscillatore armonico standard sottoposto ad una perturbazione quartica. Per l'analisi numerica invece è stato utilizzato il programma Wolfram Mathematica. La trattazione seguita ha dimostrato che la Teoria perturbativa funziona molto bene in condizioni di bassa energia e di piccole perturbazioni. Nel momento in cui il livello energetico aumenta e l'intensità della perturbazione diventa significativa, i risultati analitici cominciano a divergere da quelli ottenuti numericamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo breve elaborato si vuole spiegare l’importanza dello studio di un corpo celeste mediante l’osservazione del suo spettro ovvero un grafico del flusso emesso in funzione della frequenza o della lunghezza d’onda nel quale sono presenti righe spettrali, formate dall’interazione tra materia e radiazione, a causa dell’assorbimento od emissione di fotoni a seguito di transizioni elettroniche, ma anche vibrazionali e rotazionali per le molecole. In particolare, dall’analisi delle righe spettrali si traggono diverse informazioni sull’oggetto, quali, la composizione e l’abbondanza delle specie chimiche che lo compongono in base al tipo di righe presenti e alla loro intensità, si deduce la temperatura e la pressione dell’oggetto studiato dalla larghezza di queste, ancora, informazioni sul moto relativo e la distanza dall’osservatore misurando lo shift delle righe; infine densità e campi magnetici del mezzo interstellare. Per molti oggetti astronomici, troppo distanti, lo studio dello spettro è l’unico modo per trarre conclusioni sulla loro natura. Per questo, nel primo capitolo si ricava l’equazione del trasporto radiativo, soffermandosi sui processi che regolano l’assorbimento e l’emissione di energia. Il secondo capitolo invece, tratta il caso particolare delle atmosfere stellari, nel quale si ricava, con una serie di approssimazioni fatte sull’equazione del trasporto radiativo, quale parte osserviamo di una stella e dove si formano le righe spettrali. Successivamente ci si è concentrati sui meccanismi che portano alla formazione delle righe spettrali, analizzando sia le transizioni radiative con i coefficienti di Einstein, sia quelle collisionali, e distinguendo tra transizioni permesse o proibite con le regole di selezione. Infine si sono esaminate le informazioni che si possono ricavare dalle righe spettrali, approfondendo sui fenomeni di shift e modifica di queste, descrivendo più nel dettaglio la riga a 21 cm dell’atomo di idrogeno, fondamentale in astrofisica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Viaggiare da un punto all'altro dell'universo muovendosi in uno spazio-tempo piatto richiede tempi talmente colossali da risultare impossibile per la nostra razza; pertanto, un viaggio interstellare potrebbe essere realizzato solo per mezzo di topologie relativistiche in grado di accorciare la distanza fra i punti dell'universo. Dopo aver dato una serie di motivazioni per cui i buchi neri ed il ponte di Einstein-Rosen non sono adatti ad essere impiegati viene introdotta una particolare classe di soluzioni, presentata per la prima volta da Michael S. Morris e Kip S. Thorne, delle equazioni di Einstein: essa descrive wormholes i quali, almeno in linea di principio, risultano attraversabili dagli esseri umani in quanto non presentano un orizzonte degli eventi sulla gola. Quest'ultima proprietà, insieme alle equazioni di campo di Einstein, pone dei vincoli piuttosto estremi sul tipo di materiale in grado di dar luogo alla curvatura spazio-temporale del wormhole: nella gola del wormhole la materia deve possedere una tensione radiale di enorme intensità, dell'ordine di quella presente nel centro delle stelle di neutroni più massive per gole con un raggio di appena qualche kilometro. Inoltre, questa tensione dev'essere maggiore della densità di energia del materiale: ad oggi non si conosce alcun materiale con quest'ultima proprietà, la quale viola entrambe le "condizioni sull'energia" alla base di teoremi molto importanti e verificati della relatività generale. L'esistenza di questa materia non può essere esclusa a priori, visto che non esiste prova sperimentale o matematica della sua irrealisticità fisica, ma non essendo mai stata osservata è importante assicurarsi di impiegarne il meno possibile nel wormhole: questo ci porterà a mostrare che i wormholes in cui il materiale esotico presenta una densità di energia negativa per gli osservatori statici sono i più adatti al viaggio interstellare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi affronta diverse tematiche riguardanti la valutazione della vulnerabilità sismica del centro storico di Sansepolcro, con particolare riferimento all’analisi di fonti storiche perlopiù inedite e a indagini morfologiche sui tessuti edilizi. La zona della Valtiberina toscana è stata interessata da numerosi eventi sismici che spesso hanno raggiunto intensità elevate e che hanno provocato molti danni. Il susseguirsi di tali eventi ha fatto si che si sviluppasse una certa esperienza nell’affrontare le conseguenze dell’evento sismico. Ne sono testimonianza i documenti conservati presso l’Archivio Storico Comunale di Sansepolcro che riguardano gli eventi sismici del 1781 e del1789. Dalla corrispondenza tra le autorità di Firenze e di Sansepolcro è stato possibile ricostruire la cronologia delle azioni principali compiute nella gestione dell’emergenza. Tra le lavorazioni eseguite, molti furono i presidi antisismici utilizzati. Nell’ambito dell’analisi delle fonti di archivio si sono analizzati anche documenti più recenti, in particolare gli elaborati del Genio Civile conservati presso l’Archivio di Stato di Arezzo riguardanti gli eventi sismici del 1917 e 1919. Parallelamente alle ricerche archivistiche si è cercato di stabilire una correlazione tra la morfologia dei tessuti e la vulnerabilità sismica degli aggregati edilizi in relazione al loro processo evolutivo e al loro periodo storico di formazione. Una volta stabilita, per ogni aggregato, la fase di impianto, ci si è avvalsi del metodo di calcolo speditivo dell’indice di vulnerabilità in pianta (TPS). Lo scopo è quello di elaborare delle considerazioni generali per singoli aggregati campione, per poi estenderle agli aggregati omogenei. A conclusione del lavoro si è preso in considerazione il caso del Palazzo Aloigi-Luzzi e se ne sono calcolati gli indici analitici globali di vulnerabilità sismica, per avere un riscontro concreto di un singolo caso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il sistema muscolare scheletrico è l'insieme di organi adibiti al movimento, il quale è permesso dalla contrazione muscolare. L’elettromiografia è un esame di tipo funzionale che analizza il funzionamento di uno o più muscoli attraverso i potenziali elettrici che si sviluppano in esso durante la contrazione. Patologie del sistema muscolare o del sistema nervoso possono compromettere il comportamento fisiologico che il corpo richiede e l’elettromiografia può aiutare nella diagnosi. Oltre al campo medico, l’elettromiografia può dimostrarsi utile in ambito sportivo, valutando come il sistema muscolare evolve nella sua risposta quando sottoposto a cicli di lavoro o di recupero. Obiettivo dell’elaborato è descrivere e comprendere il principio di funzionamento dell’indagine elettromiografica, analizzando lo strumento elettromiografo e il segnale elettromiografico, e come può essere applicata in ambito sportivo. È fornita una breve descrizione del sistema muscolare, dal punto di vista strutturale e meccanico, e del sistema nervoso, dal punto di vista elettrico. Tali principi permettono di comprendere come la forza muscolare viene prodotta e come il segnale mioelettrico si propaga. Dell’elettromiografo sono presentati gli elementi utilizzati per la registrazione e l’elaborazione del segnale. Per quanto riguarda il segnale, invece, vengono esposti i metodi di acquisizione, interpretazione ed elaborazione digitale dello stesso. In un’ultima parte si confrontano alcune specifiche tecniche di elettromiografi commerciali in funzione della specifica applicazione. È infine affrontato l’utilizzo dell’elettromiografia in ambito sportivo, esponendo alcuni articoli riguardanti il nuoto e il rugby. Nel caso del nuoto è esaminato come alcuni muscoli reagiscono lavorando ad intensità diverse e tra atleti di livello agonistico differente. Invece, nel caso del rugby viene fatto un confronto su come alcuni muscoli si attivano in un soggetto sano e in un soggetto patologico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo della tesi è analizzare gli aspetti principali del progetto People Mover di Bologna, toccando gli aspetti costruttivi, ambientali e trasportistici, esaminando lo studio della domanda di trasporto e svolgendo infine un analisi swot dei punti di forza o debolezza. Il People Mover di Bologna è un sistema innovativo di trasporto pubblico che collegherà in 7 minuti la stazione ferroviaria all’aeroporto Marconi, effettuando una sola fermata intermedia presso il Lazzaretto, un’area destinata ad ospitare un nuovo insediamento abitativo nonché nuovi spazi per l’Università di Bologna. Il People Mover è un sistema di trasporto pubblico che offre: certezza sui tempi di percorrenza, mobilità silenziosa, zero emissioni (trazione elettrica), sicurezza di esercizio, costi ridotti rispetto ad una metropolitana. Dopo aver valutato in sede di analisi swot, i pro e contro di tale opera è giusto fare un confronto tra il People Mover e il Servizio Ferroviario Metropolitano. In passato il confronto fra i sostenitori del People mover e del Sistema ferroviario metropolitano è stato in parte ideologico, in parte politico e solo limitatamente tecnico. La tesi analizza le differenze tecniche dei due sistemi di trasporto. Voler far convivere sulla stessa infrastruttura due utenze molto diverse (quella aeroportuale e quella pendolare) è difficile e porterebbe alla non soddisfazione di entrambe. Se l’utenza aeroportuale chiede rapidità e spazio per i bagagli, i pendolari chiedono maggiori posti a sedere e maggiore intensità del servizio. In conclusione lo scopo di questa tesi non è porre dei dubbi sul progetto dell’opera stessa, peraltro già in fase di cantierizzazione, ma fornire un analisi più completa sul progetto.