999 resultados para Campo magnetico,Via Lattea,Metodi di rilevazione
Resumo:
Uno studio della ferrovia Porrettana attraverso la sua costruzione e le sue difficoltà tecniche , in particolare nel tratto Pracchia-Pistoia e con un approfondimento sulle gallerie e sui metodi di costruzioni di esse.
Resumo:
Del granulato di ossido di stronzio (anche nella formula carbonato) è stato testato come nuovo possibile materiale di utilizzo per la cattura ad alta temperatura di diossido di carbonio da effluenti gassosi di scarto. Sono stati condotti diversi esperimenti con strumentazioni già preposte, quali test termogravimetrici, microscopia elettronica (SEM) e Xray (XRD). Mentre per la sperimentazione in quantità più rilevanti di materiale è stato costruito un impianto a letto fisso ex novo. Le prove TG hanno evidenziato una capacità media di sorbente parti a circa il 5% in massa di ossido, a temperature tra i 1100°C e i 1200°C, in situazione di regime (dopo numerosi cicli di carb/calc), con una buona conservazione nel tempo delle proprietà adsorbitive, mentre per le prove a letto fisso, si è registrato un calo di valori variabile tra il 3 e il 4%, con un netto miglioramento nel caso di calcinazione in vapore surriscaldato fino al 5%. Il trattamento in vapore ha sortito l’importante effetto di calcinazione del diossido di carbonio dal sorbente, quindi facilmente separabile dal flusso in uscita, misurato tramite cattura in una soluzione di idrossido di bario. Importanti fenomeni di sintering e densificazione hanno portato ad occludere completamente la camera di reazione sviluppando notevoli sovrappressioni interne. Tali fenomeni sono stati approfonditi tramite analisi SEM e XRD. Si è constatato un aumento notevole della grandezza dei granuli in caso di trattamento in vapore con la formazione di legami stabili e con conservazione della porosità. Nel caso di trattamento senza vapore surriscaldato i granuli hanno sinterizzato tramite formazione di legami, ma sempre con conservazione della macroporosità. Il lavoro di tesi è stato inquadrato nel contesto tecnologico al riguardo le tecniche CCS esistenti ed in progetto, con un attento studio bibliografico riguardo lo stato dell’arte, impianti esistenti, costi, metodi di cattura usati, metodologie di trasporto dei gas, metodologie di stoccaggio esistenti e in progetto. Si sono considerati alcuni aspetti economici per sviluppare un modello previsionale di spesa per una possibile applicazione di cattura per un impianto di produzione energetica. Con la progettazione e dimensionamento di un sistema integrato di adsorbimento tramite l’accoppiamento di 2 reattori dedicati ai cicli di carbonatazione e calcinazione del materiale sorbente. Infine si sono considerati gli aspetti salienti dello stoccaggio del diossido di carbonio in reservoir tramite le tecniche di EOR e EGR (Enhanced Oil/Gas Recovery) utilizzando la stessa CO2 come fluido spiazzante degli idrocarburi in posto. Concludendo il lavoro di tesi e di sperimentazione ha contribuito in modo tangibile allo scopo prefissato, andando a caratterizzare un nuovo materiale per la cattura di diossido di carbonio da effluenti gassosi ad alta temperatura, ed andando a verificare un’importante fenomeno rigenerativo non previsto delle capacità sorbitive dei materiali sottoposti a test.
Resumo:
Questo elaborato presenta i principali contenuti della fluidodinamica. Data la vastità dell'argomento, verranno mostrati i tratti essenziali, senza addentrarsi nei dettagli. Il capitolo iniziale introduce il concetto di fluido e i principali metodi di studio. Segue il corpo centrale dell'elaborato, in cui vengono presentate le equazioni fondamentali della dinamica dei fluidi. Successivamente due brevi capitoli si concentrano su una particolare forma dell'equazione del moto e sul tema della vorticità. L'ultimo capitolo tratta brevemente del collasso gravitazionale, una fra le innumerevoli applicazioni della teoria dei fluidi al campo dell'astrofisica. Vettori e tensori verranno rappresentati in coordinate cartesiane e, dove necessario, saranno richiamate in nota le identità utilizzate nei calcoli.
Resumo:
Il presente elaborato ha come obiettivo l’analisi dei discorsi di ringraziamento pronunciati nelle cerimonie dei premi Oscar dal 1990 al 2015 da attori e attrici, protagonisti e non protagonisti, premiati con la statuetta dorata per le loro performance recitative. L’elaborato si articola in tre capitoli: nel primo, si delinea la storia dei premi Oscar, considerati la cerimonia di premiazione cinematografica per antonomasia, con particolare attenzione ai metodi di selezione di premiati e vincitori da parte dell’Academy of Motion Pictures Arts and Sciences. Ci si concentra anche sul significato, letterale e simbolico, dei discorsi di ringraziamento, e sulla rilevanza che essi hanno all’interno della cerimonia. Nel secondo capitolo, si analizzano i discorsi di ringraziamento dei vincitori da un punto di vista linguistico, con particolare attenzione a prosodia, prossemica, retorica e deissi. Nel terzo e ultimo capitolo, infine, l’analisi assume toni più prettamente culturali, focalizzando l’attenzione sugli aspetti pragmatici e contenutistici dei discorsi, nonché nel tentativo di confrontare gli atteggiamenti delle due categorie nazionali più premiate agli Oscar: gli americani e i britannici.
Resumo:
Molti metodi di compressione lossless si basano sulle idee che nel 1977 i ricercatori israeliani Abraham Lempel e Jacob Ziv hanno presentato nell’articolo “A universal Algorithm for sequential Data Compression”. In questa tesi viene descritto il metodo di fattorizzazione LZ77, illustrato appunto da Lempel e Ziv, e vengono esposte le strutture dati fondamentali per la sua realizzazione. Sono inoltre descritti due algoritmi CPS1 e CPS2 che realizzano LZ77. Infine, sfruttando i dati raccolti sperimentalmente da Al-Haffedh et al. in “A Comparison of Index-Based Lempel-Ziv LZ77 Factorization Algorithms” [2012], gli algoritmi descritti vengono confrontati in termini di spazio e tempo.
Resumo:
È ben noto che non è possibile definire un embedding dello spazio proiettivo P^2(R) in R^3. Werner Boy nel 1901 provò per via teorica l’esistenza di un’immersione di P^2 in R^3: l’immagine di tale immersione è nota come superficie di Boy. Successivamente tale immersione venne fornita esplicitamente e si dimostrò che la superficie di Boy poteva essere ottenuta deformando la superficie romana di Steiner. Quest’ultima è una rappresentazione di P^2(R) in R^3 che non è tuttavia un’immersione, per la presenza di punti singolari detti pinch points.
Resumo:
La Digital Volume Correlation (DVC) è una tecnica di misura a tutto campo, non invasiva, che permette di misurare spostamenti e deformazioni all’interno della struttura ossea in esame. Mediante la comparazione d’immagini con provino scarico e con provino carico, ottenute attraverso sistemi di tomografia computerizzata, si può ottenere la mappa degli spostamenti per ogni direzione e la mappa di deformazione per ogni componente di deformazione. L’obiettivo di questo lavoro di tesi è la validazione della DVC, attraverso la determinazione dell’errore sistematico (accuratezza) e dell’errore casuale (precisione), in modo da poter valutare il livello di affidabilità della strumentazione. La valutazione si effettua su provini di vertebre di maiale, aumentate e non, sia a livello d’organo, sia a livello di tessuto. The Digital Volume Correlation (DVC) is a full field and contact less measurement technique that allowed estimating displacement and strain inside bone specimen. Images of the unloaded and loaded specimen were obtained from micro-CT and compared in order to obtain the displacement map and, differentiating, the strain map. The aim of this work is the validation of the approach, estimating the lack of accuracy (systematic error) and the lack of precision (random error) on different kinds of porcine vertebra, augmented and not, analysing the specimen on tissue level and on organ level.
Resumo:
L’introduzione della tomografia computerizzata nelle applicazioni oncologiche è stata rivoluzionaria per la diagnostica delle immagini di molti organi e apparati, superando i limiti della radiologia convenzionale. Questa tecnica rappresenta, infatti, un efficace strumento nella diagnosi e caratterizzazione di numerosi tumori, in quanto questo tipo di applicazione perfusionale amalgama informazioni di natura morfologica, tipiche della TC tradizionale, con studi funzionali sui tessuti in esame. Tuttavia, diversi problemi, tra cui la mancanza di un protocollo standard sia durante la fase di acquisizione dei dati, sia durante la fase di elaborazione dei dati, costituiscono un ostacolo per la trasposizione in clinica della TCp. In questo lavoro di Tesi si è trattato principalmente della modalità di analisi dei dati: ad oggi, infatti, non è ancora stato formulato un protocollo che stabilisca in modo univoco una tecnica di analisi delle mappe perfusionali risultanti dall’elaborazione delle immagini TCp. In particolare, si è tentato di affiancare ai classici metodi di analisi di immagini noti in letteratura un ulteriore tecnica che si basa sull’analisi voxel-by-voxel della regione d’interesse su più slice e non solo su quella di riferimento. Questo studio è stato fortemente motivato dall’elevato grado di eterogeneità che caratterizza molti tessuti neoplastici. A tal proposito, l’elaborato mira ad analizzare in modo qualitativo le mappe perfusionali di slice adiacenti a quella di riferimento e a verificare se queste possano restituire informazioni aggiuntive che risultino indispensabili ai fini della formulazione di una corretta diagnosi e scelta del piano terapeutico da applicare al paziente.
Resumo:
Nella regione del TIR, le transizioni spettrali vibro-rotazionali della CO2 sono sfruttate per ricavare la distribuzione di P e T negli esperimenti spaziali. Oltre all’importanza di questi due parametri, la loro conoscenza è necessaria per ricavare la distribuzione di qualsiasi molecola dalle sue transizioni spettrali. Per ricavare P e T si assume di conoscere il VMR della CO2. L’accuratezza con cui si ricava la distribuzione della CO2 insieme a quelle di P e T non è sufficiente. Inoltre, il VMR della CO2 aumenta nel corso degli anni. Per questo, in questa tesi si propone una nuova strategia per misurare la CO2 usando uno strumento satellitare a scansione del lembo. L’idea è quella di sfruttare le transizioni rotazionali pure dell’O2 nella regione del FIR per ricavare P e T. Poiché queste transizioni traggono origine da un momento di dipolo magnetico la loro forza di riga è molto bassa. Tuttavia, grazie alla grande abbondanza dell’O2 in atmosfera e alla lunghezza dei cammini ottici, queste transizioni sono tra le più intense nello spettro atmosferico del FIR. Il satellite considerato è posto su un’orbita quasi polare e lo strumento osserva l’emissione del lembo atmosferico in direzione opposta a quella di volo. Lo strumento ipotizzato è uno spettrometro a trasformata di Fourier con due porte di output ospitanti un detector per la regione del FIR e uno per quella del TIR. La risoluzione spettrale è di 0.004 cm-1. Mentre il NESR è di 5 nW. Il campionamento geometrico verticale dell’atmosfera è di 3 Km mentre quello orizzontale è di circa 100 Km. Usando la teoria dell’optimal estimation sono stati selezionati due set di intervalli spettrali da analizzare, uno per la regione del FIR e l’altro per la regione del TIR. Con queste ipotesi sono stati effettuati test di retrieval su osservati simulati per valutare le performance del sistema ipotizzato. Si è dimostrato che le transizioni della CO2 nella regione del TIR non sono sufficienti per ricavare P e T insieme al proprio VMR con precisione soddisfacente e che l’uso dell’informazione derivante dal FIR fa aumentare la qualità del retrieval. Le performance dell’esperimento permettono di ricavare il VMR della CO2 con una precisione di circa 1 ppm tra 10 Km e 60 Km con una risoluzione verticale di 3 Km e una orizzontale di circa 2.5° di latitudine. Si è quindi dimostrato la validità della strategia proposta in questo studio.
Resumo:
Un ambito di largo interesse nel campo dell’elettronica, è quello delle misure di corrente a larga banda, in cui la richiesta per sistemi a basso costo è aumentata sensibilmente nel corso del tempo. La causa di questo interessamento è dovuto al più frequente utilizzo di sistemi switched power ad alta frequenza, che necessitano di sensori di correnti isolati e ad alte prestazioni. L’intero lavoro prende in considerazione un sensore di nuova generazione per le misure di corrente, capace di raggiungere prestazioni oltre lo stato dell’arte. L’elaborato presentato vede, quindi, come obiettivo la creazione di un setup stabile per effettuare misure sui chip prodotti. Partendo dallo studio di fattibilità, della componentistica necessaria e dei compromessi per mantenere i costi, si giunge ad una soluzione flessibile e adatta alle misurazioni richieste. L’elaborato partirà con una introduzione sugli effetti fisici e la descrizione del componente fondamentale, passando a test funzionali effettuati su setup provvisori atti a ottenere informazioni basilari per la prosecuzione del lavoro. Infine verranno concepite e realizzate due schede a circuiti stampati per rispondere alle esigenze di progetto.
Resumo:
In quest’elaborato verranno trattate le caratteristiche fisiche, chimiche e morfologiche dei pianeti che compongono il Sistema Solare, escludendo però la Terra, in quanto lo studio del globo terrestre, seppur interessante, è argomento di geologia; per cui si è deciso di non descriverne le proprietà, anche se verrà usata la sua massa e il suo raggio come unità di riferimento per tutti i pianeti. Non verranno trattate questioni dinamiche come il problema di Keplero a piu` corpi e le risonanze orbitali, in quanto quest’argomento è già presente nell’elenco titoli degli elaborati delle laure triennali di Astronomia, per cui si esulerebbe dallo scopo di quest’elaborato; ci si limiterà dunque, soltanto ad accennare alcune questioni solo dove necessario. L’elaborato è suddiviso in varie sezioni: nella prima si farà un breve inventario di ciò che comprende il Sistema Solare e alle fasi della sua formazione che lo hanno portato alla sua attuale configurazione, nella seconda si analizzeranno le proprietà che definiscono i pianeti da un punto di vista fisico e le condizioni per cui assumono determinate caratteristiche, quali la forma, la temperatura di equilibrio, la presenza o meno di atmosfere e magnetosfere. Successivamente si passerà ad analizzare sommariamente, sotto le condizioni descritte nella sezione precedente, le proprietà caratteristiche di ciascun pianeta mettendo in evidenza analogie e differenze fra ciascun corpo. Dopo una breve sezione sui corpi minori e sulle decisioni che hanno portato a non considerare alcuni di questi corpi piu` come pianeti, si passerà a descrivere alcuni metodi di ricerca, grazie ai quali sono stati scoperti numerosi pianeti extrasolari. In appendice si riporteranno il significato di tutti i simboli e i valori delle costanti utilizzati spesso durante la stesura dell’elaborato.
Resumo:
Il lavoro svolto in questa tesi è legato allo studio ed alla formulazione di metodi computazionali volti all’eliminazione del noise (rumore) presente nelle immagini, cioè il processo di “denoising” che è quello di ricostruire un’immagine corrotta da rumore avendo a disposizione una conoscenza a priori del fenomeno di degrado. Il problema del denoising è formulato come un problema di minimo di un funzionale dato dalla somma di una funzione che rappresenta l’adattamento dei dati e la Variazione Totale. I metodi di denoising di immagini saranno affrontati attraverso tecniche basate sullo split Bregman e la Total Variation (TV) pesata che è un problema mal condizionato, cioè un problema sensibile a piccole perturbazioni sui dati. Queste tecniche permettono di ottimizzare dal punto di vista della visualizzazione le immagini in esame.
Resumo:
Scopo di questo studio è la determinazione delle strutture di età delle specie Mullus barbatus e Mullus surmuletus, pescate in Alto-Medio Adriatico durante le campagne di ricerca MEDITS e GRUND mediante la lettura degli anelli stagionali degli otoliti e delle frequenze di taglia. I campioni di otoliti sono stati prima estratti e poi lavati con sonicatore e acquisiti al computer. Sono state successivamente prese le misure dei radius ed è stata fatta una prima lettura degli anelli. Un subcampione è stato poi scelto per applicare altri due metodi di lettura degli anelli: la bruciatura e la colorazione, preceduta dal taglio dell’otolite. Sono stati poi levigati e lucidati gli otoliti dei giovanili per un conto degli annuli giornalieri. L’analisi dati, svolta tramite il software Rstudio, ha permesso di calcolare non solo le strutture di età, ma anche di osservare le distribuzioni dei campioni per classi di profondità e latitudine, confrontare le strutture di taglia e calcolare le chiavi di età-lunghezza, l’accrescimento somatico con le relazioni lunghezza-peso e l’equazione di Von Bertalanffy e l’accrescimento dell’otolite tramite i rapporti radius-taglia e radius-età e il tasso di incremento dei radius. Infine sono stati anche confrontati i tre metodi di lettura degli anelli al fine di stabilirne il migliore. Le due specie hanno mostrato una grande maggioranza di individui di 1 e 2 anni, soprattutto nella zona settentrionale e centrale dell’area di studio a profondità entro i 100 m. Differenze specifiche sono poi state trovate nel confronto tra le strutture di taglia e le relazioni lunghezza-peso e per il tasso di accrescimento K dell’equazione di Von Bertalanffy. Alta poi è la correlazione tra la misura dei radius e la taglia e l’età. Diverso è anche il tasso degli incrementi dei radius tra primo-secondo anno e secondo-terzo anno.
Resumo:
Con riferimento alla realizzazione di tunnel per servizi interrati, l’incertezza che contraddistingue il quadro geologico, oltre che incidere sui costi, riveste un ruolo chiave nella progettazione preliminare. Sebbene un’approfondita caratterizzazione geotecnica e geologica del volume di terreno inerente l’opera di scavo sia generalmente parte integrante del progetto, non è comunque possibile eliminare del tutto tali incertezze per via dell’estensione del volume interessato oltre che per la disomogeneità che sempre contraddistingue il terreno. Generalmente, investigazioni in corso d’opera e interventi di stabilizzazione devono essere previsti per contenere i costi di perforazione ed ottimizzare la progettazione. Ad esempio, tra i metodi di esplorazione geotecnica figurano i tunnel pilota, i quali sono in grado di garantire un’ottimale caratterizzazione del quadro geotecnico del sottosuolo. Con riferimento agli interventi di stabilizzazione del terreno, adottabili laddove una perforazione tradizionale non consentirebbe il tunnelling, vi è un vasta gamma di scelta. Pertanto, da una prima analisi delle problematiche connesse al tunnelling emerge che la stabilizzazione delle facce di scavo riveste un’importanza e un risconto applicativo di prim’ordine. Questa tesi si inserisce all’interno di un progetto che promuove un’innovativa ed economica tecnica di stabilizzazione dei tunnel per suzione tenendo quindi conto dell’influenza della suzione sulla coesione non drenata.
Resumo:
L’aumento delle concentrazioni del diossido di carbonio in atmosfera dovuto alla combustione dei combustibili fossili è una fonte di grande preoccupazione a causa del suo impatto sul clima globale. La biomassa è l’unica fonte rinnovabile a poter essere convertita in combustibili e, tra i metodi di conversione, la pirolisi produce un liquido (bio-olio) che presenta potenzialità come combustibile. Le alghe sono una biomassa di interesse, ma il bio-olio che si ottiene è caratterizzato da composti contenenti ossigeno, zolfo e azoto che ne riducono la qualità. Tali elementi possono essere eliminati attraverso la scissione (cracking) con zeoliti con la produzione di idrocarburi. L’obiettivo dello studio è stato quello di valutare le caratteristiche del cracking catalitico di tre microalghe: Arthrospira platensis, Botryococcus braunii e Desmodesmus communis per la produzione di idrocarburi. Le biomasse sono state pirolizzate a 500 °C e i vapori prodotti termicamente sono stati fatti passare nella zeolite dove subiscono il cracking. Sono state utilizzate due zeolite a diversa acidità: un pellet H-ZSM5 (SiO2/Al2O3=38) e un monolite a base di HZSM5 (SiO2/Al2O3=80) e sepiolite. Dal cracking si ottengono sei frazioni pirolitiche: char, coke, fase acquosa, bio-olio, frazione volatile e gas non condensabili. Le frazioni sono state caratterizzate tramite analisi elementari e molecolari e dai dati ottenuti sono stati calcolati i bilanci di N, C e del potere calorifico. Per tutte le alghe si ottiene un bio-olio con un elevato contenuto di carbonio e fortemente deossigenato, ma le rese sono relativamente basse. I prodotti che contengono una maggior frazione del carbonio della biomassa iniziale sono il char ed il coke, seguiti dalla fase organica e dai gas. La distribuzione dell’azoto è simile ma con una maggiore frazione nella fase acquosa. Entrambi i catalizzatori agiscono migliorando la qualità del bio-olio tramite la riduzione dei composti azotati ed ossigenati e formando idrocarburi monoaromatici, tipici delle benzine, e poliaromatici. Il monolite, con zeolite meno acida, produce una maggior frazione di bio-olio caratterizzato, però, da una minor percentuale di composti aromatici. Si ritiene che l’aumento delle rese del bio-olio e la valorizzazione dei sottoprodotti (biochar, fase acquosa) siano indispensabili per la sostenibilità del processo.