858 resultados para Astronomical unit
Resumo:
The quality of astronomical sites is the first step to be considered to have the best performances from the telescopes. In particular, the efficiency of large telescopes in UV, IR, radio etc. is critically dependent on atmospheric transparency. It is well known that the random optical effects induced on the light propagation by turbulent atmosphere also limit telescope’s performances. Nowadays, clear appears the importance to correlate the main atmospheric physical parameters with the optical quality reachable by large aperture telescopes. The sky quality evaluation improved with the introduction of new techniques, new instrumentations and with the understanding of the link between the meteorological (or synoptical parameters and the observational conditions thanks to the application of the theories of electromagnetic waves propagation in turbulent medias: what we actually call astroclimatology. At the present the site campaigns are evolved and are performed using the classical scheme of optical seeing properties, meteorological parameters, sky transparency, sky darkness and cloudiness. New concept are added and are related to the geophysical properties such as seismicity, microseismicity, local variability of the climate, atmospheric conditions related to the ground optical turbulence and ground wind regimes, aerosol presence, use of satellite data. The purpose of this project is to provide reliable methods to analyze the atmospheric properties that affect ground-based optical astronomical observations and to correlate them with the main atmospheric parameters generating turbulence and affecting the photometric accuracy. The first part of the research concerns the analysis and interpretation of longand short-time scale meteorological data at two of the most important astronomical sites located in very different environments: the Paranal Observatory in the Atacama Desert (Chile), and the Observatorio del Roque de Los Muchachos(ORM) located in La Palma (Canary Islands, Spain). The optical properties of airborne dust at ORM have been investigated collecting outdoor data using a ground-based dust monitor. Because of its dryness, Paranal is a suitable observatory for near-IR observations, thus the extinction properties in the spectral range 1.00-2.30 um have been investigated using an empirical method. Furthermore, this PhD research has been developed using several turbulence profilers in the selection of the site for the European Extremely Large Telescope(E-ELT). During the campaigns the properties of the turbulence at different heights at Paranal and in the sites located in northern Chile and Argentina have been studied. This given the possibility to characterize the surface layer turbulence at Paranal and its connection with local meteorological conditions.
Resumo:
In dieser Studie werden strukturgeologische, metamorphe und geochronologische Daten benutzt, um eine Quantifizierung tektonischer Prozesse vorzunehmen, die für die Exhumierung der Kykladischen Blauschiefereinheit in der Ägäis und der Westtürkei verantwortlich waren. Bei den beiden tektonischen Prozessen handelt es sich um: (1) Abschiebungstektonik und (2) vertikale duktile Ausdünnung. Eine finite Verformungsanalyse an Proben der Kykladischen Blauschiefereinheit ermöglicht eine Abschätzung des Beitrags von vertikaler duktiler Ausdünnung an der gesamten Exhumierung. Kalkulationen mit einem eindimensionalen, numerischen Model zeigt, daß vertikale duktile Ausdünnung nur ca. 10% an der gesamten Exhumierung ausmacht. Kinematische, metamorphe und geochronologische Daten erklären die tektonische Natur und die Evolution eines extensionalen Störungssystems auf der Insel Ikaria in der östlichen Ägäis. Thermobarometrische Daten lassen erkennen, daß das Liegende des Störungssystems aus ca. 15 km Tiefe exhumiert wurde. Sowohl Apatit- und Zirkonspaltspurenalter als auch Apatit (U-Th)/He-Alter zeigen, daß sich das extensionale Störungssystem zwischen 11-3 Ma mit einer Geschwindigkeit von ca. 7-8 km/Ma bewegte. Spät-Miozäne Abschiebungen trugen zur Exhumierung der letzten ~5-15 km der Hochdruckgesteine bei. Ein Großteil der Exhumierung der Kykladischen Blauschiefereinheit muß vor dem Miozän stattgefunden haben. Dies wird durch einen Extrusionskeil erklärt, der ca. 30-35 km der Kykladischen Blauschiefereinheit in der Westtürkei exhumierte. 40Ar/39Ar und 87Rb/86Sr Datierungen an Myloniten des oberen Abschiebungskontakts zwischen der Selçuk Decke und der darunterliegenden Ampelos/Dilek Decke der Kykladischen Blauschiefereinheit als auch des unteren Überschiebungskontakts zwischen der Ampelos/Dilek Decke und den darunterliegenden Menderes Decken zeigt, daß sich beide mylonitische Zonen um ca. ~35 Ma formten, was die Existenz eines Spät-Eozänen/Früh-Oligozänen Extrusionskeils beweist.
Resumo:
Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.
Resumo:
“ Per anni ho creduto essere cresciuto in una periferia di Buenos Aires, periferia di strade avventurose e di tramonti visibili. In realtà sono cresciuto in un giardino, dietro le lance di un cancellata, e in una biblioteca di infiniti volumi inglesi. Quel Palermo del coltello e la chitarra (mi assicurano) era agli angoli delle strade, ma chi popolava le mie mattine e procurava un gradevole orrore alle mie notti erano il bucaniere cieco di Stevenson, agonizzante sotto gli zoccoli dei cavalli, e il traditore che abbandonò l’amico sulla luna, e il viaggiatore del tempo che riportò dal futuro un fiore appassito, e il genio prigioniero per secoli nell’anfora salomonica, e il profeta velato del Khorasan, che dietro le gemme e la seta nascondeva la lebbra. Cosa succedeva, nel frattempo, oltre le lance della cancellata? Quali destini vernacoli e violenti andavano compiendosi a pochi passi da me, nella sordida bettola o nello spazio turbolento? Com’era quel Palermo o come sarebbe stato bello che fosse? A tali domande vuole rispondere questo libro, più d’immaginazione che documentato.” E’ così che Jorge Luis Borges apre il libro Evaristo Carriego, saggio biografico che passò quasi inosservato all’interno degli ambienti intellettuali della capitale dei quali faceva parte lo scrittore stesso. Il libro era dedicato alla figura, estranea a quegli ambienti, del poeta “bohemien, tisico ed anarchico” Evaristo Carriego, vissuto tra otto e novecento nel quartiere Palermo, in quei tempi periferia malfamata di Buenos Aires. Buenos Aires è la città borgesiana per eccellenza: priva di caratteristiche tipologiche precise, volubile allo sguardo, specchio e metafora di tutte le grandi città del mondo. Ma soprattutto Buenos Aires è una città “inventata” da Borges, che le ha dato un’immagine letteraria che si relaziona in maniera complessa con quella reale. Segnerà nell’immaginario di Borges l’inizio e la fine della sua vita, una sorta di centralità, unico stralcio di stabilità, al quale l’inquieta mente dell’argentino possa far ritorno.
Resumo:
Procedures for quantitative walking analysis include the assessment of body segment movements within defined gait cycles. Recently, methods to track human body motion using inertial measurement units have been suggested. It is not known if these techniques can be readily transferred to clinical measurement situations. This work investigates the aspects necessary for one inertial measurement unit mounted on the lower back to track orientation, and determine spatio-temporal features of gait outside the confines of a conventional gait laboratory. Apparent limitations of different inertial sensors can be overcome by fusing data using methods such as a Kalman filter. The benefits of optimizing such a filter for the type of motion are unknown. 3D accelerations and 3D angular velocities were collected for 18 healthy subjects while treadmill walking. Optimization of Kalman filter parameters improved pitch and roll angle estimates when compared to angles derived using stereophotogrammetry. A Weighted Fourier Linear Combiner method for estimating 3D orientation angles by constructing an analytical representation of angular velocities and allowing drift free integration is also presented. When tested this method provided accurate estimates of 3D orientation when compared to stereophotogrammetry. Methods to determine spatio-temporal features from lower trunk accelerations generally require knowledge of sensor alignment. A method was developed to estimate the instants of initial and final ground contact from accelerations measured by a waist mounted inertial device without rigorous alignment. A continuous wavelet transform method was used to filter and differentiate the signal and derive estimates of initial and final contact times. The technique was tested with data recorded for both healthy and pathologic (hemiplegia and Parkinson’s disease) subjects and validated using an instrumented mat. The results show that a single inertial measurement unit can assist whole body gait assessment however further investigation is required to understand altered gait timing in some pathological subjects.
Resumo:
L’elaborato finale presentato per la tesi di Dottorato analizza e riconduce a unitarietà, per quanto possibile, alcune delle attività di ricerca da me svolte durante questi tre anni, il cui filo conduttore è l'impatto ambientale delle attività umane e la promozione dello sviluppo sostenibile. Il mio filone di ricerca è stato improntato, dal punto di vista di politica economica, sull'analisi storica dello sviluppo del settore agricolo dall'Unità d'Italia ai giorni nostri e dei cambiamenti avvenuti in contemporanea nel contesto socio-economico e territoriale nazionale, facendo particolare riferimento alle tematiche legate ai consumi e alla dipendenza energetica ed all'impatto ambientale. Parte della mia ricerca è stata, infatti, incentrata sull'analisi dello sviluppo della Green Economy, in particolare per quanto riguarda il settore agroalimentare e la produzione di fonti di energia rinnovabile. Enfasi viene posta sia sulle politiche implementate a livello comunitario e nazionale, sia sul cambiamento dei consumi, in particolare per quanto riguarda gli acquisti di prodotti biologici. La Green Economy è vista come fattore di sviluppo e opportunità per uscire dall'attuale contesto di crisi economico-finanziaria. Crisi, che è strutturale e di carattere duraturo, affiancata da una crescente problematica ambientale dovuta all'attuale modello produttivo, fortemente dipendente dai combustibili fossili. Difatti la necessità di cambiare paradigma produttivo promuovendo la sostenibilità è visto anche in ottica di mitigazione del cambiamento climatico e dei suoi impatti socio-economici particolare dal punto di vista dei disastri ambientali. Questo punto è analizzato anche in termini di sicurezza internazionale e di emergenza umanitaria, con riferimento al possibile utilizzo da parte delle organizzazioni di intervento nei contesti di emergenza di tecnologie alimentate da energia rinnovabile. Dando così una risposta Green ad una problematica esacerbata dall'impatto dello sviluppo delle attività umane.
Resumo:
Le microreti caratterizzate da unità di generazione con Fonti Energetiche Rinnovabili (FER), sono oggetto di crescente interesse in due contesti molto diversi tra loro: l’integrazione della Generazione Diffusa (GD) in reti di distribuzione pubbliche nei paesi sviluppati e l’elettrificazione di zone rurali attualmente non servite dalla rete elettrica. L’introduzione dei sistemi di accumulo nelle microreti rende possibile la compensazione della variabilità delle FER trasformando le microreti in sistemi di produzione che nel complesso risultano completamente regolabili. L’obiettivo del presente lavoro di tesi è dimostrare come le microreti possono svolgere un ruolo fondamentale per lo sviluppo delle infrastrutture elettriche nei paesi in via di sviluppo e nelle economie emergenti ponendo le basi per l’elettrificazione di aree remote e scarsamente popolate ad oggi non connesse alla rete di distribuzione dell’energia.
Resumo:
La rotazione dell’apice del cuore è una delle espressioni della complessa cinematica del miocardio e rappresenta un importante indice di funzionalità cardiaca. Disporre di un sensore impiantabile che permetta un monitoraggio continuo di tale parametro consentirebbe di individuare precocemente un deterioramento della performance cardiaca e di adattare tempestivamente la terapia. L’obiettivo del lavoro di tesi è la realizzazione di un sistema di acquisizione dati per segnali provenienti da un giroscopio MEMS triassiale da utilizzarsi per lo studio della cinematica cardiaca, in particolare della rotazione del cuore. Per leggere e decodificare i segnali digitali in uscita dal giroscopio MEMS triassiale utilizzato (CMR3100, VTI Technologies) è stata progettata e sviluppata un’unità di condizionamento composta da una board Arduino ADK, associata ad un adattatore di tensione PCA9306 e a 3 convertitori digitali/analogici MCP4921, che ha richiesto lo sviluppo di software per la gestione del protocollo di comunicazione e della decodifica del segnale digitale proveniente dal sensore. Per caratterizzare e validare il sistema realizzato sono state effettuate prove di laboratorio, che hanno permesso di individuare i parametri di lavoro ottimali del sensore. Una prima serie di prove ha dimostrato come l’unità di condizionamento realizzata consenta di acquisire i segnali con una velocità di processo elevata (1 kHz) che non comporta perdita di dati in uscita dal sensore. Successivamente, attraverso un banco prova di simulazione appositamente assemblato allo scopo di riprodurre rotazioni cicliche nel range dei valori fisio-patologici, è stato quantificato lo sfasamento temporale (St) tra il segnale rilevato dal CMR3100 e decodificato dall'unità di condizionamento e un segnale analogico in uscita da un giroscopio analogico, ottenendo un valore medio St=4 ms. Attraverso lo stesso banco di simulazione, è stata infine dimostrata una buona accuratezza (errore percentuale <10%) nella misura dell'angolo di rotazione derivato dal segnale di velocità angolare rilevato direttamente dal sensore CRM300.
Resumo:
Questa tesi ripercorre le tappe principali della storia della scuola secondaria italiana, soffermandosi su quelle che hanno caratterizzato l'insegnamento della matematica. Inoltre analizza le caratteristiche delle prove di matematica assegnate alla maturità scientifica fin dalla nascita dell'esame di Stato.
Resumo:
Il progetto si sviluppa a partire dalla lettura di Berlino come città costituita da parti, una serie di forme urbane, brani di città, ognuno con una propria identità, tuttora chiaramente leggibili. All’interno di questo sistema frammentario è stata effettuata un’analisi più approfondita degli spazi verdi, reinterpretando il Piano per Berlino del paesaggista Peter Joseph Lenné. Egli pone al centro della pianificazione urbana la struttura del verde pubblico, cogliendo il dato di Berlino come città fatta di frammenti. Il nostro progetto individua sul segno del boulevard a nord, disegnato da Lenné, una serie di spazi verdi di diversa natura e di poli aggregativi di rilevanza socio culturale. Il parco diventa un’estensione del polo culturale in cui poter realizzare attività all’aperto: un catalizzatore di vita urbana, luogo di aggregazione per la popolazione. Lo sviluppo di una parte della tesi a Berlino ci ha permesso di conoscere la città e di comprendere a pieno l’importanza che i luoghi di socializzazione, gli spazi condivisi hanno per i berlinesi. Il progetto di un polo culturale, comprendente biblioteca, atelier, laboratori e residenze per artisti, nel quartiere Friedrichshain, si inserisce all’interno del più ampio sistema di parchi e poli aggregativi.
Resumo:
In the last years, the European countries have paid increasing attention to renewable sources and greenhouse emissions. The Council of the European Union and the European Parliament have established ambitious targets for the next years. In this scenario, biomass plays a prominent role since its life cycle produces a zero net carbon dioxide emission. Additionally, biomass can ensure plant operation continuity thanks to its availability and storage ability. Several conventional systems running on biomass are available at the moment. Most of them are performant either in the large-scale or in the small power range. The absence of an efficient system on the small-middle scale inspired this thesis project. The object is an innovative plant based on a wet indirectly fired gas turbine (WIFGT) integrated with an organic Rankine cycle (ORC) unit for combined heat and power production. The WIFGT is a performant system in the small-middle power range; the ORC cycle is capable of giving value to low-temperature heat sources. Their integration is investigated in this thesis with the aim of carrying out a preliminary design of the components. The targeted plant output is around 200 kW in order not to need a wide cultivation area and to avoid biomass shipping. Existing in-house simulation tools are used: They are adapted to this purpose. Firstly the WIFGT + ORC model is built; Zero-dimensional models of heat exchangers, compressor, turbines, furnace, dryer and pump are used. Different fluids are selected but toluene and benzene turn out to be the most suitable. In the indirectly fired gas turbine a pressure ratio around 4 leads to the highest efficiency. From the thermodynamic analysis the system shows an electric efficiency of 38%, outdoing other conventional plants in the same power range. The combined plant is designed to recover thermal energy: Water is used as coolant in the condenser. It is heated from 60°C up to 90°C, ensuring the possibility of space heating. Mono-dimensional models are used to design the heat exchange equipment. Different types of heat exchangers are chosen depending on the working temperature. A finned-plate heat exchanger is selected for the WIFGT heat transfer equipment due to the high temperature, oxidizing and corrosive environment. A once-through boiler with finned tubes is chosen to vaporize the organic fluid in the ORC. A plate heat exchanger is chosen for the condenser and recuperator. A quasi-monodimensional model for single-stage axial turbine is implemented to design both the WIFGT and the ORC turbine. The system simulation after the components design shows an electric efficiency around 34% with a decrease by 10% compared to the zero-dimensional analysis. The work exhibits the system potentiality compared to the existing plants from both technical and economic point of view.