333 resultados para sistemi precipitantiradar polarimetricodisdrometroidrometeorenubi convettive
Resumo:
Modern embedded systems embrace many-core shared-memory designs. Due to constrained power and area budgets, most of them feature software-managed scratchpad memories instead of data caches to increase the data locality. It is therefore programmers’ responsibility to explicitly manage the memory transfers, and this make programming these platform cumbersome. Moreover, complex modern applications must be adequately parallelized before they can the parallel potential of the platform into actual performance. To support this, programming languages were proposed, which work at a high level of abstraction, and rely on a runtime whose cost hinders performance, especially in embedded systems, where resources and power budget are constrained. This dissertation explores the applicability of the shared-memory paradigm on modern many-core systems, focusing on the ease-of-programming. It focuses on OpenMP, the de-facto standard for shared memory programming. In a first part, the cost of algorithms for synchronization and data partitioning are analyzed, and they are adapted to modern embedded many-cores. Then, the original design of an OpenMP runtime library is presented, which supports complex forms of parallelism such as multi-level and irregular parallelism. In the second part of the thesis, the focus is on heterogeneous systems, where hardware accelerators are coupled to (many-)cores to implement key functional kernels with orders-of-magnitude of speedup and energy efficiency compared to the “pure software” version. However, three main issues rise, namely i) platform design complexity, ii) architectural scalability and iii) programmability. To tackle them, a template for a generic hardware processing unit (HWPU) is proposed, which share the memory banks with cores, and the template for a scalable architecture is shown, which integrates them through the shared-memory system. Then, a full software stack and toolchain are developed to support platform design and to let programmers exploiting the accelerators of the platform. The OpenMP frontend is extended to interact with it.
Resumo:
Sono indagate le implicazioni teoriche e sperimentali derivanti dall'assunzione, nella teoria della relatività speciale, di un criterio di sincronizzazione (detta assoluta) diverso da quello standard. La scelta della sincronizzazione assoluta è giustificata da alcune considerazioni di carattere epistemologico sullo status di fenomeni quali la contrazione delle lunghezze e la dilatazione del tempo. Oltre che a fornire una diversa interpretazione, la sincronizzazione assoluta rappresenta una estensione del campo di applicazione della relatività speciale in quanto può essere attuata anche in sistemi di riferimento accelerati. Questa estensione consente di trattare in maniera unitaria i fenomeni sia in sistemi di riferimento inerziali che accelerati. L'introduzione della sincronizzazione assoluta implica una modifica delle trasformazioni di Lorentz. Una caratteristica di queste nuove trasformazioni (dette inerziali) è che la trasformazione del tempo è indipendente dalle coordinate spaziali. Le trasformazioni inerziali sono ottenute nel caso generale tra due sistemi di riferimento aventi velocità (assolute) u1 e u2 comunque orientate. Viene mostrato che le trasformazioni inerziali possono formare un gruppo pur di prendere in considerazione anche riferimenti non fisicamente realizzabili perché superluminali. È analizzato il moto rigido secondo Born di un corpo esteso considerando la sincronizzazione assoluta. Sulla base delle trasformazioni inerziali si derivano le trasformazioni per i campi elettromagnetici e le equazioni di questi campi (che sostituiscono le equazioni di Maxwell). Si mostra che queste equazioni contengono soluzioni in assenza di cariche che si propagano nello spazio come onde generalmente anisotrope in accordo con quanto previsto dalle trasformazioni inerziali. L'applicazione di questa teoria elettromagnetica a sistemi accelerati mostra l'esistenza di fenomeni mai osservati che, pur non essendo in contraddizione con la relatività standard, ne forzano l'interpretazione. Viene proposto e descritto un esperimento in cui uno di questi fenomeni è misurabile.
Resumo:
After the development of power electronics converters, the number of transformers subjected to non-sinusoidal stresses (including DC) has increased in applications such as HVDC links and traction (electric train power cars). The effects of non-sinusoidal voltages on transformer insulation have been investigated by many researchers, but still now, there are some issues that must be understood. Some of those issues are tackled in this Thesis, studying PD phenomena behavior in Kraft paper, pressboard and mineral oil at different voltage conditions like AC, DC, AC+DC, notched AC and square waveforms. From the point of view of converter transformers, it was found that the combined effect of AC and DC voltages produces higher stresses in the pressboard that those that are present under pure DC voltages. The electrical conductivity of the dielectric systems in DC and AC+DC conditions has demonstrated to be a critical parameter, so, its measurement and analysis was also taken into account during all the experiments. Regarding notched voltages, the RMS reduction caused by notches (depending on firing and overlap angles) seems to increase the PDIV. However, the experimental results show that once PD activity has incepted, the notches increase PD repetition rate and magnitude, producing a higher degradation rate of paper. On the other hand, the reduction of mineral oil stocks, their relatively low flash point as well as environmental issues, are factors that are pushing towards the use of esters as transformer insulating fluids. This PhD Thesis also covers the study of two different esters with the scope to validate their use in traction transformers. Mineral oil was used as benchmark. The complete set of dielectric tests performed in the three fluids, show that esters behave better than mineral oil in practically all the investigated conditions, so, their application in traction transformers is possible and encouraged.
Resumo:
The safety systems of nuclear power plants rely on low-voltage power, instrumentation and control cables. Inside the containment area, cables operate in harsh environments, characterized by relatively high temperature and gamma-irradiation. As these cables are related to fundamental safety systems, they must be able to withstand unexpected accident conditions and, therefore, their condition assessment is of utmost importance as plants age and lifetime extensions are required. Nowadays, the integrity and functionality of these cables are monitored mainly through destructive test which requires specific laboratory. The investigation of electrical aging markers which can provide information about the state of the cable by non-destructive testing methods would improve significantly the present diagnostic techniques. This work has been made within the framework of the ADVANCE (Aging Diagnostic and Prognostics of Low-Voltage I\&C Cables) project, a FP7 European program. This Ph.D. thesis aims at studying the impact of aging on cable electrical parameters, in order to understand the evolution of the electrical properties associated with cable degradation. The identification of suitable aging markers requires the comparison of the electrical property variation with the physical/chemical degradation mechanisms of polymers for different insulating materials and compositions. The feasibility of non-destructive electrical condition monitoring techniques as potential substitutes for destructive methods will be finally discussed studying the correlation between electrical and mechanical properties. In this work, the electrical properties of cable insulators are monitored and characterized mainly by dielectric spectroscopy, polarization/depolarization current analysis and space charge distribution. Among these techniques, dielectric spectroscopy showed the most promising results; by means of dielectric spectroscopy it is possible to identify the frequency range where the properties are more sensitive to aging. In particular, the imaginary part of permittivity at high frequency, which is related to oxidation, has been identified as the most suitable aging marker based on electrical quantities.
Resumo:
The subject of the present thesis is about the enhancement of orbiter spacecraft navigation capabilities obtained by the standard radiometric link, taking advantage of an imaging payload and making use of a novel definition of optical measurements. An ESA Mission to Mercury called BepiColombo, was selected as a reference case for this study, and in particular its Mercury Planetary Orbiter (MPO), because of the presence of SIMBIO-SYS, an instrument suite part of the MPO payload, capable of acquiring high resolution images of the surface of Mercury. The use of optical measurements for navigation, can provide complementary informations with respect to Doppler, for enhanced performances or a relaxation of the radio tracking requisites in term of ground station schedule. Classical optical techniques based on centroids, limbs or landmarks, were the base to a novel idea for optical navigation, inspired by concepts of stereoscopic vision. In brief, the relation between two overlapped images acquired by a nadir pointed orbiter spacecraft at different times, was defined, and this information was then formulated into an optical measurement, to be processed by a navigation filter. The formulation of this novel optical observable is presented, moreover the analysis of the possible impact on the mission budget and images scheduling is addressed. Simulations are conducted using an orbit determination software already in use for spacecraft navigation in which the proposed optical measurements were implemented and the final results are given.
Resumo:
With the increasing importance that nanotechnologies have in everyday life, it is not difficult to realize that also a single molecule, if properly designed, can be a device able to perform useful functions: such a chemical species is called chemosensor, that is a molecule of abiotic origin that signals the presence of matter or energy. Signal transduction is the mechanism by which an interaction of a sensor with an analyte yields a measurable form of energy. When dealing with the design of a chemosensor, we need to take into account a “communication requirement” between its three component: the receptor unit, responsible for the selective analyte binding, the spacer, which controls the geometry of the system and modulates the electronic interaction between the receptor and the signalling unit, whose physico-chemical properties change upon complexation. A luminescent chemosensor communicates a variation of the physico-chemical properties of the receptor unit with a luminescence output signal. This thesis work consists in the characterization of new molecular and nanoparticle-based system which can be used as sensitive materials for the construction of new optical transduction devices able to provide information about the concentration of analytes in solution. In particular two direction were taken. The first is to continue in the development of new chemosensors, that is the first step for the construction of reliable and efficient devices, and in particular the work will be focused on chemosensors for metal ions for biomedical and environmental applications. The second is to study more efficient and complex organized systems, such as derivatized silica nanoparticles. These system can potentially have higher sensitivity than molecular systems, and present many advantages, like the possibility to be ratiometric, higher Stokes shifts and lower signal-to-noise ratio.
Resumo:
This thesis aimed at addressing some of the issues that, at the state of the art, avoid the P300-based brain computer interface (BCI) systems to move from research laboratories to end users’ home. An innovative asynchronous classifier has been defined and validated. It relies on the introduction of a set of thresholds in the classifier, and such thresholds have been assessed considering the distributions of score values relating to target, non-target stimuli and epochs of voluntary no-control. With the asynchronous classifier, a P300-based BCI system can adapt its speed to the current state of the user and can automatically suspend the control when the user diverts his attention from the stimulation interface. Since EEG signals are non-stationary and show inherent variability, in order to make long-term use of BCI possible, it is important to track changes in ongoing EEG activity and to adapt BCI model parameters accordingly. To this aim, the asynchronous classifier has been subsequently improved by introducing a self-calibration algorithm for the continuous and unsupervised recalibration of the subjective control parameters. Finally an index for the online monitoring of the EEG quality has been defined and validated in order to detect potential problems and system failures. This thesis ends with the description of a translational work involving end users (people with amyotrophic lateral sclerosis-ALS). Focusing on the concepts of the user centered design approach, the phases relating to the design, the development and the validation of an innovative assistive device have been described. The proposed assistive technology (AT) has been specifically designed to meet the needs of people with ALS during the different phases of the disease (i.e. the degree of motor abilities impairment). Indeed, the AT can be accessed with several input devices either conventional (mouse, touchscreen) or alterative (switches, headtracker) up to a P300-based BCI.
Resumo:
Automatically recognizing faces captured under uncontrolled environments has always been a challenging topic in the past decades. In this work, we investigate cohort score normalization that has been widely used in biometric verification as means to improve the robustness of face recognition under challenging environments. In particular, we introduce cohort score normalization into undersampled face recognition problem. Further, we develop an effective cohort normalization method specifically for the unconstrained face pair matching problem. Extensive experiments conducted on several well known face databases demonstrate the effectiveness of cohort normalization on these challenging scenarios. In addition, to give a proper understanding of cohort behavior, we study the impact of the number and quality of cohort samples on the normalization performance. The experimental results show that bigger cohort set size gives more stable and often better results to a point before the performance saturates. And cohort samples with different quality indeed produce different cohort normalization performance. Recognizing faces gone after alterations is another challenging problem for current face recognition algorithms. Face image alterations can be roughly classified into two categories: unintentional (e.g., geometrics transformations introduced by the acquisition devide) and intentional alterations (e.g., plastic surgery). We study the impact of these alterations on face recognition accuracy. Our results show that state-of-the-art algorithms are able to overcome limited digital alterations but are sensitive to more relevant modifications. Further, we develop two useful descriptors for detecting those alterations which can significantly affect the recognition performance. In the end, we propose to use the Structural Similarity (SSIM) quality map to detect and model variations due to plastic surgeries. Extensive experiments conducted on a plastic surgery face database demonstrate the potential of SSIM map for matching face images after surgeries.
Resumo:
Lo studio presentato in questa sede concerne applicazioni di saldatura LASER caratterizzate da aspetti di non-convenzionalità ed è costituito da tre filoni principali. Nel primo ambito di intervento è stata valutata la possibilità di effettuare saldature per fusione, con LASER ad emissione continua, su pannelli Aluminum Foam Sandwich e su tubi riempiti in schiuma di alluminio. Lo studio ha messo in evidenza numerose linee operative riguardanti le problematiche relative alla saldatura delle pelli esterne dei componenti ed ha dimostrato la fattibilità relativa ad un approccio di giunzione LASER integrato (saldatura seguita da un post trattamento termico) per la realizzazione della giunzione completa di particolari tubolari riempiti in schiuma con ripristino della struttura cellulare all’interfaccia di giunzione. Il secondo ambito di intervento è caratterizzato dall’applicazione di una sorgente LASER di bassissima potenza, operante in regime ad impulsi corti, nella saldatura di acciaio ad elevato contenuto di carbonio. Lo studio ha messo in evidenza come questo tipo di sorgente, solitamente applicata per lavorazioni di ablazione e marcatura, possa essere applicata anche alla saldatura di spessori sub-millimetrici. In questa fase è stato messo in evidenza il ruolo dei parametri di lavoro sulla conformazione del giunto ed è stata definita l’area di fattibilità del processo. Lo studio è stato completato investigando la possibilità di applicare un trattamento LASER dopo saldatura per addolcire le eventuali zone indurite. In merito all’ultimo ambito di intervento l’attività di studio si è focalizzata sull’utilizzo di sorgenti ad elevata densità di potenza (60 MW/cm^2) nella saldatura a profonda penetrazione di acciai da costruzione. L’attività sperimentale e di analisi dei risultati è stata condotta mediante tecniche di Design of Experiment per la valutazione del ruolo preciso di tutti i parametri di processo e numerose considerazioni relative alla formazione di cricche a caldo sono state suggerite.
Resumo:
La tesi affronta il tema dell'innovazione della scuola, oggetto di costante attenzione da parte delle organizzazioni internazionali e dei sistemi educativi nazionali, per le sue implicazioni economiche, sociali e politiche, e intende portare un contributo allo studio sistematico e analitico dei progetti e delle esperienze di innovazione complessiva dell'ambiente di apprendimento. Il concetto di ambiente di apprendimento viene approfondito nelle diverse prospettive di riferimento, con specifica attenzione al framework del progetto "Innovative Learning Environments" [ILE], dell’Organisation For Economic And Cultural Development [OECD] che, con una prospettiva dichiaratamente olistica, individua nel dispositivo dell’ambiente di apprendimento la chiave per l’innovazione dell’istruzione nella direzione delle competenze per il ventunesimo Secolo. I criteri presenti nel quadro di riferimento del progetto sono stati utilizzati per un’analisi dell’esperienza proposta come caso di studio, Scuola-Città Pestalozzi a Firenze, presa in esame perché nell’anno scolastico 2011/2012 ha messo in pratica appunto un “disegno” di trasformazione dell’ambiente di apprendimento e in particolare dei caratteri del tempo/scuola. La ricerca, condotta con una metodologia qualitativa, è stata orientata a far emergere le interpretazioni dei protagonisti dell’innovazione indagata: dall’analisi del progetto e di tutta la documentazione fornita dalla scuola è scaturita la traccia per un focus-group esplorativo attraverso il quale sono stati selezionati i temi per le interviste semistrutturate rivolte ai docenti (scuola primaria e scuola secondaria di primo grado). Per quanto concerne l’interpretazione dei risultati, le trascrizioni delle interviste sono state analizzate con un approccio fenomenografico, attraverso l’individuazione di unità testuali logicamente connesse a categorie concettuali pertinenti. L’analisi dei materiali empirici ha permesso di enucleare categorie interpretative rispetto alla natura e agli scopi delle esperienze di insegnamento/apprendimento, al processo organizzativo, alla sostenibilità. Tra le implicazioni della ricerca si ritengono particolarmente rilevanti quelle relative alla funzione docente.
Resumo:
Lo studio della deidrogenazione catalitica di idrocarburi affronta uno dei problemi principali per l'applicazione delle fuel cells in aeromobili. La conversione di miscele di idrocarburi in H2 può essere eseguita in loco, evitando le difficoltà di stoccaggio dell'idrogeno: l'H2 prodotto è privo di CO e CO2 e può essere alimentato direttamente alle celle a combustibile per dare energia ai sistemi ausiliari, mentre i prodotti deidrogenati, mantenendo le loro originali caratteristiche possono essere riutilizzati come carburante. In questo un lavoro è stato effettuato uno studio approfondito sulla deidrogenazione parziale (PDH) di diverse miscele di idrocarburi e carburante avio JetA1 desolforato utilizzando Pt-Sn/Al2O3, con l'obiettivo di mettere in luce i principali parametri (condizioni di reazione e composizione di catalizzatore) coinvolti nel processo di deidrogenazione. Inoltre, la PDH di miscele idrocarburiche e di Jet-A1 ha evidenziato che il problema principale in questa reazione è la disattivazione del catalizzatore, a causa della formazione di residui carboniosi e dell’avvelenamento da zolfo. Il meccanismo di disattivazione da residui carboniosi è stato studiato a fondo, essendo uno dei principali fattori che influenzano la vita del catalizzatore e di conseguenza l'applicabilità processo. Alimentando molecole modello separatamente, è stato possibile discriminare le classi di composti che sono coinvolti principalmente nella produzione di H2 o nell’avvelenamento del catalizzatore. Una riduzione parziale della velocità di disattivazione è stata ottenuta modulando l'acidità del catalizzatore al fine di ottimizzare le condizioni di reazione. I catalizzatori Pt-Sn modificati hanno mostrato ottimi risultati in termini di attività, ma soffrono di una disattivazione rapida in presenza di zolfo. Così, la sfida finale di questa ricerca era sviluppare un sistema catalitico in grado di lavorare in condizioni reali con carburante ad alto tenore di zolfo, in questo campo sono stati studiati due nuove classi di materiali: Ni e Co fosfuri supportati su SiO2 e catalizzatori Pd-Pt/Al2O3.
Resumo:
The wide diffusion of cheap, small, and portable sensors integrated in an unprecedented large variety of devices and the availability of almost ubiquitous Internet connectivity make it possible to collect an unprecedented amount of real time information about the environment we live in. These data streams, if properly and timely analyzed, can be exploited to build new intelligent and pervasive services that have the potential of improving people's quality of life in a variety of cross concerning domains such as entertainment, health-care, or energy management. The large heterogeneity of application domains, however, calls for a middleware-level infrastructure that can effectively support their different quality requirements. In this thesis we study the challenges related to the provisioning of differentiated quality-of-service (QoS) during the processing of data streams produced in pervasive environments. We analyze the trade-offs between guaranteed quality, cost, and scalability in streams distribution and processing by surveying existing state-of-the-art solutions and identifying and exploring their weaknesses. We propose an original model for QoS-centric distributed stream processing in data centers and we present Quasit, its prototype implementation offering a scalable and extensible platform that can be used by researchers to implement and validate novel QoS-enforcement mechanisms. To support our study, we also explore an original class of weaker quality guarantees that can reduce costs when application semantics do not require strict quality enforcement. We validate the effectiveness of this idea in a practical use-case scenario that investigates partial fault-tolerance policies in stream processing by performing a large experimental study on the prototype of our novel LAAR dynamic replication technique. Our modeling, prototyping, and experimental work demonstrates that, by providing data distribution and processing middleware with application-level knowledge of the different quality requirements associated to different pervasive data flows, it is possible to improve system scalability while reducing costs.
Resumo:
Riconoscendo l’importanza delle traduzioni all’interno della cosiddetta repubblica democratica dell’infanzia, il lavoro analizza le prime traduzioni tedesche e italiane del classico della letteratura per l’infanzia I ragazzi della Via Pál di Ferenc Molnár, al fine di metterne in luce i processi non solo prettamente traduttivi, ma anche più ampiamente culturali, che hanno influenzato la prima ricezione del romanzo in due contesti linguistici spesso legati per tradizione storico-letteraria alla letteratura ungherese. Rispettando la descrizione ormai comunemente accettata della letteratura per ragazzi come luogo di interazione tra più sistemi – principalmente quello letterario, quello pedagogico e quello sociale –, il lavoro ricostruisce innanzitutto le dinamiche proprie dei periodi storici di interesse, focalizzando l’attenzione sulla discussione circa l’educazione patriottica e militare del bambino. In relazione a questa tematica si approfondisce l’aspetto della “leggerezza” nell’opera di Molnár, ricostruendo attraverso le recensioni del tempo la prima ricezione del romanzo in Ungheria e presentando i temi del patriottismo e del gioco alla guerra in dialogo con le caratteristiche linguistico-formali del romanzo. I risultati raggiunti – una relativizzazione dell’intento prettamente pedagogico a vantaggio di una visione critica della società e del militarismo a tutti i costi – vengono messi alla prova delle traduzioni. L’analisi critica si basa su un esame degli elementi paratestuali, sull’individuazione di processi di neutralizzazione dell’alterità culturale e infine sull’esame delle isotopie del “gioco alla guerra” e dei “simboli della patria”. Si mostra come, pur senza un intervento censorio o manipolazioni sensibili al testo, molte traduzioni italiane accentuano l’aspetto patriottico e militaresco in chiave pedagogica. Soprattutto in Italia, il romanzo viene uniformato così al contesto letterario ed educativo dell’epoca, mentre in area tedesca la ricezione nell’ambito della letteratura per ragazzi sembra aprire al genere del romanzo delle bande.
Resumo:
La maggior parte dei pazienti che vengono sottoposti a interventi chirurgici per tumori solidi hanno un’età superiore a 70 anni1. Circa il 30% di questi pazienti vengono considerati “fragili”. Questi infatti presentano numerose comorbidità ed hanno un più elevato rischio di sviluppare complicanze postoperatorie con perdita della riserva funzionale residua. Per questo non esistono sistemi semplici di screening che permettano ai medici responsabili del trattamento di identificare questi pazienti con aumentato rischio postoperatorio. Identificare i pazienti a rischio è infatti il primo passo nel processo attraverso il quale è possibile prevenire in necessarie complicanze postoperatorie come delirio, eventi cardiovascolari e perdita della funzionalità complessiva con conseguente perdita di autonomia. Scopo di questo studio è quello di confrontare l’accuratezza nella previsione di mortalità e morbidità a 30 giorni dei tre test preditivi “Groningen Frailty Index” (GFI); “Vulnerable Elders Survey” (VES-13); “timed up and go test” con alcune componenti del Preoperative Assessment of Cancer in the Elderly (PACE). Lo studio verrà effettuato sui pazienti con età maggiore di 70 anni che dovranno essere sottoposti a intervento chirurgico in anestesia generale per la presenza di una neoplasia solida.
Resumo:
The macroscopic properties of oily food dispersions, such as rheology, mechanical strength, sensory attributes (e.g. mouth feel, texture and even flavour release) and as well as engineering properties are strongly determined by their microstructure, that is considered a key parameter in the understanding of the foods behaviour . In particular the rheological properties of these matrices are largely influenced by their processing techniques, particle size distribution and composition of ingredients. During chocolate manufacturing, mixtures of sugar, cocoa and fat are heated, cooled, pressurized and refined. These steps not only affect particle size reduction, but also break agglomerates and distribute lipid and lecithin-coated particles through the continuous phase, this considerably modify the microstructure of final chocolate. The interactions between the suspended particles and the continuous phase provide information about the existing network and consequently can be associated to the properties and characteristics of the final dispersions. Moreover since the macroscopic properties of food materials, are strongly determined by their microstructure, the evaluation and study of the microstructural characteristics, can be very important for a through understanding of the food matrices characteristics and to get detailed information on their complexity. The aim of this study was investigate the influence of formulation and each process step on the microstructural properties of: chocolate type model systems, dark milk and white chocolate types, and cocoa creams. At the same time the relationships between microstructural changes and the resulting physico-chemical properties of: chocolate type dispersions model systems dark milk and white chocolate were investigated.