917 resultados para depurazione biologica, efficienza energetica, sistemi di aerazione, controllo
Resumo:
Il presente elaborato ha lo scopo di analizzare lo stato attuale dell'accumulo dell'energia applicato al caso dell'energia eolica. Dopo una introduzione in cui viene presentato il perchè della necessità di garantire sistemi di accumulo dell'energia e quali sono i relativi vantaggi, viene proposto un caso studio di un impianto eolico tipico: partendo dalla potenzialità produttiva dell'impianto e dal tipo di funzione che il sistema di accumulo deve svolgere si passa alla scelta e dimensionamento del sistema più adatto.
Resumo:
Mainstream hardware is becoming parallel, heterogeneous, and distributed on every desk, every home and in every pocket. As a consequence, in the last years software is having an epochal turn toward concurrency, distribution, interaction which is pushed by the evolution of hardware architectures and the growing of network availability. This calls for introducing further abstraction layers on top of those provided by classical mainstream programming paradigms, to tackle more effectively the new complexities that developers have to face in everyday programming. A convergence it is recognizable in the mainstream toward the adoption of the actor paradigm as a mean to unite object-oriented programming and concurrency. Nevertheless, we argue that the actor paradigm can only be considered a good starting point to provide a more comprehensive response to such a fundamental and radical change in software development. Accordingly, the main objective of this thesis is to propose Agent-Oriented Programming (AOP) as a high-level general purpose programming paradigm, natural evolution of actors and objects, introducing a further level of human-inspired concepts for programming software systems, meant to simplify the design and programming of concurrent, distributed, reactive/interactive programs. To this end, in the dissertation first we construct the required background by studying the state-of-the-art of both actor-oriented and agent-oriented programming, and then we focus on the engineering of integrated programming technologies for developing agent-based systems in their classical application domains: artificial intelligence and distributed artificial intelligence. Then, we shift the perspective moving from the development of intelligent software systems, toward general purpose software development. Using the expertise maturated during the phase of background construction, we introduce a general-purpose programming language named simpAL, which founds its roots on general principles and practices of software development, and at the same time provides an agent-oriented level of abstraction for the engineering of general purpose software systems.
Resumo:
Thrust fault-related folds in carbonate rocks are characterized by deformation accommodated by different structures, such as joints, faults, pressure solution seams, and deformation bands. Defining the development of fracture systems related to the folding process is significant both for theoretical and practical purposes. Fracture systems are useful constrains in order to understand the kinematical evolution of the fold. Furthermore, understanding the relationships between folding and fracturing provides a noteworthy contribution for reconstructing the geodynamic and the structural evolution of the studied area. Moreover, as fold-related fractures influence fluid flow through rocks, fracture systems are relevant for energy production (geothermal studies, methane and CO2 , storage and hydrocarbon exploration), environmental and social issues (pollutant distribution, aquifer characterization). The PhD project shows results of a study carried out in a multilayer carbonate anticline characterized by different mechanical properties. The aim of this study is to understand the factors which influence the fracture formation and to define their temporal sequence during the folding process. The studied are is located in the Cingoli anticline (Northern Apennines), which is characterized by a pelagic multilayer characterized by sequences with different mechanical stratigraphies. A multi-scale analysis has been made in several outcrops located in different structural positions. This project shows that the conceptual sketches proposed in literature and the strain distribution models outline well the geometrical orientation of most of the set of fractures observed in the Cingoli anticline. On the other hand, the present work suggests the relevance of the mechanical stratigraphy in particular controlling the type of fractures formed (e.g. pressure solution seams, joints or shear fractures) and their subsequent evolution. Through a multi-scale analysis, and on the basis of the temporal relationship between fracture sets and their orientation respect layering, I also suggest a conceptual model for fracture systems formation.
Resumo:
Pervasive Sensing is a recent research trend that aims at providing widespread computing and sensing capabilities to enable the creation of smart environments that can sense, process, and act by considering input coming from both people and devices. The capabilities necessary for Pervasive Sensing are nowadays available on a plethora of devices, from embedded devices to PCs and smartphones. The wide availability of new devices and the large amount of data they can access enable a wide range of novel services in different areas, spanning from simple data collection systems to socially-aware collaborative filtering. However, the strong heterogeneity and unreliability of devices and sensors poses significant challenges. So far, existing works on Pervasive Sensing have focused only on limited portions of the whole stack of available devices and data that they can use, to propose and develop mainly vertical solutions. The push from academia and industry for this kind of services shows that time is mature for a more general support framework for Pervasive Sensing solutions able to enhance frail architectures, promote a well balanced usage of resources on different devices, and enable the widest possible access to sensed data, while ensuring a minimal energy consumption on battery-operated devices. This thesis focuses on pervasive sensing systems to extract design guidelines as foundation of a comprehensive reference model for multi-tier Pervasive Sensing applications. The validity of the proposed model is tested in five different scenarios that present peculiar and different requirements, and different hardware and sensors. The ease of mapping from the proposed logical model to the real implementations and the positive performance result campaigns prove the quality of the proposed approach and offer a reliable reference model, together with a direction for the design and deployment of future Pervasive Sensing applications.
Resumo:
Sono indagate le implicazioni teoriche e sperimentali derivanti dall'assunzione, nella teoria della relatività speciale, di un criterio di sincronizzazione (detta assoluta) diverso da quello standard. La scelta della sincronizzazione assoluta è giustificata da alcune considerazioni di carattere epistemologico sullo status di fenomeni quali la contrazione delle lunghezze e la dilatazione del tempo. Oltre che a fornire una diversa interpretazione, la sincronizzazione assoluta rappresenta una estensione del campo di applicazione della relatività speciale in quanto può essere attuata anche in sistemi di riferimento accelerati. Questa estensione consente di trattare in maniera unitaria i fenomeni sia in sistemi di riferimento inerziali che accelerati. L'introduzione della sincronizzazione assoluta implica una modifica delle trasformazioni di Lorentz. Una caratteristica di queste nuove trasformazioni (dette inerziali) è che la trasformazione del tempo è indipendente dalle coordinate spaziali. Le trasformazioni inerziali sono ottenute nel caso generale tra due sistemi di riferimento aventi velocità (assolute) u1 e u2 comunque orientate. Viene mostrato che le trasformazioni inerziali possono formare un gruppo pur di prendere in considerazione anche riferimenti non fisicamente realizzabili perché superluminali. È analizzato il moto rigido secondo Born di un corpo esteso considerando la sincronizzazione assoluta. Sulla base delle trasformazioni inerziali si derivano le trasformazioni per i campi elettromagnetici e le equazioni di questi campi (che sostituiscono le equazioni di Maxwell). Si mostra che queste equazioni contengono soluzioni in assenza di cariche che si propagano nello spazio come onde generalmente anisotrope in accordo con quanto previsto dalle trasformazioni inerziali. L'applicazione di questa teoria elettromagnetica a sistemi accelerati mostra l'esistenza di fenomeni mai osservati che, pur non essendo in contraddizione con la relatività standard, ne forzano l'interpretazione. Viene proposto e descritto un esperimento in cui uno di questi fenomeni è misurabile.
Resumo:
Fra i sistemi di propulsione elettrica per satelliti, il Pulsed Plasma Thruster, PPT, è quello dal design più semplice. È anche il primo sistema di propulsione elettrica utilizzato in un satellite artificiale, ossia ZOND-2 lanciato nel 1964 dall’Unione Sovietica. Tuttavia, dopo circa 50 anni di ricerca, la comprensione teorica e sperimentale di questo dispositivo rimane limitata. Questo elaborato di tesi magistrale indaga sul sottosistema di accensione del PPT, cercando di mettere in luce alcuni aspetti legati al lifetime della spark plug, SP. Tale SP, o candela, è l’attuatore del sottosistema di accensione. Questa produce una scintilla sulla sua superficie, la quale permette la realizzazione della scarica elettrica principale fra i due elettrodi del motore. Questa scarica crea una sottile parete di plasma che, per mezzo della forza elettromagnetica di Lorentz, produce la spinta del PPT. Poiché la SP si trova all’interno del catodo del motore e si affaccia nella camera di scarica, questa soffre di fenomeni di corrosione e di deposizione carbonacea proveniente dal propellente. Questi fenomeni possono limitare notevolmente il lifetime della SP. I parametri connessi alla vita operativa della SP sono numerosi. In questo elaborato si è analizzata la possibilità di utilizzare una elettronica di accensione della candela alternativa alla classica soluzione che utilizza un trasformatore. Il sottosistema di accensione classico e quello nuovo sono stati realizzati e testati, per metterne in luce le differenze ed i possibili vantaggi/svantaggi.
Resumo:
Automatically recognizing faces captured under uncontrolled environments has always been a challenging topic in the past decades. In this work, we investigate cohort score normalization that has been widely used in biometric verification as means to improve the robustness of face recognition under challenging environments. In particular, we introduce cohort score normalization into undersampled face recognition problem. Further, we develop an effective cohort normalization method specifically for the unconstrained face pair matching problem. Extensive experiments conducted on several well known face databases demonstrate the effectiveness of cohort normalization on these challenging scenarios. In addition, to give a proper understanding of cohort behavior, we study the impact of the number and quality of cohort samples on the normalization performance. The experimental results show that bigger cohort set size gives more stable and often better results to a point before the performance saturates. And cohort samples with different quality indeed produce different cohort normalization performance. Recognizing faces gone after alterations is another challenging problem for current face recognition algorithms. Face image alterations can be roughly classified into two categories: unintentional (e.g., geometrics transformations introduced by the acquisition devide) and intentional alterations (e.g., plastic surgery). We study the impact of these alterations on face recognition accuracy. Our results show that state-of-the-art algorithms are able to overcome limited digital alterations but are sensitive to more relevant modifications. Further, we develop two useful descriptors for detecting those alterations which can significantly affect the recognition performance. In the end, we propose to use the Structural Similarity (SSIM) quality map to detect and model variations due to plastic surgeries. Extensive experiments conducted on a plastic surgery face database demonstrate the potential of SSIM map for matching face images after surgeries.
Resumo:
The wide diffusion of cheap, small, and portable sensors integrated in an unprecedented large variety of devices and the availability of almost ubiquitous Internet connectivity make it possible to collect an unprecedented amount of real time information about the environment we live in. These data streams, if properly and timely analyzed, can be exploited to build new intelligent and pervasive services that have the potential of improving people's quality of life in a variety of cross concerning domains such as entertainment, health-care, or energy management. The large heterogeneity of application domains, however, calls for a middleware-level infrastructure that can effectively support their different quality requirements. In this thesis we study the challenges related to the provisioning of differentiated quality-of-service (QoS) during the processing of data streams produced in pervasive environments. We analyze the trade-offs between guaranteed quality, cost, and scalability in streams distribution and processing by surveying existing state-of-the-art solutions and identifying and exploring their weaknesses. We propose an original model for QoS-centric distributed stream processing in data centers and we present Quasit, its prototype implementation offering a scalable and extensible platform that can be used by researchers to implement and validate novel QoS-enforcement mechanisms. To support our study, we also explore an original class of weaker quality guarantees that can reduce costs when application semantics do not require strict quality enforcement. We validate the effectiveness of this idea in a practical use-case scenario that investigates partial fault-tolerance policies in stream processing by performing a large experimental study on the prototype of our novel LAAR dynamic replication technique. Our modeling, prototyping, and experimental work demonstrates that, by providing data distribution and processing middleware with application-level knowledge of the different quality requirements associated to different pervasive data flows, it is possible to improve system scalability while reducing costs.
Resumo:
L’obiettivo di questa tesi di laurea è quello di descrivere le principali caratteristiche delle mappe digitali e dei sistemi di navigazione che possono essere fruiti dagli utenti attraverso l’utilizzo di dispositivi con diverse caratteristiche (quali i dispositivi mobili, come smart phone, tablet, eccetera). Questi sistemi offrono dei servizi estremamente utili, che mirano a migliorare la mobilità e l’indipendenza dell’utente e, quindi, possono rappresentare un valido supporto agli utenti con disabilità che desiderano spostarsi negli ambienti urbani in modo autonomo. D’altra parte, i contenuti digitali e i servizi offerti dalle mappe e dai sistemi di navigazione possono comportare delle barriere tecnologiche che influenzano la fruizione e la navigazione da parte di questi utenti. Nell’ambito di questa tesi saranno descritte anche le caratteristiche tecniche delle mappe digitali e dei sistemi di navigazione, con particolare attenzione alle barriere tecnologiche che queste possono rappresentare per gli utenti con disabilità. Infine, l’obiettivo principale di questa tesi è quello di illustrare alcuni progetti di ricerca che offrono delle soluzioni e dei validi supporti agli utenti con differenti disabilità nell’accesso e nella fruizione delle mappe digitali e dei sistemi di navigazione. In particolare, saranno presentati i progetti di ricerca più interessanti e quelli che maggiormente hanno avuto un riscontro pratico, offrendo delle soluzioni effettivamente utilizzabili dagli utenti che fanno uso di determinate tecnologie assistive e che hanno vincoli e bisogni specifici. Nell’ambito di questa tesi sarà dato spazio anche a progetti che offrono agli utenti mappe tematiche (comunque accessibili) che mirano ad offrire informazioni sull’accessibilità urbana, consentendo, così, agli utenti di avere dati aggiuntivi e di migliorare ulteriormente la loro autonomia nel muoversi in città.
Resumo:
Waste management represents an important issue in our society and Waste-to-Energy incineration plants have been playing a significant role in the last decades, showing an increased importance in Europe. One of the main issues posed by waste combustion is the generation of air contaminants. Particular concern is present about acid gases, mainly hydrogen chloride and sulfur oxides, due to their potential impact on the environment and on human health. Therefore, in the present study the main available technological options for flue gas treatment were analyzed, focusing on dry treatment systems, which are increasingly applied in Municipal Solid Wastes (MSW) incinerators. An operational model was proposed to describe and optimize acid gas removal process. It was applied to an existing MSW incineration plant, where acid gases are neutralized in a two-stage dry treatment system. This process is based on the injection of powdered calcium hydroxide and sodium bicarbonate in reactors followed by fabric filters. HCl and SO2 conversions were expressed as a function of reactants flow rates, calculating model parameters from literature and plant data. The implementation in a software for process simulation allowed the identification of optimal operating conditions, taking into account the reactant feed rates, the amount of solid products and the recycle of the sorbent. Alternative configurations of the reference plant were also assessed. The applicability of the operational model was extended developing also a fundamental approach to the issue. A predictive model was developed, describing mass transfer and kinetic phenomena governing the acid gas neutralization with solid sorbents. The rate controlling steps were identified through the reproduction of literature data, allowing the description of acid gas removal in the case study analyzed. A laboratory device was also designed and started up to assess the required model parameters.
Resumo:
L’avanzare delle tecnologie ICT e l’abbattimento dei costi di produzione hanno portato ad un aumento notevole della criminalità informatica. Tuttavia il cambiamento non è stato solamente quantitativo, infatti si può assistere ad un paradigm-shift degli attacchi informatici da completamente opportunistici, ovvero senza un target specifico, ad attacchi mirati aventi come obiettivo una particolare persona, impresa o nazione. Lo scopo della mia tesi è quello di analizzare modelli e tassonomie sia di attacco che di difesa, per poi valutare una effettiva strategia di difesa contro gli attacchi mirati. Il lavoro è stato svolto in un contesto aziendale come parte di un tirocinio. Come incipit, ho effettuato un attacco mirato contro l’azienda in questione per valutare la validità dei sistemi di difesa. L’attacco ha avuto successo, dimostrando l’inefficacia di moderni sistemi di difesa. Analizzando i motivi del fallimento nel rilevare l’attacco, sono giunto a formulare una strategia di difesa contro attacchi mirati sotto forma di servizio piuttosto che di prodotto. La mia proposta è un framework concettuale, chiamato WASTE (Warning Automatic System for Targeted Events) il cui scopo è fornire warnings ad un team di analisti a partire da eventi non sospetti, ed un business process che ho nominato HAZARD (Hacking Approach for Zealot Attack Response and Detection), che modella il servizio completo di difesa contro i targeted attack. Infine ho applicato il processo all’interno dell’azienda per mitigare minacce ed attacchi informatici.
Resumo:
La tesi di laurea presentata si inserisce nell’ampio contesto della Sicurezza Informatica, in particolare tratta il problema del testing dei sistemi di sicurezza concepiti per contrapporsi alle odierne minacce: gli attacchi mirati (Targeted Attacks) ed in generale le minacce avanzate persistenti (Advanced Persistent Threats). Il principale obiettivo del lavoro svolto è lo sviluppo e la discussione di una metodologia di test per sistemi di sicurezza focalizzati su questo genere di problemi. Le linee guida proposte hanno lo scopo di aiutare a colmare il divario tra quello che viene testato e quello che in realt`a deve essere affrontato realmente. Le attività svolte durante la preparazione della tesi sono state sia di tipo teorico, per quanto concerne lo sviluppo di una metodologia per affrontare al meglio il testing di sistemi di sicurezza a fronte di attacchi mirati, che ne di tipo sperimentale in quanto si sono utilizzati tali concetti per lo svolgimento di test su più strumenti di difesa in uno scenario d’interesse reale.
Resumo:
This thesis investigates interactive scene reconstruction and understanding using RGB-D data only. Indeed, we believe that depth cameras will still be in the near future a cheap and low-power 3D sensing alternative suitable for mobile devices too. Therefore, our contributions build on top of state-of-the-art approaches to achieve advances in three main challenging scenarios, namely mobile mapping, large scale surface reconstruction and semantic modeling. First, we will describe an effective approach dealing with Simultaneous Localization And Mapping (SLAM) on platforms with limited resources, such as a tablet device. Unlike previous methods, dense reconstruction is achieved by reprojection of RGB-D frames, while local consistency is maintained by deploying relative bundle adjustment principles. We will show quantitative results comparing our technique to the state-of-the-art as well as detailed reconstruction of various environments ranging from rooms to small apartments. Then, we will address large scale surface modeling from depth maps exploiting parallel GPU computing. We will develop a real-time camera tracking method based on the popular KinectFusion system and an online surface alignment technique capable of counteracting drift errors and closing small loops. We will show very high quality meshes outperforming existing methods on publicly available datasets as well as on data recorded with our RGB-D camera even in complete darkness. Finally, we will move to our Semantic Bundle Adjustment framework to effectively combine object detection and SLAM in a unified system. Though the mathematical framework we will describe does not restrict to a particular sensing technology, in the experimental section we will refer, again, only to RGB-D sensing. We will discuss successful implementations of our algorithm showing the benefit of a joint object detection, camera tracking and environment mapping.
Resumo:
Lo scopo del presente lavoro è di illustrare alcuni temi di geometria simplettica, i cui risultati possono essere applicati con successo al problema dell’integrazione dei sistemi dinamici. Nella prima parte si formalizza il teorema di Noether generalizzato, introducendo il concetto dell’applicazione momento, e si dà una descrizione dettagliata del processo di riduzione simplettica, che consiste nello sfruttare le simmetrie di un sistema fisico, ovvero l’invarianza sotto l’azione di un gruppo dato, al fine di eliminarne i gradi di libertà ridondanti. Nella seconda parte, in quanto risultato notevole reso possibile dalla teoria suesposta, si fornisce una panoramica dei sistemi di tipo Calogero-Moser: sistemi totalmente integrabili che possono essere introdotti e risolti usando la tecnica della riduzione simplettica.
Studio della fluidodinamica e della reazione chimica in un reattore agitato tramite modellazione cfd
Resumo:
L’attività di tesi è stata rivolta a realizzare l’accoppiamento tra modelli di reazione chimica e modelli di fluidodinamica per una reazione eterogenea solido-liquido in un reattore agitato, in ambito di un codice commerciale di fluidodinamica numerica. Lo studio ha avuto come punto di partenza la definizione e la discretizzazione del dominio di calcolo tramite un apposito programma. Per una trattazione completa, si sono svolti studi preliminari volti ad identificare le incertezze dovute ai metodi numerici e i limiti dovuti alla formulazione dei modelli per la descrizione del sistema. Lo studio si è svolto considerando sistemi di complessità crescente, partendo da simulazioni monofase fino ad arrivare allo studio di diverse soluzioni per sistemi reagenti con reazioni eterogenee solido-liquido. Questi ultimi esempi applicativi sono serviti come verifica del modello sviluppato (dove con modello si è indicato l’insieme dei modelli relativi alla fluidodinamica accoppiati al modello di reazione). Questa attività ha contribuito ad affrontare un problema di simulazione completa e completamente predittiva dei reattori chimici, essendo la letteratura a riguardo limitata, a differenza di quella relativa alle simulazioni puramente fluidodinamiche.