985 resultados para meccanica quantistica oscillatore armonico propagatore funzioni speciali
Resumo:
La maggior parte dei corpi celesti che popolano l’universo emette “luce”. Ciò significa che essi sono visibili dai nostri occhi quando li alziamo sul cielo notturno o al limite, se troppo lontani, da potenti telescopi ottici. Questa luminosità ha nella maggior parte dei casi un’origine termonucleare, dovuta cioè alla presenza di sorgenti come le stelle, in cui l’elevata temperatura interna legata alle reazioni di fusione che le mantengono in vita produce una radiazione di corpo nero in banda ottica. Tuttavia, dato che la parte visibile costituisce solo una minuscola porzione dell’intero spettro elettromagnetico, andando ad indagare emissioni a differenti frequenze come il radio, l’infrarosso, l’ultravioletto, X e gamma, si rileva la presenza un’altra categoria di oggetti dalle caratteristiche peculiari che li rendono un affascinante campo di studio per molteplici ragioni: i Nuclei Galattici Attivi (AGN) (figura 1). Sono abbastanza rari (costituiscono meno dell’1% del totale rispetto alle normali galassie) e dalla vita breve, spesso molto lontani e potenti, ferventi di un’intensa attività che sembra crescere col redshift; si ipotizza perciò che siano giovani e che ci aprano una finestra sul momento successivo al collasso iniziale proprio della vita di ogni galassia, rivelandosi fondamentali per elaborare eventuali teorie cosmologiche. Inoltre, sebbene spesso ospiti di galassie visibili anche in ottico, i loro meccanismi di emissione e gli speciali comportamenti necessitano di analisi e spiegazioni totalmente differenti. Particolare è anche il metodo di rilevamento: per coprire infatti queste determinate frequenze è stata sviluppata una tecnica innovativa capace di dare ottimi risultati, perfino migliori di quelli dei telescopi tradizionali, l’interferometria radio. La tesi si divide in due parti: la prima delinea un ritratto degli AGN, la seconda analizza il flusso proveniente dalla radiogalassia 3C 84 a 15.4 e 43 GHz e ipotizza un possibile sito di origine dell’aumento di brillanza osservato.
Resumo:
A control-oriented model of a Dual Clutch Transmission was developed for real-time Hardware In the Loop (HIL) applications, to support model-based development of the DCT controller. The model is an innovative attempt to reproduce the fast dynamics of the actuation system while maintaining a step size large enough for real-time applications. The model comprehends a detailed physical description of hydraulic circuit, clutches, synchronizers and gears, and simplified vehicle and internal combustion engine sub-models. As the oil circulating in the system has a large bulk modulus, the pressure dynamics are very fast, possibly causing instability in a real-time simulation; the same challenge involves the servo valves dynamics, due to the very small masses of the moving elements. Therefore, the hydraulic circuit model has been modified and simplified without losing physical validity, in order to adapt it to the real-time simulation requirements. The results of offline simulations have been compared to on-board measurements to verify the validity of the developed model, that was then implemented in a HIL system and connected to the TCU (Transmission Control Unit). Several tests have been performed: electrical failure tests on sensors and actuators, hydraulic and mechanical failure tests on hydraulic valves, clutches and synchronizers, and application tests comprehending all the main features of the control performed by the TCU. Being based on physical laws, in every condition the model simulates a plausible reaction of the system. The first intensive use of the HIL application led to the validation of the new safety strategies implemented inside the TCU software. A test automation procedure has been developed to permit the execution of a pattern of tests without the interaction of the user; fully repeatable tests can be performed for non-regression verification, allowing the testing of new software releases in fully automatic mode.
Resumo:
DI Diesel engine are widely used both for industrial and automotive applications due to their durability and fuel economy. Nonetheless, increasing environmental concerns force that type of engine to comply with increasingly demanding emission limits, so that, it has become mandatory to develop a robust design methodology of the DI Diesel combustion system focused on reduction of soot and NOx simultaneously while maintaining a reasonable fuel economy. In recent years, genetic algorithms and CFD three-dimensional combustion simulations have been successfully applied to that kind of problem. However, combining GAs optimization with actual CFD three-dimensional combustion simulations can be too onerous since a large number of calculations is usually needed for the genetic algorithm to converge, resulting in a high computational cost and, thus, limiting the suitability of this method for industrial processes. In order to make the optimization process less time-consuming, CFD simulations can be more conveniently used to generate a training set for the learning process of an artificial neural network which, once correctly trained, can be used to forecast the engine outputs as a function of the design parameters during a GA optimization performing a so-called virtual optimization. In the current work, a numerical methodology for the multi-objective virtual optimization of the combustion of an automotive DI Diesel engine, which relies on artificial neural networks and genetic algorithms, was developed.
Resumo:
I moderni motori a combustione interna diventano sempre più complessi L'introduzione della normativa antinquinamento EURO VI richiederà una significativa riduzione degli inquinanti allo scarico. La maggiore criticità è rappresentata dalla riduzione degli NOx per i motori Diesel da aggiungersi a quelle già in vigore con le precedenti normative. Tipicamente la messa a punto di una nuova motorizzazione prevede una serie di test specifici al banco prova. Il numero sempre maggiore di parametri di controllo della combustione, sorti come conseguenza della maggior complessità meccanica del motore stesso, causa un aumento esponenziale delle prove da eseguire per caratterizzare l'intero sistema. L'obiettivo di questo progetto di dottorato è quello di realizzare un sistema di analisi della combustione in tempo reale in cui siano implementati diversi algoritmi non ancora presenti nelle centraline moderne. Tutto questo facendo particolare attenzione alla scelta dell'hardware su cui implementare gli algoritmi di analisi. Creando una piattaforma di Rapid Control Prototyping (RCP) che sfrutti la maggior parte dei sensori presenti in vettura di serie; che sia in grado di abbreviare i tempi e i costi della sperimentazione sui motopropulsori, riducendo la necessità di effettuare analisi a posteriori, su dati precedentemente acquisiti, a fronte di una maggior quantità di calcoli effettuati in tempo reale. La soluzione proposta garantisce l'aggiornabilità, la possibilità di mantenere al massimo livello tecnologico la piattaforma di calcolo, allontanandone l'obsolescenza e i costi di sostituzione. Questa proprietà si traduce nella necessità di mantenere la compatibilità tra hardware e software di generazioni differenti, rendendo possibile la sostituzione di quei componenti che limitano le prestazioni senza riprogettare il software.
Resumo:
In questo lavoro si è affrontata la definizione e la caratterizzazione di una misura di entropia di singolo nodo nell’ambito della teoria statistica dei network, per ottenere informazioni a livello di singolo nodo a fini di analisi e classificazione. Sono state introdotte e studiate alcune proprietà di questi osservabili in quanto la Network Entropy, precedentemente definita e utilizzata nello stesso contesto, fornisce un’informazione globale a livello dell’intero network. I risultati delle analisi svolte con questa definizione sono stati confrontati con una seconda definizione di entropia di singolo nodo proveniente dalla letteratura, applicando entrambe le misure allo stesso problema di caratterizzazione di due classi di nodi all’interno di un network
Resumo:
The ingestion of a meal evokes a series of digestive processes, which consist of the essential functions of the digestive system: food transport, secretory activity, absorption of nutrients and the expulsion of undigested residues do not absorbed. The gastrointestinal chemosensitivity is characterized by cellular elements of the endocrine gastrointestinal mucosa and nerve fibers, in particular of vagal nature. A wide range of mediators endocrine and/or paracrine can be released from various endocrine cells in response to nutrients in the diet. These hormones, in addition to their direct activity, act through specific receptors activating some of the most important functions in the control of energy intake and energy homeostasis in the body. For integration of this complex system of control of gastrointestinal chemosensitivity, recent evidence demonstrates the presence of taste receptors (TR) belonging to the family of G proteins coupled receptor expressed in the mucosa of the gastrointestinal tract of different mammals and human. This thesis is divided into several research projects that have been conceived in order to clarify the relationship between TR and nutrients. To define this relationship I have used various scientific approaches, which have gone on to evaluate changes in signal molecules of TR, in particular of the α-transducin in the fasting state and after refeeding with standard diet in the gastrointestinal tract of the pig, the mapping of the same molecule signal in the gastrointestinal tract of fish (Dicentrarchus labrax), the signaling pathway of bitter TR in the STC-1 endocrine cell line and finally the involvement of bitter TR in particular of T2R38 in patients with an excessive caloric intake. The results showed how there is a close correlation between nutrients, TR and hormonal release and how they are useful both in taste perception but also likely to be involved in chronic diseases such as obesity.
Resumo:
Theoretical models are developed for the continuous-wave and pulsed laser incision and cut of thin single and multi-layer films. A one-dimensional steady-state model establishes the theoretical foundations of the problem by combining a power-balance integral with heat flow in the direction of laser motion. In this approach, classical modelling methods for laser processing are extended by introducing multi-layer optical absorption and thermal properties. The calculation domain is consequently divided in correspondence with the progressive removal of individual layers. A second, time-domain numerical model for the short-pulse laser ablation of metals accounts for changes in optical and thermal properties during a single laser pulse. With sufficient fluence, the target surface is heated towards its critical temperature and homogeneous boiling or "phase explosion" takes place. Improvements are seen over previous works with the more accurate calculation of optical absorption and shielding of the incident beam by the ablation products. A third, general time-domain numerical laser processing model combines ablation depth and energy absorption data from the short-pulse model with two-dimensional heat flow in an arbitrary multi-layer structure. Layer removal is the result of both progressive short-pulse ablation and classical vaporisation due to long-term heating of the sample. At low velocity, pulsed laser exposure of multi-layer films comprising aluminium-plastic and aluminium-paper are found to be characterised by short-pulse ablation of the metallic layer and vaporisation or degradation of the others due to thermal conduction from the former. At high velocity, all layers of the two films are ultimately removed by vaporisation or degradation as the average beam power is increased to achieve a complete cut. The transition velocity between the two characteristic removal types is shown to be a function of the pulse repetition rate. An experimental investigation validates the simulation results and provides new laser processing data for some typical packaging materials.
Resumo:
L’attività sperimentale presentata in questo elaborato è volta a conoscere le proprietà meccaniche di una lega di magnesio rinforzata con particelle ceramiche (Carburo di silicio SiC). Scopo del lavoro sarà pertanto il confronto fra le proprietà meccaniche del materiale base ZM21 rispetto al materiale prodotto in Israele con rinforzo di carburo di silicio, con particolare riferimento alle proprietà a trazione, a compressione e alla distribuzione di particelle nella matrice (analisi metallografica).
Resumo:
Nel seguente elaborato verrà presentato il lavoro volto alla progettazione di una protesi di piede realizzata con materiale composito in fibra di carbonio riciclato. Per il suo conseguimento sono state prese in considerazione due scelte progettuali che permetteranno una futura realizzazione semplice ed economica. Una volta determinate le scelte progettuali, si sono generati dei semplici modelli di primo approccio, per i quali sono stati previsti modellazione CAD e simulazioni di opportuni modelli agli elementi finiti. Su quest’ultimi sono stati applicati i carichi e i vincoli secondo la norma UNI ISO 22675 e sono state eseguite diverse simulazioni al variare di alcuni parametri geometrici e del numero e orientamenti degli strati componenti le lamine. Dalle simulazioni sono stati ricavati i valori di tensione, ai quali è stato applicato il criterio di resistenza strutturale per i materiali compositi di Tsai – Hill. Dal confronto di tutti i risultati, si sono determinati i parametri di progetto ottimali per ognuna delle due varianti progettuali proposte. Sulla base dei risultati ottenuti sono stati realizzati nuovi modelli CAD più dettagliati, per i quali è stata condotta l’analisi FEM e la verifica del criterio strutturale come per i modelli di primo approccio. I modelli cosi definiti possono essere la base di partenza per la definizione del progetto costruttivo del prototipo di una o entrambe le varianti progettuali.
Resumo:
Attualmente il panorama informatico è dominato dai dispositivi mobile: smartphone e tablet pc dominano incontrastati la scena del mercato elettronico. Questo comporta un radicale ripensamento e cambiamento del software, le web app e le mobile application richiedono infatti una sempre maggiore reattività dell’interfaccia utente, la persistente connessione a Internet e l’interazione con una moltitudine di dispositivi esterni. Il progettista di software deve oggi far fronte a tutta una serie di problematiche, l’aumentata complessità dei sistemi e i sempre più ristretti tempi di sviluppo e consegna richiedono compromessi tra la semplicità delle tecniche di progettazione e l’efficienza del prodotto ottenuto. Le architetture ad eventi in primis, unitamente al paradigma di programmazione asincrona, si pongono come soluzione ottimale a queste esigenze. L’obbiettivo principale di questa tesi è quello di offrire una panoramica generale sullo stato dell’arte delle architetture ad eventi focalizzandosi sul ruolo che esse assumono nel contesto delle applicazioni moderne, intendendo principalmente con questo termine le web application e le mobile application. Partendo dal concetto di programmazione sincrona e parallela si giunge a descrivere un terzo modello, il modello asincrono, di fondamentale importanza per i sistemi event-driven. Utilizzando come principale linguaggio di riferimento JavaScript si affrontano le problematiche legate alla stesura del codice per la gestione degli eventi, l’asincronicità intrinseca degli eventi e l’utilizzo di funzioni di callback portano a produrre codice di difficile lettura e manutenzione. Si analizzano quindi in dettaglio i pattern fondamentali e le tecniche attualmente utilizzate per l’ottimizzazione della gestione del codice e delle problematiche esposte fornendo numerosi esempi esplicativi.
Resumo:
I limiti delle tecniche dialitiche attualmente in uso nella cura dell'insufficienza renale cronica hanno portato alla realizzazione di prototipi di reni bioartificiali totalmente impiantabili. Seguendo approcci diversi alcuni ricercatori americani tra cui Edward Jennings, ed il team composto da Shuvo Roy, William Fissel e David Humes, stanno sviluppando dei dispositivi che siano in grado di replicare tutte le principali funzioni renali. In questo lavoro di tesi viene descritto lo stato dell'arte di questi progetti con riferimento ad articoli pubblicati in letteratura.
Resumo:
Il disagio e le conflittualità sociali presenti nelle nostre città in molteplici casi hanno come teatro le aree verdi e gli spazi non costruiti presenti sul territorio urbano, percepiti spesso da un lato come luoghi non controllati e quindi conquistabili, dall’altro lato, come luoghi trascurati e quindi non sicuri, infrequentabili. Uno sguardo complessivo a queste aree che ne ribalti la prospettiva valorizzandone le potenzialità, può portare ad un progetto coordinato in cui si cerchi di incrementare e sostenere alcune funzioni ritenute capaci di superare le criticità presenti. In quest’ottica un progetto complessivo di paesaggio che non consideri il non costruito come una spazio residuale, ma come un elemento capace di una relazione attiva con il contesto urbano, può contribuire alla coesione sociale, alla sensibilizzazione ai temi ambientali, al miglioramento dell’offerta di luoghi di ritrovo, all’aumento della sicurezza urbana. Negli ultimi anni, la sensibilizzazione nei confronti dei problemi connessi con la salvaguardia dell’ambiente ha portato a un considerevole incremento delle aree protette e delle zone destinate a verde all’interno delle aree urbanizzate. Spesso però si considerano queste zone, in particolare i parchi e le riserve, come luoghi non totalmente fruibili dalla popolazione, anche al di là delle specifiche e corrette esigenze di conservazione. Questa impostazione rischia di mettere in crisi anche attività economiche orientate alla gestione sostenibile del territorio come nel caso dell’agricoltura. In realtà, uno degli errori che si commette più di frequente è quello di considerare le aree verdi e quelle antropizzate come entità fini a sé stesse mentre una positiva coesistenza può essere realizzata solo se si consente una loro positiva interazione dinamica, coniugando esigenze di conservazione e salvaguardia delle attività sociali ed economiche e fornendo stimoli alla riconversione delle attività non compatibili con l’ambiente. Un mezzo per perseguire tale scopo è, sicuramente, quello di proporre ai comuni forme alternative di difesa e gestione dell’ambiente, valorizzando la naturale vocazione del territorio. Vista la notevole incidenza percentuale sulla superficie complessiva, risulta di particolare importanza la tutela e la rivalutazione delle realtà rurali che, ormai da lungo tempo, subiscono l’inarrestabile fenomeno dell’espansione edilizia e sono costrette ad una difficile convivenza con la periferia urbana.
Resumo:
Thrust fault-related folds in carbonate rocks are characterized by deformation accommodated by different structures, such as joints, faults, pressure solution seams, and deformation bands. Defining the development of fracture systems related to the folding process is significant both for theoretical and practical purposes. Fracture systems are useful constrains in order to understand the kinematical evolution of the fold. Furthermore, understanding the relationships between folding and fracturing provides a noteworthy contribution for reconstructing the geodynamic and the structural evolution of the studied area. Moreover, as fold-related fractures influence fluid flow through rocks, fracture systems are relevant for energy production (geothermal studies, methane and CO2 , storage and hydrocarbon exploration), environmental and social issues (pollutant distribution, aquifer characterization). The PhD project shows results of a study carried out in a multilayer carbonate anticline characterized by different mechanical properties. The aim of this study is to understand the factors which influence the fracture formation and to define their temporal sequence during the folding process. The studied are is located in the Cingoli anticline (Northern Apennines), which is characterized by a pelagic multilayer characterized by sequences with different mechanical stratigraphies. A multi-scale analysis has been made in several outcrops located in different structural positions. This project shows that the conceptual sketches proposed in literature and the strain distribution models outline well the geometrical orientation of most of the set of fractures observed in the Cingoli anticline. On the other hand, the present work suggests the relevance of the mechanical stratigraphy in particular controlling the type of fractures formed (e.g. pressure solution seams, joints or shear fractures) and their subsequent evolution. Through a multi-scale analysis, and on the basis of the temporal relationship between fracture sets and their orientation respect layering, I also suggest a conceptual model for fracture systems formation.
Resumo:
The dynamics of a passive back-to-back test rig have been characterised, leading to a multi-coordinate approach for the analysis of arbitrary test configurations. Universal joints have been introduced into a typical pre-loaded back-to-back system in order to produce an oscillating torsional moment in a test specimen. Two different arrangements have been investigated using a frequency-based sub-structuring approach: the receptance method. A numerical model has been developed in accordance with this theory, allowing interconnection of systems with two-coordinates and closed multi-loop schemes. The model calculates the receptance functions and modal and deflected shapes of a general system. Closed form expressions of the following individual elements have been developed: a servomotor, damped continuous shaft and a universal joint. Numerical results for specific cases have been compared with published data in literature and experimental measurements undertaken in the present work. Due to the complexity of the universal joint and its oscillating dynamic effects, a more detailed analysis of this component has been developed. Two models have been presented. The first represents the joint as two inertias connected by a massless cross-piece. The second, derived by the dynamic analysis of a spherical four-link mechanism, considers the contribution of the floating element and its gyroscopic effects. An investigation into non-linear behaviour has led to a time domain model that utilises the Runge-Kutta fourth order method for resolution of the dynamic equations. It has been demonstrated that the torsional receptances of a universal joint, derived using the simple model, result in representation of the joint as an equivalent variable inertia. In order to verify the model, a test rig has been built and experimental validation undertaken. The variable inertia of a universal joint has lead to a novel application of the component as a passive device for the balancing of inertia variations in slider-crank mechanisms.
Resumo:
In the framework of the micro-CHP (Combined Heat and Power) energy systems and the Distributed Generation (GD) concept, an Integrated Energy System (IES) able to meet the energy and thermal requirements of specific users, using different types of fuel to feed several micro-CHP energy sources, with the integration of electric generators of renewable energy sources (RES), electrical and thermal storage systems and the control system was conceived and built. A 5 kWel Polymer Electrolyte Membrane Fuel Cell (PEMFC) has been studied. Using experimental data obtained from various measurement campaign, the electrical and CHP PEMFC system performance have been determinate. The analysis of the effect of the water management of the anodic exhaust at variable FC loads has been carried out, and the purge process programming logic was optimized, leading also to the determination of the optimal flooding times by varying the AC FC power delivered by the cell. Furthermore, the degradation mechanisms of the PEMFC system, in particular due to the flooding of the anodic side, have been assessed using an algorithm that considers the FC like a black box, and it is able to determine the amount of not-reacted H2 and, therefore, the causes which produce that. Using experimental data that cover a two-year time span, the ageing suffered by the FC system has been tested and analyzed.