986 resultados para Bluetooth TuCSoN Sistemi Distribuiti


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi prende spunto da altri studi realizzati nel campo delle esattamente nel campo delle “Swam Intelligence”, una branca delle intelligenze artificiali prende spunto dal comportamento di animali sociali, sopratutto insetti come termini, formiche ed api, per trarne interessanti metafore per la creazione di algoritmi e tecniche di programmazione. Questo tipo di algoritmi, come per gli esempi tratti dalla biologia, risultano dotati di interessanti proprietà adatte alla risoluzione di certi problemi nell'ambito dell'ingegneria. Lo scopo della tesi è quello di mostrare tramite un esempio pratico le proprietà dei sistemi sviluppati tramite i principi delle Swarm Intelligence, evidenziando la flessibilità di questi sistemi. Nello specifico, la mia tesi analizzerà il problema della suddivisione del lavoro in una colonia di formiche, fornendo un esempio pratico quale il compito di cattura di prede in un determinato ambiente. Ho sviluppato un'applicazione software in Java che simula tale comportamento, i dati utilizzati durante le diverse simulazioni possono essere modificati tramite file di testo, in modo da ottenere risultati validi per diversi contesti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The ferric uptake regulator protein Fur regulates iron-dependent gene expression in bacteria. In the human pathogen Helicobacter pylori, Fur has been shown to regulate iron-induced and iron-repressed genes. Herein we investigate the molecular mechanisms that control this differential iron-responsive Fur regulation. Hydroxyl radical footprinting showed that Fur has different binding architectures, which characterize distinct operator typologies. On operators recognized with higher affinity by holo-Fur, the protein binds to a continuous AT-rich stretch of about 20 bp, displaying an extended protection pattern. This is indicative of protein wrapping around the DNA helix. DNA binding interference assays with the minor groove binding drug distamycin A, point out that the recognition of the holo-operators occurs through the minor groove of the DNA. By contrast, on the apo-operators, Fur binds primarily to thymine dimers within a newly identified TCATTn10TT consensus element, indicative of Fur binding to one side of the DNA, in the major groove of the double helix. Reconstitution of the TCATTn10TT motif within a holo-operator results in a feature binding swap from an holo-Fur- to an apo-Fur-recognized operator, affecting both affinity and binding architecture of Fur, and conferring apo-Fur repression features in vivo. Size exclusion chromatography indicated that Fur is a dimer in solution. However, in the presence of divalent metal ions the protein is able to multimerize. Accordingly, apo-Fur binds DNA as a dimer in gel shift assays, while in presence of iron, higher order complexes are formed. Stoichiometric Ferguson analysis indicates that these complexes correspond to one or two Fur tetramers, each bound to an operator element. Together these data suggest that the apo- and holo-Fur repression mechanisms apparently rely on two distinctive modes of operator-recognition, involving respectively the readout of a specific nucleotide consensus motif in the major groove for apo-operators, and the recognition of AT-rich stretches in the minor groove for holo-operators, whereas the iron-responsive binding affinity is controlled through metal-dependent shaping of the protein structure in order to match preferentially the major or the minor groove.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa trattazione verterà sull'analisi di un sistema di gioco tra due individui, tra loro interagenti mediante handeld device, in un contesto immersivo posto in un luogo chiuso di natura museale. L'intera struttura, sviluppata nell'ambito del Corso di Sistemi ed Applicazioni Multimediali nell'anno 2010-2011, vuole porre un'innovazione rispetto agli scenari esistenti: laddove un'interazione museale richieda spesso la staticità dell'utilizzatore del servizio, il mezzo del gioco richiede invece la manipolazione e il movimento all'interno del luogo, garantendo un coinvolgimento maggiormente accentuato rispetto alla normale fruizione dei contenuti. Inoltre, la scelta alla base della realizzazione realizzazione si affida allo strumento multimediale e sempre più diffuso costituito dalle tecniche di Realtà Aumentata, che appongono aggiunte digitali all'ambiente circostante e permettono di modellare strutture d'informazione e manipolazione percepibili solo tramite apposite interfacce, ma pienamente inserite in un tessuto reale. La componente innovativa in questo schema è però portata da un'ulteriore aspetto, quello della cooper- azione di due dispositivi in contemporanea attori dell'interazione che, attraverso l'azione sulle informazioni esistenti, consentono di produrre modifiche rilevabili da ciascuno dei coinvolti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo della presente tesi di dottorato è di illustrare il lavoro svolto nella progettazione del circuito a metallo liquido del Test Blanket System (TBS) Helium Cooled Lithium Lead (HCLL), uno dei sistemi fondamentali del reattore sperimentale ITER che dovrà dimostrare la fattibilità di produrre industrialmente energia elettrica da processi di fusione nucleare. Il blanket HCLL costituisce una delle sei configurazioni che verranno testate in ITER, sulla base degli esperimenti condotti nei 10 dieci anni di vita del reattore verrà selezionata la configurazione che determinerà la costituzione del primo reattore dimostrativo per la produzione di un surplus di energia elettrica venti volte superiore all’energia consumata, DEMO. Il circuito ausiliario del blanket HCLL è finalizzato, in DEMO all’estrazione del trizio generato mediante il TES; ed in ITER alla dimostrazione della fattibilità di estrarre il trizio generato e di poter gestire il ciclo del trizio. Lo sviluppo dei componenti, svolto in questa tesi, è accentrato su tale dispositivo, il TES. In tale ambito si inseriscono le attività che sono descritte nei capitoli della seguente tesi di dottorato: selezione e progettazione preliminare del sistema di estrazione del trizio dalla lega eutettica Pb15.7Li del circuito a metallo liquido del TBM HCLL; la progettazione, realizzazione e qualifica dei sensori a permeazione per la misura della concentrazione di trizio nella lega eutettica Pb15.7Li; la qualificazione sperimentale all’interno dell’impianto TRIEX (TRItium EXtarction) della tecnologia selezionata per l’estrazione del trizio dalla lega; la progettazione della diagnostica di misura e controllo del circuito ausiliario del TBM HCLL.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il percorso parte dall'analisi delle strategie della Teoria dei giochi, si sofferma sul concetto di razionalità nelle decisioni(economiche); continua con la descrizione del funzionamento del baratto in tempi antichi e le declinazioni che ha avuto(economie del dono, baratto muto); esamina la teoria del valore di Carl Menger, per poi allargare la visione alle teorie del valore enunciate dagli economisti dal XVIII secolo, anni in cui si iniziavano ad esaminare i meccanismi alla base degli scambi di mercato; si precisa il funzionamento del ciclo economico(non è eterno), la possibilità di crollo del sistema economico, le ripercussioni di questo sulla moneta(ricerca di sistemi economici alternativi). Nella seconda parte si analizzano i risultati delle più recenti simulazioni relative alla nascita della moneta e, non meno importante, al suo collasso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto di tesi ha analizzato i processi erosivi in atto in quattro aree della costa emilianoromagnola settentrionale, situate davanti a importanti foci fluviali: Volano, Reno, F. Uniti e Savio. Il lavoro di tesi si colloca all’interno di un progetto più ampio, che prevede la collaborazione tra la Regione Emilia Romagna, Servizio Geologico, Sismico e dei Suoli e l’Istituto di Scienze Marine ISMAR-CNR, sede di Bologna. Quest’ultimo ha acquisito, durante la campagna ERO2010, 210 km di profili sismici ad alta risoluzione in un’area sotto-costa, posta tra i 2 e gli 8 metri di profondità. Il lavoro di tesi ha usufruito di una nuova strategia di analisi, la sismica ad alta risoluzione (Chirp sonar), che ha permesso di identificare ed esaminare l’architettura geologica riconoscibile nei profili ed approfondire la conoscenza dell’assetto sub-superficiale dei depositi, ampliando le conoscenze di base riguardanti la dinamica dei litorali. L’interpretazione dei dati disponibili è avvenuta seguendo differenti fasi di studio: la prima, più conoscitiva, ha previsto l’identificazione delle evidenze di erosione nelle aree in esame mediante l’analisi della variazione delle linee di riva, l’osservazione delle opere poste a difesa del litorale e lo studio dell’evoluzione delle principali foci. Nella fase successiva le facies identificate nei profili sismici sono state interpretate in base alle loro caratteristiche geometriche ed acustiche, identificando le principali strutture presenti e interpretando, sulla base delle informazioni storiche apprese e delle conoscenze geologiche a disposizione, i corpi sedimentari riconosciuti. I nuovi profili Chirp sonar hanno consentito la ricostruzione geologica mediante la correlazione dei dati a mare (database ISMAR-CNR, Bologna, Carta geologica dei mari italiani 1:250.000) con quelli disponibili a terra, quali Carta dell’evoluzione storica dei cordoni costieri (Servizio Geologico e Sismico dei Suoli, Bo) e Carta geologica 1:50.000 (Servizio Geologico d’Italia e Progetto CARG). La conoscenza dei termini naturali e antropici dello stato fisico dei sistemi costieri è il presupposto necessario per l'esecuzione di studi ambientali atti a una corretta gestione integrata della costa. L’analisi approfondita della geologia superficiale fornisce un’opportunità per migliorare il processo decisionale nella gestione dei litorali e nella scelta degli interventi da attuare sulla costa, che devono essere fatti consapevolmente considerando l’assetto geologico e prevedendo una strategia di manutenzione della costa a medio termine. Un singolo intervento di ripascimento produce effetti di breve durata e non sufficienti a sanare il problema e a mitigare il rischio costiero. Nei tratti costieri scarsamente alimentati, soggetti a persistenti fenomeni erosivi, occorre, pertanto, mettere in atto ripetuti interventi di ripascimento accompagnati da un idoneo piano di monitoraggio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

All'interno della tesi si è sviluppata una metodologia di supporto alle decisioni utile all'individuazione di determinate zone distribuite all'interno dell'area del delta del fiume Ural (Kazakistan), da considerare prioritarie ai fini della tutela della biodiversità. Il livello di priorità di queste aree è stato ricavato mediante l'aggregazione delle informazioni relative alle categorie di conservazione delle specie minacciate che popolano i diversi ecosistemi che caratterizzano l'area studio. Le categorie sono state confrontate fra loro mediante l'AHP che ha permesso di ottenere un set di pesi. L'utilizzo di tre differenti metodi di aggregazione (SAW, OWA, TOPSIS), ha permesso di ricavare un valore di conservazione che raggruppa le informazioni dei pesi attribuiti alle specie in un unico valore (CV) diverso per ogni metodo. Distribuiti i CV, sulla base della presenza delle relative specie, viene sviluppata una mappa di distribuzione dei valori di conservazione sintetici (CVS) ricavati mediante l'aggregazione dei CV in ogni punto dell'area studio. L'utilizzo di questa metodologia ha permesso di individuare, come previsto dagli obiettivi dell'elaborato, le aree a maggior valore per la conservazione degli habitat e delle specie, sulle quali focalizzare le future azioni di tutela e monitoraggio ambientale, dall'altro l'applicazione di una metodologia di supporto alle decisioni in grado di far fronte ai problemi di scarsa disponibilità e reperibilità di dati utili alla caratterizzazione dell’area di studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Organic electronics has grown enormously during the last decades driven by the encouraging results and the potentiality of these materials for allowing innovative applications, such as flexible-large-area displays, low-cost printable circuits, plastic solar cells and lab-on-a-chip devices. Moreover, their possible field of applications reaches from medicine, biotechnology, process control and environmental monitoring to defense and security requirements. However, a large number of questions regarding the mechanism of device operation remain unanswered. Along the most significant is the charge carrier transport in organic semiconductors, which is not yet well understood. Other example is the correlation between the morphology and the electrical response. Even if it is recognized that growth mode plays a crucial role into the performance of devices, it has not been exhaustively investigated. The main goal of this thesis was the finding of a correlation between growth modes, electrical properties and morphology in organic thin-film transistors (OTFTs). In order to study the thickness dependence of electrical performance in organic ultra-thin-film transistors, we have designed and developed a home-built experimental setup for performing real-time electrical monitoring and post-growth in situ electrical characterization techniques. We have grown pentacene TFTs under high vacuum conditions, varying systematically the deposition rate at a fixed room temperature. The drain source current IDS and the gate source current IGS were monitored in real-time; while a complete post-growth in situ electrical characterization was carried out. At the end, an ex situ morphological investigation was performed by using the atomic force microscope (AFM). In this work, we present the correlation for pentacene TFTs between growth conditions, Debye length and morphology (through the correlation length parameter). We have demonstrated that there is a layered charge carriers distribution, which is strongly dependent of the growth mode (i.e. rate deposition for a fixed temperature), leading to a variation of the conduction channel from 2 to 7 monolayers (MLs). We conciliate earlier reported results that were apparently contradictory. Our results made evident the necessity of reconsidering the concept of Debye length in a layered low-dimensional device. Additionally, we introduce by the first time a breakthrough technique. This technique makes evident the percolation of the first MLs on pentacene TFTs by monitoring the IGS in real-time, correlating morphological phenomena with the device electrical response. The present thesis is organized in the following five chapters. Chapter 1 makes an introduction to the organic electronics, illustrating the operation principle of TFTs. Chapter 2 presents the organic growth from theoretical and experimental points of view. The second part of this chapter presents the electrical characterization of OTFTs and the typical performance of pentacene devices is shown. In addition, we introduce a correcting technique for the reconstruction of measurements hampered by leakage current. In chapter 3, we describe in details the design and operation of our innovative home-built experimental setup for performing real-time and in situ electrical measurements. Some preliminary results and the breakthrough technique for correlating morphological and electrical changes are presented. Chapter 4 meets the most important results obtained in real-time and in situ conditions, which correlate growth conditions, electrical properties and morphology of pentacene TFTs. In chapter 5 we describe applicative experiments where the electrical performance of pentacene TFTs has been investigated in ambient conditions, in contact to water or aqueous solutions and, finally, in the detection of DNA concentration as label-free sensor, within the biosensing framework.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work describes the development of a simulation tool which allows the simulation of the Internal Combustion Engine (ICE), the transmission and the vehicle dynamics. It is a control oriented simulation tool, designed in order to perform both off-line (Software In the Loop) and on-line (Hardware In the Loop) simulation. In the first case the simulation tool can be used in order to optimize Engine Control Unit strategies (as far as regard, for example, the fuel consumption or the performance of the engine), while in the second case it can be used in order to test the control system. In recent years the use of HIL simulations has proved to be very useful in developing and testing of control systems. Hardware In the Loop simulation is a technology where the actual vehicles, engines or other components are replaced by a real time simulation, based on a mathematical model and running in a real time processor. The processor reads ECU (Engine Control Unit) output signals which would normally feed the actuators and, by using mathematical models, provides the signals which would be produced by the actual sensors. The simulation tool, fully designed within Simulink, includes the possibility to simulate the only engine, the transmission and vehicle dynamics and the engine along with the vehicle and transmission dynamics, allowing in this case to evaluate the performance and the operating conditions of the Internal Combustion Engine, once it is installed on a given vehicle. Furthermore the simulation tool includes different level of complexity, since it is possible to use, for example, either a zero-dimensional or a one-dimensional model of the intake system (in this case only for off-line application, because of the higher computational effort). Given these preliminary remarks, an important goal of this work is the development of a simulation environment that can be easily adapted to different engine types (single- or multi-cylinder, four-stroke or two-stroke, diesel or gasoline) and transmission architecture without reprogramming. Also, the same simulation tool can be rapidly configured both for off-line and real-time application. The Matlab-Simulink environment has been adopted to achieve such objectives, since its graphical programming interface allows building flexible and reconfigurable models, and real-time simulation is possible with standard, off-the-shelf software and hardware platforms (such as dSPACE systems).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggi, grazie al continuo progredire della tecnologia, in tutti i sistemi di produzione industriali si trova almeno un macchinario che permette di automatizzare determinate operazioni. Alcuni di questi macchinari hanno un sistema di visione industriale (machine vision), che permette loro di osservare ed analizzare ciò che li circonda, dotato di algoritmi in grado di operare alcune scelte in maniera automatica. D’altra parte, il continuo progresso tecnologico che caratterizza la realizzazione di sensori di visione, ottiche e, nell’insieme, di telecamere, consente una sempre più precisa e accurata acquisizione della scena inquadrata. Oggi, esigenze di mercato fanno si che sia diventato necessario che macchinari dotati dei moderni sistemi di visione permettano di fare misure morfometriche e dimensionali non a contatto. Ma le difficoltà annesse alla progettazione ed alla realizzazione su larga scala di sistemi di visione industriali che facciano misure dimensioni non a contatto, con sensori 2D, fanno sì che in tutto il mondo il numero di aziende che producono questo tipo di macchinari sia estremamente esiguo. A fronte di capacità di calcolo avanzate, questi macchinari necessitano dell’intervento di un operatore per selezionare quali parti dell’immagine acquisita siano d’interesse e, spesso, anche di indicare cosa misurare in esse. Questa tesi è stata sviluppata in sinergia con una di queste aziende, che produce alcuni macchinari per le misure automatiche di pezzi meccanici. Attualmente, nell’immagine del pezzo meccanico vengono manualmente indicate le forme su cui effettuare misure. Lo scopo di questo lavoro è quello di studiare e prototipare un algoritmo che fosse in grado di rilevare e interpretare forme geometriche note, analizzando l’immagine acquisita dalla scansione di un pezzo meccanico. Le difficoltà affrontate sono tipiche dei problemi del “mondo reale” e riguardano tutti i passaggi tipici dell’elaborazione di immagini, dalla “pulitura” dell’immagine acquisita, alla sua binarizzazione fino, ovviamente, alla parte di analisi del contorno ed identificazione di forme caratteristiche. Per raggiungere l’obiettivo, sono state utilizzate tecniche di elaborazione d’immagine che hanno permesso di interpretare nell'immagine scansionata dalla macchina tutte le forme note che ci siamo preposti di interpretare. L’algoritmo si è dimostrato molto robusto nell'interpretazione dei diametri e degli spallamenti trovando, infatti, in tutti i benchmark utilizzati tutte le forme di questo tipo, mentre è meno robusto nella determinazione di lati obliqui e archi di circonferenza a causa del loro campionamento non lineare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Heat treatment of steels is a process of fundamental importance in tailoring the properties of a material to the desired application; developing a model able to describe such process would allow to predict the microstructure obtained from the treatment and the consequent mechanical properties of the material. A steel, during a heat treatment, can undergo two different kinds of phase transitions [p.t.]: diffusive (second order p.t.) and displacive (first order p.t.); in this thesis, an attempt to describe both in a thermodynamically consistent framework is made; a phase field, diffuse interface model accounting for the coupling between thermal, chemical and mechanical effects is developed, and a way to overcome the difficulties arising from the treatment of the non-local effects (gradient terms) is proposed. The governing equations are the balance of linear momentum equation, the Cahn-Hilliard equation and the balance of internal energy equation. The model is completed with a suitable description of the free energy, from which constitutive relations are drawn. The equations are then cast in a variational form and different numerical techniques are used to deal with the principal features of the model: time-dependency, non-linearity and presence of high order spatial derivatives. Simulations are performed using DOLFIN, a C++ library for the automated solution of partial differential equations by means of the finite element method; results are shown for different test-cases. The analysis is reduced to a two dimensional setting, which is simpler than a three dimensional one, but still meaningful.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Combustion control is one of the key factors to obtain better performances and lower pollutant emissions for diesel, spark ignition and HCCI engines. An algorithm that allows estimating, as an example, the mean indicated torque for each cylinder, could be easily used in control strategies, in order to carry out cylinders trade-off, control the cycle to cycle variation, or detect misfires. A tool that allows evaluating the 50% of Mass Fraction Burned (MFB50), or the net Cumulative Heat Release (CHRNET), or the ROHR peak value (Rate of Heat Release), could be used to optimize spark advance or to detect knock in gasoline engines and to optimize injection pattern in diesel engines. Modern management systems are based on the control of the mean indicated torque produced by the engine: they need a real or virtual sensor in order to compare the measured value with the target one. Many studies have been performed in order to obtain an accurate and reliable over time torque estimation. The aim of this PhD activity was to develop two different algorithms: the first one is based on the instantaneous engine speed fluctuations measurement. The speed signal is picked up directly from the sensor facing the toothed wheel mounted on the engine for other control purposes. The engine speed fluctuation amplitudes depend on the combustion and on the amount of torque delivered by each cylinder. The second algorithm processes in-cylinder pressure signals in the angular domain. In this case a crankshaft encoder is not necessary, because the angular reference can be obtained using a standard sensor wheel. The results obtained with these two methodologies are compared in order to evaluate which one is suitable for on board applications, depending on the accuracy required.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi tratta l'istituto dell'arbitrato estero sotto la duplice prospettiva internazionale e italiana. Particolare attenzione è dedicata alla disciplina dettata in materia dalla Convenzione di New York del 1958 in tema di riconoscimento e l'esecuzione delle sentenze arbitrali estere, con uno sguardo preferenziale alle interpretazioni e alle applicazioni concrete della stessa in campo internazionale. Ugualmente si affrontano i temi che maggiormente interessano il fenomeno arbitrale, e segnatamente il regime di circolazione del suo prodotto finale, con particolare attenzione ai rapporti fra il fenomeno arbitrale da un lato e i sistemi giurisdizionali dall'altro (con riferimento all'applicabilità a livello internazionale di principi come la Competence-Competence o il rilievo del meccanismo del forum prorgatum). Illuminata la prospettiva internazionale si analizza l'istituto in chiave interna: dalla definizione del concetto di arbitrato interno ed estero secondo l'ordinamento italiano, all'analisi delle condizioni richieste per il riconoscimento e della relativa procedura, fino ad affrontare gli aspetti ancora discussi, in particolare in relazione al trattamento da riservarsi ai lodi de eadem re e in generale al regime giuridico da riconoscersi alla clausola che preveda arbitrato estero, anche il relazione alle evoluzioni giurisprudenziali e legislative degli ultimi anni. Lo studio si conclude con uno sguardo alla circolabilità extra moenia del prodotto arbitrale italiano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work presents exact, hybrid algorithms for mixed resource Allocation and Scheduling problems; in general terms, those consist into assigning over time finite capacity resources to a set of precedence connected activities. The proposed methods have broad applicability, but are mainly motivated by applications in the field of Embedded System Design. In particular, high-performance embedded computing recently witnessed the shift from single CPU platforms with application-specific accelerators to programmable Multi Processor Systems-on-Chip (MPSoCs). Those allow higher flexibility, real time performance and low energy consumption, but the programmer must be able to effectively exploit the platform parallelism. This raises interest in the development of algorithmic techniques to be embedded in CAD tools; in particular, given a specific application and platform, the objective if to perform optimal allocation of hardware resources and to compute an execution schedule. On this regard, since embedded systems tend to run the same set of applications for their entire lifetime, off-line, exact optimization approaches are particularly appealing. Quite surprisingly, the use of exact algorithms has not been well investigated so far; this is in part motivated by the complexity of integrated allocation and scheduling, setting tough challenges for ``pure'' combinatorial methods. The use of hybrid CP/OR approaches presents the opportunity to exploit mutual advantages of different methods, while compensating for their weaknesses. In this work, we consider in first instance an Allocation and Scheduling problem over the Cell BE processor by Sony, IBM and Toshiba; we propose three different solution methods, leveraging decomposition, cut generation and heuristic guided search. Next, we face Allocation and Scheduling of so-called Conditional Task Graphs, explicitly accounting for branches with outcome not known at design time; we extend the CP scheduling framework to effectively deal with the introduced stochastic elements. Finally, we address Allocation and Scheduling with uncertain, bounded execution times, via conflict based tree search; we introduce a simple and flexible time model to take into account duration variability and provide an efficient conflict detection method. The proposed approaches achieve good results on practical size problem, thus demonstrating the use of exact approaches for system design is feasible. Furthermore, the developed techniques bring significant contributions to combinatorial optimization methods.