15 resultados para Cournot equilibrium, non-cooperative oligopoly, quasi-competitiveness, stability
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
In this thesis, a tube-based Distributed Economic Predictive Control (DEPC) scheme is presented for a group of dynamically coupled linear subsystems. These subsystems are components of a large scale system and control inputs are computed based on optimizing a local economic objective. Each subsystem is interacting with its neighbors by sending its future reference trajectory, at each sampling time. It solves a local optimization problem in parallel, based on the received future reference trajectories of the other subsystems. To ensure recursive feasibility and a performance bound, each subsystem is constrained to not deviate too much from its communicated reference trajectory. This difference between the plan trajectory and the communicated one is interpreted as a disturbance on the local level. Then, to ensure the satisfaction of both state and input constraints, they are tightened by considering explicitly the effect of these local disturbances. The proposed approach averages over all possible disturbances, handles tightened state and input constraints, while satisfies the compatibility constraints to guarantee that the actual trajectory lies within a certain bound in the neighborhood of the reference one. Each subsystem is optimizing a local arbitrary economic objective function in parallel while considering a local terminal constraint to guarantee recursive feasibility. In this framework, economic performance guarantees for a tube-based distributed predictive control (DPC) scheme are developed rigorously. It is presented that the closed-loop nominal subsystem has a robust average performance bound locally which is no worse than that of a local robust steady state. Since a robust algorithm is applying on the states of the real (with disturbances) subsystems, this bound can be interpreted as an average performance result for the real closed-loop system. To this end, we present our outcomes on local and global performance, illustrated by a numerical example.
Resumo:
Gli smartphone, sono dispositivi per la telefonia mobile che oramai includono una serie di funzionalità a supporto della multimedialità e non solo. Divenuti quasi dei notebook in miniatura, ne esistono di vari tipi e dimensioni e anche se la loro potenza di calcolo rimane di gran lunga inferiore a quella di un PC, riescono comunque a effettuare operazioni abbastanza evolute e con prestazioni accettabili. Quello che si vuole realizzare con questo lavoro non è uno studio su questi dispositivi (anche se in parte sarà affrontato), ma un approfondimento sulla possibilità di utilizzare una buona fetta di essi, a supporto dello sviluppo turistico nel nostro paese. In particolare si vuole realizzare una piattaforma mobile che metta in comunicazione individui che vogliono fornire informazione di tipo turistico (beni culturali, eventi, attività commerciali, ecc.) con individui che vogliono fruire di tali contenuti (un qualsiasi turista che sia in grado di utilizzare uno smartphone). Tale applicazione dovrà raccogliere informazioni su una determinata città e riuscire in maniera chiara e intuitiva a dare risposte alle principali domande che un turista si pone: • dove sono? • Cosa c’è d’interessante da visitare nei dintorni? • Interessante questa statua! Di cosa si tratta? • Quali sono gli eventi più interessanti ai quali potrei partecipare? • Ho un leggero appetito dove posso andare a mangiare? • Dove posso fare un po’ di shopping?
Resumo:
La matematica è un’attività umana che sembra non lasciare indifferente quasi nessuno: alcuni rimangono affascinati dalla sua ‘magia’, molti altri provano paura e rifiutano categoricamente persino di sentirla nominare. Spesso, non solo a scuola, si percepisce la matematica come un’attività distaccata, fredda, lontana dalle esigenze del mondo reale. Bisognerebbe, invece, fare in modo che gli studenti la sentano come una risorsa culturale importante, da costruire personalmente con tempo, fatica e soddisfazione. Gli studenti dovrebbero avere l’opportunità di riflettere sul senso di fare matematica e sulle sue potenzialità, attraverso attività che diano spazio alla costruzione autonoma, alle loro ipotesi e alla condivisione delle idee. Nel primo capitolo, a partire dalle difficoltà degli studenti, sono analizzati alcuni studi sulla straordinaria capacità della matematica di organizzare le nostre rappresentazioni del mondo che ci circonda e sull’importanza di costruire percorsi didattici incentrati sulla modellizzazione matematica. Dalla considerazione di questi studi, è stato elaborato un progetto didattico, presentato nel secondo capitolo, che potesse rappresentare un’occasione inconsueta ma significativa per cercare di chiarire l’intreccio profondo tra matematica e fisica. Si tratta di una proposta rivolta a studenti all’inizio del secondo biennio in cui è prevista una revisione dei problemi della cinematica attraverso le parole di Galileo. L’analisi di documenti storici permette di approfondire le relazioni tra grandezze cinematiche e di mettere in evidenza la struttura matematica di tali relazioni. Le scelte che abbiamo fatto nella nostra proposta sono state messe in discussione da alcuni insegnanti all’inizio della formazione per avere un primo riscontro sulla sua validità e sulle sue potenzialità. Le riflessioni raccolte sono state lo spunto per trarre delle considerazioni finali. Nelle appendici, è presente materiale di lavoro utilizzato per la progettazione e discussione del percorso: alcuni testi originali di Aristotele e di Galileo, le diapositive con cui la proposta è stata presentata agli studenti universitari e un esempio di protocollo di costruzione di Geogebra sul moto parabolico.
Resumo:
In questo elaborato si studiano i risultati di convergenza di due differenti metodi stocastici di discesa dei gradienti applicati a funzioni non convesse. Si confrontano le ipotesi che caratterizzano i due differenti metodi e si paragonano i risultati a cui ogni metodo giunge.
Resumo:
Synthetic biology has recently had a great development, many papers have been published and many applications have been presented, spanning from the production of biopharmacheuticals to the synthesis of bioenergetic substrates or industrial catalysts. But, despite these advances, most of the applications are quite simple and don’t fully exploit the potential of this discipline. This limitation in complexity has many causes, like the incomplete characterization of some components, or the intrinsic variability of the biological systems, but one of the most important reasons is the incapability of the cell to sustain the additional metabolic burden introduced by a complex circuit. The objective of the project, of which this work is part, is trying to solve this problem through the engineering of a multicellular behaviour in prokaryotic cells. This system will introduce a cooperative behaviour that will allow to implement complex functionalities, that can’t be obtained with a single cell. In particular the goal is to implement the Leader Election, this procedure has been firstly devised in the field of distributed computing, to identify the process that allow to identify a single process as organizer and coordinator of a series of tasks assigned to the whole population. The election of the Leader greatly simplifies the computation providing a centralized control. Further- more this system may even be useful to evolutionary studies that aims to explain how complex organisms evolved from unicellular systems. The work presented here describes, in particular, the design and the experimental characterization of a component of the circuit that solves the Leader Election problem. This module, composed of an hybrid promoter and a gene, is activated in the non-leader cells after receiving the signal that a leader is present in the colony. The most important element, in this case, is the hybrid promoter, it has been realized in different versions, applying the heuristic rules stated in [22], and their activity has been experimentally tested. The objective of the experimental characterization was to test the response of the genetic circuit to the introduction, in the cellular environment, of particular molecules, inducers, that can be considered inputs of the system. The desired behaviour is similar to the one of a logic AND gate in which the exit, represented by the luminous signal produced by a fluorescent protein, is one only in presence of both inducers. The robustness and the stability of this behaviour have been tested by changing the concentration of the input signals and building dose response curves. From these data it is possible to conclude that the analysed constructs have an AND-like behaviour over a wide range of inducers’ concentrations, even if it is possible to identify many differences in the expression profiles of the different constructs. This variability accounts for the fact that the input and the output signals are continuous, and so their binary representation isn’t able to capture the complexity of the behaviour. The module of the circuit that has been considered in this analysis has a fundamental role in the realization of the intercellular communication system that is necessary for the cooperative behaviour to take place. For this reason, the second phase of the characterization has been focused on the analysis of the signal transmission. In particular, the interaction between this element and the one that is responsible for emitting the chemical signal has been tested. The desired behaviour is still similar to a logic AND, since, even in this case, the exit signal is determined by the hybrid promoter activity. The experimental results have demonstrated that the systems behave correctly, even if there is still a substantial variability between them. The dose response curves highlighted that stricter constrains on the inducers concentrations need to be imposed in order to obtain a clear separation between the two levels of expression. In the conclusive chapter the DNA sequences of the hybrid promoters are analysed, trying to identify the regulatory elements that are most important for the determination of the gene expression. Given the available data it wasn’t possible to draw definitive conclusions. In the end, few considerations on promoter engineering and complex circuits realization are presented. This section aims to briefly recall some of the problems outlined in the introduction and provide a few possible solutions.
Resumo:
L’oggetto di questa tesi di laurea è un intervento di recupero e riprogettazione di un edificio non completato, destinato a 24 alloggi di edilizia residenziale pubblica, situato a Rovigo. Questo è stato oggetto di una lunga ed articolata vicenda caratterizzata da continue interruzioni del cantiere, principalmente causate da una cattiva esecuzione dei lavori da parte dell’impresa costruttrice. Allo stato attuale è presente la sola struttura metallica assemblata sulle fondazioni in calcestruzzo armato; tutto il fabbricato risulta abbandonato e congelato da diversi anni dopo i primi collaudi che hanno stabilito la non idoneità del telaio in acciaio. L’obiettivo del progetto è dunque quello di recuperare le fondazioni esistenti e di riprogettare l’edificio in una chiave più attuale e sostenibile. E’ stato effettuato un sopralluogo per comprendere più da vicino le problematiche relative all’area di progetto, oltre ad un’attenta analisi delle documentazioni riguardanti il progetto originario in modo da correggere eventuali punti deboli. Le strategie non hanno tenuto conto dunque solamente di un’ottima efficienza energetica o di un’offerta di alloggi adeguata alla domanda della situazione abitativa attuale, ma anche di tutte le problematiche che sono derivate dalla cattiva gestione del progetto originario. Le scelte progettuali, infatti, sono state il risultato anche delle necessità di limitare tempi e costi di un intervento per il quale sono state sprecate fin troppe risorse, soprattutto economiche. La fase progettuale è stata affiancata dalla realizzazione di simulazioni effettuate tramite software di calcolo (Termolog EpiX 6 e DIALux evo) che hanno permesso di ottenere ottimi risultati per quanto riguarda prestazione energetica e comfort luminoso indoor.
Resumo:
Il presente lavoro tratta la stabilità del fronte di scavo, rinforzato con barre di consolidamento ed interessato da drenaggi in avanzamento, di gallerie sotto falda in rocce tenere o terreni. Tale studio è stato sviluppato dal progetto di Tesi attraverso l’analisi all’equilibrio limite che approssima il fronte di scavo con un rettangolo e considera un meccanismo di rottura composto da un cuneo, a tergo del fronte, caricato da un prisma. Il metodo descritto consente di tenere conto dell’effetto stabilizzante delle barre, mediante una distribuzione della pressione di supporto non uniforme. Nel caso di gallerie sotto falda, lo stesso metodo permette inoltre di considerare l’effetto destabilizzante dei gradienti idraulici. Sono state ricavate soluzioni analitiche per la valutazione della stabilità, ed implementate successivamente nel software di analisi numerica MATLAB. Dalle analisi condotte è emerso che il numero minimo di barre per garantire la stabilità del fronte di scavo è in molti casi elevato e risulta impossibile da porre in opera in terreni scarsamente coesivi o in gallerie sotto elevati battenti d’acqua. Per risolvere questa situazione si può prevedere l’inserimento di drenaggi in avanzamento, con lo scopo di diminuire i gradienti idraulici nei pressi del fronte della galleria. Il modello che descrive il nuovo andamento dei carichi idraulici, considerando la presenza di dreni, è stato realizzato con il software commerciale agli elementi finiti COMSOL. Una volta determinati gli andamenti dei carichi idraulici, sono stati condotti studi parametrici sull’effetto dei dreni combinato con gli elementi di rinforzo. Dopo tali analisi sono stati ricavati nomogrammi adimensionali che tengano conto della presenza contemporanea delle barre e dei dreni. Tali diagrammi costituiscono uno strumento utile e valido per la progettazione del rinforzo del fronte di scavo. Infine sono stati realizzati confronti fra casi di studio reali e risultati ottenuti dal modello.
Resumo:
Negli ultimi anni i documenti web hanno attratto molta attenzione, poiché vengono visti come un nuovo mezzo che porta quello che sono le esperienze ed opinioni di un individuo da una parte all'altra del mondo, raggiungendo quindi persone che mai si incontreranno. Ed è proprio con la proliferazione del Web 2.0 che l’attenzione è stata incentrata sul contenuto generato dagli utenti della rete, i quali hanno a disposizione diverse piattaforme sulle quali condividere i loro pensieri, opinioni o andare a cercarne di altrui, magari per valutare l’acquisto di uno smartphone piuttosto che un altro o se valutare l’opzione di cambiare operatore telefonico, ponderando quali potrebbero essere gli svantaggi o i vantaggi che otterrebbe modificando la sia situazione attuale. Questa grande disponibilità di informazioni è molto preziosa per i singoli individui e le organizzazioni, che devono però scontrarsi con la grande difficoltà di trovare le fonti di tali opinioni, estrapolarle ed esprimerle in un formato standard. Queste operazioni risulterebbero quasi impossibili da eseguire a mano, per questo è nato il bisogno di automatizzare tali procedimenti, e la Sentiment Analysis è la risposta a questi bisogni. Sentiment analysis (o Opinion Mining, come è chiamata a volte) è uno dei tanti campi di studio computazionali che affronta il tema dell’elaborazione del linguaggio naturale orientato all'estrapolazione delle opinioni. Negli ultimi anni si è rilevato essere uno dei nuovi campi di tendenza nel settore dei social media, con una serie di applicazioni nel campo economico, politico e sociale. Questa tesi ha come obiettivo quello di fornire uno sguardo su quello che è lo stato di questo campo di studio, con presentazione di metodi e tecniche e di applicazioni di esse in alcuni studi eseguiti in questi anni.
Resumo:
L'obiettivo di questo lavoro è quello di analizzare la stabilità di uno spettro raggi X emesso da un tubo usurato per analisi cardiovascolari, in modo da verificare il suo comportamento. Successivamente questo tipo di analisi sarà effettuata su tubi CT. Per raggiungere questo scopo è stato assemblato un particolare set-up con un rivelatore al germanio criogenico in modo da avere la miglior risoluzione energetica possibile ed alcuni particolari collimatori così da ridurre il flusso fotonico per evitare effetti di pile-up. Il set-up è stato costruito in modo da avere il miglior allineamento possibile nel modo più veloce possibile, e con l'obiettivo di rendere l'intero sistema portabile. Il tubo usato è un SRM Philips tube per analisi cardiovascolari; questa scelta è stata fatta in modo da ridurre al minimo i fattori esterni (ottica elettromagnetica, emettitori) e concentrare l'attenzione solo sugli effetti, causati dalle varie esposizioni, sull'anodo (roughness e bending) e sul comportamento di essi durante il surriscaldamento e successivo raffreddamento del tubo. I risultati mostrano come durante un'esposizione alcuni fattori di usura del tubo possono influire in maniera sostanziale sullo spettro ottenuto e quindi alterare il risultato. Successivamente, nell'elaborato, mediante il software Philips di ricostruzione e simulazione dello spettro si è cercato di riprodurre, variando alcuni parametri, la differenza riscontrata sperimentalmente in modo da poter simulare l'instabilità e correggere i fattori che la causano. I risultati sono interessanti non solo per questo esperimento ma anche in ottica futura, per lo sviluppo di applicazioni come la spectral CT. Il passo successivo sarà quello di spostare l'attenzione su un CT tube e verificare se l'instabilità riscontrata in questo lavoro è persiste anche in una analisi più complessa come quella CT.
Resumo:
Nowadays the leukodepletion is one of the most important processes done on the blood in order to reduce the risk of transfusion diseases. It can be performed through different techniques but the most popular one is the filtration due to its simplicity and efficiency. This work aims at improving a current commercial product, by developing a new filter based on Fenton-type reaction to cross-link a hydrogel on to the base material. The filters for leukodepletion are preferably made through the melt flow technique resulting in a non-woven tissue; the functionalization should increase the stability of the filter restricting the extraction of substances to minimum amount when in contact with blood. Through the modification the filters can acquire new properties including wettability, surface charge and good resistance to the extractions. The most important for leukodepletion is the surface charge due to the nature of the filtration process. All the modified samples results have been compared to the commercial product. Three different polymers (A, B and C) have been studied for the filter modifications and every modified filter has been tested in order to determine its properties.
Resumo:
In this thesis, we explore three methods for the geometrico-static modelling of continuum parallel robots. Inspired by biological trunks, tentacles and snakes, continuum robot designs can reach confined spaces, manipulate objects in complex environments and conform to curvilinear paths in space. In addition, parallel continuum manipulators have the potential to inherit some of the compactness and compliance of continuum robots while retaining some of the precision, stability and strength of rigid-links parallel robots. Subsequently, the foundation of our work is performed on slender beam by applying the Cosserat rod theory, appropriate to model continuum robots. After that, three different approaches are developed on a case study of a planar parallel continuum robot constituted of two connected flexible links. We solve the forward and inverse geometrico-static problem namely by using (a) shooting methods to obtain a numerical solution, (b) an elliptic method to find a quasi-analytical solution, and (c) the Corde model to perform further model analysis. The performances of each of the studied methods are evaluated and their limits are highlighted. This thesis is divided as follows. Chapter one gives the introduction on the field of the continuum robotics and introduce the parallel continuum robots that is studied in this work. Chapter two describe the geometrico-static problem and gives the mathematical description of this problem. Chapter three explains the numerical approach with the shooting method and chapter four introduce the quasi-analytical solution. Then, Chapter five introduce the analytic method inspired by the Corde model and chapter six gives the conclusions of this work.
Resumo:
The emergence of hydrodynamic features in off-equilibrium (1 + 1)-dimensional integrable quantum systems has been the object of increasing attention in recent years. In this Master Thesis, we combine Thermodynamic Bethe Ansatz (TBA) techniques for finite-temperature quantum field theories with the Generalized Hydrodynamics (GHD) picture to provide a theoretical and numerical analysis of Zamolodchikov’s staircase model both at thermal equilibrium and in inhomogeneous generalized Gibbs ensembles. The staircase model is a diagonal (1 + 1)-dimensional integrable scattering theory with the remarkable property of roaming between infinitely many critical points when moving along a renormalization group trajectory. Namely, the finite-temperature dimensionless ground-state energy of the system approaches the central charges of all the minimal unitary conformal field theories (CFTs) M_p as the temperature varies. Within the GHD framework we develop a detailed study of the staircase model’s hydrodynamics and compare its quite surprising features to those displayed by a class of non-diagonal massless models flowing between adjacent points in the M_p series. Finally, employing both TBA and GHD techniques, we generalize to higher-spin local and quasi-local conserved charges the results obtained by B. Doyon and D. Bernard [1] for the steady-state energy current in off-equilibrium conformal field theories.
Resumo:
This thesis aims to understand the behavior of a low-rise unreinforced masonry building (URM), the typical residential house in the Netherlands, when subjected to low-intensity earthquakes. In fact, in the last decades, the Groningen region was hit by several shallow earthquakes caused by the extraction of natural gas. In particular, the focus is addressed to the internal non-structural walls and to their interaction with the structural parts of the building. A simple and cost-efficient 2D FEM model is developed, focused on the interfaces representing mortar layers that are present between the non-structural walls and the rest of the structure. As a reference for geometries and materials, it has been taken into consideration a prototype that was built in full-scale at the EUCENTRE laboratory of Pavia (Italy). Firstly, a quasi-static analysis is performed by gradually applying a prescribed displacement on the roof floor of the structure. Sensitivity analyses are conducted on some key parameters characterizing mortar. This analysis allows for the calibration of their values and the evaluation of the reliability of the model. Successively, a transient analysis is performed to effectively subject the model to a seismic action and hence also evaluate the mechanical response of the building over time. Moreover, it was possible to compare the results of this analysis with the displacements recorded in the experimental tests by creating a model representing the entire considered structure. As a result, some conditions for the model calibration are defined. The reliability of the model is then confirmed by both the reasonable results obtained from the sensitivity analysis and the compatibility of the values obtained for the top displacement of the roof floor of the experimental test, and the same value acquired from the structural model.
Resumo:
The purpose of this thesis is to clarify the role of non-equilibrium stationary currents of Markov processes in the context of the predictability of future states of the system. Once the connection between the predictability and the conditional entropy is established, we provide a comprehensive approach to the definition of a multi-particle Markov system. In particular, starting from the well-known theory of random walk on network, we derive the non-linear master equation for an interacting multi-particle system under the one-step process hypothesis, highlighting the limits of its tractability and the prop- erties of its stationary solution. Lastly, in order to study the impact of the NESS on the predictability at short times, we analyze the conditional entropy by modulating the intensity of the stationary currents, both for a single-particle and a multi-particle Markov system. The results obtained analytically are numerically tested on a 5-node cycle network and put in correspondence with the stationary entropy production. Furthermore, because of the low dimensionality of the single-particle system, an analysis of its spectral properties as a function of the modulated stationary currents is performed.
Resumo:
Le esperienze cooperative in realtà mista. Che cosa sono? Quali sono gli scopi dietro il loro sviluppo? Che cosa aspetta uno sviluppatore che si avvicina a questi sistemi? Questa tesi cerca di rispondere a queste domande ponendo sotto esame diverse tecnologie di collocazione molto recente, analizzando un progetto preso come caso di studio e implementato tramite diversi strumenti. Al giorno d’oggi, la sfera della realtà mista/realtà aumentata si sta espandendo sempre di più, arrivando a sfiorare mondi che prima risultavano totalmente scollegati. Il mondo dello sviluppo in ambito gaming è entrato infine in questo panorama grazie alle tante similarità con certi tipi di applicazioni MR. Uno degli strumenti più utilizzati in questo ambito è Unity, un motore grafico utilizzato per creare videogiochi e non solo: in questo progetto si sfrutterà questo ambiente di sviluppo per realizzare una semplice applicazione in realtà mista cooperativa, che permetta quindi l’accesso a più utenti contemporaneamente e la loro interazione. Per farlo, si valuteranno diverse opzioni, in particolare due, Netcode for GameObjects e Photon PUN, provenienti da due ambienti diversi ma entrambe strettamente legate a Unity, cercando di ottenere lo stesso risultato ma con due strade diverse come base per un confronto. Basteranno queste tecnologie o ci vuole ancora altro per la realtà mista? Questo studio trova una base matura e pronta a uscire dal suo guscio? Oppure c’è ancora tanta strada da fare? Sulla base di questo verrà tenuto il confronto, cercando una risposta generale ma concreta. Questa tesi si dividerà in due parti: la parte introduttiva, che fornirà tutti i concetti sulla realtà mista necessari e un panorama sull’ambiente MR in generale. La seconda, invece, servirà a illustrare quali sono le sfide di uno sviluppo in questo mondo, usando un progetto applicativo come soluzione a queste sfide o almeno ad una loro parte.