373 resultados para Renda -- Distribució -- Models matemàtics
Resumo:
En el present treball es realitza un estudi hidràulic i de qualitat de les aigües de la xarxa municipal per tal d’analitzar en primer lloc el seu estat actual i proposar posteriorment una sèrie d’actuacions de millora. Això s’ha desenvolupat amb l’ajuda d’un programa de simulació de xarxes hidràuliques i de qualitat, en ser l’estudi d’una elevada envergadura, que feia inviable l’estudi empíric de la instal•lació. El simulador utilitzat ha estat l’EPANET, el qual va estar elaborat per la NATIONAL RISK MANAGEMENT RESEARCH LABORATORY de Cincinatty, als Estats Units i traduït a l’espanyol pel grup REDHISP Inst. Ingenieria del agua y M.A. de la Universitat Politècnica de València
Resumo:
L’objectiu principal d’aquest projecte era implementar la visualització 3D demodels fusionats i aplicar totes les tècniques possibles per realitzar aquesta fusió. Aquestes tècniques s’integraran en la plataforma de visualització i processament de dades mèdiques STARVIEWER. Per assolir l’ objectiu principal s’ han definit els següents objectius específics:1- estudiar els algoritmes de visualització de models simples i analitzar els diferents paràmetres a tenir en compte. 2- ampliació de la tècnica de visualització bàsica seleccionada per tal de suportar els models fusionats. 3- avaluar i compar tots els mètodes implementats per poder determinar quin ofereix les millors visualitzacions
Resumo:
La finalitat del projecte és realitzar l’automatització dels sis processos d’una fàbrica de pinsos d’una cooperativa agrícola: entrada de matèries, mòlta, dosificació amb correcció, barreja, granulació i sortida de pinsos.Per controlar tots els processos es desenvolupa un PLC amb el corresponent programa d’autòmat; se seleccionen els diferents sensors i preactivadors necessaris que s’hauran d’incorporar per poder transformar la lògica rígida de contactors a una de flexible; se selecciona un sistema Scada per a la interfície d’usuari, i es dissenya la instal·lació elèctrica corresponent, per tal de poder implementar aquest automatisme en la línia de producció
Resumo:
Els mètodes de detecció, diagnosi i aïllament de fallades (Fault Detection and Isolation - FDI) basats en la redundància analítica (és a dir, la comparació del comportament actual del procés amb l’esperat, obtingut mitjançant un model matemàtic del mateix), són àmpliament utilitzats per al diagnòstic de sistemes quan el model matemàtic està disponible. S’ha implementat un algoritme per implementar aquesta redundància analítica a partir del model de la plana conegut com a Anàlisi Estructural
Resumo:
Ponència presentada a la Jornada plans d'autoprotecció
Resumo:
Este proyecto propuesto por la Comunidad Europea consiste en desarrollar e implementar una base de datos de un sistema de control energético que le permita almacenar información para una futura aplicación. La información que el cliente requiere se puede distribuir en dos grupos: datos básicos (clientes, modelos de contador, centrales de distribución y de producción, tipos de centrales de producción, líneas de comunicación, contadores) y datos históricos (contratos, lecturas de contadores, energía producida por las centrales de producción e histórico de energía emitida por las centrales de distribución).
Resumo:
La qualitat d’un producte elaborat és un factor important, tant pels consumidors, com pels òrgans reguladors que en defineixen normatives cada cop més estrictes. Iniciatives com la del PAT (Process Analytical Technology) en el sector farmacèutic, responen a aquestes necessitats. El PAT afavoreix la implantació de noves tècniques analítiques que facilitin el monitoratge i el control de paràmetres clau in-/on-line durant els processos de producció. En aquest sentit, el NIR-CI (Near Infrarred-Chemical Imaging) podria ser una eina molt útil en la millora de la qualitat de la indústria farmacèutica, ja que aprofita les avantatges del NIR com a tècnica analítica (ràpid, no invasiu, no destructiu) i les aplica a tota la superfície espacial de la mostra. És una tècnica capaç de proporcionar una gran quantitat d’informació, tant espectral com espacial, en una sola imatge. L’objectiu d’aquest treball és avaluar la capacitat de la tècnica NIR-CI, com a eina pel control de paràmetres de qualitat de comprimits farmacèutics. Concretament, s’han analitzat quantitativament la concentració i la distribució dels components (principi actiu i excipients) d’un comprimit farmacèutic amb i sense recobriment. A més, també s’ha determinat el gruix de la pel·lícula de laca de recobriment i la seva distribució a la superfície del comprimit. Per obtenir aquesta informació, es parteix d’imatges NIR-CI hiperespectrals dels comprimits. Per a l’extracció de les dades d’interès s’ha usat l’algoritme PLS en les diferents versions dels softwares Isys 5.0 i Unscrambler 9.8. La versió de l’Isys permet determinar la contribució de cada component pur a cada punt de la imatge, emprant únicament l’espectre del component en estudi. Amb la de l’Unscrambler, en canvi, es construeix un model de calibratge que, a partir d’unes mostres de referència, prediu la distribució del gruix de recobriment sobre la superfície del comprimit.
Resumo:
Aquest és un estudi retrospectiu que compara la mobilitat i el conflicto escàpulo-humeral entre 2 models diferents de pròtesi invertida d’espatlla. Aquestes pròtesis s’han implantat en pacients amb ruptures del manegot dels rotadors irreparables. Aquesta cirugía no està exenta de complicacions, i una de les més habituals és el conflicto escàpulo-humeral o notch.
Resumo:
Vegeu el resum a l'inici del document de l'arxiu adjunt
Resumo:
Quantitative or algorithmic trading is the automatization of investments decisions obeying a fixed or dynamic sets of rules to determine trading orders. It has increasingly made its way up to 70% of the trading volume of one of the biggest financial markets such as the New York Stock Exchange (NYSE). However, there is not a signi cant amount of academic literature devoted to it due to the private nature of investment banks and hedge funds. This projects aims to review the literature and discuss the models available in a subject that publications are scarce and infrequently. We review the basic and fundamental mathematical concepts needed for modeling financial markets such as: stochastic processes, stochastic integration and basic models for prices and spreads dynamics necessary for building quantitative strategies. We also contrast these models with real market data with minutely sampling frequency from the Dow Jones Industrial Average (DJIA). Quantitative strategies try to exploit two types of behavior: trend following or mean reversion. The former is grouped in the so-called technical models and the later in the so-called pairs trading. Technical models have been discarded by financial theoreticians but we show that they can be properly cast into a well defined scientific predictor if the signal generated by them pass the test of being a Markov time. That is, we can tell if the signal has occurred or not by examining the information up to the current time; or more technically, if the event is F_t-measurable. On the other hand the concept of pairs trading or market neutral strategy is fairly simple. However it can be cast in a variety of mathematical models ranging from a method based on a simple euclidean distance, in a co-integration framework or involving stochastic differential equations such as the well-known Ornstein-Uhlenbeck mean reversal ODE and its variations. A model for forecasting any economic or financial magnitude could be properly defined with scientific rigor but it could also lack of any economical value and be considered useless from a practical point of view. This is why this project could not be complete without a backtesting of the mentioned strategies. Conducting a useful and realistic backtesting is by no means a trivial exercise since the \laws" that govern financial markets are constantly evolving in time. This is the reason because we make emphasis in the calibration process of the strategies' parameters to adapt the given market conditions. We find out that the parameters from technical models are more volatile than their counterpart form market neutral strategies and calibration must be done in a high-frequency sampling manner to constantly track the currently market situation. As a whole, the goal of this project is to provide an overview of a quantitative approach to investment reviewing basic strategies and illustrating them by means of a back-testing with real financial market data. The sources of the data used in this project are Bloomberg for intraday time series and Yahoo! for daily prices. All numeric computations and graphics used and shown in this project were implemented in MATLAB^R scratch from scratch as a part of this thesis. No other mathematical or statistical software was used.
Resumo:
Three multivariate statistical tools (principal component analysis, factor analysis, analysis discriminant) have been tested to characterize and model the sags registered in distribution substations. Those models use several features to represent the magnitude, duration and unbalanced grade of sags. They have been obtained from voltage and current waveforms. The techniques are tested and compared using 69 registers of sags. The advantages and drawbacks of each technique are listed
Resumo:
This paper investigates the role of learning by private agents and the central bank (two-sided learning) in a New Keynesian framework in which both sides of the economy have asymmetric and imperfect knowledge about the true data generating process. We assume that all agents employ the data that they observe (which may be distinct for different sets of agents) to form beliefs about unknown aspects of the true model of the economy, use their beliefs to decide on actions, and revise these beliefs through a statistical learning algorithm as new information becomes available. We study the short-run dynamics of our model and derive its policy recommendations, particularly with respect to central bank communications. We demonstrate that two-sided learning can generate substantial increases in volatility and persistence, and alter the behavior of the variables in the model in a signifficant way. Our simulations do not converge to a symmetric rational expectations equilibrium and we highlight one source that invalidates the convergence results of Marcet and Sargent (1989). Finally, we identify a novel aspect of central bank communication in models of learning: communication can be harmful if the central bank's model is substantially mis-specified
Resumo:
The paper discusses maintenance challenges of organisations with a huge number of devices and proposes the use of probabilistic models to assist monitoring and maintenance planning. The proposal assumes connectivity of instruments to report relevant features for monitoring. Also, the existence of enough historical registers with diagnosed breakdowns is required to make probabilistic models reliable and useful for predictive maintenance strategies based on them. Regular Markov models based on estimated failure and repair rates are proposed to calculate the availability of the instruments and Dynamic Bayesian Networks are proposed to model cause-effect relationships to trigger predictive maintenance services based on the influence between observed features and previously documented diagnostics
Resumo:
Our work is concerned with user modelling in open environments. Our proposal then is the line of contributions to the advances on user modelling in open environments thanks so the Agent Technology, in what has been called Smart User Model. Our research contains a holistic study of User Modelling in several research areas related to users. We have developed a conceptualization of User Modelling by means of examples from a broad range of research areas with the aim of improving our understanding of user modelling and its role in the next generation of open and distributed service environments. This report is organized as follow: In chapter 1 we introduce our motivation and objectives. Then in chapters 2, 3, 4 and 5 we provide the state-of-the-art on user modelling. In chapter 2, we give the main definitions of elements described in the report. In chapter 3, we present an historical perspective on user models. In chapter 4 we provide a review of user models from the perspective of different research areas, with special emphasis on the give-and-take relationship between Agent Technology and user modelling. In chapter 5, we describe the main challenges that, from our point of view, need to be tackled by researchers wanting to contribute to advances in user modelling. From the study of the state-of-the-art follows an exploratory work in chapter 6. We define a SUM and a methodology to deal with it. We also present some cases study in order to illustrate the methodology. Finally, we present the thesis proposal to continue the work, together with its corresponding work scheduling and temporalisation
Resumo:
El morrut de les palmeres, R. ferrugineus, està actualment considerat com la plaga més perjudicial de les palmeres ja que la seva infestació produeix, de forma comuna, la seva mort. Des de la seva instal·lació en els països de la conca mediterrània, en els últims anys, són milers les palmeres que han mort degut a la plaga. La ràpida dispersió que s’ha produït de l’insecte així com la difícil detecció en els períodes primerencs de les infestacions fa que el R. ferrugineus posi en perill ecosistemes naturals de palmeres així com hàbitats rurals i urbans amb un ús ornamental d’aquestes plantes. És necessari desenvolupar estudis que permetin un millor coneixement del comportament d’aquest insecte així com, aquelles característiques intrínseques de la palmeres i variables externes que afavoreixen la instauració del coleòpter i, per tant, noves metodologies pel seu control.