13 resultados para Random Coefficient Autoregressive Model{ RCAR (1)}

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Experimental characterization and implementation of an integrated autoregressive model to predict the thermal performance of vegetal façades

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La diabetes mellitus es una enfermedad que se caracteriza por la nula o insuficiente producción de insulina, o la resistencia del organismo a la misma. La insulina es una hormona que ayuda a que la glucosa (por ejemplo la obtenida a partir de los alimentos ingeridos) llegue a los tejidos periféricos y al sistema nervioso para suministrar energía. Hoy en día la tecnología actual permite abordar el desarrollo del llamado “páncreas endocrino artificial”, que consta de un sensor continuo de glucosa subcutánea, una bomba de infusión subcutánea de insulina y un algoritmo de control en lazo cerrado que calcule la dosis de insulina requerida por el paciente en cada momento, según la medida de glucosa obtenida por el sensor y según unos objetivos. El mayor problema que presentan los sistemas de control en lazo cerrado son los retardos, el sensor de glucosa subcutánea mide la glucosa del líquido intersticial, que representa la que hubo en la sangre un tiempo atrás, por tanto, un cambio en los niveles de glucosa en la sangre, debidos por ejemplo, a una ingesta, tardaría un tiempo en ser detectado por el sensor. Además, una dosis de insulina suministrada al paciente, tarda un tiempo aproximado de 20-30 minutos para la llegar a la sangre. Para evitar trabajar en la medida que sea posible con estos retardos, se intenta predecir cuál será el nivel de glucosa en un futuro próximo, para ello se utilizara un predictor de glucosa subcutánea, con la información disponible de glucosa e insulina. El objetivo del proyecto es diseñar una metodología para estimar el valor futuro de los niveles de glucosa obtenida a partir de un sensor subcutáneo, basada en la identificación recursiva del sistema glucorregulatorio a través de modelos lineales y determinando un horizonte de predicción óptimo de trabajo y analizando la influencia de la insulina en los resultados de la predicción. Se ha implementado un predictor paramétrico basado en un modelo autorregresivo ARX que predice con mejor precisión y con menor RMSE que un predictor ZOH a un horizonte de predicción de treinta minutos. Utilizar información relativa a la insulina no tiene efecto en la predicción. El preprocesado, postprocesado y el tratamiento de la estabilidad tienen un efecto muy beneficioso en la predicción. Diabetes mellitusis a group of metabolic diseases in which a person has high blood sugar, either because the body does not produce enough insulin, or because cells do not respond to the insulin produced. The insulin is a hormone that helps the glucose to reach to outlying tissues and the nervous system to supply energy. Nowadays, the actual technology allows raising the development of the “artificial endocrine pancreas”. It involves a continuous glucose sensor, an insulin bump, and a full closed loop algorithm that calculate the insulin units required by patient at any time, according to the glucose measure obtained by the sensor and any target. The main problem of the full closed loop systems is the delays, the glucose sensor measures the glucose in the interstitial fluid that represents the glucose was in the blood some time ago. Because of this, a change in the glucose in blood would take some time to be detected by the sensor. In addition, insulin units administered by a patient take about 20-30 minutes to reach the blood stream. In order to avoid this effect, it will try to predict the glucose level in the near future. To do that, a subcutaneous glucose predictor is used to predict the future glucose with the information about insulin and glucose. The goal of the proyect is to design a method in order to estimate the future valor of glucose obtained by a subcutaneous sensor. It is based on the recursive identification of the regulatory system through the linear models, determining optimal prediction horizon and analyzing the influence of insuline on the prediction results. A parametric predictor based in ARX autoregressive model predicts with better precision and with lesser RMSE than ZOH predictor in a thirty minutes prediction horizon. Using the relative insulin information has no effect in the prediction. The preprocessing, the postprocessing and the stability treatment have many advantages in the prediction.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo aborda el problema de modelizar sistemas din´amicos reales a partir del estudio de sus series temporales, usando una formulaci´on est´andar que pretende ser una abstracci´on universal de los sistemas din´amicos, independientemente de su naturaleza determinista, estoc´astica o h´ıbrida. Se parte de modelizaciones separadas de sistemas deterministas por un lado y estoc´asticos por otro, para converger finalmente en un modelo h´ıbrido que permite estudiar sistemas gen´ericos mixtos, esto es, que presentan una combinaci´on de comportamiento determinista y aleatorio. Este modelo consta de dos componentes, uno determinista consistente en una ecuaci´on en diferencias, obtenida a partir de un estudio de autocorrelaci´on, y otro estoc´astico que modeliza el error cometido por el primero. El componente estoc´astico es un generador universal de distribuciones de probabilidad, basado en un proceso compuesto de variables aleatorias, uniformemente distribuidas en un intervalo variable en el tiempo. Este generador universal es deducido en la tesis a partir de una nueva teor´ıa sobre la oferta y la demanda de un recurso gen´erico. El modelo resultante puede formularse conceptualmente como una entidad con tres elementos fundamentales: un motor generador de din´amica determinista, una fuente interna de ruido generadora de incertidumbre y una exposici´on al entorno que representa las interacciones del sistema real con el mundo exterior. En las aplicaciones estos tres elementos se ajustan en base al hist´orico de las series temporales del sistema din´amico. Una vez ajustados sus componentes, el modelo se comporta de una forma adaptativa tomando como inputs los nuevos valores de las series temporales del sistema y calculando predicciones sobre su comportamiento futuro. Cada predicci´on se presenta como un intervalo dentro del cual cualquier valor es equipro- bable, teniendo probabilidad nula cualquier valor externo al intervalo. De esta forma el modelo computa el comportamiento futuro y su nivel de incertidumbre en base al estado actual del sistema. Se ha aplicado el modelo en esta tesis a sistemas muy diferentes mostrando ser muy flexible para afrontar el estudio de campos de naturaleza dispar. El intercambio de tr´afico telef´onico entre operadores de telefon´ıa, la evoluci´on de mercados financieros y el flujo de informaci´on entre servidores de Internet son estudiados en profundidad en la tesis. Todos estos sistemas son modelizados de forma exitosa con un mismo lenguaje, a pesar de tratarse de sistemas f´ısicos totalmente distintos. El estudio de las redes de telefon´ıa muestra que los patrones de tr´afico telef´onico presentan una fuerte pseudo-periodicidad semanal contaminada con una gran cantidad de ruido, sobre todo en el caso de llamadas internacionales. El estudio de los mercados financieros muestra por su parte que la naturaleza fundamental de ´estos es aleatoria con un rango de comportamiento relativamente acotado. Una parte de la tesis se dedica a explicar algunas de las manifestaciones emp´ıricas m´as importantes en los mercados financieros como son los “fat tails”, “power laws” y “volatility clustering”. Por ´ultimo se demuestra que la comunicaci´on entre servidores de Internet tiene, al igual que los mercados financieros, una componente subyacente totalmente estoc´astica pero de comportamiento bastante “d´ocil”, siendo esta docilidad m´as acusada a medida que aumenta la distancia entre servidores. Dos aspectos son destacables en el modelo, su adaptabilidad y su universalidad. El primero es debido a que, una vez ajustados los par´ametros generales, el modelo se “alimenta” de los valores observables del sistema y es capaz de calcular con ellos comportamientos futuros. A pesar de tener unos par´ametros fijos, la variabilidad en los observables que sirven de input al modelo llevan a una gran riqueza de ouputs posibles. El segundo aspecto se debe a la formulaci´on gen´erica del modelo h´ıbrido y a que sus par´ametros se ajustan en base a manifestaciones externas del sistema en estudio, y no en base a sus caracter´ısticas f´ısicas. Estos factores hacen que el modelo pueda utilizarse en gran variedad de campos. Por ´ultimo, la tesis propone en su parte final otros campos donde se han obtenido ´exitos preliminares muy prometedores como son la modelizaci´on del riesgo financiero, los algoritmos de routing en redes de telecomunicaci´on y el cambio clim´atico. Abstract This work faces the problem of modeling dynamical systems based on the study of its time series, by using a standard language that aims to be an universal abstraction of dynamical systems, irrespective of their deterministic, stochastic or hybrid nature. Deterministic and stochastic models are developed separately to be merged subsequently into a hybrid model, which allows the study of generic systems, that is to say, those having both deterministic and random behavior. This model is a combination of two different components. One of them is deterministic and consisting in an equation in differences derived from an auto-correlation study and the other is stochastic and models the errors made by the deterministic one. The stochastic component is an universal generator of probability distributions based on a process consisting in random variables distributed uniformly within an interval varying in time. This universal generator is derived in the thesis from a new theory of offer and demand for a generic resource. The resulting model can be visualized as an entity with three fundamental elements: an engine generating deterministic dynamics, an internal source of noise generating uncertainty and an exposure to the environment which depicts the interactions between the real system and the external world. In the applications these three elements are adjusted to the history of the time series from the dynamical system. Once its components have been adjusted, the model behaves in an adaptive way by using the new time series values from the system as inputs and calculating predictions about its future behavior. Every prediction is provided as an interval, where any inner value is equally probable while all outer ones have null probability. So, the model computes the future behavior and its level of uncertainty based on the current state of the system. The model is applied to quite different systems in this thesis, showing to be very flexible when facing the study of fields with diverse nature. The exchange of traffic between telephony operators, the evolution of financial markets and the flow of information between servers on the Internet are deeply studied in this thesis. All these systems are successfully modeled by using the same “language”, in spite the fact that they are systems physically radically different. The study of telephony networks shows that the traffic patterns are strongly weekly pseudo-periodic but mixed with a great amount of noise, specially in the case of international calls. It is proved that the underlying nature of financial markets is random with a moderate range of variability. A part of this thesis is devoted to explain some of the most important empirical observations in financial markets, such as “fat tails”, “power laws” and “volatility clustering”. Finally it is proved that the communication between two servers on the Internet has, as in the case of financial markets, an underlaying random dynamics but with a narrow range of variability, being this lack of variability more marked as the distance between servers is increased. Two aspects of the model stand out as being the most important: its adaptability and its universality. The first one is due to the fact that once the general parameters have been adjusted , the model is “fed” on the observable manifestations of the system in order to calculate its future behavior. Despite the fact that the model has fixed parameters the variability in the observable manifestations of the system, which are used as inputs of the model, lead to a great variability in the possible outputs. The second aspect is due to the general “language” used in the formulation of the hybrid model and to the fact that its parameters are adjusted based on external manifestations of the system under study instead of its physical characteristics. These factors made the model suitable to be used in great variety of fields. Lastly, this thesis proposes other fields in which preliminary and promising results have been obtained, such as the modeling of financial risk, the development of routing algorithms for telecommunication networks and the assessment of climate change.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

• Premise of the study: The presence of compatible fungi is necessary for epiphytic orchid recruitment. Thus, identifying associated mycorrhizal fungi at the population level is essential for orchid conservation. Recruitment patterns may also be conditioned by factors such as seed dispersal range and specific environmental characteristics. • Methods: In a forest plot, all trees with a diameter at breast height >1 cm and all individuals of the epiphytic orchid Epidendrum rhopalostele were identified and mapped. Additionally, one flowering individual of E. rhopalostele per each host tree was randomly selected for root sampling and DNA extraction. • Key results: A total of 239 E. rhopalostele individuals were located in 25 of the 714 potential host trees. Light microscopy of sampled roots showed mycorrhizal fungi in 22 of the 25 sampled orchids. Phylogenetic analysis of ITS1-5.8S-ITS2 sequences yielded two Tulasnella clades. In four cases, plants were found to be associated with both clades. The difference between univariate and bivariate K functions was consistent with the random labeling null model at all spatial scales, indicating that trees hosting clades A and B of Tulasnella are not spatially segregated. The analysis of the inhomogenous K function showed that host trees are not clustered, suggesting no limitations to population-scale dispersal. χ2 analysis of contingency tables showed that E. rhopalostele is more frequent on dead trees than expected. • Conclusions: Epidendrum rhopalostele establishes mycorrhizal associations with at least two different Tulasnella species. The analysis of the distribution patterns of this orchid suggests a microsite preference for dead trees and no seed dispersal limitation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este estudio aborda la recopilación de nuevas tendencias del diseño sismorresistente, enfocándose en la técnica del aislamiento de base, por ser la más efectiva, difundida y utilizada; y el análisis de las ventajas que puede tener una edificación que aplica dicha técnica, desde el punto de vista estructural y económico. Se elige la tipología más frecuente o común de edificios de hormigón armado propensos a ser aislados, que en este caso es un hospital, cuyo modelo empotrado se somete a varias normas sismorresistentes comparando principalmente fuerzas de cortante basal, y considerando la interacción suelo-estructura; para asistir a este cálculo se desarrolla un programa de elementos viga de 6 gdl por nodo en código Matlab. El modelo aislado incluye el análisis de tres combinaciones de tipos de aisladores HDR, LPR y FPS, alternando modelos lineales simplificados de 1 y 3 gdl por piso, evaluando diferencias de respuestas de la estructura, y procediendo a la elección de la combinación que de resultados más convenientes; para la modelación no lineal de cada sistema de aislamiento se utiliza el método explícito de diferencias centrales. Finalmente, se realiza un análisis comparativo de daños esperados en el caso de la ocurrencia del sismo de diseño, utilizando el método rápido y tomando como referencia el desplazamiento espectral del último piso; llegando a dar conclusiones y recomendaciones para el uso de sistemas de aislamiento. This study addresses the collection of new seismic design trends, focusing on base isolation technique, as the most effective and widely used, and the analysis of the advantages in buildings that apply this technique, from the structurally and economically point of view. Choosing the most common types of concrete buildings likely to be isolated, which in this case is a hospital, the fix model is subjected to various seismic codes mainly comparing base shear forces, and considering the soil-structure interaction; for this calculation attend a program of bars 6 dof per node is made in Matlab code. The isolated model includes analysis of three types of isolators combinations HDR, LPR and FPS, alternating simplified linear model of 1 and 3 dof per floor, evaluating differences in the response of the structure, and proceeding to the choice of the combination of results more convenient; for modeling nonlinear each insulation system, the explicit central difference method is used. Finally, a comparative analysis of expected damage in the case of the design earthquake, using a fast combined method and by reference to the spectral displacement of the top floor; reaching conclusions and give recommendations for the use of insulation systems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El fútbol es un deporte en cuya práctica existe una alta incidencia de lesión. Además, en el ámbito profesional las lesiones suponen un duro proceso de recuperación para el futbolista, una reducción del rendimiento deportivo para éste y para el equipo, y unos grandes costes económicos para el club. Dentro de esta problemática, la bibliografía consultada concluye que en las pretemporadas se produce una mayor incidencia de lesión por sobrecarga, es decir, sin contacto; un tipo de lesiones que está a nuestro alcance poder prevenir. Por ello, consideramos importante el conocer y desarrollar métodos, herramientas y principios para obtener programas preventivos efectivos, que reduzcan las elevadas cifras de incidencia de lesión mostradas por la literatura. El presente estudio observa y registra las lesiones, a través del cuestionario F-MARC, de un equipo profesional de fútbol de la Liga Española durante las pretemporadas 2008 (n=24) y 2009 (n=24). Además, durante la pretemporada 2009 se aplicó la termografía infrarroja para adquirir información sobre la asimilación de la carga de entrenamiento por parte de los jugadores, y dicha información se utilizarón para mejorar las tomas de decisiones de protocolos post-ejercicio específicos en prevención de lesiones, los cuales fueron los mismos que se utilizaron previamente en la pretemporada 2008. El estudio tiene un diseño con características pre-post sin grupo de control. Es un estudio longitudinal donde, tras un registro inicial de lesiones en la pretemporada 2008, los sujetos fueron expuestos a la variable independiente, utilización de la termografía infrarroja, en el protocolo de prevención de lesiones durante la pretemporada 2009. Los resultados de este trabajo muestran una reducción significativa de hasta el 60% en la frecuencia de lesión durante la pretemporada 2009, y un descenso de la incidencia de lesión total que pasa de 8,3 lesiones por cada 1000 horas de exposición en 2008 a 3,4 en 2009. Con ello, la probabilidad de lesión se redujo considerablemente pasando de un 85% de los jugadores lesionados en 2008 a un 26% en 2009; además, las lesiones de carácter muscular descendieron en 2009 un 70% con respecto al 2008, y los días de baja que causaron todas las lesiones pasó a reducirse un 91,8% en la pretemporada 2009. Por otro lado, el perfil térmico de los jugadores en función de su lateralidad y dominancia, guarda una gran similitud en sus temperaturas, tanto medias como máximas, con temperaturas más elevadas en la zona corporal lumbar y poplítea, y con temperaturas más bajas en tobillos y rodillas. Todas las zonas corporales estudiadas, exceptuando el tobillo (p<0,05), no presentan diferencias significativas entre ambos hemicuerpos, estableciendo un promedio de diferencia entre ambos lados de 0,06±0,16 ºC. Teniendo en cuenta estos resultados, consideramos el límite superior de normalidad de asimetría térmica bilateral en 0,3ºC para todas las zonas corporales estudiadas del miembro inferior exceptuando los tobillos. El parámetro ambiental que más relación tiene con la temperatura registrada por la cámara termográfica es la temperatura de la sala con un coeficiente de correlación cercano a r=1,00, seguido de la presión atmosférica con un coeficiente de correlación cercano r=0,50, y, por último, la humedad que no guarda ningún tipo de relación con la temperatura registrada en cada zona corporal en el rango de valores considerados en el estudio. Por otro lado, los resultados del ANOVA de un factor nos indican que existen diferencias de medias entre los tres grupos formados de temperatura ambiente de sala (1º=18º-21ºC, 2º=22º-24ºC y 3º=25º-31ºC). Además, los resultados de la prueba HSD de Tukey nos indican que existen diferencias entre cada uno de los grupos en todas las zonas corporales estudiadas exceptuando los tobillos. Por último, se propone la ecuación; TC-estándar = TC-real – [0,184 * (TS – 21ºC)] para predecir la influencia de la temperatura ambiente sobre la temperatura registrada por la cámara termográfica. Para concluir, tras los resultados obtenidos, podemos afirmar que la aplicación de un protocolo post-ejercicio de prevención de lesiones basado en la información adquirida a través de valoraciones con termografía infrarroja reduce la incidencia de lesión en el grupo de futbolistas profesionales estudiado. Tenemos que ser conscientes que nos encontramos ante un estudio de campo, donde existen muchos factores que han podido influenciar en los resultados y que son difíciles de controlar. Por lo tanto, debemos ser cautos y concluir que la información adquirida de las evaluaciones termográficas ha sido uno de los aspectos que ayudó a la reducción significativa de la incidencia de lesión en la pretemporada 2009 en el equipo de fútbol profesional español de este estudio, pero que seguramente hayan podido existir otros factores que también hayan favorecido este hecho. ABSTRACT Soccer is a sport with a high incidence of injury. Moreover, in professional soccer injuries lead to a tough recovery process for the players, a reduction athletic performance for them and for their teams, and large economic costs for the club. In this issue, the literature concludes that in the preseason a greater incidence of overuse injury occurs (ie, without contact), and this is a type of injury that we can prevent. Therefore, we consider that it is important to know and develop methods, tools and principles to obtain effective preventive programs that reduce the high injury incidence figures shown in the literature. This study observed and recorded injuries, through the questionnaire F-MARC, from a professional soccer team in the Spanish league during the preseason 2008 (n = 24) and 2009 (n = 24). Moreover, during the 2009 preseason infrared thermography was applied to acquire information about the assimilation of the training load by the players, and this information was used to improve the decision making in the specific post-exercise injury prevention protocols, which were the same used in the previous season 2008. The study had a pre-post design without control group. Is a longitudinal study where, after an initial registration of injuries in the 2008 preseason, subjects were exposed to the independent variable, using infrared thermography, included in the protocol for injury prevention during the 2009 preseason. The results of this study show a significant reduction of up to 60% in the frequency of injury during the 2009 preseason, and a decrease in total injury incidence passing from 8.3 injuries per 1000 hours of exposure in 2008 to 3.4 in 2008. With this, the likelihood of injury decreased significantly from 85% of the players injuried in 2008 to 26% in 2009, also muscle injuries in 2009 fell 70% compared to 2008, and sick leave days that caused by all the injuries happened were reduced a 91.8% in the 2009 preseason. On the other hand, the thermal profile of the players according to their laterality and dominance, is quiet similar in their temperatures, both average and maximum values, with an estimated average of the highest temperatures in the lower back and popliteal areas in the back areas, and lower temperatures in the ankles and knees. All body areas studied, except for the ankle (p <0.05), had no significant differences between both sides of the body, establishing an average difference between both sides of 0.06 ± 0.16 °C. Given these results, we consider the upper limit of normal bilateral thermal asymmetry 0.3 °C for all body areas studied in the lower limb except for ankles. The environmental parameter higher related with temperature recorded by the camera is the temperature of the room with a correlation coefficient close to r = 1.00, followed by atmospheric pressure with a correlation coefficient near r = 0.50, and finally, the humidity that, in the range of values considered in the study, it is not related with temperature in each body area. On the other hand, the results of one-way ANOVA indicate that there are differences between the three temperature of the room groups (1 ° = 18-21 °C, 2 º = 22-24 ºC and 3 º = 25-31 ºC). Moreover, the results of the Tukey HSD test indicate that there are differences between each of the groups for all body areas studied except the ankles. Finally, we propose the equation TC-standard = TC-real – [0,184 * (TS – 21ºC)] to predict the influence of temperature on the temperature recorded by the thermographic camera. In conclusion, we can say from our results that the implementation of a post-exercise injury prevention protocol based on information from assessments with infrared thermography reduces the incidence of injury in professional soccer players. We must be aware that we are facing a field study, where there are many factors that could influence the results and they are difficult to control. Therefore, we must be cautious and conclude that the information acquired from the thermographic evaluation has been one of the aspects that helped to significantly reduce the incidence of injury in the preseason 2009 in the Spanish professional football team, but probably they could exist other factors with a positive effect on the reduction of the injury rates.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Wind farms have been extensively simulated through engineering models for the estimation of wind speed and power deficits inside wind farms. These models were designed initially for a few wind turbines located in flat terrain. Other models based on the parabolic approximation of Navier Stokes equations were developed, making more realistic and feasible the operational resolution of big wind farms in flat terrain and offshore sites. These models have demonstrated to be accurate enough when solving wake effects for this type of environments. Nevertheless, few analyses exist on how complex terrain can affect the behaviour of wind farm wake flow. Recent numerical studies have demonstrated that topographical wakes induce a significant effect on wind turbines wakes, compared to that on flat terrain. This circumstance has recommended the development of elliptic CFD models which allow global simulation of wind turbine wakes in complex terrain. An accurate simplification for the analysis of wind turbine wakes is the actuator disk technique. Coupling this technique with CFD wind models enables the estimation of wind farm wakes preserving the extraction of axial momentum present inside wind farms. This paper describes the analysis and validation of the elliptical wake model CFDWake 1.0 against experimental data from an operating wind farm located in complex terrain. The analysis also reports whether it is possible or not to superimpose linearly the effect of terrain and wind turbine wakes. It also represents one of the first attempts to observe the performance of engineering models compares in large complex terrain wind farms.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente proyecto final de carrera titulado “Modelado de alto nivel con SystemC” tiene como objetivo principal el modelado de algunos módulos de un codificador de vídeo MPEG-2 utilizando el lenguaje de descripción de sistemas igitales SystemC con un nivel de abstracción TLM o Transaction Level Modeling. SystemC es un lenguaje de descripción de sistemas digitales basado en C++. En él hay un conjunto de rutinas y librerías que implementan tipos de datos, estructuras y procesos especiales para el modelado de sistemas digitales. Su descripción se puede consultar en [GLMS02] El nivel de abstracción TLM se caracteriza por separar la comunicación entre los módulos de su funcionalidad. Este nivel de abstracción hace un mayor énfasis en la funcionalidad de la comunicación entre los módulos (de donde a donde van datos) que la implementación exacta de la misma. En los documentos [RSPF] y [HG] se describen el TLM y un ejemplo de implementación. La arquitectura del modelo se basa en el codificador MVIP-2 descrito en [Gar04], de dicho modelo, los módulos implementados son: · IVIDEOH: módulo que realiza un filtrado del vídeo de entrada en la dimensión horizontal y guarda en memoria el video filtrado. · IVIDEOV: módulo que lee de la memoria el vídeo filtrado por IVIDEOH, realiza el filtrado en la dimensión horizontal y escribe el video filtrado en memoria. · DCT: módulo que lee el video filtrado por IVIDEOV, hace la transformada discreta del coseno y guarda el vídeo transformado en la memoria. · QUANT: módulo que lee el video transformado por DCT, lo cuantifica y guarda el resultado en la memoria. · IQUANT: módulo que lee el video cuantificado por QUANT, realiza la cuantificación inversa y guarda el resultado en memoria. · IDCT: módulo que lee el video procesado por IQUANT, realiza la transformada inversa del coseno y guarda el resultado en memoria. · IMEM: módulo que hace de interfaz entre los módulos anteriores y la memoria. Gestiona las peticiones simultáneas de acceso a la memoria y asegura el acceso exclusivo a la memoria en cada instante de tiempo. Todos estos módulos aparecen en gris en la siguiente figura en la que se muestra la arquitectura del modelo: Figura 1. Arquitectura del modelo (VER PDF DEL PFC) En figura también aparecen unos módulos en blanco, dichos módulos son de pruebas y se han añadido para realizar simulaciones y probar los módulos del modelo: · CAMARA: módulo que simula una cámara en blanco y negro, lee la luminancia de un fichero de vídeo y lo envía al modelo a través de una FIFO. · FIFO: hace de interfaz entre la cámara y el modelo, guarda los datos que envía la cámara hasta que IVIDEOH los lee. · CONTROL: módulo que se encarga de controlar los módulos que procesan el vídeo, estos le indican cuando terminan de procesar un frame de vídeo y este módulo se encarga de iniciar los módulos que sean necesarios para seguir con la codificación. Este módulo se encarga del correcto secuenciamiento de los módulos procesadores de vídeo. · RAM: módulo que simula una memoria RAM, incluye un retardo programable en el acceso. Para las pruebas también se han generado ficheros de vídeo con el resultado de cada módulo procesador de vídeo, ficheros con mensajes y un fichero de trazas en el que se muestra el secuenciamiento de los procesadores. Como resultado del trabajo en el presente PFC se puede concluir que SystemC permite el modelado de sistemas digitales con bastante sencillez (hace falta conocimientos previos de C++ y programación orientada objetos) y permite la realización de modelos con un nivel de abstracción mayor a RTL, el habitual en Verilog y VHDL, en el caso del presente PFC, el TLM. ABSTRACT This final career project titled “High level modeling with SystemC” have as main objective the modeling of some of the modules of an MPEG-2 video coder using the SystemC digital systems description language at the TLM or Transaction Level Modeling abstraction level. SystemC is a digital systems description language based in C++. It contains routines and libraries that define special data types, structures and process to model digital systems. There is a complete description of the SystemC language in the document [GLMS02]. The main characteristic of TLM abstraction level is that it separates the communication among modules of their functionality. This abstraction level puts a higher emphasis in the functionality of the communication (from where to where the data go) than the exact implementation of it. The TLM and an example are described in the documents [RSPF] and [HG]. The architecture of the model is based in the MVIP-2 video coder (described in the document [Gar04]) The modeled modules are: · IVIDEOH: module that filter the video input in the horizontal dimension. It saves the filtered video in the memory. · IVIDEOV: module that read the IVIDEOH filtered video, filter it in the vertical dimension and save the filtered video in the memory. · DCT: module that read the IVIDEOV filtered video, do the discrete cosine transform and save the transformed video in the memory. · QUANT: module that read the DCT transformed video, quantify it and save the quantified video in the memory. · IQUANT: module that read the QUANT processed video, do the inverse quantification and save the result in the memory. · IDCT: module that read the IQUANT processed video, do the inverse cosine transform and save the result in the memory. · IMEM: this module is the interface between the modules described previously and the memory. It manage the simultaneous accesses to the memory and ensure an unique access at each instant of time All this modules are included in grey in the following figure (SEE PDF OF PFC). This figure shows the architecture of the model: Figure 1. Architecture of the model This figure also includes other modules in white, these modules have been added to the model in order to simulate and prove the modules of the model: · CAMARA: simulates a black and white video camera, it reads the luminance of a video file and sends it to the model through a FIFO. · FIFO: is the interface between the camera and the model, it saves the video data sent by the camera until the IVIDEOH module reads it. · CONTROL: controls the modules that process the video. These modules indicate the CONTROL module when they have finished the processing of a video frame. The CONTROL module, then, init the necessary modules to continue with the video coding. This module is responsible of the right sequence of the video processing modules. · RAM: it simulates a RAM memory; it also simulates a programmable delay in the access to the memory. It has been generated video files, text files and a trace file to check the correct function of the model. The trace file shows the sequence of the video processing modules. As a result of the present final career project, it can be deduced that it is quite easy to model digital systems with SystemC (it is only needed previous knowledge of C++ and object oriented programming) and it also allow the modeling with a level of abstraction higher than the RTL used in Verilog and VHDL, in the case of the present final career project, the TLM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo tiene por objeto la implementación del modelo ADM1 (The IWA Anaerobic Digestion Model No.1), para evaluar su capacidad de simular el proceso de digestión anaerobia de lodos de agua residual. Para implementar el modelo ADM1 se eligió el software Matlab y su herramienta Simulink, por su capacidad para simular sistemas dinámicos. Los resultados demostraron que la simulación a través de la implementación del modelo ADM1, es capaz de predecir la mayoría de los valores medios correspondientes a los parámetros de control más comunes del proceso de digestión anaerobia que se lleva a cabo en la Estación de depuración de aguas residuales (EDAR) sur de Madrid. Se deduce del estudio que la implementación del modelo ADM1 desarrollada mediante Matlab/Simulink, es capaz de simular el proceso dinámico de digestión anaerobia de cualquier EDAR, si se ajustan algunos de los parámetros del modelo para cada caso concreto. Abstract This work aims at the implementation of The IWA Anaerobic Digestion Model No.1 (ADM1) in order to assess its ability to simulate the anaerobic digestion process of wastewater sludge. A Matlab/Simulink implementation of the ADM1 was developed, the simulations results shows that the ADM1 is able to predict the average values of the most common control parameters of the anaerobic digestion process that takes place in the Waste water treatment plant (WWTP) south of Madrid. It is deduced of the estudy that the Matlab implementation of the ADM1 developed, is able to simulate the anaerobic digestion dynamic process of a WWTP, if some of the model parameters are fitted for each specific case.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The capping of epitaxially grown Quantum Dots (QD) is a key process in the fabrication of devices based on these nanostructures because capping can significantly affect the QDs morphology [3]. We have studied the QD morphology after capping in order to better understand the role of the capping process. We have grown real structures and compared the QD morphology obtained by cross-sectional Scanning Tunneling Microscopy (X-STM) with the morphology of QDs that were virtually grown in simulations based on a Kinetic Monte Carlo model (KMC) [1].

Relevância:

50.00% 50.00%

Publicador:

Resumo:

This paper presents an algorithm for generating scale-free networks with adjustable clustering coefficient. The algorithm is based on a random walk procedure combined with a triangle generation scheme which takes into account genetic factors; this way, preferential attachment and clustering control are implemented using only local information. Simulations are presented which support the validity of the scheme, characterizing its tuning capabilities.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

A simplified CFD wake model based on the actuator-disk concept is used to simulate the wind turbine, represented by an actuator disk upon which a distribution of forces, defined as axial momentum sources, are applied on the incoming flow. The rotor is supposed to be uniformly loaded, with the exerted forces as a function of the incident wind speed, the thrust coefficient and the rotor diameter. The model is validated through experimental measurements downwind of a wind turbine in terms of wind speed deficit. Validation on turbulence intensity will also be made in the near future.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

An integrated approach composed of a random utility-based multiregional input-output model and a road transport network model was developed for evaluating the application of a fee to heavy-goods vehicles (HGVs) in Spain. For this purpose, a distance-based charge scenario (in euros per vehicle kilometer) for HGVs was evaluated for a selected motorway network in Spain. Although the aim of this charging policy was to increase the efficiency of transport, the approach strongly identified direct and indirect impacts on the regional economy. Estimates of the magnitude and extent of indirect effects on aggregated macroeconomic indicators (employment and gross domestic product) are provided. The macroeconomic effects of the charging policy were found to be positive for some regions and negative for other regions.