939 resultados para Central Bank Loss Functions
Resumo:
PURPOSE To report acute/subacute vision loss and paracentral scotomata in patients with idiopathic multifocal choroiditis/punctate inner choroidopathy due to large zones of acute photoreceptor attenuation surrounding the chorioretinal lesions. METHODS Multimodal imaging case series. RESULTS Six women and 2 men were included (mean age, 31.5 ± 5.8 years). Vision ranged from 20/20-1 to hand motion (mean, 20/364). Spectral domain optical coherence tomography demonstrated extensive attenuation of the external limiting membrane, ellipsoid and interdigitation zones, adjacent to the visible multifocal choroiditis/punctate inner choroidopathy lesions. The corresponding areas were hyperautofluorescent on fundus autofluorescence and were associated with corresponding visual field defects. Full-field electroretinogram (available in three cases) showed markedly decreased cone/rod response, and multifocal electroretinogram revealed reduced amplitudes and increased implicit times in two cases. Three patients received no treatment, the remaining were treated with oral corticosteroids (n = 4), oral acyclovir/valacyclovir (n = 2), intravitreal/posterior subtenon triamcinolone acetate (n = 3), and anti-vascular endothelial growth factor (n = 2). Visual recovery occurred in only three cases of whom two were treated. Varying morphological recovery was found in six cases, associated with decrease in hyperautofluorescence on fundus autofluorescence. CONCLUSION Multifocal choroiditis/punctate inner choroidopathy can present with transient or permanent central photoreceptor attenuation/loss. This presentation is likely a variant of multifocal choroiditis/punctate inner choroidopathy with chorioretinal atrophy. Associated changes are best evaluated using multimodal imaging.
Resumo:
The improvement of financial intermediation functions is crucial for a robust banking system. When lending, banks have to cope with such problems as information asymmetry and adverse selection. In order to mitigate these problems, banks have to product information and improve their techniques of lending. During the 1998 financial crisis, Indonesia's banking system suffered severe damage and revealed that the country's banking intermediation functions did not work well. This paper examines the financial intermediation functions of banks in Indonesia and analyzes the importance of bank lending to firms. The focus is on medium-sized firms, and "relationship lending", one of the bank lending techniques, is used to examine financial intermediation in Indonesia. The results of logit regressions show that the relationship between a bank and a firm affects the probability of bank lending. The amount of borrowing and collateral are also affected by a firm's relationship with a bank. When viewed from the standpoint of relationship lending to medium-sized firms, Indonesian banks cannot be criticized for any malfunction of financial intermediation.
Resumo:
After the Asian financial crisis of 1997, it was confirmed that banks lend to their related parties in many countries. The question examined in this article is whether related lending functions to alleviate the problems of asymmetric information or transfers profits from depositors and minority shareholders to related parties. The effects of related lending on the profitability and risk of banks in Indonesia are examined using panel data from 1994 to 2007 comprising a total of 74 Indonesian banks. The effects on return on asset (ROA) varied at different periods. Before and right after the crisis, a higher credit allocation to related parties increased ROA. In middle of the crisis, it turned to negative; and this has also been the case in the most recent period as the Indonesian economy has normalized. Effects of related lending on bank risk measured by the Z-score and non-performing loan is not clear. After undergoing bank restructuring, related lending has decreased and the profit structure of banks has changed.
Resumo:
El tema central de investigación en esta Tesis es el estudio del comportamientodinámico de una estructura mediante modelos que describen la distribución deenergía entre los componentes de la misma y la aplicación de estos modelos parala detección de daños incipientes.Los ensayos dinámicos son un modo de extraer información sobre las propiedadesde una estructura. Si tenemos un modelo de la estructura se podría ajustar éstepara que, con determinado grado de precisión, tenga la misma respuesta que elsistema real ensayado. Después de que se produjese un daño en la estructura,la respuesta al mismo ensayo variará en cierta medida; actualizando el modelo alas nuevas condiciones podemos detectar cambios en la configuración del modeloestructural que nos condujeran a la conclusión de que en la estructura se haproducido un daño.De este modo, la detección de un daño incipiente es posible si somos capacesde distinguir una pequeña variación en los parámetros que definen el modelo. Unrégimen muy apropiado para realizar este tipo de detección es a altas frecuencias,ya que la respuesta es muy dependiente de los pequeños detalles geométricos,dado que el tamaño característico en la estructura asociado a la respuesta esdirectamente proporcional a la velocidad de propagación de las ondas acústicas enel sólido, que para una estructura dada es inalterable, e inversamente proporcionala la frecuencia de la excitación. Al mismo tiempo, esta característica de la respuestaa altas frecuencias hace que un modelo de Elementos Finitos no sea aplicable enla práctica, debido al alto coste computacional.Un modelo ampliamente utilizado en el cálculo de la respuesta de estructurasa altas frecuencias en ingeniería es el SEA (Statistical Energy Analysis). El SEAaplica el balance energético a cada componente estructural, relacionando la energíade vibración de estos con la potencia disipada por cada uno de ellos y la potenciatransmitida entre ellos, cuya suma debe ser igual a la potencia inyectada a cadacomponente estructural. Esta relación es lineal y viene caracterizada por los factoresde pérdidas. Las magnitudes que intervienen en la respuesta se consideranpromediadas en la geometría, la frecuencia y el tiempo.Actualizar el modelo SEA a datos de ensayo es, por lo tanto, calcular losfactores de pérdidas que reproduzcan la respuesta obtenida en éste. Esta actualización,si se hace de manera directa, supone la resolución de un problema inversoque tiene la característica de estar mal condicionado. En la Tesis se propone actualizarel modelo SEA, no en término de los factores de pérdidas, sino en términos deparámetros estructurales que tienen sentido físico cuando se trata de la respuestaa altas frecuencias, como son los factores de disipación de cada componente, susdensidades modales y las rigideces características de los elementos de acoplamiento.Los factores de pérdidas se calculan como función de estos parámetros. Estaformulación es desarrollada de manera original en esta Tesis y principalmente sefunda en la hipótesis de alta densidad modal, es decir, que en la respuesta participanun gran número de modos de cada componente estructural.La teoría general del método SEA, establece que el modelo es válido bajounas hipótesis sobre la naturaleza de las excitaciones externas muy restrictivas,como que éstas deben ser de tipo ruido blanco local. Este tipo de carga es difícil dereproducir en condiciones de ensayo. En la Tesis mostramos con casos prácticos queesta restricción se puede relajar y, en particular, los resultados son suficientementebuenos cuando la estructura se somete a una carga armónica en escalón.Bajo estas aproximaciones se desarrolla un algoritmo de optimización por pasosque permite actualizar un modelo SEA a un ensayo transitorio cuando la carga esde tipo armónica en escalón. Este algoritmo actualiza el modelo no solamente parauna banda de frecuencia en particular sino para diversas bandas de frecuencia demanera simultánea, con el objetivo de plantear un problema mejor condicionado.Por último, se define un índice de daño que mide el cambio en la matriz depérdidas cuando se produce un daño estructural en una localización concreta deun componente. Se simula numéricamente la respuesta de una estructura formadapor vigas donde producimos un daño en la sección de una de ellas; como se tratade un cálculo a altas frecuencias, la simulación se hace mediante el Método delos Elementos Espectrales para lo que ha sido necesario desarrollar dentro de laTesis un elemento espectral de tipo viga dañada en una sección determinada. Losresultados obtenidos permiten localizar el componente estructural en que se haproducido el daño y la sección en que éste se encuentra con determinado grado deconfianza.AbstractThe main subject under research in this Thesis is the study of the dynamic behaviourof a structure using models that describe the energy distribution betweenthe components of the structure and the applicability of these models to incipientdamage detection.Dynamic tests are a way to extract information about the properties of astructure. If we have a model of the structure, it can be updated in order toreproduce the same response as in experimental tests, within a certain degree ofaccuracy. After damage occurs, the response will change to some extent; modelupdating to the new test conditions can help to detect changes in the structuralmodel leading to the conclusión that damage has occurred.In this way incipient damage detection is possible if we are able to detect srnallvariations in the model parameters. It turns out that the high frequency regimeis highly relevant for incipient damage detection, because the response is verysensitive to small structural geometric details. The characteristic length associatedwith the response is proportional to the propagation speed of acoustic waves insidethe solid, but inversely proportional to the excitation frequency. At the same time,this fact makes the application of a Finite Element Method impractical due to thehigh computational cost.A widely used model in engineering when dealing with the high frequencyresponse is SEA (Statistical Energy Analysis). SEA applies the energy balance toeach structural component, relating their vibrational energy with the dissipatedpower and the transmitted power between the different components; their summust be equal to the input power to each of them. This relationship is linear andcharacterized by loss factors. The magnitudes considered in the response shouldbe averaged in geometry, frequency and time.SEA model updating to test data is equivalent to calculating the loss factorsthat provide a better fit to the experimental response. This is formulated as an illconditionedinverse problem. In this Thesis a new updating algorithm is proposedfor the study of the high frequency response regime in terms of parameters withphysical meaning such as the internal dissipation factors, modal densities andcharacteristic coupling stiffness. The loss factors are then calculated from theseparameters. The approach is developed entirely in this Thesis and is mainlybased on a high modal density asumption, that is to say, a large number of modescontributes to the response.General SEA theory establishes the validity of the model under the asumptionof very restrictive external excitations. These should behave as a local white noise.This kind of excitation is difficult to reproduce in an experimental environment.In this Thesis we show that in practical cases this assumption can be relaxed, inparticular, results are good enough when the structure is excited with a harmonicstep function.Under these assumptions an optimization algorithm is developed for SEAmodel updating to a transient test when external loads are harmonic step functions.This algorithm considers the response not only in a single frequency band,but also for several of them simultaneously.A damage index is defined that measures the change in the loss factor matrixwhen a damage has occurred at a certain location in the structure. The structuresconsidered in this study are built with damaged beam elements; as we are dealingwith the high frequency response, the numerical simulation is implemented witha Spectral Element Method. It has therefore been necessary to develop a spectralbeam damaged element as well. The reported results show that damage detectionis possible with this algorithm, moreover, damage location is also possible withina certain degree of accuracy.
Resumo:
The aim of this work is to solve a question raised for average sampling in shift-invariant spaces by using the well-known matrix pencil theory. In many common situations in sampling theory, the available data are samples of some convolution operator acting on the function itself: this leads to the problem of average sampling, also known as generalized sampling. In this paper we deal with the existence of a sampling formula involving these samples and having reconstruction functions with compact support. Thus, low computational complexity is involved and truncation errors are avoided. In practice, it is accomplished by means of a FIR filter bank. An answer is given in the light of the generalized sampling theory by using the oversampling technique: more samples than strictly necessary are used. The original problem reduces to finding a polynomial left inverse of a polynomial matrix intimately related to the sampling problem which, for a suitable choice of the sampling period, becomes a matrix pencil. This matrix pencil approach allows us to obtain a practical method for computing the compactly supported reconstruction functions for the important case where the oversampling rate is minimum. Moreover, the optimality of the obtained solution is established.
Resumo:
Esta tesis realiza una contribución metodológica al problema de la gestión óptima de embalses hidroeléctricos durante eventos de avenidas, considerando un enfoque estocástico y multiobjetivo. Para ello se propone una metodología de evaluación de estrategias de laminación en un contexto probabilístico y multiobjetivo. Además se desarrolla un entorno dinámico de laminación en tiempo real con pronósticos que combina un modelo de optimización y algoritmos de simulación. Estas herramientas asisten a los gestores de las presas en la toma de decisión respecto de cuál es la operación más adecuada del embalse. Luego de una detallada revisión de la bibliografía, se observó que los trabajos en el ámbito de la gestión óptima de embalses en avenidas utilizan, en general, un número reducido de series de caudales o hidrogramas para caracterizar los posibles escenarios. Limitando el funcionamiento satisfactorio de un modelo determinado a situaciones hidrológicas similares. Por otra parte, la mayoría de estudios disponibles en este ámbito abordan el problema de la laminación en embalses multipropósito durante la temporada de avenidas, con varios meses de duración. Estas características difieren de la realidad de la gestión de embalses en España. Con los avances computacionales en materia de gestión de información en tiempo real, se observó una tendencia a la implementación de herramientas de operación en tiempo real con pronósticos para determinar la operación a corto plazo (involucrando el control de avenidas). La metodología de evaluación de estrategias propuesta en esta tesis se basa en determinar el comportamiento de éstas frente a un espectro de avenidas características de la solicitación hidrológica. Con ese fin, se combina un sistema de evaluación mediante indicadores y un entorno de generación estocástica de avenidas, obteniéndose un sistema implícitamente estocástico. El sistema de evaluación consta de tres etapas: caracterización, síntesis y comparación, a fin de poder manejar la compleja estructura de datos resultante y realizar la evaluación. En la primera etapa se definen variables de caracterización, vinculadas a los aspectos que se quieren evaluar (seguridad de la presa, control de inundaciones, generación de energía, etc.). Estas variables caracterizan el comportamiento del modelo para un aspecto y evento determinado. En la segunda etapa, la información de estas variables se sintetiza en un conjunto de indicadores, lo más reducido posible. Finalmente, la comparación se lleva a cabo a partir de la comparación de esos indicadores, bien sea mediante la agregación de dichos objetivos en un indicador único, o bien mediante la aplicación del criterio de dominancia de Pareto obteniéndose un conjunto de soluciones aptas. Esta metodología se aplicó para calibrar los parámetros de un modelo de optimización de embalse en laminación y su comparación con otra regla de operación, mediante el enfoque por agregación. Luego se amplió la metodología para evaluar y comparar reglas de operación existentes para el control de avenidas en embalses hidroeléctricos, utilizando el criterio de dominancia. La versatilidad de la metodología permite otras aplicaciones, tales como la determinación de niveles o volúmenes de seguridad, o la selección de las dimensiones del aliviadero entre varias alternativas. Por su parte, el entorno dinámico de laminación al presentar un enfoque combinado de optimización-simulación, permite aprovechar las ventajas de ambos tipos de modelos, facilitando la interacción con los operadores de las presas. Se mejoran los resultados respecto de los obtenidos con una regla de operación reactiva, aun cuando los pronósticos se desvían considerablemente del hidrograma real. Esto contribuye a reducir la tan mencionada brecha entre el desarrollo teórico y la aplicación práctica asociada a los modelos de gestión óptima de embalses. This thesis presents a methodological contribution to address the problem about how to operate a hydropower reservoir during floods in order to achieve an optimal management considering a multiobjective and stochastic approach. A methodology is proposed to assess the flood control strategies in a multiobjective and probabilistic framework. Additionally, a dynamic flood control environ was developed for real-time operation, including forecasts. This dynamic platform combines simulation and optimization models. These tools may assist to dam managers in the decision making process, regarding the most appropriate reservoir operation to be implemented. After a detailed review of the bibliography, it was observed that most of the existing studies in the sphere of flood control reservoir operation consider a reduce number of hydrographs to characterize the reservoir inflows. Consequently, the adequate functioning of a certain strategy may be limited to similar hydrologic scenarios. In the other hand, most of the works in this context tackle the problem of multipurpose flood control operation considering the entire flood season, lasting some months. These considerations differ from the real necessity in the Spanish context. The implementation of real-time reservoir operation is gaining popularity due to computational advances and improvements in real-time data management. The methodology proposed in this thesis for assessing the strategies is based on determining their behavior for a wide range of floods, which are representative of the hydrological forcing of the dam. An evaluation algorithm is combined with a stochastic flood generation system to obtain an implicit stochastic analysis framework. The evaluation system consists in three stages: characterizing, synthesizing and comparing, in order to handle the complex structure of results and, finally, conduct the evaluation process. In the first stage some characterization variables are defined. These variables should be related to the different aspects to be evaluated (such as dam safety, flood protection, hydropower, etc.). Each of these variables characterizes the behavior of a certain operating strategy for a given aspect and event. In the second stage this information is synthesized obtaining a reduced group of indicators or objective functions. Finally, the indicators are compared by means of an aggregated approach or by a dominance criterion approach. In the first case, a single optimum solution may be achieved. However in the second case, a set of good solutions is obtained. This methodology was applied for calibrating the parameters of a flood control model and to compare it with other operating policy, using an aggregated method. After that, the methodology was extent to assess and compared some existing hydropower reservoir flood control operation, considering the Pareto approach. The versatility of the method allows many other applications, such as determining the safety levels, defining the spillways characteristics, among others. The dynamic framework for flood control combines optimization and simulation models, exploiting the advantages of both techniques. This facilitates the interaction between dam operators and the model. Improvements are obtained applying this system when compared with a reactive operating policy, even if the forecasts deviate significantly from the observed hydrograph. This approach contributes to reduce the gap between the theoretical development in the field of reservoir management and its practical applications.
Resumo:
Este Proyecto de Fin de Carrera presenta un prototipo de aplicación móvil híbrida multi-plataforma para Android y iOS. Las aplicaciones móviles híbridas son una combinación de aplicaciones web móviles y aplicaciones móviles nativas. Se desarrollan parcialmente con tecnologías web y pueden acceder a la capa nativa y sensores del teléfono. Para el usuario se presentan como aplicaciones nativas, ya que se pueden descargar de las tiendas de aplicaciones y son instaladas en el dispositivo. El prototipo consiste en la migración del módulo de noticias financieras de las aplicaciones actuales para móviles de una compañía bancaria reimplementándolo como aplicación híbrida utilizando uno de los entornos de desarrollo disponibles en el mercado para este propósito. El desarrollo de aplicaciones híbridas puede ahorrar tiempo y dinero cuando se pretende alcanzar más de una plataforma móvil. El objetivo es la evaluación de las ventajas e inconvenientes que ofrece el desarrollo de aplicaciones híbridas en términos de reducción de costes, tiempo de desarrollo y resultado final de la aplicación. El proyecto consta de varias fases. Durante la primera fase se realiza un estudio sobre las aplicaciones híbridas que podemos encontrar hoy en día en el mercado utilizando los ejemplos de linkedIn, Facebook y Financial times. Se hace hincapié en las tecnologías utilizadas, uso de la red móvil y problemas encontrados. Posteriormente se realiza una comparación de distintos entornos de desarrollo multi-plataforma para aplicaciones híbridas en términos de la estrategia utilizada, plataformas soportadas, lenguajes de programación, acceso a capacidades nativas de los dispositivos y licencias de uso. Esta primera fase da como resultado la elección del entorno de desarrollo más adecuado a las exigencias del proyecto, que es PhoneGap, y continua con un análisis más detallado de dicho entorno en cuanto a su arquitectura, características y componentes. La siguiente fase comienza con un estudio de las aplicaciones actuales de la compañía para extraer el código fuente necesario y adaptarlo a la arquitectura que tendrá la aplicación. Para la realización del prototipo se hace uso de la característica que ofrece PhoneGap para acceder a la capa nativa del dispositivo, esto es, el uso de plugins. Se diseña y desarrolla un plugin que permite acceder a la capa nativa para cada plataforma. Una vez desarrollado el prototipo para la plataforma Android, se migra y adapta para la plataforma iOS. Por último se hace una evaluación de los prototipos en cuanto a su facilidad y tiempo de desarrollo, rendimiento, funcionalidad y apariencia de la interfaz de usuario. ABSTRACT. This bachelor's thesis presents a prototype of a hybrid cross-platform mobile application for Android and iOS. Hybrid mobile applications are a combination of mobile web and mobile native applications. They are built partially with web technologies and they can also access native features and sensors of the device. For a user, they look like native applications as they are downloaded from the application stores and installed on the device. This prototype consists of the migration of the financial news module of current mobile applications from a financial bank reimplementing them as a hybrid application using one of the frameworks available in the market for that purpose. Development of applications on a hybrid way can help reducing costs and effort when targeting more than one platform. The target of the project is the evaluation of the advantages and disadvantages that hybrid development can offer in terms of reducing costs and efforts and the final result of the application. The project starts with an analysis of successfully released hybrid applications using the examples of linkedIn, Facebook and Financial Times, emphasizing the different used technologies, the transmitted network data and the encountered problems during the development. This analysis is followed by a comparison of most popular hybrid crossplatform development frameworks in terms of the different approaches, supported platforms, programming languages, access to native features and license. This first stage has the outcome of finding the development framework that best fits to the requirements of the project, that is PhoneGap, and continues with a deeper analysis of its architecture, features and components. Next stage analyzes current company's applications to extract the needed source code and adapt it to the architecture of the prototype. For the realization of the application, the feature that PhoneGap offers to access the native layer of the device is used. This feature is called plugin. A custom plugin is designed and developed to access the native layer of each targeted platform. Once the prototype is finished for Android, it is migrated and adapted to the iOS platform. As a final conclusion the prototypes are evaluated in terms of ease and time of development, performance, functionality and look and feel.
Resumo:
Introducción. La obesidad puede definirse como una enfermedad metabólica crónica de origen multifactorial, lo que provoca trastornos o problemas físicos y psicológicos a la persona, con patologías asociadas que limitan la esperanza de vida y deterioran la calidad de la misma, siendo determinante para sus áreas sociales y laborales. Este trastorno metabólico crónico se caracteriza por una acumulación excesiva de energía en el cuerpo en forma de grasa, lo que lleva a un aumento de peso con respecto al valor esperado por sexo, edad y altura. La gestión y el tratamiento de la obesidad tienen objetivos más amplios que la pérdida de peso e incluyen la reducción del riesgo y la mejora de la salud. Estos pueden ser alcanzados por la pérdida modesta de peso (es decir, 10.5% del peso corporal inicial), la mejora del contenido nutricional de la dieta y un modesto incremento en la actividad física y condición física. La dieta es uno de los métodos más populares para perder peso corporal. El ejercicio es otra alternativa para perder peso corporal. El aumento de ejercicio provoca un desequilibrio cuando se mantiene la ingesta calórica. También tiene ventajas, como la mejora del tono muscular, la capacidad cardiovascular, fuerza y flexibilidad, aumenta el metabolismo basal y mejora el sistema inmunológico. Objetivos. El objetivo de esta tesis es contribuir en un estudio de intervención para aclarar la evolución del peso corporal durante una intervención de dieta y ejercicio. Para ello, se evaluaron los efectos de la edad, sexo, índice de masa corporal inicial y el tipo de tratamiento en las tendencias de pérdida de peso. Otro objetivo de la tesis era crear un modelo de regresión lineal múltiple capaz de predecir la pérdida de peso corporal después del periodo de intervención. Y, por último, determinar el efecto sobre la composición corporal (peso corporal, índice de masa corporal, la masa grasa, y la masa libre de grasa) de las diferentes intervenciones basadas en ejercicios (fuerza, resistencia, resistencia combinada con fuerza, y las recomendaciones de actividad física (grupo control)) en combinación con dieta de adultos con sobrepeso y obesidad, después de la intervención, así como los cambios de la composición corporal 3 años más tarde. Diseño de la investigación. Los datos empleados en el análisis de esta tesis son parte del proyecto “Programas de Nutrición y Actividad Física para el tratamiento de la obesidad” (PRONAF). El proyecto PRONAF es un estudio clínico sobre programas de nutrición y actividad física para el sobrepeso y la obesidad, desarrollado en España durante varios años de intervención. Fue diseñado, en parte, para comparar diferentes tipos de intervención, con el objetivo de evaluar su impacto en las dinámicas de pérdida de peso, en personas con sobrepeso y obesidad. Como diseño experimental, el estudio se basó en una restricción calórica, a la que, en algunos casos, se le añadió un protocolo de entrenamiento (fuerza, resistencia, o combinado, en igualdad de volumen e intensidad). Las principales variables para la investigación que comprende esta tesis fueron: el peso corporal y la composición corporal (masa grasa y masa libre de grasa). Conclusiones. En esta tesis, para los programas de pérdida de peso en personas con sobrepeso y obesidad con un 25-30% de la restricción calórica, el peso corporal se redujo significativamente en ambos sexos, sin tener en cuenta la edad y el tipo de tratamiento seguido. Según los resultados del estudio, la pérdida de peso realizada por un individuo (hombre o mujer) durante los seis meses puede ser representada por cualquiera de las cinco funciones (lineal, potencial, exponencial, logarítmica y cuadrática) en ambos sexos, siendo la cuadrática la que tiende a representarlo mejor. Además, se puede concluir que la pérdida de peso corporal se ve afectada por el índice de masa corporal inicial y el sexo, siendo mayor para las personas obesas que para las de sobrepeso, que muestran diferencias entre sexos sólo en la condición de sobrepeso. Además, es posible calcular el peso corporal final de cualquier participante involucrado en una intervención utilizando la metodología del proyecto PRONAF sólo conociendo sus variables iniciales de composición corporal. Además, los cuatro tipos de tratamientos tuvieron resultados similares en cambios en la composición corporal al final del período de intervención, con la única excepción de la masa libre de grasa, siendo los grupos de entrenamiento los que la mantuvieron durante la restricción calórica. Por otro lado, sólo el grupo combinado logra mantener la reducción de la masa grasa (%) 3 años después del final de la intervención. ABSTRACT Introduction. Obesity can be defined as a chronic metabolic disease from a multifactorial origin, which leads to physical and psychological impacts to the person, with associated pathologies that limit the life expectancy and deteriorate the quality of it, being determinant for the social and labor areas of the person. This chronic metabolic disorder is characterized by an excessive accumulation of energy in the body as fat, leading to increased weight relative to the value expected by sex, age and height. The management and treatment of obesity have wider objectives than weight loss alone and include risk reduction and health improvement. These may be achieved by modest weight loss (i.e. 5–10% of initial body weight), improved nutritional content of the diet and modest increases in physical activity and fitness. Weight loss through diet is one of the most popular approaches to lose body weight. Exercise is another alternative to lose body weight. The increase of exercise causes an imbalance when the caloric intake is maintained. It also has advantages such as improved muscle tone, cardiovascular fitness, strength and flexibility, increases the basal metabolism and improves immune system. Objectives. The aim of this thesis is to contribute with an interventional study to clarify the evolution of the body weight during a diet and exercise intervention. For this, the effects of age, sex, initial body mass index and type of treatment on weight loss tendencies were evaluated. Another objective of the thesis was to create a multiple linear regression model able to predict the body weight loss after the intervention period. And, finally, to determine the effect upon body composition (body weight, body mass index, fat mass, and fat-free mass of different exercise-based interventions (strength, endurance, combined endurance and strength, and physical activity recommendations group (control group)) combined with diet in overweight and obese adults, after intervention as well as body composition changes 3 years later. Research Design. The data used in the analysis of this thesis are part of the project "Programs of Nutrition and Physical Activity for the treatment of obesity" (PRONAF). The PRONAF project is a clinical trial program about nutrition and physical activity for overweight and obesity, developed in Spain for several years of intervention. It was designed, in part, to compare different types of intervention, in order to assess their impact on the dynamics of weight loss in overweight and obese people. As experimental design, the study was based on caloric restriction, which, in some cases, added a training protocol (strength, endurance, or combined in equal volume and intensity). The main research variables comprising this thesis were: body weight and body composition outcomes (fat mass and fat-free mass). Conclusions. In this thesis, for weight loss programs in overweight and obese people with 25-30% of caloric restriction, the body weight was significantly decreased in both sexes, regardless the age and type of followed treatment. According to the results of the study, the weight loss performed by an individual (male or female) during six months can be represented by any of the five functions (linear, power law, exponential, logarithmic and quadratic) in both sexes, being the quadratic one which tends to represent it better. In addition, it can be concluded that the body weight loss is affected by the initial body mass index and sex condition, being greater for the obese people than for the overweight one, showing differences between sexes only in the overweight condition. Moreover, it is possible to calculate the final body weight of any participant engaged in an intervention using the PRONAF Project methodology only knowing their initial body composition variables. Furthermore, the four types of treatments had similar results on body composition changes at the end of the intervention period, with the only exception of fat-free mass, being the training groups the ones that maintained it during the caloric restriction. On the other hand, only the combined group achieved to maintain the fat mass (%) reduced 3 years after the end of the intervention.
Resumo:
In this paper, the design and experimental characterization of a tunable microstrip bandpass filter based on liquid crystal technology are presented. A reshaped microstrip dual-mode filter structure has been used in order to improve the device performance. Specifically, the aim is to increase the pass-band return loss of the filter by narrowing the filter bandwidth. Simulations confirm the improvement of using this new structure, achieving a pass-band return loss increase of 1.5 dB at least. Because of the anisotropic properties of LC molecules, a filter central frequency shift from 4.688 GHz to 5.045 GHz, which means a relative tuning range of 7.3%, is measured when an external AC voltage from 0 Vrms to 15 Vrms is applied to the device.
Resumo:
This paper addresses the determination of the realized thermal niche and the effects of climate change on the range distribution of two brown trout populations inhabiting two streams in the Duero River basin (Iberian Peninsula) at the edge of the natural distribution area of this species. For reaching these goals, new methodological developments were applied to improve reliability of forecasts. Water temperature data were collected using 11 thermographs located along the altitudinal gradient, and they were used to model the relationship between stream temperature and air temperature along the river continuum. Trout abundance was studied using electrofishing at 37 sites to determine the current distribution. The RCP4.5 and RCP8.5 change scenarios adopted by the International Panel of Climate Change for its Fifth Assessment Report were used for simulations and local downscaling in this study. We found more reliable results using the daily mean stream temperature than maximum daily temperature and their respective seven days moving-average to determine the distribution thresholds. Thereby, the observed limits of the summer distribution of brown trout were linked to thresholds between 18.1ºC and 18.7ºC. These temperatures characterise a realised thermal niche narrower than the physiological thermal range. In the most unfavourable climate change scenario, the thermal habitat loss of brown trout increased to 38% (Cega stream) and 11% (Pirón stream) in the upstream direction at the end of the century; however, at the Cega stream, the range reduction could reach 56% due to the effect of a ?warm-window? opening in the piedmont reach.