920 resultados para New Keynesian model, Bayesian methods, Monetary policy, Great Inflation
Resumo:
En este trabajo se analiza la efectividad que tiene la aplicaciones de una política antiinflacionaria por parte de un Banco Central independiente en una economía que presenta el fenómeno de la indexación en la formación de precios.
Resumo:
Introducción: El desarrollo tecnológico permite efectuar procedimientos eficientes en pacientes críticos de urgencias como canalizar vasos centrales guiados por ecografía. Éste procedimiento comparado con la técnica a ciegas ofrece ventajas como disminución de complicaciones, mejor éxito y menor tiempo de procedimiento. Hay diferentes técnicas de abordaje: transversal, longitudinal y oblicua, lo que supone diferencias en la efectividad y éxito en cada una de ellas. Materiales y métodos: Se realizó un experimento en modelos simulados con especialistas y residentes de último año de medicina de emergencias. Posterior a estandarizar los conceptos y abordajes de cada una de las técnicas, se puncionaron los modelos para determinar cuál técnica presenta mayor éxito y efectividad para canalización yugular con guía ecográfica. Resultados: El procedimiento fue efectivo en 175 réplicas (97.2%) distribuidas así: éxito 133 (73.9%), redirección 37 (20.6%) y requerimiento de segunda punción en 5 (2.8%). En la técnica transversal la efectividad fue 96.7% (n=58), en longitudinal del 100% (n=60) y en oblicua del 95.0% (n=57), (p=0.377). En residentes la efectividad fue 95.6% (n=86) y en especialistas 98.9% (n=89), (p=0.184). La distribución de éxito mostró que en los especialistas fue mayor en un 18.9% que en los residentes (p=0.004), por género los hombres tienen un éxito mayor en un 18.7% que las mujeres (p=0.009, OR=3.12, IC 95%: 1.30, 7.52). Discusión: No se encontró diferencia significativa en el uso de cualquier técnica, pero la tendencia favorece la técnica longitudinal, quien obtuvo mayor porcentaje de efectividad y éxito.
Resumo:
RESUMEN INTRODUCCION Los desórdenes musculoesqueléticos constituyen uno de los más comunes y costosos problemas de salud en el trabajo en todo el mundo. La detección a tiempo de síntomas iniciales debe ser una prioridad de los sistemas de vigilancia epidemiológica. El objetivo de este trabajo de investigación fue determinar la prevalencia de los desórdenes musculoesqueléticos (DME) en la población de funcionarios del cuerpo de policía judicial de Bogotá en el año 2014. MATERIALES Y METODOS Estudio de corte transversal con una muestra de 300 trabajadores a los que se les aplico el cuestionario Nórdico de Síntomas musculoesqueléticos. RESULTADOS Se encuesto al 33,9% de los trabajadores pertenecientes al cuerpo técnico de Policía Judicial de la Fiscalía General de la Nación en la ciudad de Bogotá. Los trabajadores evaluados tienen una edad promedio de 41,9 años, con un predominio del género femenino (54%), encontrándose que la mayoría de los que respondieron al cuestionario 87,66% (n=263) habían presentado algún síntoma musculoesqueléticos en los últimos 12 meses. Un hallazgo significativo fue la afectación cervical en el 53% (n=159) de los que reportaron sintomatología musculo esquelética. CONCLUSIONES La población perteneciente a la Policía Técnica Judicial en la ciudad de Bogotá presenta una alta prevalencia (87,66%) de síntomas que afectan al sistema musculoesquelético, principalmente comprometiendo las regiones de columna cervical, parte baja de la espalda y parte alta de la espalda, con una mayor afectación a las personas de género femenino.
Resumo:
El presente trabajo busca evaluar las oportunidades y amenazas que se pueden generar a causa de la creación de un Tratado de Libre Comercio con China, identificando así el impacto que tendrían dichas alianzas sobre el desarrollo económico del país y sobre la competitividad en la región. A partir del análisis de las relaciones comerciales y particularidades de las dos economías, se tendrá en cuenta variables como la reducción del crecimiento económico de China que ha venido experimentando en los últimos años respecto al crecimiento que ha venido ganando poco a poco Colombia. Para ello, se realizó una investigación con base en información relevante de los últimos 5 años, obtenida de diferentes fuentes. Entre estas se destaca el Plan Nacional de Desarrollo (2014- 2018), estadísticas del DANE, portales de análisis económico, entrevistas, revistas indexadas, entre otras. Este compendio de fuentes permitirá evaluar el comportamiento actual de la economía en Colombia y China, así como de las perspectivas económicas de cada país para los próximos años en relación al comercio exterior. Con esto se logrará evaluar la factibilidad, así como las ventajas y desventajas que debería asumir Colombia al firmar un Tratado de Libre Comercio con su segundo socio comercial más importante.
Resumo:
Asset correlations are of critical importance in quantifying portfolio credit risk and economic capitalin financial institutions. Estimation of asset correlation with rating transition data has focusedon the point estimation of the correlation without giving any consideration to the uncertaintyaround these point estimates. In this article we use Bayesian methods to estimate a dynamicfactor model for default risk using rating data (McNeil et al., 2005; McNeil and Wendin, 2007).Bayesian methods allow us to formally incorporate human judgement in the estimation of assetcorrelation, through the prior distribution and fully characterize a confidence set for the correlations.Results indicate: i) a two factor model rather than the one factor model, as proposed bythe Basel II framework, better represents the historical default data. ii) importance of unobservedfactors in this type of models is reinforced and point out that the levels of the implied asset correlationscritically depend on the latent state variable used to capture the dynamics of default,as well as other assumptions on the statistical model. iii) the posterior distributions of the assetcorrelations show that the Basel recommended bounds, for this parameter, undermine the levelof systemic risk.
Resumo:
Una de las actuaciones posibles para la gestión de los residuos sólidos urbanos es la valorización energética, es decir la incineración con recuperación de energía. Sin embargo es muy importante controlar adecuadamente el proceso de incineración para evitar en lo posible la liberación de sustancias contaminantes a la atmósfera que puedan ocasionar problemas de contaminación industrial.Conseguir que tanto el proceso de incineración como el tratamiento de los gases se realice en condiciones óptimas presupone tener un buen conocimiento de las dependencias entre las variables de proceso. Se precisan métodos adecuados de medida de las variables más importantes y tratar los valores medidos con modelos adecuados para transformarlos en magnitudes de mando. Un modelo clásico para el control parece poco prometedor en este caso debido a la complejidad de los procesos, la falta de descripción cuantitativa y la necesidad de hacer los cálculos en tiempo real. Esto sólo se puede conseguir con la ayuda de las modernas técnicas de proceso de datos y métodos informáticos, tales como el empleo de técnicas de simulación, modelos matemáticos, sistemas basados en el conocimiento e interfases inteligentes. En [Ono, 1989] se describe un sistema de control basado en la lógica difusa aplicado al campo de la incineración de residuos urbanos. En el centro de investigación FZK de Karslruhe se están desarrollando aplicaciones que combinan la lógica difusa con las redes neuronales [Jaeschke, Keller, 1994] para el control de la planta piloto de incineración de residuos TAMARA. En esta tesis se plantea la aplicación de un método de adquisición de conocimiento para el control de sistemas complejos inspirado en el comportamiento humano. Cuando nos encontramos ante una situación desconocida al principio no sabemos como actuar, salvo por la extrapolación de experiencias anteriores que puedan ser útiles. Aplicando procedimientos de prueba y error, refuerzo de hipótesis, etc., vamos adquiriendo y refinando el conocimiento, y elaborando un modelo mental. Podemos diseñar un método análogo, que pueda ser implementado en un sistema informático, mediante el empleo de técnicas de Inteligencia Artificial.Así, en un proceso complejo muchas veces disponemos de un conjunto de datos del proceso que a priori no nos dan información suficientemente estructurada para que nos sea útil. Para la adquisición de conocimiento pasamos por una serie de etapas: - Hacemos una primera selección de cuales son las variables que nos interesa conocer. - Estado del sistema. En primer lugar podemos empezar por aplicar técnicas de clasificación (aprendizaje no supervisado) para agrupar los datos y obtener una representación del estado de la planta. Es posible establecer una clasificación, pero normalmente casi todos los datos están en una sola clase, que corresponde a la operación normal. Hecho esto y para refinar el conocimiento utilizamos métodos estadísticos clásicos para buscar correlaciones entre variables (análisis de componentes principales) y así poder simplificar y reducir la lista de variables. - Análisis de las señales. Para analizar y clasificar las señales (por ejemplo la temperatura del horno) es posible utilizar métodos capaces de describir mejor el comportamiento no lineal del sistema, como las redes neuronales. Otro paso más consiste en establecer relaciones causales entre las variables. Para ello nos sirven de ayuda los modelos analíticos - Como resultado final del proceso se pasa al diseño del sistema basado en el conocimiento. El objetivo principal es aplicar el método al caso concreto del control de una planta de tratamiento de residuos sólidos urbanos por valorización energética. En primer lugar, en el capítulo 2 Los residuos sólidos urbanos, se trata el problema global de la gestión de los residuos, dando una visión general de las diferentes alternativas existentes, y de la situación nacional e internacional en la actualidad. Se analiza con mayor detalle la problemática de la incineración de los residuos, poniendo especial interés en aquellas características de los residuos que tienen mayor importancia de cara al proceso de combustión.En el capítulo 3, Descripción del proceso, se hace una descripción general del proceso de incineración y de los distintos elementos de una planta incineradora: desde la recepción y almacenamiento de los residuos, pasando por los distintos tipos de hornos y las exigencias de los códigos de buena práctica de combustión, el sistema de aire de combustión y el sistema de humos. Se presentan también los distintos sistemas de depuración de los gases de combustión, y finalmente el sistema de evacuación de cenizas y escorias.El capítulo 4, La planta de tratamiento de residuos sólidos urbanos de Girona, describe los principales sistemas de la planta incineradora de Girona: la alimentación de residuos, el tipo de horno, el sistema de recuperación de energía, y el sistema de depuración de los gases de combustión Se describe también el sistema de control, la operación, los datos de funcionamiento de la planta, la instrumentación y las variables que son de interés para el control del proceso de combustión.En el capítulo 5, Técnicas utilizadas, se proporciona una visión global de los sistemas basados en el conocimiento y de los sistemas expertos. Se explican las diferentes técnicas utilizadas: redes neuronales, sistemas de clasificación, modelos cualitativos, y sistemas expertos, ilustradas con algunos ejemplos de aplicación.Con respecto a los sistemas basados en el conocimiento se analizan en primer lugar las condiciones para su aplicabilidad, y las formas de representación del conocimiento. A continuación se describen las distintas formas de razonamiento: redes neuronales, sistemas expertos y lógica difusa, y se realiza una comparación entre ellas. Se presenta una aplicación de las redes neuronales al análisis de series temporales de temperatura.Se trata también la problemática del análisis de los datos de operación mediante técnicas estadísticas y el empleo de técnicas de clasificación. Otro apartado está dedicado a los distintos tipos de modelos, incluyendo una discusión de los modelos cualitativos.Se describe el sistema de diseño asistido por ordenador para el diseño de sistemas de supervisión CASSD que se utiliza en esta tesis, y las herramientas de análisis para obtener información cualitativa del comportamiento del proceso: Abstractores y ALCMEN. Se incluye un ejemplo de aplicación de estas técnicas para hallar las relaciones entre la temperatura y las acciones del operador. Finalmente se analizan las principales características de los sistemas expertos en general, y del sistema experto CEES 2.0 que también forma parte del sistema CASSD que se ha utilizado.El capítulo 6, Resultados, muestra los resultados obtenidos mediante la aplicación de las diferentes técnicas, redes neuronales, clasificación, el desarrollo de la modelización del proceso de combustión, y la generación de reglas. Dentro del apartado de análisis de datos se emplea una red neuronal para la clasificación de una señal de temperatura. También se describe la utilización del método LINNEO+ para la clasificación de los estados de operación de la planta.En el apartado dedicado a la modelización se desarrolla un modelo de combustión que sirve de base para analizar el comportamiento del horno en régimen estacionario y dinámico. Se define un parámetro, la superficie de llama, relacionado con la extensión del fuego en la parrilla. Mediante un modelo linealizado se analiza la respuesta dinámica del proceso de incineración. Luego se pasa a la definición de relaciones cualitativas entre las variables que se utilizan en la elaboración de un modelo cualitativo. A continuación se desarrolla un nuevo modelo cualitativo, tomando como base el modelo dinámico analítico.Finalmente se aborda el desarrollo de la base de conocimiento del sistema experto, mediante la generación de reglas En el capítulo 7, Sistema de control de una planta incineradora, se analizan los objetivos de un sistema de control de una planta incineradora, su diseño e implementación. Se describen los objetivos básicos del sistema de control de la combustión, su configuración y la implementación en Matlab/Simulink utilizando las distintas herramientas que se han desarrollado en el capítulo anterior.Por último para mostrar como pueden aplicarse los distintos métodos desarrollados en esta tesis se construye un sistema experto para mantener constante la temperatura del horno actuando sobre la alimentación de residuos.Finalmente en el capítulo Conclusiones, se presentan las conclusiones y resultados de esta tesis.
Resumo:
In this thesis a review of the state of the art on empowerment is found. A proposal is put forward for a model of the effective variables of empowerment, a new theoretical model that provides a distinct classification of individual variables. The model consists of four metavariables called reciprocal, unidirectional, shared and reflexive. Finally, a measurement tool for measuring and representing these variables graphically is described, including its process of elaboration through a preliminary pilot study that served to refine and improve the questionnaire. Both the model and the instrument proposed aim to determine the state of the primary variables involved in determining the predisposition and potential of a working group towards empowerment. With the measurement tool both organisational, departmental, working group and/or individual data can be obtained. This instrument can help companies and organisations to discover the limitations existing within a working group and act in consequence.
Resumo:
The euro area today consists of a competitive, moderately leveraged North and an uncompetitive, over-indebted South. Its main macroeconomic challenge is to carry out the adjustment required to restore the competitiveness of its southern part and eliminate its excessive public and private debt burden. This paper investigates the relationship between fiscal and competitiveness adjustment in a stylised model with two countries in a monetary union, North and South. To restore competitiveness, South implements a more restrictive fiscal policy than North. We consider two scenarios. In the first, monetary policy aims at keeping inflation constant in the North. The South therefore needs to deflate to regain competitiveness, which worsens the debt dynamics. In the second, monetary policy aims at keeping inflation constant in the monetary union as a whole. This results in more monetary stimulus, inflation in the North is higher, and this in turn helps the debt dynamics in the South. Our main findings are: •The differential fiscal stance between North and South is what determines real exchange rate changes. South therefore needs to tighten more. There is no escape from relative austerity. •If monetary policy aims at keeping inflation stable in the North and the initial debt is above a certain threshold, debt dynamics are perverse: fiscal retrenchment is self-defeating; •If monetary policy targets average inflation instead, which implies higher inflation in the North, the initial debt threshold above which the debt dynamics become perverse is higher. Accepting more inflation at home is therefore a way for the North to contribute to restoring debt sustainability in the South. •Structural reforms in the South improve the debt dynamics if the initial debt is not too high. Again, targeting average inflation rather than inflation in the North helps strengthen the favourable effects of structural reforms.
Resumo:
Extensive prior research on the economics of European monetary union highlighted some potential risks (the known unknowns) but overlooked others (the unknown unknowns). Asymmetries among participating countries, the potentially destabilising character of a one-size-fits all monetary policy, the weakness of adjustment mechanisms, the lack of incentives for fiscal discipline, the possibility of sovereign solvency crises and their adverse consequences were all known and understood. But policymakers often relied on a complacent reading of the evidence. • The potential for financial disruption was vastly underestimated. Economists generally did not consider, or underestimated, the possibility of balance of payment crises such as those experienced by southern European countries, or the risk of a feedback loop between banks and sovereigns. • Remedying EMU’s systemic deficiencies is on the policy agenda. Banking union would go a long way towards addressing the fault lines. The urgent question for economists is if it is going to be enough and, if not, what else should complement the ‘bare-bones’ EMU of Maastricht.
Resumo:
This paper sets out to conduct an empirical analysis of the post-Lisbon role of the European Parliament (EP) in the EU’s Common Commercial Policy through an examination of the ‘deep and comprehensive’ bilateral Free Trade Agreements (FTAs) currently negotiated as part of the EU’s Global Europe strategy. The EU-Korea and EU-India FTAs are used as case studies in order to determine the implications of the EP’s enhanced trade powers on the processes, actors and outcomes of EU bilateral trade policy. The EP is now endowed with the ‘hard power’ of consent in the ratification phase of FTAs, acting as a threat to strengthen its ‘soft power’ to influence negotiations. The EP is developing strategies to influence the mandate and now plays an important role in the implementation of FTAs. The entry of this new player on the Brussels trade policy field has brought about a shift in the institutional balance of power and opened up the EP as a new point of access for trade policy lobbyists. Finally, increased EP involvement in EU trade policy has brought about a politicisation of EU trade policy and greater normative outcomes of FTAs.
Big Decisions and Sparse Data: Adapting Scientific Publishing to the Needs of Practical Conservation
Resumo:
The biggest challenge in conservation biology is breaking down the gap between research and practical management. A major obstacle is the fact that many researchers are unwilling to tackle projects likely to produce sparse or messy data because the results would be difficult to publish in refereed journals. The obvious solution to sparse data is to build up results from multiple studies. Consequently, we suggest that there needs to be greater emphasis in conservation biology on publishing papers that can be built on by subsequent research rather than on papers that produce clear results individually. This building approach requires: (1) a stronger theoretical framework, in which researchers attempt to anticipate models that will be relevant in future studies and incorporate expected differences among studies into those models; (2) use of modern methods for model selection and multi-model inference, and publication of parameter estimates under a range of plausible models; (3) explicit incorporation of prior information into each case study; and (4) planning management treatments in an adaptive framework that considers treatments applied in other studies. We encourage journals to publish papers that promote this building approach rather than expecting papers to conform to traditional standards of rigor as stand-alone papers, and believe that this shift in publishing philosophy would better encourage researchers to tackle the most urgent conservation problems.
Resumo:
This paper reports the current state of work to simplify our previous model-based methods for visual tracking of vehicles for use in a real-time system intended to provide continuous monitoring and classification of traffic from a fixed camera on a busy multi-lane motorway. The main constraints of the system design were: (i) all low level processing to be carried out by low-cost auxiliary hardware, (ii) all 3-D reasoning to be carried out automatically off-line, at set-up time. The system developed uses three main stages: (i) pose and model hypothesis using 1-D templates, (ii) hypothesis tracking, and (iii) hypothesis verification, using 2-D templates. Stages (i) & (iii) have radically different computing performance and computational costs, and need to be carefully balanced for efficiency. Together, they provide an effective way to locate, track and classify vehicles.
Resumo:
This paper presents the first systematic chronostratigraphic study of the river terraces of the Exe catchment in South West England and a new conceptual model for terrace formation in unglaciated basins with applicability to terrace staircase sequences elsewhere. The Exe catchment lay beyond the maximum extent of Pleistocene ice sheets and the drainage pattern evolved from the Tertiary to the Middle Pleistocene, by which time the major valley systems were in place and downcutting began to create a staircase of strath terraces. The higher terraces (8-6) typically exhibit altitudinal overlap or appear to be draped over the landscape, whilst the middle terraces show greater altitudinal separation and the lowest terraces are of a cut and fill form. The terrace deposits investigated in this study were deposited in cold phases of the glacial-interglacial Milankovitch climatic cycles with the lowest four being deposited in the Devensian Marine Isotope Stages (MIS) 4-2. A new cascade process-response model is proposed of basin terrace evolution in the Exe valley, which emphasises the role of lateral erosion in the creation of strath terraces and the reworking of inherited resistant lithological components down through the staircase. The resultant emergent valley topography and the reworking of artefacts along with gravel clasts, have important implications for the dating of hominin presence and the local landscapes they inhabited. Whilst the terrace chronology suggested here is still not as detailed as that for the Thames or the Solent System it does indicate a Middle Palaeolithic hominin presence in the region, probably prior to the late Wolstonian Complex or MIS 6. This supports existing data from cave sites in South West England.
Resumo:
In this paper we estimate a Translog output distance function for a balanced panel of state level data for the Australian dairy processing sector. We estimate a fixed effects specification employing Bayesian methods, with and without the imposition of monotonicity and curvature restrictions. Our results indicate that Tasmania and Victoria are the most technically efficient states with New South Wales being the least efficient. The imposition of theoretical restrictions marginally affects the results especially with respect to estimates of technical change and industry deregulation. Importantly, our bias estimates show changes in both input use and output mix that result from deregulation. Specifically, we find that deregulation has positively biased the production of butter, cheese and powders.
Resumo:
The development of effective methods for predicting the quality of three-dimensional (3D) models is fundamentally important for the success of tertiary structure (TS) prediction strategies. Since CASP7, the Quality Assessment (QA) category has existed to gauge the ability of various model quality assessment programs (MQAPs) at predicting the relative quality of individual 3D models. For the CASP8 experiment, automated predictions were submitted in the QA category using two methods from the ModFOLD server-ModFOLD version 1.1 and ModFOLDclust. ModFOLD version 1.1 is a single-model machine learning based method, which was used for automated predictions of global model quality (QMODE1). ModFOLDclust is a simple clustering based method, which was used for automated predictions of both global and local quality (QMODE2). In addition, manual predictions of model quality were made using ModFOLD version 2.0-an experimental method that combines the scores from ModFOLDclust and ModFOLD v1.1. Predictions from the ModFOLDclust method were the most successful of the three in terms of the global model quality, whilst the ModFOLD v1.1 method was comparable in performance to other single-model based methods. In addition, the ModFOLDclust method performed well at predicting the per-residue, or local, model quality scores. Predictions of the per-residue errors in our own 3D models, selected using the ModFOLD v2.0 method, were also the most accurate compared with those from other methods. All of the MQAPs described are publicly accessible via the ModFOLD server at: http://www.reading.ac.uk/bioinf/ModFOLD/. The methods are also freely available to download from: http://www.reading.ac.uk/bioinf/downloads/.