1000 resultados para Equilibrio (Economía) -- Modelos matemáticos


Relevância:

40.00% 40.00%

Publicador:

Resumo:

En los últimos años se ha visto el desarrollo de una gran cantidad de estudios sobre los efectos del cambio climático en diversos sectores y países. Sin embargo, en general estos estudios son parciales y no llegan a incluir los impactos indirectos y dinámicos que surgirán a causa de los efectos sectoriales más obvios y directos. El propósito del presente estudio es demostrar cómo se puede integrar los efectos directos del cambio climático en un Modelo de Equilibrio General Computable (MEGC) para analizar los efectos indirectos y dinámicos, y así llegar a obtener una mayor percepción sobre el impacto real que este fenómeno podría tener sobre la economía boliviana. Los resultados muestran que los impactos indirectos y dinámicos son entre dos y cuatro veces mayores que los efectos directos, lo que muestra la importancia de desarrollar instrumentos que permitan su estimación e inclusión en estudios sobre los impactos del cambio climático.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Hasta hace poco existía una controversia entre el gobierno y la Junta Directiva del Banco de la República, en relación con las altas tasas de interés y su efecto en la economía colombiana. El gobierno decía que el culpable de las altas tasas de interés era el Banco de la República por su monetaria contraccionista (reducción de la cantidad de dinero en poder del público) y a su vez el Banco de la República decía que el culpable era el por su excesivo gasto público (política fiscal expansionista). Para comprender mejor esta controversia, los economistas (y en especial los académicos) usamos el modelo ISLM que relaciona tasas de interés con nivel de producción.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Civil - Perfil Estruturas

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Debido a la carencia de tácticas de control alternativas factibles y económicamente viables, los insecticidas constituyen el instrumento más ampliamente aceptado por los agricultores, a pesar de las graves consecuencias que pueden derivar de su uso indiscriminado. El presente Proyecto Marco apunta a optimizar los criterios de decisión sobre el control de plagas, con particular referencia a la aplicación de insecticidas, en términos de la economía del agricultor y de la salud ambiental, en el contexto de la sustentabilidad de los sistemas productivos. El objetivo general es desarrollar un sistema cuantitativo de apoyo a la toma de decisiones sobre manejo de plagas, basado en el conocimiento de la interacción entre cultivos, plagas, enemigos naturales, y variables climáticas y económicas. El Proyecto Marco se divide en los módulos, Soja y Maíz, cada uno de los cuales consiste en diversos planes de trabajo: 1) Influencia de la interacción "densidad de anticarsia gemmatalis-fenología del cultivo soja" en el rendimiento; 2) caracterización del patrón espacial de orugas defoliadoras de soja y diseño de planes de monitoreo; 3) epizootiología de hongos patógenos defoliadores en cultivos de soja bajo condiciones de riego y secano; 4) Modelos de predicción del patrón temporal de abundancia de lepidópteros plaga de soja y maíz, en base a variables climáticas. Los correspondientes objetivos específicos son (Primer año): 1.a) Ajustar la técnica de simulación de defoliación con perforador manual. 1.b) Obtener información preliminar para la caracterización cuantitativa de la relación "densidad de plaga-fenología-rendimiento del cultivo de soja". 2.a) Describir el grado de agregación de las plagas. 2.b) Estudiar la relación densidad de plaga-distancia al perímetro del cultivo. 3.a) Describir las epizootias de hongos patógenos de orugas defoliadoras de soja. 3.b) Desarrollar un modelo de simulación para explorar la dinámica de las epixotias. 4) Ajustar modelos predictivos preliminares con la base de datos climáticos y de abundancia de lepidópteros disponibles en la EEA Manfredi (INTA).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[cat] Aquest text presenta una panoràmica de la formació investigadora, mostrant experiències educatives i models formatius que les sustenten. Aquest àmbit d'estudi és relativament recent i les aportacions són encara més aviat escasses, com apunten alguns autors (Tight 2008; Rojas-Betancur, 2009; Evans, 2012). No obstant això, hi ha signes i evidències que la formació d'investigadors està sent objecte d'atenció des de múltiples enfocaments, donada la seva projecció en diferents facetes: desenvolupament professional, processos d'innovació, competitivitat econòmica, millora de la qualitat de les institucions d'educació superior, etc.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[cat] Aquest text presenta una panoràmica de la formació investigadora, mostrant experiències educatives i models formatius que les sustenten. Aquest àmbit d'estudi és relativament recent i les aportacions són encara més aviat escasses, com apunten alguns autors (Tight 2008; Rojas-Betancur, 2009; Evans, 2012). No obstant això, hi ha signes i evidències que la formació d'investigadors està sent objecte d'atenció des de múltiples enfocaments, donada la seva projecció en diferents facetes: desenvolupament professional, processos d'innovació, competitivitat econòmica, millora de la qualitat de les institucions d'educació superior, etc.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de este trabajo es exponer cuáles son los factores que han influido en el modelo de concentración industrial de la economía española y analizar si son los que postulan las teorías más significativas del comercio. El análisis se realiza en dos momentos distintos del tiempo para evaluar si se han producido cambios significativos. A partir de los índices de concentración relativa y absoluta, calculados para los años 1995 y 2003, sobre 24 sectores de las 17 CCAA, se construyen dos modelos de regresión que son los que permiten el análisis del mapa industrial. Los resultados indican que la localización de la industria puede explicarse en gran medida por las variables sugeridas por las teorías del comercio y que entre ambos periodos no ha habido grandes cambios en los patrones de concentración. Asimismo, el factor que se revela como más determinante de la concentración relativa y absoluta de la industria española es el tamaño y acceso a los mercados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durante las últimas décadas se ha producido un creciente interés en nuestro país en relación a las economías regionales dada la necesidad de los gobiernos regionales de obtener información sobre sus economías para así llevar a cabo actuaciones de política económica más efectivas y eficientes. En este marco, los modelos econométricos constituyen una herramienta de utilidad puesto que ofrecen información sobre las relaciones estructurales que se dan en una economía y permiten predecir su evolución. Sin embargo, la utilización de dichos modelos con finalidad predictiva se enfrenta al inconveniente de la elevada inestabilidad a corto plazo que se produce en las relaciones entre variables económicas a nivel regional. Por este motivo, en el presente trabajo se propone la utilización de un modelo de coeficientes variables para recoger dicha inestabilidad y mejorar las predicciones sobre la evolución de las variables del bloque de producción de la economía catalana. Para contrastar la mejora obtenida a partir de la aplicación de dicho modelo, se compara su capacidad predictiva con la de un modelo de coeficientes fijos. Los resultados muestran un mejor comportamiento del modelo de coeficientes variables frente al modelo de coeficientes fijos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tasa de paro de inflación estable (NAIRU) describe aquella tasa de desempleo que se alcanza en el equilibrio entre las reivindicaciones salariales de los trabajadores y los objetivos de beneficio de las empresas. En este trabajo se desarrolla un enfoque teórico general que permite determinar el nivel de la NAIRU. Esta cuestión adquiere una especial trascendencia teórica y empírica si se tiene en cuenta que esta tasa de paro de equilibrio ha aumentado en la mayoría de países europeos. Sin embargo, esta tasa de paro de equilibrio no puede observarse directamente por lo que se recurre a su estimación econométrica a partir del filtro de Kalman. Para ilustrar la potencialidad del modelo desarrollado y la influencia de la determinadas variables relacionadas con la distribución de las rentas salariales, se analiza cual ha sido la evolución de la NAIRU para la economía española en el periodo 1964-2004.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tesis (Maestría en Economía Industrial) U.A.N.L.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tesis (Maestría en Economía con Especialidad en Economía Industrial) U.A.N.L.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tesis (Maestría en Economía con Especialidad en Economía Industrial) U.A.N.L.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tesis (Maestría en Economía con Especialidad en Economía Industrial) U.A.N.L.