1000 resultados para Escalador de colinas estocástico con reinicio


Relevância:

30.00% 30.00%

Publicador:

Resumo:

NIPO: 210-97-059-2

Relevância:

30.00% 30.00%

Publicador:

Resumo:

XII Jornadas de Investigación en el Aula de Matemáticas : estadística y azar, celebradas en Granada, noviembre y diciembre de 2006. Resumen tomado de la publicación

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se persigue crear leyes matemáticas que describan la evolución de la variable: número de alumnos que acuden a la universidad. Conocer de qué manera se puede controlar la cantidad de sujetos que se situan dentro del Sistema Educativo universitario y, una vez encontradas estas leyes, comprobar empíricamente su validez. Alumnos matriculados desde 1966-67 al 1974-75 y abandono desde 1969-70 al 1974-75 de las Facultades de Ciencias, Filosofía y Letras y Medicina de la Universidad de Granada; Facultades de Filosofía y Letras, Medicina, Derecho y Ciencias de la Universidad de Sevilla y Derecho, Filosofía y Letras y Ciencias de la Universidad de Murcia. El trabajo consta de dos partes, en la primera se trata de buscar funciones matemáticas que describan la evolución del alumnado basándose en los factores entrada en el sistema, estancia en él y abandono. Para estudiar el mecanismo de entrada se conocen el número de alumnos que se incorporan en la universidad en cada tiempo 't' y la distribución de dichas llegadas en los diferentes niveles, para cada 't'. El mecanismo de estancia queda determinado por el conocimiento de los cambios que se producen a lo largo del tiempo. El individuo tendrá 3 alternativas: permanecer en el mismo nivel, pasar al superior o abandonar. La distribución de las entradas se considerará como un proceso que puede ser estacionario y la variable aleatoria que cuantifique este proceso será un vector aleatorio con tantos componentes como niveles constituyen el sistema. El posterior análisis empírico que se realiza en la segunda parte recoge y utiliza las fórmulas halladas. La teoría desarrollada nos permite crear un control de entrada de sujetos en diversos niveles; de estancia en esos niveles y el estudio del abandono total del sistema. En el estudio empírico se ha aplicado la teoría desarrollada a las diversas facultades, objeto de análisis, planteando el sistema de ecuaciones en las incógnitas, número de transiciones entre cursos en los distintos años y que se deduce de que un individuo sólo tiene las tres alternativas apuntadas: entrada, estancia y abandono. En todo el análisis se han tenido en cuenta a la hora de estimar las matrices de transición su estacionamiento, siguiendo los trabajos de Bartlett, Hoel y Anderson y Godman. Es un modelo estocástico basado en estudios hechos por diversos autores y referidos a los más diversos temas, como movilidad laboral (Silcock), duración de una huelga (Lancaster). Los autores hacen mención de la importancia que hay que dar al hecho de que se esté trabajando con sujetos humanos a la hora de establecer un control de entradas en la universidad y que, por ejemplo, una política de promoción fijada de antemano puede dar lugar a consecuencias poco deseables para la estructura de la organización educativa. Los controles que apuntan como deseables, serían el control de pérdidas del sistema, control de promociones y control de entradas, en dos vertientes, tamaño y magnitud de las entradas y otro, localización de dichas entradas. No obstante hay que decir que estas variables están ligadas entre sí y cualquier cambio en una afectará a las demás.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los métodos utilizados para analizar opciones de inversión generalmente involucran consideraciones de flujo de caja tales como calcular la tasa de retorno o el valor actual neto. El Análisis de Decisiones añade una nueva dimensión al considerar cuantitativamente el riesgo e incertidumbre y como estos factores pueden ser utilizados para formular estrategias de inversión. La pieza fundamental del Análisis de Decisiones es el concepto de Valor Esperado, que es un método para combinar los estimados de rentabilidad con los estimados cuantitativos de riesgo a fin de obtener un criterio de decisión ajustado por riesgo. El Valor Esperado se obtiene ponderando los posibles resultados con la probabilidad de ocurrencia de cada uno de ellos. Para el caso en el cual los resultados son expresados como el VAN de los flujos de caja respectivos, el resultado es usualmente llamado Valor Actual Esperado (VAE) Para la evaluación de los proyectos se utilizan árboles de decisión o técnicas de simulación, donde éstas últimas se emplean cuando existen grandes incertidumbres y se desean obtener contornos de probabilidad del VAN. El criterio de aceptación establece que un proyecto puede llevarse a cabo si su VAE es positivo. Si se selecciona la alternativa que tiene el mayor VAE entre un conjunto de alternativas mutuamente excluyentes, el valor monetario esperado de todo el portafolio de decisiones será mayor que aquel que se obtendría seleccionando una estrategia alternativa

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde el reinicio de la democracia fue la preocupación de la Facultad de Ciencias Agrarias y Forestales de la UNLP reformular los Planes de Estudio de la carrera de Ingeniería Agronómica. Desde la última década y hasta el presente, el proceso de agriculturización que ha ocurrido en la Argentina se ha caracterizado por la concentración de las unidades de producción, la expansión de la superficie agrícola, centralizada en la producción de trigo-soja, la adopción masiva de la siembra directa y cultivos transgénicos resistentes al herbicida glifosato. A partir de un largo proceso que comenzó en el año 1985 y finalizó en el 1999 se fueron realizando las modificaciones necesarias del plan de estudios de la carrera para poder definir un perfil profesional que vinculara el currículum con las demandas y necesidades del sector. Además se rediseñó el perfil del profesional, donde la formulación del nuevo Plan de Estudios esté orientada a la formación de un profesional que garantice un criterio científico para la interpretación de la realidad en general, agropecuaria en particular como uno de los puntos principales. Consideramos que los cambios acontecidos en la estructura agraria son muy profundos y estos no fueron acompañados con una transformación en los contenidos y en los enfoques conceptuales de las asignaturas que conforman el plan de estudios de la carrera de Ingeniería Agronómica por lo que se debe continuar trabajando en ello para mejorar y elevar la calidad académica de la Institución.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde el reinicio de la democracia fue la preocupación de la Facultad de Ciencias Agrarias y Forestales de la UNLP reformular los Planes de Estudio de la carrera de Ingeniería Agronómica. Desde la última década y hasta el presente, el proceso de agriculturización que ha ocurrido en la Argentina se ha caracterizado por la concentración de las unidades de producción, la expansión de la superficie agrícola, centralizada en la producción de trigo-soja, la adopción masiva de la siembra directa y cultivos transgénicos resistentes al herbicida glifosato. A partir de un largo proceso que comenzó en el año 1985 y finalizó en el 1999 se fueron realizando las modificaciones necesarias del plan de estudios de la carrera para poder definir un perfil profesional que vinculara el currículum con las demandas y necesidades del sector. Además se rediseñó el perfil del profesional, donde la formulación del nuevo Plan de Estudios esté orientada a la formación de un profesional que garantice un criterio científico para la interpretación de la realidad en general, agropecuaria en particular como uno de los puntos principales. Consideramos que los cambios acontecidos en la estructura agraria son muy profundos y estos no fueron acompañados con una transformación en los contenidos y en los enfoques conceptuales de las asignaturas que conforman el plan de estudios de la carrera de Ingeniería Agronómica por lo que se debe continuar trabajando en ello para mejorar y elevar la calidad académica de la Institución.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las redes mutualistas son una clase de ecosistemas de gran interés en las que todas las interacciones entre especies son beneficiosas. Pueden modelarse como redes bipartitas con un núcleo de especies muy conectadas, una propiedad llamada anidamiento. Son muy resistentes y estables. La descripción matemática de las redes mutualistas está cimentada en modelos clásicos de población como los de Verhulst y Lotka-Volterra. En este trabajo proponemos una modificación de la formulación tradicional del mutualismo de May, incluyendo un factor de limitación del crecimiento que se basa en la conocida idea de la ecuación logística. Hemos construido una herramienta de simulación (SIGMUND) que permite experimentar con el modelo de forma simple y sencilla. Los resultados pueden ayudar a avanzar la investigación sobre el mutualismo, un campo activo de la ecología y la ciencia de redes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las redes mutualistas son una clase de ecosistemas de gran interés en las que todas las interacciones entre especies son beneficiosas. Pueden modelarse como redes bipartitas con un núcleo de especies muy conectadas, una propiedad llamada anidamiento. Son muy resistentes y estables. La descripción matemática de las redes mutualistas está cimentada en modelos clásicos de población como los de Verhulst y Lotka-Volterra. En este trabajo proponemos una modificación de la formulación tradicional del mutualismo de May, incluyendo un factor de limitación del crecimiento que se basa en la conocida idea de la ecuación logística. Hemos construido una herramienta de simulación (SIGMUND) que permite experimentar con el modelo de forma simple y sencilla. Los resultados pueden ayudar a avanzar la investigación sobre el mutualismo, un campo activo de la ecología y la ciencia de redes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis realiza una contribución metodológica al problema de la gestión óptima de embalses hidroeléctricos durante eventos de avenidas, considerando un enfoque estocástico y multiobjetivo. Para ello se propone una metodología de evaluación de estrategias de laminación en un contexto probabilístico y multiobjetivo. Además se desarrolla un entorno dinámico de laminación en tiempo real con pronósticos que combina un modelo de optimización y algoritmos de simulación. Estas herramientas asisten a los gestores de las presas en la toma de decisión respecto de cuál es la operación más adecuada del embalse. Luego de una detallada revisión de la bibliografía, se observó que los trabajos en el ámbito de la gestión óptima de embalses en avenidas utilizan, en general, un número reducido de series de caudales o hidrogramas para caracterizar los posibles escenarios. Limitando el funcionamiento satisfactorio de un modelo determinado a situaciones hidrológicas similares. Por otra parte, la mayoría de estudios disponibles en este ámbito abordan el problema de la laminación en embalses multipropósito durante la temporada de avenidas, con varios meses de duración. Estas características difieren de la realidad de la gestión de embalses en España. Con los avances computacionales en materia de gestión de información en tiempo real, se observó una tendencia a la implementación de herramientas de operación en tiempo real con pronósticos para determinar la operación a corto plazo (involucrando el control de avenidas). La metodología de evaluación de estrategias propuesta en esta tesis se basa en determinar el comportamiento de éstas frente a un espectro de avenidas características de la solicitación hidrológica. Con ese fin, se combina un sistema de evaluación mediante indicadores y un entorno de generación estocástica de avenidas, obteniéndose un sistema implícitamente estocástico. El sistema de evaluación consta de tres etapas: caracterización, síntesis y comparación, a fin de poder manejar la compleja estructura de datos resultante y realizar la evaluación. En la primera etapa se definen variables de caracterización, vinculadas a los aspectos que se quieren evaluar (seguridad de la presa, control de inundaciones, generación de energía, etc.). Estas variables caracterizan el comportamiento del modelo para un aspecto y evento determinado. En la segunda etapa, la información de estas variables se sintetiza en un conjunto de indicadores, lo más reducido posible. Finalmente, la comparación se lleva a cabo a partir de la comparación de esos indicadores, bien sea mediante la agregación de dichos objetivos en un indicador único, o bien mediante la aplicación del criterio de dominancia de Pareto obteniéndose un conjunto de soluciones aptas. Esta metodología se aplicó para calibrar los parámetros de un modelo de optimización de embalse en laminación y su comparación con otra regla de operación, mediante el enfoque por agregación. Luego se amplió la metodología para evaluar y comparar reglas de operación existentes para el control de avenidas en embalses hidroeléctricos, utilizando el criterio de dominancia. La versatilidad de la metodología permite otras aplicaciones, tales como la determinación de niveles o volúmenes de seguridad, o la selección de las dimensiones del aliviadero entre varias alternativas. Por su parte, el entorno dinámico de laminación al presentar un enfoque combinado de optimización-simulación, permite aprovechar las ventajas de ambos tipos de modelos, facilitando la interacción con los operadores de las presas. Se mejoran los resultados respecto de los obtenidos con una regla de operación reactiva, aun cuando los pronósticos se desvían considerablemente del hidrograma real. Esto contribuye a reducir la tan mencionada brecha entre el desarrollo teórico y la aplicación práctica asociada a los modelos de gestión óptima de embalses. This thesis presents a methodological contribution to address the problem about how to operate a hydropower reservoir during floods in order to achieve an optimal management considering a multiobjective and stochastic approach. A methodology is proposed to assess the flood control strategies in a multiobjective and probabilistic framework. Additionally, a dynamic flood control environ was developed for real-time operation, including forecasts. This dynamic platform combines simulation and optimization models. These tools may assist to dam managers in the decision making process, regarding the most appropriate reservoir operation to be implemented. After a detailed review of the bibliography, it was observed that most of the existing studies in the sphere of flood control reservoir operation consider a reduce number of hydrographs to characterize the reservoir inflows. Consequently, the adequate functioning of a certain strategy may be limited to similar hydrologic scenarios. In the other hand, most of the works in this context tackle the problem of multipurpose flood control operation considering the entire flood season, lasting some months. These considerations differ from the real necessity in the Spanish context. The implementation of real-time reservoir operation is gaining popularity due to computational advances and improvements in real-time data management. The methodology proposed in this thesis for assessing the strategies is based on determining their behavior for a wide range of floods, which are representative of the hydrological forcing of the dam. An evaluation algorithm is combined with a stochastic flood generation system to obtain an implicit stochastic analysis framework. The evaluation system consists in three stages: characterizing, synthesizing and comparing, in order to handle the complex structure of results and, finally, conduct the evaluation process. In the first stage some characterization variables are defined. These variables should be related to the different aspects to be evaluated (such as dam safety, flood protection, hydropower, etc.). Each of these variables characterizes the behavior of a certain operating strategy for a given aspect and event. In the second stage this information is synthesized obtaining a reduced group of indicators or objective functions. Finally, the indicators are compared by means of an aggregated approach or by a dominance criterion approach. In the first case, a single optimum solution may be achieved. However in the second case, a set of good solutions is obtained. This methodology was applied for calibrating the parameters of a flood control model and to compare it with other operating policy, using an aggregated method. After that, the methodology was extent to assess and compared some existing hydropower reservoir flood control operation, considering the Pareto approach. The versatility of the method allows many other applications, such as determining the safety levels, defining the spillways characteristics, among others. The dynamic framework for flood control combines optimization and simulation models, exploiting the advantages of both techniques. This facilitates the interaction between dam operators and the model. Improvements are obtained applying this system when compared with a reactive operating policy, even if the forecasts deviate significantly from the observed hydrograph. This approach contributes to reduce the gap between the theoretical development in the field of reservoir management and its practical applications.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La investigación realizada en este trabajo de tesis se ha centrado en el estudio de la generación, anclaje y desenganche de paredes de dominio magnético en nanohilos de permalloy con defectos controlados. Las últimas tecnologías de nanofabricación han abierto importantes líneas de investigación centradas en el estudio del movimiento de paredes de dominio magnético, gracias a su potencial aplicación en memorias magnéticas del futuro. En el 2004, Stuart Parkin de IBM introdujo un concepto innovador, el dispositivo “Racetrack”, basado en un nanohilo ferromagnético donde los dominios de imanación representan los "bits" de información. La frontera entre dominios, ie pared magnética, se moverían en una situación ideal por medio de transferencia de espín de una corriente polarizada. Se anclan en determinadas posiciones gracias a pequeños defectos o constricciones de tamaño nanométrico fabricados por litografía electrónica. El éxito de esta idea se basa en la generación, anclaje y desenganche de las paredes de dominio de forma controlada y repetitiva, tanto para la lectura como para la escritura de los bits de información. Slonczewski en 1994 muestra que la corriente polarizada de espín puede transferir momento magnético a la imanación local y así mover paredes por transferencia de espín y no por el campo creado por la corriente. Desde entonces muchos grupos de investigación de todo el mundo trabajan en optimizar las condiciones de transferencia de espín para mover paredes de dominio. La fracción de electrones polarizados que viaja en un hilo ferromagnético es considerablemente pequeña, así hoy por hoy la corriente necesaria para mover una pared magnética por transferencia de espín es superior a 1 107 A/cm2. Una densidad de corriente tan elevada no sólo tiene como consecuencia una importante degradación del dispositivo sino también se observan importantes efectos relacionados con el calentamiento por efecto Joule inducido por la corriente. Otro de los problemas científico - tecnológicos a resolver es la diversidad de paredes de dominio magnético ancladas en el defecto. Los diferentes tipos de pared anclados en el defecto, su quiralidad o el campo o corriente necesarios para desenganchar la pared pueden variar dependiendo si el defecto posee dimensiones ligeramente diferentes o si la pared se ancla con un método distinto. Además, existe una componente estocástica presente tanto en la nucleación como en el proceso de anclaje y desenganche que por un lado puede ser debido a la naturaleza de la pared que viaja por el hilo a una determinada temperatura distinta de cero, así como a defectos inevitables en el proceso de fabricación. Esto constituye un gran inconveniente dado que según el tipo de pared es necesario aplicar distintos valores de corriente y/o campo para desenganchar la pared del defecto. Como se menciona anteriormente, para realizar de forma eficaz la lectura y escritura de los bits de información, es necesaria la inyección, anclaje y desenganche forma controlada y repetitiva. Esto implica generar, anclar y desenganchar las paredes de dominio siempre en las mismas condiciones, ie siempre a la misma corriente o campo aplicado. Por ello, en el primer capítulo de resultados de esta tesis estudiamos el anclaje y desenganche de paredes de dominio en defectos de seis formas distintas, cada uno, de dos profundidades diferentes. Hemos realizado un análisis estadístico en diferentes hilos, donde hemos estudiado la probabilidad de anclaje cada tipo de defecto y la dispersión en el valor de campo magnético aplicado necesario para desenganchar la pared. Luego, continuamos con el estudio de la nucleación de las paredes de dominio magnético con pulsos de corriente a través una linea adyacente al nanohilo. Estudiamos defectos de tres formas distintas e identificamos, en función del valor de campo magnético aplicado, los distintos tipos de paredes de dominio anclados en cada uno de ellos. Además, con la ayuda de este método de inyección que es rápido y eficaz, hemos sido capaces de generar y anclar un único tipo de pared minimizando el comportamiento estocástico de la pared mencionado anteriormente. En estas condiciones óptimas, hemos estudiado el desenganche de las paredes de dominio por medio de corriente polarizada en espín, donde hemos conseguido desenganchar la pared de forma controlada y repetitiva siempre para los mismos valores de corriente y campo magnético aplicados. Además, aplicando pulsos de corriente en distintas direcciones, estudiamos en base a su diferencia, la contribución térmica debido al efecto Joule. Los resultados obtenidos representan un importante avance hacia la explotación práctica de este tipo de dispositivos. ABSTRACT The research activity of this thesis was focused on the nucleation, pinning and depinning of magnetic domain walls (DWs) in notched permalloy nanowires. The access to nanofabrication techniques has boosted the number of applications based on magnetic domain walls (DWs) like memory devices. In 2004, Stuart Parkin at IBM, conceived an innovative concept, the “racetrack memory” based on a ferromagnetic nanowire were the magnetic domains constitute the “bits” of information. The frontier between those magnetic domains, ie magnetic domain wall, will move ideally assisted by a spin polarized current. DWs will pin at certain positions due to artificially created pinning sites or “notches” fabricated with ebeam lithography. The success of this idea relies on the careful and predictable control on DW nucleation and a defined pinning-depinning process in order to read and write the bits of information. Sloncsewski in 1994 shows that a spin polarized current can transfer magnetic moment to the local magnetization to move the DWs instead of the magnetic field created by the current. Since then many research groups worldwide have been working on optimizing the conditions for the current induced DW motion due to the spin transfer effect. The fraction of spin polarized electrons traveling through a ferromagnetic nanowire is considerably small, so nowadays the current density required to move a DW by STT exceeds 1 107 A/cm2. A high current density not only can produce a significant degradation of the device but also important effects related to Joule heating were also observed . There are other scientific and technological issues to solve regarding the diversity of DWs states pinned at the notch. The types of DWs pinned, their chirality or their characteristic depinning current or field, may change if the notch has slightly different dimensions, the stripe has different thickness or even if the DW is pinned by a different procedure. Additionally, there is a stochastic component in both the injection of the DW and in its pinning-depinning process, which may be partly intrinsic to the nature of the travelling DW at a non-zero temperature and partly due to the unavoidable defects introduced during the nano-fabrication process. This constitutes an important inconvenient because depending on the DW type different values of current of magnetic field need to be applied in order to depin a DW from the notch. As mentioned earlier, in order to write and read the bits of information accurately, a controlled reproducible and predictable pinning- depinning process is required. This implies to nucleate, pin and depin always at the same applied magnetic field or current. Therefore, in the first chapter of this thesis we studied the pinning and depinning of DW in six different notch shapes and two depths. An statistical analysis was conducted in order to determine which notch type performed best in terms of pinning probability and the dispersion measured in the magnetic field necessary to depin the magnetic DWs. Then, we continued studying the nucleation of DWs with nanosecond current pulses by an adjacent conductive stripe. We studied the conditions for DW injection that allow a selective pinning of the different types of DWs in Permalloy nanostripes with 3 different notch shapes. Furthermore, with this injection method, which has proven to be fast and reliable, we manage to nucleate only one type of DW avoiding its stochastic behavior mentioned earlier. Having achieved this optimized conditions we studied current induced depinning where we also achieved a controlled and reproducible depinning process at always the same applied current and magnetic field. Additionally, changing the pulse polarity we studied the joule heating contribution in a current induced depinning process. The results obtained represent an important step towards the practical exploitation of these devices.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este proyecto se basa en la comparación de un modelo de flujo lineal frente a un modelo de ecuaciones completas. Con esta motivación se empleará un programa de cada tipo. Los elegidos son el WAsP y el WindSim respectivamente. Tras una breve descripción de cada programa, estudiaremos los distintos elementos que los componen y su estructura. Entre todas las posibilidades que presentan ambos programas, el proyecto se centrará en la estimación del recurso eólico. En teoría, el programa que emplea un modelo lineal no será apto en terrenos complejos, por ello se tratará de estimar el error cometido por el modelo lineal tomando como referencia el modelo de ecuaciones completas. Con el objetivo de comparar ambos programas y poder distinguir sus diferencias, se plantea un caso común, en el cual se evaluarán distintas condiciones meteorológicas para colinas de forma gaussiana y distinta pendiente. Con ello se pretende medir la evolución de la precisión del WAsP conforme el terreno se va haciendo más complejo. Otras variables a tener en cuenta serán la variación de la velocidad del viento y la altura del punto de cálculo. Finalmente se analizan y explican los resultados obtenidos acompañados de elementos visuales proporcionados por los programas. 2. Abstract The main objective of this project is the comparison of two models, one based on the lineal flux and the other based on the complete equations. Thanks to two different computer programmes, WAsP and WindSim, the first one using a linear model and the second one using a complete equation model, we will be able to highlight the main differences between both models. Furthermore, a description of the structure and elements of each program will be outlined. This project will focus on the estimation of the wind resource. In theory, the program which uses a linear model will not be useful in complex terrains. Therefore, we will try to estimate the fault of the lineal model comparing it to the complete equation model. In order to be able to distinguish the differences between both programmes, the same exercise will be proposed to be solved by both of them. Here a range of meteorological conditions will be evaluated over a Gaussian hill with a slope that varies. Thereby, we will be able to measure the evolution of the precision of WAsP according to the increase of the slope. Finally, the results are analysed and explained with help of some visual characters.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el presente documento se estudia el desempeño que ha tenido Perú durante la última fase expansiva del ciclo de precios de commodities, específicamente entre los años 2001 y 2015. Para esto, se desarrolla un modelo de equilibrio general estocástico y dinámico, basado en Medina y Soto (2007) y Fornero y Kichner (2014), que incorpora un sector productor de commodities con inversión del tipo time to build. El modelo es estimado de forma lineal y a partir de este se muestra la importancia que tienen los choques de precios commodities sobre el resto de la actividad económica. Asimismo, se analizan distintos tipos de políticas fiscales y monetarias, ante este tipo de choques. También se obtienen políticas monetarias óptimas a partir de la función de pérdida de la autoridad monetaria. Los resultados de la investigación apuntan a que, cuando hay un incremento en el precio de los commodities, se genera una dinámica procíclica en el valor de la producción de todos los sectores, en la inversión, el consumo y el gasto del Gobierno. Además, se encuentra que la incorporación del mecanismo de time to build permite explicar mejor la dinámica observada. Dicho mecanismo ayuda a comprender que el choque en cuestión demora en propagarse, ya que los proyectos mineros toman tiempo en construirse. Este aporte metodológico es de particular relevancia en los ejercicios de modelamiento y predicción que se quieran realizar sobre la economía peruana.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La optimización de carteras de inversión presenta un gran número de dificultades, siendo una de las más importantes la gestión de la incertidumbre que surge en diferentes aspectos del proceso. Este trabajo propone matizar esta última mejorando la robustez de las soluciones mediante el uso de $\epsilon$-vecindarios combinados con un mecanismo de remuestreo basado en marcas temporales. La aproximación se ha incorporado a cuatro metaheurísticas multi-objetivo del estado del arte, que se han evaluado sobre un histórico bastante amplio de activos. Los resultados han mostrado una mejora significativa de la fiabilidad de la frontera eficiente estimada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Por meio de coleta de dados primários e secundários foi feito um inventário dos atrativos turísticos e o mapeamento georreferenciado do território do município de Colinas do Sul, localizado na região nordeste do estado de Goiás, Brasil. O mapeamento consistiu na identificação dos principais atrativos turísticos naturais, rotas, roteiros e circuitos turísticos por meio de GPS/GIS, oferecendo informações, e uma base cartográfica pioneira para a criação de um banco de dados norteadores da ocupação e transformação dos espaços para o planejamento e desenvolvimento de um turismo respaldado por preocupações sociais e ecológicas. Colinas do Sul é um dos municípios brasileiros com mais de 80% de seu território situado em uma Área de Proteção Ambiental (APA), uma Unidade de Conservação (UC) brasileira de uso sustentável, e que possui no seu entorno duas áreas de extrema relevância ambiental: o Parque da Chapada dos Veadeiros e a o Lago da Serra da Mesa. A metodologia consistiu na coleta de dados para se disponibilizar um sistema de informação turística georreferenciada de base cartográfica interpretada e documental de interesse coletivo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Datos de humedad de equilibrio de polvo de pulpa de lulo (PL) con y sin aditivos - 58% de maltodextrina (MD) o 58% de goma Arábiga (GA) - fueran determinados en las temperaturas de 20, 30, 40 y 50 °C utilizando el método estático gravimétrico para un rango de actividades de agua entre 0.06 y 0.90. Las isotermas presentaran formato sigmoidal del tipo III, y el modelo de Guggenhein-Anderson-de Boer (GAB) fue ajustado satisfactoriamente a los datos experimentales de humedad de equilibrio en función de la actividad de agua. La adición de encapsulantes afecto las isotermas de tal manera que en la misma actividad de agua, las muestras PL + GA y PL + MD presentaron un menor contenido de humedad de equilibrio y no fueron afectadas por la variación de temperatura. Los calores isostéricos de sorción de las pulpas en polvo con encapsulantes fueron mayores (menos negativos) con relación a las pulpas de lulo en polvo, sugiriendo la existencia de sitios polares más activos en el producto sin adición de GA o MD. Una relación exponencial empírica fue utilizada para describir la dependencia del calor de sorción con el contenido de humedad del material.