29 resultados para método de gestión
em Universidad Politécnica de Madrid
Resumo:
En este trabajo se presentan dos modelos de gestión de embalses en avenidas, el primero, basado en reglas de operación de los órganos de desagüe definidas por el usuario y, el segundo, correspondiente al método de gestión programada de embalses de Girón. Se incluye además un módulo que integra ambos métodos al sistema hidrometeorológico de alerta temprana FEWS.
Resumo:
El principal objetivo de este proyecto, tal como se especifica más adelante, es desarrollar una serie de buenas prácticas dentro del ámbito informático forense. Éstas serían la base de una metodología informática forense, para que cualquier persona con los conocimientos técnicos adecuados pueda afrontar una investigación pericial informática forense con garantías de poder afrontar un proceso judicial. Los objetivos secundarios son: Explorar las posibilidades de alinear las buenas prácticas desarrolladas con el uso del editor de textos Emacs, y un método de gestión de las actividades conocido como Getting Things Done (GTD), utilizando el modo orgmode de Emacs. • GTD se basa en el principio de que una persona necesita borrar de su mente todas las tareas que tiene pendientes guardándolas en un lugar específico. De este modo, se libera a la mente del trabajo de recordar todo lo que hay que hacer, y se puede concentrar en la efectiva realización de aquellas tareas. • ORGMODE es un modo de edición del editor de texto Emacs mediante el cual se editan documentos jerárquicos en texto plano. Su uso encaja con distintas necesidades, como la creación de notas de cosas por hacer, la planificación de proyectos y programación, entre otros aspectos. Por ejemplo, los elementos to-do (cosas por hacer) pueden disponer de prioridades y fechas de vencimiento, pueden estar subdivididos en subtareas o en listas de verificación, y pueden etiquetarse o darles propiedades. También puede generarse automáticamente una agenda de las entradas de cosas por hacer. Facilitar las plantillas de documentación y herramientas que permitan a un perito informático forense abordar una investigación informática forense, siguiendo las buenas prácticas definidas en el presente documento, con garantías de que las tareas realizadas, así como las evidencias presentadas serán aceptadas en un proceso judicial. Explicar las diferencias básicas entre el concepto sobreentendido socialmente como análisis forense y el peritaje informático forense. No es objetivo de este proyecto desarrollar herramientas concretas con objetivos forenses ni una metodología completa de peritaje informático forense.
Resumo:
Actualmente en nuestro planeta producimos 1.300 millones de toneladas de residuos urbanos al año. Si los extendemos sobre la superficie de un cuadrado de lado 100 m (una hectárea) alcanzarían una altura de 146 km. ¿Cuál es el origen de nuestros residuos? ¿A dónde va esta basura? ¿Cómo nos afecta? ¿Tiene alguna utilidad? Se trata de un problema antiguo que, en los últimos tiempos, ha adquirido una nueva dimensión por el tipo y la cantidad de residuos generados. Las primeras preocupaciones de la ciudad por ordenar estos problemas dieron lugar al establecimiento de espacios o lugares específicos para la acumulación de los residuos urbanos: los vertederos. Los desechos hoy se generan más rápidamente que los medios disponibles para reciclarlos o tratarlos. Los vertederos de residuos urbanos son y seguirán siendo, a corto y medio plazo, soluciones válidas por ser un método de gestión relativamente barato, sobre todo en los países en vías de desarrollo. Como consecuencia y necesidad de lo anterior, se plantea demostrar que la recuperación y la transformación de estos vertederos de residuos urbanos (lugares del deterioro), una vez abandonados, es posible y que además pueden dar lugar a nuevos espacios públicos estratégicos de la ciudad contemporánea. Son espacios de oportunidad, vacíos monumentales producto de una reactivación arquitectónica y paisajística realizada a partir de complejos procesos de ingeniería medioambiental. Pero las soluciones aplicadas a los vertederos de residuos urbanos desde mediados del siglo XX se han realizado exclusivamente desde la ingeniería para tratar de resolver cuestiones técnicas, un modelo agotado que ya no puede gestionar la magnitud que este problema ha alcanzado, haciéndose necesaria e inevitable la participación de la arquitectura para abrir nuevas líneas de investigación y de acción. En estos primeros compases del siglo XXI existe una “nueva” preocupación, un “nuevo” interés en los paradigmas de lo ecológico y de la sostenibilidad, también un interés filosófico (que igualmente otorga un nuevo valor al residuo como recurso), que dirigen su mirada hacia un concepto de paisaje abierto y diferente a modelos anteriores más estáticos, recuperando como punto de partida el ideal pintoresco. El landscape urbanism se consolida como una disciplina capaz de dar respuesta a lo natural y artificial simultáneamente, que sustituye a las herramientas tradicionales de la arquitectura para solucionar los problemas de la ciudad contemporánea, incorporando las infraestructuras de gran escala, como un vertedero de residuos urbanos, y los paisajes públicos que generan como el verdadero mecanismo de organización del urbanismo de hoy. No se trata solo de un modelo formal sino, lo que es más importante: de un modelo de procesos. Esta nueva preocupación permite abordar la cuestión del paisaje de manera amplia, sin restricciones, con un alto grado de flexibilidad en las nuevas propuestas que surgen como consecuencia de estos conceptos, si bien los esfuerzos, hasta la fecha, parecen haberse dirigido más hacia el fenómeno de lo estético, quedando todavía por explorar las consecuencias políticas, sociales, económicas y energéticas derivadas de los residuos. También las arquitectónicas. El proyecto del landscape urbanism se ocupa de la superficie horizontal, del plano del suelo. Desde siempre, la preparación de este plano para desarrollar cualquier actividad humana ha sido un gesto fundacional, un gesto propio necesario de toda arquitectura, que además ahora debe considerarlo como un medio o soporte biológicamente activo. En términos contemporáneos, el interés disciplinar radica en la continuidad y en la accesibilidad del suelo, diluyendo los límites; en que funcione a largo plazo, que se anticipe al cambio, a través de la flexibilidad y de la capacidad de negociación, y que sea público. La recuperación de un vertedero de residuos urbanos ofrece todas estas condiciones. Un breve recorrido por la historia revela los primeros ejemplos aislados de recuperación de estos lugares del deterioro, que han pasado por distintas fases en función de la cantidad y el tipo de los desechos producidos, evolucionando gracias a la tecnología y a una nueva mirada sobre el paisaje, hasta desarrollar una verdadera conciencia de lo ecológico (nacimiento de una ideología). El Monte Testaccio en Roma (siglos I-III d.C.) constituye un caso paradigmático y ejemplar de vertedero planificado a priori no solo como lugar en el que depositar los residuos, sino como lugar que será recuperado posteriormente y devuelto a la ciudad en forma de espacio público. Una topografía de desechos generada por acumulación, organizada y planificada durante tres siglos, que nos hace reflexionar sobre los temas de producción, consumo y proyecto arquitectónico. El Monte Testaccio revela una fuente de inspiración, un arquetipo de gestión sostenible de los recursos y del territorio. A través de la experiencia en la recuperación y transformación en espacios públicos de casos contemporáneos, como el antiguo vertedero de Valdemingómez en Madrid o el de El Garraf en Barcelona, se han analizado las técnicas y las soluciones empleadas para establecer nuevas herramientas de proyecto planteadas en clave de futuro, que revelan la importancia de los procesos frente a la forma, en los cuales intervienen muchos factores (tanto naturales como artificiales), entre ellos la vida y el tiempo de la materia viva acumulada. Son lugares para nuevas oportunidades y ejemplos de una nueva relación con la naturaleza. La reactivación de los vertederos de residuos, a través del proyecto, nos propone una nueva topografía construida en el tiempo, el suelo como soporte, como punto de encuentro de la naturaleza y los sistemas tecnológicos de la ciudad que posibilitan nuevos modos de vida y nuevas actividades. Los vertederos de residuos son inmensas topografías naturales surgidas de procesos artificiales, atalayas desde las que divisar un nuevo horizonte, un nuevo mundo, un nuevo futuro donde sea posible lograr la reversibilidad de nuestros actos del deterioro. Pero la voluntad de estas recuperaciones y transformaciones no consiste exclusivamente en su reintegración al paisaje, sino que han servido como muestra de las nuevas actitudes que la sociedad ha de emprender en relación a los temas medio ambientales. ABSTRACT Here on our planet we currently produce 1.3 billion tonnes of urban waste per year. If we were to spread this over a surface of 100m2 (one hectare), it would reach a height of 146km. What is the origin of this waste? Where does our refuse go? How does it affect us? Does it have any uses? We are dealing with an old problem which, in recent times, has taken on a new dimension due to the type of waste and the amount generated. Cities’ first concerns in resolving these problems gave rise to the establishment of areas or specific places for the accumulation of urban waste: landfills. These days, waste is generated more quickly than the available resources can recycle or process it. Urban waste landfills are and will continue to be, in the short and mid-term, valid solutions, given that they constitute a relatively cheap method for waste management, especially in developing countries. Consequently and necessarily, we plan to demonstrate that it is possible to recover and transform these urban waste landfills (areas of deterioration) once they have been abandoned and that they can give rise to new strategic public areas in contemporary cities. They are areas of opportunity, monumental vacancies produced by an architectural reactivation of the landscape, which is achieved using complex processes of environmental engineering. But the solutions applied to urban waste landfills throughout the 20th century have used engineering exclusively in the attempt to resolve the technical aspects. This is a worn-out model which can no longer handle the magnitude which the problem has attained and therefore, there is an inevitable need for the participation of architecture, which can open new lines of research and action. In these first steps into the 21st century, there is a “new” concern, a “new” interest in the paradigms of environmentalism and sustainability. There is also a philosophical interest (which assigns the new value of ‘resource’ to waste) and all is aimed towards the concept of an open landscape, unlike the previous, more static models, and the intention is to recover picturesque ideals as the starting point. Landscape urbanism has been established as a discipline capable of simultaneously responding to the natural and the artificial, replacing the traditional tools of architecture in order to resolve contemporary cities’ problems. It incorporates large scale infrastructures, such as urban waste landfills, and public landscapes which are generated as the true organisational mechanism of modern day urbanism. It is not merely a formal model, it is more important than that: it is a model of processes. This new concern allows us to address the matter of landscape in a broad way, without restrictions, and with a great degree of flexibility in the new proposals which come about as a consequence of these concepts. However, efforts to date seem to have been more directed at aesthetic aspects and we have yet to explore the political, social, economic and energetic consequences derived from waste – nor have we delved into the architectural consequences. The landscape urbanism project is involved with the horizontal surface, the ground plane. Traditionally, the preparation of this plane for the development of any human activity has been a foundational act, a necessary act of all architecture, but now this plane must be considered as a biologically active medium or support. In contemporary terms, the discipline’s interest lies in the continuity and accessibility of the land, diffusing the limits; in long term functionality; in the anticipation of change, via flexibility and the ability to negotiate; and in it being a public space. The recovery of an urban waste landfill offers all of these conditions. A brief look through history reveals the first isolated examples of recovery of these spaces of deterioration. They have gone through various phases based on the quantity and type of waste produced, they have evolved thanks to technology and a new outlook on the landscape, and a real environmental awareness has been developed (the birth of an ideology). Monte Testaccio in Rome (1st to 3rd Century AD) constitutes a paradigmatic and exemplary case of a landfill that was planned a priori not only as a place to deposit waste but also as a place that would be subsequently recovered and given back to the city in the form of a public space. This spoil mound, generated by organised and planned accumulation over three centuries, makes us reflect on the themes of production, consumption and architectural planning. Monte Testaccio reveals a source of inspiration, an archetype of the sustainable management of resources and land. Using our experience of contemporary cases of land recovery and its transformation into public spaces, such as the former Valdemingómez landfill in Madrid or the Garraf in Barcelona, we analysed the techniques and solutions used in order to establish new project tools. These are proposed with an eye on the future, seeing as they reveal the importance of the processes over the form and involve many factors (both natural and artificial), including the life and age of the accumulated living matter. They are places for new opportunities and examples of our new relationship with nature. The reactivation of landfills, via this project, is a proposal for a new topography built within time, using the ground as the support, as the meeting point between nature and the technological systems of the city which make it possible for new ways of life and new activities to come about. Landfills are immense natural topographical areas produced by artificial processes, watchtowers from which to discern a new horizon, a new world, a new future in which it will be possible to reverse our acts of deterioration. But the intention behind these recoveries and transformations does not only hope for landscape reintegration but it also hopes that they will also serve as a sign of the new attitudes that must be adopted by society with regard to environmental matters.
Resumo:
El crecimiento de Internet y la proliferación de información multidominio de forma pública ha propiciado la aparición de nuevas oportunidades en entornos muy dispares, principalmente en el ámbito de la investigación. Además, desde que se planteara el concepto de Web Semántica se han venido desarrollando un nutrido conjunto de herramientas y estándares ideados para facilitar la interoperabilidad en la World Wide Web. Este factor adicional posibilita el acceso a datos compartidos y su integración de forma mucho más abierta y comprensible, siendo la tendencia esperada la de acercarse poco a poco a la completa homogeneización de los contenidos disponibles en Internet. En este trabajo de tesis doctoral se presenta un método en cinco fases para la mediación semántica y sintáctica en sistemas de bases de datos integradas. Los lenguajes y estándares más utilizados para el desarrollo de este método son los asociados a la Web Semántica para la descripción de esquemas, recursos y consultas. En conjunto con este trabajo teórico se han desarrollado una serie de componentes software para dar servicio conjunto a las distintas problemáticas asociadas al enfoque elegido. Estos componentes han sido construidos dentro del marco del proyecto europeo ACGT1, centrado en el apoyo a los ensayos clínicos post-genómicos en cáncer. La ejecución completa del método propuesto permite crear consultas SPARQL a partir de descripciones en lenguaje natural, y resolver automáticamente algunos de los problemas más importantes en el proceso de mediación, tales como la resolución de conflictos y ambigüedades, la traducción de consultas y la gestión de restricciones. Además, lo experimentos llevados a cabo en este trabajo muestran cómo estas tareas pueden ser realizadas de manera eficiente. Además de las tareas propias de la mediación semántica, se ha dotado al método de una solución para agilizar la construcción de componentes para la homogeneización de las interfaces sintácticas y tecnológicas con los propios recursos de datos. Esto resulta especialmente útil cuando las fuentes carecen de esquema o el medio de acceso no está diseñado específicamente para llevar a cabo una integración. Para la evaluación de la utilidad, viabilidad y eficiencia del método y las herramientas asociadas se han desarrollado en primer lugar una serie de experimentos en el contexto de ACGT. Estos experimentos han sido validados en diversas revisiones por expertos en el dominio de la medicina y los sistemas de información. Además se presenta una evaluación teórica de la eficiencia de los algoritmos presentados, demostrándose que para el caso general se encuentra una solución en tiempo polinómico. La conclusión final de esta tesis es que el conjunto de técnicas presentadas es útil, viable y eficiente para la explotación de la información integrada a partir de repositorios heterogéneos.
Resumo:
Se describe el método elaborado para rehabilitar 21 Conjuntos Urbanos de la posguerra en Zaragoza, que integra la caracterización, problemas y soluciones propuestas para la edificación, el perfil socio económico de la población,los criterios de actuación, el proceso de participación y gestión y las obras realizadas en las experiencias piloto.
Resumo:
En la actualidad, la gestión de embalses para el control de avenidas se realiza, comúnmente, utilizando modelos de simulación. Esto se debe, principalmente, a su facilidad de uso en tiempo real por parte del operador de la presa. Se han desarrollado modelos de optimización de la gestión del embalse que, aunque mejoran los resultados de los modelos de simulación, su aplicación en tiempo real se hace muy difícil o simplemente inviable, pues está limitada al conocimiento de la avenida futura que entra al embalse antes de tomar la decisión de vertido. Por esta razón, se ha planteado el objetivo de desarrollar un modelo de gestión de embalses en avenidas que incorpore las ventajas de un modelo de optimización y que sea de fácil uso en tiempo real por parte del gestor de la presa. Para ello, se construyó un modelo de red Bayesiana que representa los procesos de la cuenca vertiente y del embalse y, que aprende de casos generados sintéticamente mediante un modelo hidrológico agregado y un modelo de optimización de la gestión del embalse. En una primera etapa, se generó un gran número de episodios sintéticos de avenida utilizando el método de Monte Carlo, para obtener las lluvias, y un modelo agregado compuesto de transformación lluvia- escorrentía, para obtener los hidrogramas de avenida. Posteriormente, se utilizaron las series obtenidas como señales de entrada al modelo de gestión de embalses PLEM, que optimiza una función objetivo de costes mediante programación lineal entera mixta, generando igual número de eventos óptimos de caudal vertido y de evolución de niveles en el embalse. Los episodios simulados fueron usados para entrenar y evaluar dos modelos de red Bayesiana, uno que pronostica el caudal de entrada al embalse, y otro que predice el caudal vertido, ambos en un horizonte de tiempo que va desde una a cinco horas, en intervalos de una hora. En el caso de la red Bayesiana hidrológica, el caudal de entrada que se elige es el promedio de la distribución de probabilidad de pronóstico. En el caso de la red Bayesiana hidráulica, debido al comportamiento marcadamente no lineal de este proceso y a que la red Bayesiana devuelve un rango de posibles valores de caudal vertido, se ha desarrollado una metodología para seleccionar un único valor, que facilite el trabajo del operador de la presa. Esta metodología consiste en probar diversas estrategias propuestas, que incluyen zonificaciones y alternativas de selección de un único valor de caudal vertido en cada zonificación, a un conjunto suficiente de episodios sintéticos. Los resultados de cada estrategia se compararon con el método MEV, seleccionándose las estrategias que mejoran los resultados del MEV, en cuanto al caudal máximo vertido y el nivel máximo alcanzado por el embalse, cualquiera de las cuales puede usarse por el operador de la presa en tiempo real para el embalse de estudio (Talave). La metodología propuesta podría aplicarse a cualquier embalse aislado y, de esta manera, obtener, para ese embalse particular, diversas estrategias que mejoran los resultados del MEV. Finalmente, a modo de ejemplo, se ha aplicado la metodología a una avenida sintética, obteniendo el caudal vertido y el nivel del embalse en cada intervalo de tiempo, y se ha aplicado el modelo MIGEL para obtener en cada instante la configuración de apertura de los órganos de desagüe que evacuarán el caudal. Currently, the dam operator for the management of dams uses simulation models during flood events, mainly due to its ease of use in real time. Some models have been developed to optimize the management of the reservoir to improve the results of simulation models. However, real-time application becomes very difficult or simply unworkable, because the decision to discharge depends on the unknown future avenue entering the reservoir. For this reason, the main goal is to develop a model of reservoir management at avenues that incorporates the advantages of an optimization model. At the same time, it should be easy to use in real-time by the dam manager. For this purpose, a Bayesian network model has been developed to represent the processes of the watershed and reservoir. This model learns from cases generated synthetically by a hydrological model and an optimization model for managing the reservoir. In a first stage, a large number of synthetic flood events was generated using the Monte Carlo method, for rain, and rain-added processing model composed of runoff for the flood hydrographs. Subsequently, the series obtained were used as input signals to the reservoir management model PLEM that optimizes a target cost function using mixed integer linear programming. As a result, many optimal discharge rate events and water levels in the reservoir levels were generated. The simulated events were used to train and test two models of Bayesian network. The first one predicts the flow into the reservoir, and the second predicts the discharge flow. They work in a time horizon ranging from one to five hours, in intervals of an hour. In the case of hydrological Bayesian network, the chosen inflow is the average of the probability distribution forecast. In the case of hydraulic Bayesian network the highly non-linear behavior of this process results on a range of possible values of discharge flow. A methodology to select a single value has been developed to facilitate the dam operator work. This methodology tests various strategies proposed. They include zoning and alternative selection of a single value in each discharge rate zoning from a sufficient set of synthetic episodes. The results of each strategy are compared with the MEV method. The strategies that improve the outcomes of MEV are selected and can be used by the dam operator in real time applied to the reservoir study case (Talave). The methodology could be applied to any single reservoir and, thus, obtain, for the particular reservoir, various strategies that improve results from MEV. Finally, the methodology has been applied to a synthetic flood, obtaining the discharge flow and the reservoir level in each time interval. The open configuration floodgates to evacuate the flow at each interval have been obtained applying the MIGEL model.
Resumo:
Tanto en el campo de la conservación como en el de la mejora genética, se han propuesto diversos métodos para gestionar una población controlando la pérdida de diversidad genética. En poblaciones no subdivididas, el método aceptado es determinar la contribución de cada posible padre (i.e., el número de descendientes que cada individuo deja a la siguiente generación), minimizando el parentesco global de los padres ponderado por estas contribuciones (Meuwissen, 1997; Grundy et al., 1998; Fernández et al., 2003). Los coeficientes de parentesco se obtienen normalmente de la genealogía, y en dicho caso, se optimiza el parentesco global genealógico. Sin embargo, la información genealógica no está siempre disponible, en cuyo caso se pueden usar marcadores moleculares para calcular el parentesco molecular o estimar el parentesco genealógico (Toro et al., 2009). Así, cuando no se dispone de genealogías, se puede minimizar el parentesco molecular global o el parentesco global genealógico estimado con los marcadores. Fernández et al. (2005) estudiaron mediante simulaciones la capacidad de la información molecular de reemplazar a la información genealógica, y concluyeron que el uso exclusivo de información molecular era claramente insuficiente. En dicho estudio, los autores se basaron en un número limitado de marcadores microsatélites, del orden de decenas. En la actualidad, gracias a los métodos de secuenciación de última generación, disponemos de miles de marcadores de tipo SNP, lo que hace necesaria una revisión de aquellas investigaciones que concluían que la utilidad de la información molecular era limitada e inferior a la genealógica. En este estudio, reevaluamos vía simulaciones la capacidad de la información genómica de reemplazar a la información genealógica para mantener diversidad genética en programas de conservación, usando un número de SNPs en línea con los datos actualmente disponibles
Resumo:
El cálculo del valor económico del arbolado urbano, en la mayoría de los métodos de tasación, se basa en las medidas dasométricas del arbolado, los precios de vivero para cada especie y las condiciones estéticas, de salud, adecuación y localización de cada árbol en el entorno urbano. En la ciudad de Santiago del Estero se han contabilizado 226 especies diferentes de árboles, así como un gran número de ejemplares que dificultan las labores de gestión, medición y tasación que requiere el arbolado urbano. En este trabajo se han empleado técnicas de análisis estadístico multivariante para determinar árboles tipo que representen y agrupen especies y características dasométricas. El método de clasificación supervisada permite obtener funciones discriminantes que agrupan los diferentes árboles de la ciudad en tres clases. En cada clase se selecciona la especie más frecuente en las plantaciones realizadas por la municipalidad. Para asignar un árbol tipo a cada uno de los grupos se ha empleado valores medios de los árboles muestreados. Dichos árboles tipo permiten resumir la diversidad del arbolado de Santiago del Estero.
Resumo:
La vulnerabilidad de los sistemas ganaderos de pastoreo pone en evidencia la necesidad de herramientas para evaluar y mitigar los efectos de la sequía. El avance en la teledetección ha despertado el interés por explotar potenciales aplicaciones, y está dando lugar a un intenso desarrollo de innovaciones en distintos campos. Una de estas áreas es la gestión del riesgo climático, en donde la utilización de índices de vegetación permite la evaluación de la sequía. En esta investigación, se analiza el impacto de la sequía y se evalúa el potencial de nuevas tecnologías como la teledetección para la gestión del riesgo de sequía en sistemas de ganadería extensiva. Para ello, se desarrollan tres aplicaciones: (i) evaluar el impacto económico de la sequía en una explotación ganadera extensiva de la dehesa de Andalucía, (ii) elaborar mapas de vulnerabilidad a la sequía en pastos de Chile y (iii) diseñar y evaluar el potencial de un seguro indexado para sequía en pastos en la región de Coquimbo en Chile. En la primera aplicación, se diseña un modelo dinámico y estocástico que integra aspectos climáticos, ecológicos, agronómicos y socioeconómicos para evaluar el riesgo de sequía. El modelo simula una explotación ganadera tipo de la dehesa de Andalucía para el período 1999-2010. El método de Análisis Histórico y la simulación de MonteCarlo se utilizan para identificar los principales factores de riesgo de la explotación, entre los que destacan, los periodos de inicios del verano e inicios de invierno. Los resultados muestran la existencia de un desfase temporal entre el riesgo climático y riesgo económico, teniendo este último un periodo de duración más extenso en el tiempo. También, revelan que la intensidad, frecuencia y duración son tres atributos cruciales que determinan el impacto económico de la sequía. La estrategia de reducción de la carga ganadera permite aminorar el riesgo, pero conlleva una disminución en el margen bruto de la explotación. La segunda aplicación está dedicada a la elaboración de mapas de vulnerabilidad a la sequia en pastos de Chile. Para ello, se propone y desarrolla un índice de riesgo económico (IRESP) sencillo de interpretar y replicable, que integra factores de riesgo y estrategias de adaptación para obtener una medida del Valor en Riesgo, es decir, la máxima pérdida esperada en un año con un nivel de significación del 5%.La representación espacial del IRESP pone en evidencia patrones espaciales y diferencias significativas en la vulnerabilidad a la sequía a lo largo de Chile. Además, refleja que la vulnerabilidad no siempre esta correlacionada con el riesgo climático y demuestra la importancia de considerar las estrategias de adaptación. Las medidas de autocorrelación espacial revelan que el riesgo sistémico es considerablemente mayor en el sur que en el resto de zonas. Los resultados demuestran que el IRESP transmite información pertinente y, que los mapas de vulnerabilidad pueden ser una herramienta útil en el diseño de políticas y toma de decisiones para la gestión del riesgo de sequía. La tercera aplicación evalúa el potencial de un seguro indexado para sequía en pastos en la región de Coquimbo en Chile. Para lo cual, se desarrolla un modelo estocástico para estimar la prima actuarialmente justa del seguro y se proponen y evalúan pautas alternativas para mejorar el diseño del contrato. Se aborda el riesgo base, el principal problema de los seguros indexados identificado en la literatura y, que está referido a la correlación imperfecta del índice con las pérdidas de la explotación. Para ello, se sigue un enfoque bayesiano que permite evaluar el impacto en el riesgo base de las pautas de diseño propuestas: i) una zonificación por clúster que considera aspectos espacio-temporales, ii) un período de garantía acotado a los ciclos fenológicos del pasto y iii) umbral de garantía. Los resultados muestran que tanto la zonificación como el periodo de garantía reducen el riesgo base considerablemente. Sin embargo, el umbral de garantía tiene un efecto ambiguo sobre el riesgo base. Por otra parte, la zonificación por clúster contribuye a aminorar el riesgo sistémico que enfrentan las aseguradoras. Estos resultados han puesto de manifiesto que un buen diseño de contrato puede tener un doble dividendo, por un lado aumentar su utilidad y, por otro, reducir el coste del seguro. Un diseño de contrato eficiente junto con los avances en la teledetección y un adecuado marco institucional son los pilares básicos para el buen funcionamiento de un programa de seguro. Las nuevas tecnologías ofrecen un importante potencial para la innovación en la gestión del riesgo climático. Los avances en este campo pueden proporcionar importantes beneficios sociales en los países en desarrollo y regiones vulnerables, donde las herramientas para gestionar eficazmente los riesgos sistémicos como la sequía pueden ser de gran ayuda para el desarrollo. The vulnerability of grazing livestock systems highlights the need for tools to assess and mitigate the adverse impact of drought. The recent and rapid progress in remote sensing has awakened an interest for tapping into potential applications, triggering intensive efforts to develop innovations in a number of spheres. One of these areas is climate risk management, where the use of vegetation indices facilitates assessment of drought. This research analyzes drought impacts and evaluates the potential of new technologies such as remote sensing to manage drought risk in extensive livestock systems. Three essays in drought risk management are developed to: (i) assess the economic impact of drought on a livestock farm in the Andalusian Dehesa, (ii) build drought vulnerability maps in Chilean grazing lands, and (iii) design and evaluate the potential of an index insurance policy to address the risk of drought in grazing lands in Coquimbo, Chile. In the first essay, a dynamic and stochastic farm model is designed combining climate, agronomic, socio-economic and ecological aspects to assess drought risk. The model is developed to simulate a representative livestock farm in the Dehesa of Andalusia for the time period 1999-2010. Burn analysis and MonteCarlo simulation methods are used to identify the significance of various risk sources at the farm. Most notably, early summer and early winter are identified as periods of peak risk. Moreover, there is a significant time lag between climate and economic risk and this later last longer than the former. It is shown that intensity, frequency and duration of the drought are three crucial attributes that shape the economic impact of drought. Sensitivity analysis is conducted to assess the sustainability of farm management strategies and demonstrates that lowering the stocking rate reduces farmer exposure to drought risk but entails a reduction in the expected gross margin. The second essay, mapping drought vulnerability in Chilean grazing lands, proposes and builds an index of economic risk (IRESP) that is replicable and simple to interpret. This methodology integrates risk factors and adaptation strategies to deliver information on Value at Risk, maximum expected losses at 5% significance level. Mapping IRESP provides evidence about spatial patterns and significant differences in drought vulnerability across Chilean grazing lands. Spatial autocorrelation measures reveal that systemic risk is considerably larger in the South as compared to Northern or Central Regions. Furthermore, it is shown that vulnerability is not necessarily correlated with climate risk and that adaptation strategies do matter. These results show that IRESP conveys relevant information and that vulnerability maps may be useful tools to assess policy design and decision-making in drought risk management. The third essay develops a stochastic model to estimate the actuarially fair premium and evaluates the potential of an indexed insurance policy to manage drought risk in Coquimbo, a relevant livestock farming region of Chile. Basis risk refers to the imperfect correlation of the index and farmer loses and is identified in the literature as a main limitation of index insurance. A Bayesian approach is proposed to assess the impact on basis risk of alternative guidelines in contract design: i) A cluster zoning that considers space-time aspects, ii) A guarantee period bounded to fit phenological cycles, and iii) the triggering index threshold. Results show that both the proposed zoning and guarantee period considerably reduces basis risk. However, the triggering index threshold has an ambiguous effect on basis risk. On the other hand, cluster zoning contributes to ameliorate systemic risk faced by the insurer. These results highlighted that adequate contract design is important and may result in double dividend. On the one hand, increasing farmers’ utility and, secondly, reducing the cost of insurance. An efficient contract design coupled with advances in remote sensing and an appropriate institutional framework are the basis for an efficient operation of an insurance program. The new technologies offer significant potential for innovation in climate risk managements. Progress in this field is capturing increasing attention and may provide important social gains in developing countries and vulnerable regions where the tools to efficiently manage systemic risks, such as drought, may be a means to foster development.
Resumo:
RESUMEN Los procesos de diseño de zonas o diseño del territorio implican la partición de un espacio geográfico, organizado en un conjunto de unidades de área, en diferentes regiones o zonas según un conjunto especifico de criterios que varían en función del campo de aplicación. En la mayoría de los casos, el objetivo fundamental consiste en crear zonas de tamaño aproximadamente igual respecto a uno o varios atributos de medida -de carácter cuantitativo- (zonas con igual número de habitantes, igual promedio de ventas...). Sin embargo, están apareciendo nuevas aplicaciones, algunas en el contexto de las políticas de desarrollo sostenible, cuya finalidad es la definición de regiones con un tamaño predeterminado, no necesariamente similar. Además, en estos casos las zonas han de formarse en torno a un conjunto específico de posiciones, semillas o generadores. Este tipo de particiones no han sido lo suficientemente investigadas, de manera que no se conocen modelos de solución para la delimitación automática de las zonas. En esta tesis se ha diseñado un nuevo método basado en una versión discreta del diagrama de Voronoi con peso aditivo adaptativo (DVPAA), que permite la partición de un espacio bidimensional en zonas de un tamaño específico, considerando tanto la posición como el peso de cada uno de los generadores. El método consiste en resolver repetidamente un tradicional diagrama de Voronoi con peso aditivo, de forma que los pesos de cada generador se actualizan en cada iteración. En el proceso de cálculo de distancias se usa una métrica basada en el camino más corto, lo que garantiza que la partición obtenida esté formada por un conjunto de zonas conexas. La heurística diseñada se integra en una aplicación prototipo, desarrollada en un entorno SIG (Sistemas de Información Geográfica), que permite el trazado automático de zonas según los criterios anteriormente expuestos. Para analizar la viabilidad del método se ha utilizado como caso de estudio la gestión de los recursos pastorales para la ganadería extensiva en tres municipios de Castilla-La Mancha. Las pruebas realizadas ponen de manifiesto que la heurística diseñada, adaptada a los criterios que se plantean en el contexto de la gestión de sistemas extensivos agropecuarios, es válida para resolver este tipo de problemas de partición. El método propuesto se caracteriza por su eficacia en el tratamiento de un gran número de unidades superficiales en formato vectorial, generando soluciones que convergen con relativa rapidez y verifican los criterios establecidos. En el caso estudiado, aunque la posición prefijada de los generadores reduce considerablemente la complejidad del problema, existen algunas configuraciones espaciales de estos elementos para las que el algoritmo no encuentra una solución satisfactoria, poniéndose de manifiesto una de las limitaciones de este modelo. Tal y como se ha podido comprobar, la localización de los generadores puede tener un considerable impacto en la zonificación resultante, por lo que, de acuerdo con Kalcsics et al. (2005), una selección "inadecuada" difícilmente puede generar regiones válidas que verifiquen los criterios establecidos. ABSTRACT Tenitory or zone design processes entail partitioning a geographic space, organized as a set of basic areal units, into different regions or zones according to a specific set of entena that are dependent on the application context. In most cases the aim is to create zones that have approximately equal sizes with respect to one or several measure attributes (zones with equal numbers of inhabitants, same average sales, etc). However, some of the new applications that have emerged, particularly in the context of sustainable development policies, are aimed at defining zones of a predetermined, though not necessarily similar, size. In addition, the zones should be built around a given set of positions, seeds or generators. This type of partitioning has not been sufñciently researched; therefore there are no known approaches for automated zone delimitation. This thesis proposes a new method based on a discrete versión of the Adaptive Additively Weighted Voronoi Diagram (AAWVD) that makes it possible to partition a 2D space into zones of specific sizes, taking both the position and the weight of each (seed) generator into account. The method consists of repeatedly solving a traditional additively weighted Voronoi diagram, so that the weights of each generator are updated at every iteration. The partition s zones are geographically connected nsing a metric based 011 the shortest path. The proposed heuristic lias been included in an application, developed in a GIS environment that allows the automated zone delimitation according to the mentioned criteria. The management of the extensive farming system of three municipalities of Castilla-La Mancha (Spain) has been used as study case to analyze the viability of the method. The tests carried out have established that the proposed method, adapted to the criteria of this application field, is valid for solving this type of partition problem. The applied algorithm is capable of handling a high number of vector areal units, generating solutions that converge in a reasonable CPU time and comply with the imposed constraints. Although the complexity of this problem is greatly reduced when the generator's positions are fixed, in many cases, these positions impose a spatial confignration that the algorithm proposed is unable to solve, thus revealing one of the limitations of this method. It has been shown that the location of the generators has a considerable impact on the final solution, so that, as Kalcsics et al. (2005) observed, an "inadequate" selection can hardly generate valid zones that comply with the established criteria.
Resumo:
En este artículo se ofrece una visión rápida de las necesidades del uso de buscadores para la gestión del conocimiento y de las ideas básicas de su funcionamiento. A continuación se presenta el método CSORA (Classify, Search, Organize, Relate, Adapt), conjunto de procedimientos técnicos y metodológicos que mejoran la eficacia de los buscadores haciendo posible encontrar información relevante en entornos con mucha información o información especializada. Finalmente se muestra su integración en los motores de búsqueda y en las conclusiones se incluyen las ventajas de su uso, verificadas a través de experiencias realizadas y las líneas de investigación futuras. ABSTRACT: In this paper we offer a fast overview of the usage needs of search engines for knowledge management, as well as the basic ideas about how they work. We then present the CSORA method (Classify, Search, Organize, Relate and Adapt), a set of technical and methodological procedures that improve the efficacy of search engines, making it possible to find relevant information in environments with lots of information or specialized information. Last, we show the integration of the method into the search engines. The conclusions include a description of the advantages of using this method, verified by experiments carried out, and the lines of future work.
Resumo:
En los modelos promovidos por las normativas internacionales de análisis y gestión de riesgos en sistemas de información los activos están interrelacionados entre sí, de modo que un ataque sobre uno de ellos se puede transmitir a lo largo de toda la red, llegando a alcanzar a los activos más valiosos para la Organización. Es necesario entonces asignar el valor de todos los activos, así como las relaciones de dependencia directas e indirectas entre éstos, o la probabilidad de materialización de una amenaza y la degradación que ésta puede provocar sobre los activos. Sin embargo, los expertos encargados de asignar tales valores, a menudo aportan únicamente información imprecisa, de modo que las técnicas borrosas pueden ser muy útiles en este ámbito. Para poder dar un tratamiento computacional a esta información imprecisa es necesario proveer a los expertos de un método con el que puedan expresar sus juicios probabilísticos o sus valoraciones sobre los activos de información en forma de números difusos y evitando sesgos informativos. Una vez obtenidos tales valores, hemos de construir algoritmos que nos permitan establecer indicadores de impacto y riesgo para las amenazas que se ciernen sobre los activos de información, y finalmente debemos proponer conjuntos óptimos de salvaguardas y controles para reducir el riesgo a un nivel asumible. En este trabajo desarrollamos elementos que permiten realizar todo este proceso partiendo de los conceptos básicos de Lógica Borrosa y de las metodologías internacionales de análisis y gestión de riesgos en los sistemas de información.
Resumo:
Invariablemente una de las primeras acciones en un proyecto de mejora es el poder determinar el estado actual del proceso. Por consiguiente, una organización que pretende mejorar su proceso de gestión de requisitos requiere utilizar un método de evaluación, que le permita identificar las fortalezas y debilidades de su proceso actual, con el fin de priorizar sus acciones de mejora. Este artículo presenta las lecciones aprendidas resultado de la aplicación de una metodología alternativa, mediante el uso de un cuestionario, para determinar el estado actual del proceso de gestión de requisitos que permite identificar, por un lado, las prácticas del proceso que se ejecutan rutinariamente y están bien documentadas y, por otro lado, las prácticas del proceso que requieren de una atención prioritaria.
Resumo:
En estos tiempos de crisis se hace imperativo lograr un consumo de recursos públicos lo más racional posible. El transporte público urbano es un sector al que se dedican grandes inversiones y cuya prestación de servicios está fuertemente subvencionada. El incremento de la eficiencia técnica del sector puede ayudar a conseguir una mejor gestión de los fondos públicos. Un primer paso para que se produzca una mejora es el desarrollo de una metodología de evaluación de la eficiencia del sector. Existen diferentes métodos para la evaluación técnica de un conjunto de compañías pertenecientes a un sector, entre los que se encuentra el análisis envolvente de datos (Data Envelopment Analysis, DEA, por sus siglas en inglés). Este método permite establecer una frontera de eficiencia técnica relativa a un determinado grupo de compañías, en función de un número limitado de variables. Las variables deben cuantificar, por un lado, la prestación de servicios de las distintas compañías, y por el otro, los recursos consumidos en la producción de dichos servicios. En el presente artículo se estudian, mediante el método DEA, las variables más idóneas para la evaluación de la eficiencia técnica de los servicios de autobuses urbanos en España. Asimismo, se analiza el número de variables más adecuado para conformar los modelos con los que se obtienen las fronteras de eficiencia. Para ello, se utilizan indicadores de los servicios de autobús urbano de las principales ciudades de las áreas metropolitanas españolas, para el periodo 2004-2009. Se emplea la base de datos del Observatorio de la Movilidad Metropolitana.
Resumo:
La directiva europea sobre gestión de la seguridad de las infraestructuras viarias establece el requerimiento de implantar un procedimiento de clasificación de los tramos de la red en función del ahorro potencial en costes derivados de los accidentes en las carreteras que forman parte de la Red Transeuropea. El potencial de mejora de la seguridad debe reflejar la reducción en coste de accidentalidad que podría alcanzarse a través de medidas de mejora de la infraestructura y puede estimarse como la diferencia entre el coste por km de la accidentalidad del tramo durante el período considerado y el coste esperado para carreteras del mismo tipo que dispongan de las condiciones de seguridad alcanzables mediante actuaciones preventivas de mejora de las infraestructuras. En la ponencia se describe un procedimiento para mejorar la precisión de la estimación del potencial de reducción de la accidentalidad en los tramos de una red de carreteras a partir de la calibración de modelos lineales generalizados de estimación de la frecuencia de accidentes y de su combinación con la información registrada de accidentalidad aplicando un procedimiento bayesiano empírico.