90 resultados para Árboles frutales
Resumo:
El cálculo de relaciones binarias fue creado por De Morgan en 1860 para ser posteriormente desarrollado en gran medida por Peirce y Schröder. Tarski, Givant, Freyd y Scedrov demostraron que las álgebras relacionales son capaces de formalizar la lógica de primer orden, la lógica de orden superior así como la teoría de conjuntos. A partir de los resultados matemáticos de Tarski y Freyd, esta tesis desarrolla semánticas denotacionales y operacionales para la programación lógica con restricciones usando el álgebra relacional como base. La idea principal es la utilización del concepto de semántica ejecutable, semánticas cuya característica principal es el que la ejecución es posible utilizando el razonamiento estándar del universo semántico, este caso, razonamiento ecuacional. En el caso de este trabajo, se muestra que las álgebras relacionales distributivas con un operador de punto fijo capturan toda la teoría y metateoría estándar de la programación lógica con restricciones incluyendo los árboles utilizados en la búsqueda de demostraciones. La mayor parte de técnicas de optimización de programas, evaluación parcial e interpretación abstracta pueden ser llevadas a cabo utilizando las semánticas aquí presentadas. La demostración de la corrección de la implementación resulta extremadamente sencilla. En la primera parte de la tesis, un programa lógico con restricciones es traducido a un conjunto de términos relacionales. La interpretación estándar en la teoría de conjuntos de dichas relaciones coincide con la semántica estándar para CLP. Las consultas contra el programa traducido son llevadas a cabo mediante la reescritura de relaciones. Para concluir la primera parte, se demuestra la corrección y equivalencia operacional de esta nueva semántica, así como se define un algoritmo de unificación mediante la reescritura de relaciones. La segunda parte de la tesis desarrolla una semántica para la programación lógica con restricciones usando la teoría de alegorías—versión categórica del álgebra de relaciones—de Freyd. Para ello, se definen dos nuevos conceptos de Categoría Regular de Lawvere y _-Alegoría, en las cuales es posible interpretar un programa lógico. La ventaja fundamental que el enfoque categórico aporta es la definición de una máquina categórica que mejora e sistema de reescritura presentado en la primera parte. Gracias al uso de relaciones tabulares, la máquina modela la ejecución eficiente sin salir de un marco estrictamente formal. Utilizando la reescritura de diagramas, se define un algoritmo para el cálculo de pullbacks en Categorías Regulares de Lawvere. Los dominios de las tabulaciones aportan información sobre la utilización de memoria y variable libres, mientras que el estado compartido queda capturado por los diagramas. La especificación de la máquina induce la derivación formal de un juego de instrucciones eficiente. El marco categórico aporta otras importantes ventajas, como la posibilidad de incorporar tipos de datos algebraicos, funciones y otras extensiones a Prolog, a la vez que se conserva el carácter 100% declarativo de nuestra semántica. ABSTRACT The calculus of binary relations was introduced by De Morgan in 1860, to be greatly developed by Peirce and Schröder, as well as many others in the twentieth century. Using different formulations of relational structures, Tarski, Givant, Freyd, and Scedrov have shown how relation algebras can provide a variable-free way of formalizing first order logic, higher order logic and set theory, among other formal systems. Building on those mathematical results, we develop denotational and operational semantics for Constraint Logic Programming using relation algebra. The idea of executable semantics plays a fundamental role in this work, both as a philosophical and technical foundation. We call a semantics executable when program execution can be carried out using the regular theory and tools that define the semantic universe. Throughout this work, the use of pure algebraic reasoning is the basis of denotational and operational results, eliminating all the classical non-equational meta-theory associated to traditional semantics for Logic Programming. All algebraic reasoning, including execution, is performed in an algebraic way, to the point we could state that the denotational semantics of a CLP program is directly executable. Techniques like optimization, partial evaluation and abstract interpretation find a natural place in our algebraic models. Other properties, like correctness of the implementation or program transformation are easy to check, as they are carried out using instances of the general equational theory. In the first part of the work, we translate Constraint Logic Programs to binary relations in a modified version of the distributive relation algebras used by Tarski. Execution is carried out by a rewriting system. We prove adequacy and operational equivalence of the semantics. In the second part of the work, the relation algebraic approach is improved by using allegory theory, a categorical version of the algebra of relations developed by Freyd and Scedrov. The use of allegories lifts the semantics to typed relations, which capture the number of logical variables used by a predicate or program state in a declarative way. A logic program is interpreted in a _-allegory, which is in turn generated from a new notion of Regular Lawvere Category. As in the untyped case, program translation coincides with program interpretation. Thus, we develop a categorical machine directly from the semantics. The machine is based on relation composition, with a pullback calculation algorithm at its core. The algorithm is defined with the help of a notion of diagram rewriting. In this operational interpretation, types represent information about memory allocation and the execution mechanism is more efficient, thanks to the faithful representation of shared state by categorical projections. We finish the work by illustrating how the categorical semantics allows the incorporation into Prolog of constructs typical of Functional Programming, like abstract data types, and strict and lazy functions.
Resumo:
En 1929 aparece el primer número de AA (L’architecture d’aujourd’hui), en 1932 existe un número-Monografía sobre los hermanos Perret, escrita por Pierre Vago, en 1946 se consolida como revista mensual y bajo la fundación de Andre Bloc. El primer número de AA que tengo en mi biblioteca es el número 34 (febrero-Marzo) de 1951. Mediante la lectura observada de una colección como AA, la determinación de unos capítulos representativos y la elección de imágenes de su tiempo se explican estos 57 años de arquitectura, cuyos resultados de un proceso temporal disfrutamos desde hace aproximadamente veinte años. A principio de los años cincuenta un grupo de jóvenes arquitectos, denso e intercomunicado en los congresos CIAM se propone situar la realidad de la arquitectura en los principios y realidades de su tiempo y de los que se intuyen futuro. Resultados de la Segunda Gran Guerra no son solo tragedias humanas sino gran investigación y desarrollo concretada industrialmente, enormes movimientos de personas en Europa y una sociedad enormemente optimista en USA, todo esto producirá las grandes transformaciones sociales de los 60’ y sus concreciones tecnológicas, políticas y desarrollo. Muchos arquitectos, publicaciones, concursos o decisiones políticas o privadas han producido el catalogo de arquitecturas de estos años, desde el CIAM IX hasta el POMPIDOU, desde la casa GEHRY hasta el KUNSTHAL, desde BRASILIA hasta SIDNEY, desde COPLEJIDAD Y CONTRADICCIÓN hasta DELIRIOS DE NY, desde OSAKA hasta MUNICH. En todas han existido un esfuerzo enorme por concretar la realidad de nuestras aspiraciones desde las puramente ideológicas de introspección social, hasta las concreciones de imagen directa. Varias líneas he abierto en mi proceso de investigación, las he llamado “anillos” porque todas estas líneas tienen similitud con los “anillos de crecimiento” de los árboles en cuanto a como se presentan en la estructura de formación y ha la cantidad de información no solo interna sino externa que aportan sobre la estructura árbol, su medio y la historia. Igual que podemos saber las temperaturas o las pluviometría que cubrieron Europa en la edad media solo estudiando los anillos de crecimiento de nuestro árboles (su grosor), de igual forma repasando LOS CONCURSOS y sus resultados que existieron en los últimos cincuenta años, podemos entender las aspiraciones y concreciones de las sociedades y sus arquitectos en este tiempo. Cuatro capítulos, los mas determinantes son los elegidos para dar cuerpo a una TESIS de tamaño capaz: Las ideas, el futuro, las referencias y el presente son los capítulos que de forma visual intentan explicar el fruto arquitectónico, sus aspiraciones y sus concreciones. Las ideas sin ninguna duda, pertenecen a los padres de nuestro tiempo, son las del Team X, la reflexión sobre lo perecedero, las realidades programáticas, densidades o lo publico-privado son solo planetas en el universo de sus ideas. El futuro lo trazaron aquellos que empezaron a investigar, concretar o reflexionar sobre la incidencia tanto de los procesos industriales con sus nuevos materiales como de las nuevas concreciones urbanas que los movimientos migratorios producirían en las ciudades. Las referencias son las bibliotecas de carácter informativo-visual que han generado nuestro inventario icónico. El presente son las imágenes de referencia de nuestro tiempo-mediático, no solo las produce un arquitecto (en este caso R.Koolhas), pero si que es verdad que en las imágenes arquitectónicas de OMA se concreta todo el catalogo de arquitecturas del presente. ENGLISH SUMMARY The fisrt AA (l´Architecture d´Aujourd´hui) issue was published in 1929, three years later, in 1932, a monographic issue on Perret brothers was written by Pierre Vago and in 1946 the magazine was strongly established as a monthly publication under the direction of André Bloc. The oldest copy I own on my bookshelves is nº 34 printed in February-March 1951. While carefully reading a collection such as AA we are able to extract representative chapters and images that can explain a linear process lasting 57 years of fruitful architectural production of which consequences we have been enjoying the past twenty years. In the early fifties a compact group of young architects linked by the CIAM congress decided to encompass architectural reality to the needs and principles of their time. Not only big human tragedies arose from the Second World War but also some of the fastest industrial inventions due to a powerful will to development, that altogether with european migrations and a high standard of optimism in the United States headed to the peak transformations of the sixties and their technological and political development. A bunch of architects, magazines and architectural competitions sided by political and private decisions produced the architectural catalogue of those years, from CIAM IX to the Pompidou art centre, from Gerhy´s house to the Kunsthal museum, from Brasilia to Sidney, from “Complexity and Contradiction“ to “Delirious NY” and from Osaka all the way to Munich. All of them carried a vast effort towards the concretion of will, from social introspection to a more effective development of images. Several paths run across my investigation, namely “the rings”, as they tend to behave as a growing structure like a tree trunk, providing internal and external information not only of the vegetal element but also of the environment and events crossing its time. In the same direction as we are able to predict the weather in the Middle Age by means of studying our forests, we can use the architectural competitions ant their results for the past fifty years to understand the will and ambitions of these developing societies and their architects. To give shape to a sizeable thesis the selected information has been packed in four chapters: Ideas, Future, References and Present, each of them structured as an Image bank visualizing the architectural product, its will and specific ambition. The first group, Ideas, is devoted entirely to the step-fathers of present architecture, with ideas that belong to TEAM X and embrace the reflection about the transitory, the programmatic reality, density or the public-private debate as wandering planets of their ideal universe. The second group is dedicated to a Future that was traced by those engaged on industrial processes and new material investigation together with some others exploring new urban concretions brought to existence by the pressure of the after war migrations. The third group, References, have been shaped as a stock-list containing all our iconic cross-references. The last group, Present, brings together the icons of this media-time we live in and not only those produced by one single architect (Rem Koolhaas) even if his production embodies all architectural references at the moment.
Resumo:
La finalidad de este trabajo es proponer unas nuevas ecuaciones de cubicación, ya que los métodos utilizados por la Administración podrían estar anticuados. Con estas ecuaciones actualizadas se intentan paliar las diferencias entre Administración y aserradero. Desde hace unos 25 años la Administración de Segovia viene utilizando unos valores modulares para estimar el volumen en pié de los árboles del monte "Aguas Vertientes" Estos valores modulares son tablas en las que se da un volumen teórico para cada pié en cada uno de los rodales y según clases diamétricas de 5 cm. Estas tablas fueron calculadas hace tiempo, y, por lo tanto, sería recomendable realizar unas nuevas tarifas de cubicación. Los objetivos del presente trabajo, son, por tanto, construir una nueva tarifa de cubicación de una entrada V=f(dn) y una tabla de cubicación con dos entradas V=f(dn, H)
Resumo:
Abstract The cloud forest is a special type of forest ecosystem that depends on suitable conditions of humidity and temperature to exist; hence, it is a very fragile ecosystem. The cloud forest is also one of the richest ecosystems in terms of species diversity and rate of endemism. However, today, it is one of the most threatened ecosystems in the world. Little is known about tree species distribution and coexistence among cloud forest trees. Trees are essential to understanding ecosystem functioning and maintenance because they support the ecosystem in important ways. For this dissertation, an analysis of woody plant species distribution at a small scale in a north-Peruvian Andean cloud forest was performed, and some of the factors implicated in the observed patterns were identified. Towards that end, different natural factors acting on species distribution within the forest were investigated: (i) intra-specific arrangements, (ii) heterospecific spatial relationships and (iii) relationships with external environmental factors. These analyses were conducted first on standing woody plants and then on seedlings. The woody plants were found to be clumped in the forest, either considering all the species together or each species separately. However, each species presented a specific pattern and specific spatial relationship among different-age individuals. Dispersal mode, growth form and shade tolerance played roles in the final distribution of the species. Furthermore, spatial associations among species, either positive or negative, were observed. These associations were more numerous when considering individuals of the interacting species at different developmental stages, i.e., younger individuals from one species and older individuals from another. Accordingly, competition and facilitation are asymmetric processes and vary throughout the life of an individual. Moreover, some species appear to prefer certain habitat conditions and avoid other habitats. The habitat definition that best explains species distribution is that which includes both environmental and stand characteristics; thus, a combination of these factors is necessary to understanding species' niche preferences. Seedling distribution was also associated with habitat conditions, but these conditions explained less than the 30% of the spatial variation. The position of conspecific adult individuals also affected seedling distribution; although the seedlings of many tree species avoid the vicinity of conspecifics, a few species appeared to prefer the formation of cohorts around their parent trees. The importance of habitat conditions and distance dependence with conspecifics varied among regions within the forest as well as on the developmental stage of the stand. The results from this thesis suggest that different species can coexist within a given space, forming a “puzzle” of species as a result of the intra- and interspecific spatial relationships along with niche preferences and adaptations that operate at different scales. These factors not only affect each species in a different way, but specific preferences also vary throughout species' lifespans. Resumen Resumen El bosque de niebla es uno de los ecosistemas más amenazados del mundo además de ser uno de los más frágiles. Son formaciones azonales que dependen de la existencia de unas condiciones de humedad y temperatura que permitan la formación de nubes que cubran el bosque; lo que dificulta en gran medida su conservación. También es uno de los ecosistemas con mayor riqueza de especies además de tener uno de los mayores porcentajes de endemismos. Uno de los aspectos más importantes para entender el ecosistema, es identificar y entender los elementos que lo componen y los mecanismos que regulan las relaciones entre ellos. Los árboles son el soporte del ecosistema. Sin embargo, apenas hay información sobre la distribución y coexistencia de los árboles en los bosques de niebla. Esta tesis presenta un análisis de la distribución a pequeña escala de las plantas leñosas en un bosque de niebla situado en la cordillera andina del norte de Perú; así como el análisis de algunos de los factores que pueden estar implicados en que se origine la distribución observada. Para este propósito se estudia cómo influyen factores de diferente naturaleza en la distribución de las especies (i) organización intra-específica (ii) relaciones espaciales heterospecíficas y (iii) relación con factores ambientales externos. En estos análisis se estudiaron primero las plantas jóvenes y las adultas, y después las plántulas. Los árboles aparecieron agregados en el bosque, tanto considerando todos a la vez como cuando se estudió cada especie por separado. Sin embargo, cada especie mostró un patrón distinto así como una particular relación espacial entre individuos jóvenes y adultos. El modo de dispersión, la forma de vida y la tolerancia de la especies estuvieron relacionados con el patrón general observado. Se vio también que ciertas especies aparecían relacionadas con otras, tanto de forma positiva (compartiendo zonas) como negativa (apareciendo en áreas distintas). Las asociaciones fueron mucho más numerosas cuando se consideraron los pares de especies en diferente estado de desarrollo, es decir, individuos jóvenes de una especie e individuos mayores de la otra. Eso indicaría que los procesos de competencia y facilitación son asimétricos y además varían durante la vida de la planta. Por otro lado, algunas especies aparecen preferentemente bajo ciertas condiciones de hábitat y evitan otras. La definición de hábitat a la que mejor responden las especies es cuando se incluyen tanto variables ambientales como de masa; así que ambos tipos de variables son necesarias para entender la preferencia de las especies por ciertos nichos. La distribución de las plántulas también estuvo relacionada con condiciones de hábitat, pero eso sólo llegaba a explicar hasta un 30% de la variabilidad espacial. La posición de los adultos de la misma especie también afectó a la distribución de las plántulas. En bastantes especies las plántulas evitan la cercanía de adultos de su misma especie, padres potenciales, aunque algunas especies aisladas mostraron el patrón contrario y aparecieron preferentemente en las mismas áreas que sus padres. La importancia de las condiciones de hábitat y posición de los adultos en la disposición de las plántulas varía de una zona a otra del bosque y además también varía según el estado de desarrollo de la masa.
Resumo:
Habiéndosenos encargado como trabajo de Residencia hacer el “Estudio crítico del proyecto de ordenación del Pinar de Valsain, el estudio industrial económico de las cortas y de los transportes a la fábrica de La Granja referido a un metro cúbico de madera, el estudio industrial económico de la fábrica o taller de aserrío de La Granja, con determinación del costo de aserrío de un metro cúbico de madera de los diversos tipos de despiezo y las modificaciones que podrian introducirse en la fábrica para mejorar los precios de costo anteriores” para el mejor desarrollo de nuestro trabajo lo hemos dividido en dos partes, en la primera desarrollamos cuatro capítulos siendo las materias a tratar las siguientes: I : Plan de ordenación del Pinar de Valsaín, II. Ejecución de dicho plan y su crítica, III: Discusión y crítica del plan, IV: Orientación de una nueva Ordenación. Hemos de hacer notar que en el Capítulo I de la primera parte presentamos un extracto del proyecto de Ordenación del monte Pinar de Valsain de 1889, entresacando lo mas interesante a nuestro juicio… La segunda parte de nuestro estudio la dividimos en los cuatro capítulos siguientes: I: Estudio de los aprovechamientos del Pinar en lo que se refiere a corta y transporte. II: Descripción del Taller de Aserrío de Valsaín. – III: Sus defectos y modo de subsanarlos. – IV: Estudio económico general. Cuantos datos se insertan en el trabajo de ordenación han sido facilitados por el Sr. Cebrián de quien hemos recibido enseñanzas provechosas. También el Sr. Muro y en lo concerniente al Taller de Aserrío de Valsaín, nos ha proporcionado cuantos datos hemos creído necesarios para desarrollar la segunda parte de nuestro trabajo. Como complemento de nuestro estudio presentamos un herbario de las especies encontradas en La Granja. Así mismo presentamos también un muestrario de maderas encuadradas en el taller de Aserrío de Valsaín y una colección de fotografias en las que aparecen detalles desde el apeo de los árboles hasta llegar a la madera elaborada, es decir todo el proceso de la explotación maderera del monte
Resumo:
El estudio de las masas de castaño, del cual es objeto nuestro trabajo, comprende 6266 Ha. dentro de una superficie comprendida aproximadamente entre 18000 y 20000 Has., zona eminentemente forestal donde se asocian y viven inagnificante el castaño, alcornoque y encina, juntamente con el olivo y en menos proporción la carcasca ( Qa),s quejigo y rebollo, en rodales aislados pino negral, y en los valles de los arroyos. y.los, álamo blanco con ejemplares de aliso. Hacemos antes que nada esta anotación de las principales especies de esta región, para hacer patente la importancia forestal de la misma y proponer estudios de esta sierra de Aracena, no solamente por lo que se refiere al castaño, especie de gran rendimiento como frutal, merced a la cual viven multitud de familias humildes, sino también y principalmente por lo que se infiere al alcornoque y encina, principales riquezas de dicha región, estimulando el cultivo de las citadas especies por medio de folletos y conferencias de divulgación social, para no solamente seguir extendiendo el área de dichas especies, sino lo que es aún tan importante, saber conservar las masas ya creadas; decimos esto, por la necesidad de que los vecinos de aquella comarca, adquieran los más indispensables conocimientos, para no verse privados con el tiempo de lo que es base de su situación social; las podas abusivas, con el único objeto de aprovechar la madera, el ramoneo y los desmoches de los castaños y en general la escasez de medidas preventivas contra la serie de enfermedades que creemos están aún en vias de desarrollo, a pesar de los danos que muchos anos causan en todos los frutales, hace que llamemos la atención sobre este particular, demostrando una vez más la incapacidad de los particulares para conservar los montes.
Resumo:
Aportaciones pioneras del ensayista hispano Alberto Nin Frías (1878-1937)en relación con la protección del medio ambiente, la importancia de los árboles, la psicología diferencial humana y la consideración pública de las distintas formas y niveles de homosexualidad.
Resumo:
La seguridad en el ámbito nuclear juega un papel muy importante debido a las graves consecuencias que pueden tener los posibles accidentes, cuyos efectos se pueden extender por extensos espacios y prolongarse mucho en el tiempo. Es por eso que desde el inicio del desarrollo de la tecnología nuclear siempre se ha vigilado por mantener las instalaciones nucleares en un nivel de riesgo aceptable. En esta tesis se pretende poner de manifiesto algunas carencias del análisis de riesgo clásico que se resumen en una forma de distinguir y separar transitorios de daño y transitorios seguros pertenecientes a una misma secuencia, definiendo el llamado dominio de daño y evaluando la probabilidad de que algún transitorio perteneciente a la secuencia sea de daño, es decir, que esté contenido dentro de la región del dominio de daño, aportando la llamada probabilidad de superación para obtener la frecuencia de superación de estados finales no deseados. En la tesis se realiza en primer lugar un breve resumen de algunos reactores de alta temperatura refrigerados con gas, de los que se ha elegido al reactor de prueba de alta temperatura (HTTR) como ejemplo para mostrar la metodología. Aparte de ver el diseño de los diferentes reactores y su aportación a la investigación y desarrollo de nuevos modelos, se estudiaron algunos incidentes y se tomaron datos de algunos de ellos para ajustar las probabilidades de los sucesos a emplear en los árboles de fallos. Seguidamente se realiza un análisis simple de una secuencia, según la metodología clásica de análisis probabilista del riesgo, usando solo arboles de fallos y de sucesos, evaluando la frecuencia de daño de dicha secuencia. En el núcleo de la Tesis se describe la metodología y la aportación que se propone para obtener la cuantificación de tan solo los transitorios de daño y su aportación al estado final. Una aportación significativa es el modelado del HTTR, plasmado en el programa de simulación HTTR5+, necesario para poder aplicar la metodología, con el que se ha llevado a cabo la simulación de un transitorio de prueba, a fin de realizar la comparación con el obtenido por el fabricante (JAERI), buscando el dominio de daño y su cuantificación. Para este fin, se desarrolló un módulo que gestiona las diferentes simulaciones para delinear el dominio de daño, el cual se integró al simulador HTTR5+ para crear el programa DD-HTTR5+. Los resultados de la frecuencia de superación de la variable de daño se han comparado con los obtenidos por el método tradicional, para finalmente extraer las conclusiones de la Tesis. Uno de los resultados más significativos es que para la secuencia analizada un 40% de los transitorios que pertenecen a la secuencia son de daño y el otro 60% son transitorios seguros. Al emplear el método clásico se estaba realizando una sobreestimación de la probabilidad y frecuencia de daño. La Tesis también contiene en anexos una descripción muy detallada del HTTR, con respecto a su diseño, modos de operación, sistemas y componentes, etc. También se detallan las propiedades termofísicas del HTTR, así como las tasas de fallos y los árboles de fallos utilizados. Toda esta información fue de gran ayuda para realizar el modelo y programa de simulación HTTR5+.
Resumo:
Esta tesis doctoral se enmarca dentro de la computación con membranas. Se trata de un tipo de computación bio-inspirado, concretamente basado en las células de los organismos vivos, en las que se producen múltiples reacciones de forma simultánea. A partir de la estructura y funcionamiento de las células se han definido diferentes modelos formales, denominados P sistemas. Estos modelos no tratan de modelar el comportamiento biológico de una célula, sino que abstraen sus principios básicos con objeto de encontrar nuevos paradigmas computacionales. Los P sistemas son modelos de computación no deterministas y masivamente paralelos. De ahí el interés que en los últimos años estos modelos han suscitado para la resolución de problemas complejos. En muchos casos, consiguen resolver de forma teórica problemas NP-completos en tiempo polinómico o lineal. Por otra parte, cabe destacar también la aplicación que la computación con membranas ha tenido en la investigación de otros muchos campos, sobre todo relacionados con la biología. Actualmente, una gran cantidad de estos modelos de computación han sido estudiados desde el punto de vista teórico. Sin embargo, el modo en que pueden ser implementados es un reto de investigación todavía abierto. Existen varias líneas en este sentido, basadas en arquitecturas distribuidas o en hardware dedicado, que pretenden acercarse en lo posible a su carácter no determinista y masivamente paralelo, dentro de un contexto de viabilidad y eficiencia. En esta tesis doctoral se propone la realización de un análisis estático del P sistema, como vía para optimizar la ejecución del mismo en estas plataformas. Se pretende que la información recogida en tiempo de análisis sirva para configurar adecuadamente la plataforma donde se vaya a ejecutar posteriormente el P sistema, obteniendo como consecuencia una mejora en el rendimiento. Concretamente, en esta tesis se han tomado como referencia los P sistemas de transiciones para llevar a cabo el estudio de dicho análisis estático. De manera un poco más específica, el análisis estático propuesto en esta tesis persigue que cada membrana sea capaz de determinar sus reglas activas de forma eficiente en cada paso de evolución, es decir, aquellas reglas que reúnen las condiciones adecuadas para poder ser aplicadas. En esta línea, se afronta el problema de los estados de utilidad de una membrana dada, que en tiempo de ejecución permitirán a la misma conocer en todo momento las membranas con las que puede comunicarse, cuestión que determina las reglas que pueden aplicarse en cada momento. Además, el análisis estático propuesto en esta tesis se basa en otra serie de características del P sistema como la estructura de membranas, antecedentes de las reglas, consecuentes de las reglas o prioridades. Una vez obtenida toda esta información en tiempo de análisis, se estructura en forma de árbol de decisión, con objeto de que en tiempo de ejecución la membrana obtenga las reglas activas de la forma más eficiente posible. Por otra parte, en esta tesis se lleva a cabo un recorrido por un número importante de arquitecturas hardware y software que diferentes autores han propuesto para implementar P sistemas. Fundamentalmente, arquitecturas distribuidas, hardware dedicado basado en tarjetas FPGA y plataformas basadas en microcontroladores PIC. El objetivo es proponer soluciones que permitan implantar en dichas arquitecturas los resultados obtenidos del análisis estático (estados de utilidad y árboles de decisión para reglas activas). En líneas generales, se obtienen conclusiones positivas, en el sentido de que dichas optimizaciones se integran adecuadamente en las arquitecturas sin penalizaciones significativas. Summary Membrane computing is the focus of this doctoral thesis. It can be considered a bio-inspired computing type. Specifically, it is based on living cells, in which many reactions take place simultaneously. From cell structure and operation, many different formal models have been defined, named P systems. These models do not try to model the biological behavior of the cell, but they abstract the basic principles of the cell in order to find out new computational paradigms. P systems are non-deterministic and massively parallel computational models. This is why, they have aroused interest when dealing with complex problems nowadays. In many cases, they manage to solve in theory NP problems in polynomial or lineal time. On the other hand, it is important to note that membrane computing has been successfully applied in many researching areas, specially related to biology. Nowadays, lots of these computing models have been sufficiently characterized from a theoretical point of view. However, the way in which they can be implemented is a research challenge, that it is still open nowadays. There are some lines in this way, based on distributed architectures or dedicated hardware. All of them are trying to approach to its non-deterministic and parallel character as much as possible, taking into account viability and efficiency. In this doctoral thesis it is proposed carrying out a static analysis of the P system in order to optimize its performance in a computing platform. The general idea is that after data are collected in analysis time, they are used for getting a suitable configuration of the computing platform in which P system is going to be performed. As a consequence, the system throughput will improve. Specifically, this thesis has made use of Transition P systems for carrying out the study in static analysis. In particular, the static analysis proposed in this doctoral thesis tries to achieve that every membrane can efficiently determine its active rules in every evolution step. These rules are the ones that can be applied depending on the system configuration at each computational step. In this line, we are going to tackle the problem of the usefulness states for a membrane. This state will allow this membrane to know the set of membranes with which communication is possible at any time. This is a very important issue in determining the set of rules that can be applied. Moreover, static analysis in this thesis is carried out taking into account other properties such as membrane structure, rule antecedents, rule consequents and priorities among rules. After collecting all data in analysis time, they are arranged in a decision tree structure, enabling membranes to obtain the set of active rules as efficiently as possible in run-time system. On the other hand, in this doctoral thesis is going to carry out an overview of hardware and software architectures, proposed by different authors in order to implement P systems, such as distributed architectures, dedicated hardware based on PFGA, and computing platforms based on PIC microcontrollers. The aim of this overview is to propose solutions for implementing the results of the static analysis, that is, usefulness states and decision trees for active rules. In general, conclusions are satisfactory, because these optimizations can be properly integrated in most of the architectures without significant penalties.
Resumo:
El accidente de rotura de tubos de un generador de vapor (Steam Generator Tube Rupture, SGTR) en los reactores de agua a presión es uno de los transitorios más exigentes desde el punto de vista de operación. Los transitorios de SGTR son especiales, ya que podría dar lugar a emisiones radiológicas al exterior sin necesidad de daño en el núcleo previo o sin que falle la contención, ya que los SG pueden constituir una vía directa desde el reactor al medio ambiente en este transitorio. En los análisis de seguridad, el SGTR se analiza desde un punto determinista y probabilista, con distintos enfoques con respecto a las acciones del operador y las consecuencias analizadas. Cuando comenzaron los Análisis Deterministas de Seguridad (DSA), la forma de analizar el SGTR fue sin dar crédito a la acción del operador durante los primeros 30 min del transitorio, lo que suponía que el grupo de operación era capaz de detener la fuga por el tubo roto dentro de ese tiempo. Sin embargo, los diferentes casos reales de accidentes de SGTR sucedidos en los EE.UU. y alrededor del mundo demostraron que los operadores pueden emplear más de 30 minutos para detener la fuga en la vida real. Algunas metodologías fueron desarrolladas en los EEUU y en Europa para abordar esa cuestión. En el Análisis Probabilista de Seguridad (PSA), las acciones del operador se tienen en cuenta para diseñar los cabeceros en el árbol de sucesos. Los tiempos disponibles se utilizan para establecer los criterios de éxito para dichos cabeceros. Sin embargo, en una secuencia dinámica como el SGTR, las acciones de un operador son muy dependientes del tiempo disponible por las acciones humanas anteriores. Además, algunas de las secuencias de SGTR puede conducir a la liberación de actividad radiológica al exterior sin daño previo en el núcleo y que no se tienen en cuenta en el APS, ya que desde el punto de vista de la integridad de núcleo son de éxito. Para ello, para analizar todos estos factores, la forma adecuada de analizar este tipo de secuencias pueden ser a través de una metodología que contemple Árboles de Sucesos Dinámicos (Dynamic Event Trees, DET). En esta Tesis Doctoral se compara el impacto en la evolución temporal y la dosis al exterior de la hipótesis más relevantes encontradas en los Análisis Deterministas a nivel mundial. La comparación se realiza con un modelo PWR Westinghouse de tres lazos (CN Almaraz) con el código termohidráulico TRACE, con hipótesis de estimación óptima, pero con hipótesis deterministas como criterio de fallo único o pérdida de energía eléctrica exterior. Las dosis al exterior se calculan con RADTRAD, ya que es uno de los códigos utilizados normalmente para los cálculos de dosis del SGTR. El comportamiento del reactor y las dosis al exterior son muy diversas, según las diferentes hipótesis en cada metodología. Por otra parte, los resultados están bastante lejos de los límites de regulación, pese a los conservadurismos introducidos. En el siguiente paso de la Tesis Doctoral, se ha realizado un análisis de seguridad integrado del SGTR según la metodología ISA, desarrollada por el Consejo de Seguridad Nuclear español (CSN). Para ello, se ha realizado un análisis termo-hidráulico con un modelo de PWR Westinghouse de 3 lazos con el código MAAP. La metodología ISA permite la obtención del árbol de eventos dinámico del SGTR, teniendo en cuenta las incertidumbres en los tiempos de actuación del operador. Las simulaciones se realizaron con SCAIS (sistema de simulación de códigos para la evaluación de la seguridad integrada), que incluye un acoplamiento dinámico con MAAP. Las dosis al exterior se calcularon también con RADTRAD. En los resultados, se han tenido en cuenta, por primera vez en la literatura, las consecuencias de las secuencias en términos no sólo de daños en el núcleo sino de dosis al exterior. Esta tesis doctoral demuestra la necesidad de analizar todas las consecuencias que contribuyen al riesgo en un accidente como el SGTR. Para ello se ha hecho uso de una metodología integrada como ISA-CSN. Con este enfoque, la visión del DSA del SGTR (consecuencias radiológicas) se une con la visión del PSA del SGTR (consecuencias de daño al núcleo) para evaluar el riesgo total del accidente. Abstract Steam Generator Tube Rupture accidents in Pressurized Water Reactors are known to be one of the most demanding transients for the operating crew. SGTR are special transient as they could lead to radiological releases without core damage or containment failure, as they can constitute a direct path to the environment. The SGTR is analyzed from a Deterministic and Probabilistic point of view in the Safety Analysis, although the assumptions of the different approaches regarding the operator actions are quite different. In the beginning of Deterministic Safety Analysis, the way of analyzing the SGTR was not crediting the operator action for the first 30 min of the transient, assuming that the operating crew was able to stop the primary to secondary leakage within that time. However, the different real SGTR accident cases happened in the USA and over the world demonstrated that operators can took more than 30 min to stop the leakage in actual sequences. Some methodologies were raised in the USA and in Europe to cover that issue. In the Probabilistic Safety Analysis, the operator actions are taken into account to set the headers in the event tree. The available times are used to establish the success criteria for the headers. However, in such a dynamic sequence as SGTR, the operator actions are very dependent on the time available left by the other human actions. Moreover, some of the SGTR sequences can lead to offsite doses without previous core damage and they are not taken into account in PSA as from the point of view of core integrity are successful. Therefore, to analyze all this factors, the appropriate way of analyzing that kind of sequences could be through a Dynamic Event Tree methodology. This Thesis compares the impact on transient evolution and the offsite dose of the most relevant hypothesis of the different SGTR analysis included in the Deterministic Safety Analysis. The comparison is done with a PWR Westinghouse three loop model in TRACE code (Almaraz NPP), with best estimate assumptions but including deterministic hypothesis such as single failure criteria or loss of offsite power. The offsite doses are calculated with RADTRAD code, as it is one of the codes normally used for SGTR offsite dose calculations. The behaviour of the reactor and the offsite doses are quite diverse depending on the different assumptions made in each methodology. On the other hand, although the high conservatism, such as the single failure criteria, the results are quite far from the regulatory limits. In the next stage of the Thesis, the Integrated Safety Assessment (ISA) methodology, developed by the Spanish Nuclear Safety Council (CSN), has been applied to a thermohydraulical analysis of a Westinghouse 3-loop PWR plant with the MAAP code. The ISA methodology allows obtaining the SGTR Dynamic Event Tree taking into account the uncertainties on the operator actuation times. Simulations are performed with SCAIS (Simulation Code system for Integrated Safety Assessment), which includes a dynamic coupling with MAAP thermal hydraulic code. The offsite doses are calculated also with RADTRAD. The results shows the consequences of the sequences in terms not only of core damage but of offsite doses. This Thesis shows the need of analyzing all the consequences in an accident such as SGTR. For that, an it has been used an integral methodology like ISA-CSN. With this approach, the DSA vision of the SGTR (radiological consequences) is joined with the PSA vision of the SGTR (core damage consequences) to measure the total risk of the accident.
Resumo:
Los sensores inerciales (acelerómetros y giróscopos) se han ido introduciendo poco a poco en dispositivos que usamos en nuestra vida diaria gracias a su minituarización. Hoy en día todos los smartphones contienen como mínimo un acelerómetro y un magnetómetro, siendo complementados en losmás modernos por giróscopos y barómetros. Esto, unido a la proliferación de los smartphones ha hecho viable el diseño de sistemas basados en las medidas de sensores que el usuario lleva colocados en alguna parte del cuerpo (que en un futuro estarán contenidos en tejidos inteligentes) o los integrados en su móvil. El papel de estos sensores se ha convertido en fundamental para el desarrollo de aplicaciones contextuales y de inteligencia ambiental. Algunos ejemplos son el control de los ejercicios de rehabilitación o la oferta de información referente al sitio turístico que se está visitando. El trabajo de esta tesis contribuye a explorar las posibilidades que ofrecen los sensores inerciales para el apoyo a la detección de actividad y la mejora de la precisión de servicios de localización para peatones. En lo referente al reconocimiento de la actividad que desarrolla un usuario, se ha explorado el uso de los sensores integrados en los dispositivos móviles de última generación (luz y proximidad, acelerómetro, giróscopo y magnetómetro). Las actividades objetivo son conocidas como ‘atómicas’ (andar a distintas velocidades, estar de pie, correr, estar sentado), esto es, actividades que constituyen unidades de actividades más complejas como pueden ser lavar los platos o ir al trabajo. De este modo, se usan algoritmos de clasificación sencillos que puedan ser integrados en un móvil como el Naïve Bayes, Tablas y Árboles de Decisión. Además, se pretende igualmente detectar la posición en la que el usuario lleva el móvil, no sólo con el objetivo de utilizar esa información para elegir un clasificador entrenado sólo con datos recogidos en la posición correspondiente (estrategia que mejora los resultados de estimación de la actividad), sino también para la generación de un evento que puede producir la ejecución de una acción. Finalmente, el trabajo incluye un análisis de las prestaciones de la clasificación variando el tipo de parámetros y el número de sensores usados y teniendo en cuenta no sólo la precisión de la clasificación sino también la carga computacional. Por otra parte, se ha propuesto un algoritmo basado en la cuenta de pasos utilizando informaiii ción proveniente de un acelerómetro colocado en el pie del usuario. El objetivo final es detectar la actividad que el usuario está haciendo junto con la estimación aproximada de la distancia recorrida. El algoritmo de cuenta pasos se basa en la detección de máximos y mínimos usando ventanas temporales y umbrales sin requerir información específica del usuario. El ámbito de seguimiento de peatones en interiores es interesante por la falta de un estándar de localización en este tipo de entornos. Se ha diseñado un filtro extendido de Kalman centralizado y ligeramente acoplado para fusionar la información medida por un acelerómetro colocado en el pie del usuario con medidas de posición. Se han aplicado también diferentes técnicas de corrección de errores como las de velocidad cero que se basan en la detección de los instantes en los que el pie está apoyado en el suelo. Los resultados han sido obtenidos en entornos interiores usando las posiciones estimadas por un sistema de triangulación basado en la medida de la potencia recibida (RSS) y GPS en exteriores. Finalmente, se han implementado algunas aplicaciones que prueban la utilidad del trabajo desarrollado. En primer lugar se ha considerado una aplicación de monitorización de actividad que proporciona al usuario información sobre el nivel de actividad que realiza durante un período de tiempo. El objetivo final es favorecer el cambio de comportamientos sedentarios, consiguiendo hábitos saludables. Se han desarrollado dos versiones de esta aplicación. En el primer caso se ha integrado el algoritmo de cuenta pasos en una plataforma OSGi móvil adquiriendo los datos de un acelerómetro Bluetooth colocado en el pie. En el segundo caso se ha creado la misma aplicación utilizando las implementaciones de los clasificadores en un dispositivo Android. Por otro lado, se ha planteado el diseño de una aplicación para la creación automática de un diario de viaje a partir de la detección de eventos importantes. Esta aplicación toma como entrada la información procedente de la estimación de actividad y de localización además de información almacenada en bases de datos abiertas (fotos, información sobre sitios) e información sobre sensores reales y virtuales (agenda, cámara, etc.) del móvil. Abstract Inertial sensors (accelerometers and gyroscopes) have been gradually embedded in the devices that people use in their daily lives thanks to their miniaturization. Nowadays all smartphones have at least one embedded magnetometer and accelerometer, containing the most upto- date ones gyroscopes and barometers. This issue, together with the fact that the penetration of smartphones is growing steadily, has made possible the design of systems that rely on the information gathered by wearable sensors (in the future contained in smart textiles) or inertial sensors embedded in a smartphone. The role of these sensors has become key to the development of context-aware and ambient intelligent applications. Some examples are the performance of rehabilitation exercises, the provision of information related to the place that the user is visiting or the interaction with objects by gesture recognition. The work of this thesis contributes to explore to which extent this kind of sensors can be useful to support activity recognition and pedestrian tracking, which have been proven to be essential for these applications. Regarding the recognition of the activity that a user performs, the use of sensors embedded in a smartphone (proximity and light sensors, gyroscopes, magnetometers and accelerometers) has been explored. The activities that are detected belong to the group of the ones known as ‘atomic’ activities (e.g. walking at different paces, running, standing), that is, activities or movements that are part of more complex activities such as doing the dishes or commuting. Simple, wellknown classifiers that can run embedded in a smartphone have been tested, such as Naïve Bayes, Decision Tables and Trees. In addition to this, another aim is to estimate the on-body position in which the user is carrying the mobile phone. The objective is not only to choose a classifier that has been trained with the corresponding data in order to enhance the classification but also to start actions. Finally, the performance of the different classifiers is analysed, taking into consideration different features and number of sensors. The computational and memory load of the classifiers is also measured. On the other hand, an algorithm based on step counting has been proposed. The acceleration information is provided by an accelerometer placed on the foot. The aim is to detect the activity that the user is performing together with the estimation of the distance covered. The step counting strategy is based on detecting minima and its corresponding maxima. Although the counting strategy is not innovative (it includes time windows and amplitude thresholds to prevent under or overestimation) no user-specific information is required. The field of pedestrian tracking is crucial due to the lack of a localization standard for this kind of environments. A loosely-coupled centralized Extended Kalman Filter has been proposed to perform the fusion of inertial and position measurements. Zero velocity updates have been applied whenever the foot is detected to be placed on the ground. The results have been obtained in indoor environments using a triangulation algorithm based on RSS measurements and GPS outdoors. Finally, some applications have been designed to test the usefulness of the work. The first one is called the ‘Activity Monitor’ whose aim is to prevent sedentary behaviours and to modify habits to achieve desired objectives of activity level. Two different versions of the application have been implemented. The first one uses the activity estimation based on the step counting algorithm, which has been integrated in an OSGi mobile framework acquiring the data from a Bluetooth accelerometer placed on the foot of the individual. The second one uses activity classifiers embedded in an Android smartphone. On the other hand, the design of a ‘Travel Logbook’ has been planned. The input of this application is the information provided by the activity and localization modules, external databases (e.g. pictures, points of interest, weather) and mobile embedded and virtual sensors (agenda, camera, etc.). The aim is to detect important events in the journey and gather the information necessary to store it as a journal page.
Resumo:
La falta de información es un escenario más que habitual en la utilización de conjuntos de datos. En las aplicaciones del mundo real existen múltiples causas – errores o fallos de los sensores cuando se trabaja con equipos automáticos, desconocimiento o falta de interés por parte de los responsables de introducir la información, negativas por parte de los informantes a responder a preguntas sobre temas comprometidos en encuestas … – que pueden originarlo. Como consecuencia de ello, el procesamiento de los valores ausentes es, en la práctica, uno de los trabajos que más tiempo consumen en los proyectos de minería de datos y aprendizaje automático [109] y se estima que alrededor del 60% de los esfuerzos se destinan al mismo [23]. Aunque la ausencia puede producirse en cualquier tipo de datos, sean éstos numéricos o categóricos, nos vamos a centrar en los últimos a causa de algunas peculiaridades que merece la pena estudiar. Y hablaremos indistintamente de ausencia de información, valores ausentes, falta de respuesta, datos parcialmente observados o falta de datos, pues en cualquiera de estas formas aparece citado el problema. Las técnicas para afrontarlo se vienen desarrollando ya desde hace tiempo [135], [6] y existen numerosas referencias en la literatura, sobre todo acerca de la falta de respuesta 6 en encuestas [32], [79]. Sin embargo, en el ámbito del aprendizaje automático es en los últimos años cuando se ha convertido en un área de investigación dinámica, con frecuentes aportaciones [94]. Los dos puntos de vista, el estadístico y el del aprendizaje automático, consideran el problema en formas bien diferentes y tienen distintos objetivos, lo que origina, a su vez, discrepancias en la clasificación de las técnicas y en los criterios para su evaluación. Por un lado, el enfoque estadístico paramétrico tradicional considera el conjunto de datos como una muestra, resultado de la extracción aleatoria de una población con una distribución probabilística. Bajo este supuesto, el objetivo es obtener algunos de los parámetros que caracterizan esa distribución – la media, la moda, la correlación entre variables, etc. – calculándose los correspondientes estimadores como funciones de los datos de la muestra. La ausencia de datos es, aquí, un problema de estimación que se afronta desde diferentes perspectivas. Por su parte, en el ámbito de los procedimientos de aprendizaje automático existen múltiples técnicas que pueden utilizarse para tratar los datos ausentes mediante su sustitución por valores obtenidos a partir de los datos observados: redes neuronales, árboles de decisión, etc. Cuando los datos que faltan son categóricos, se pueden utilizar técnicas específicas como los procedimientos de clasificación: las categorías a asignar coinciden con los distintos valores posibles del atributo que tiene falta de información. Pueden utilizarse métodos supervisados y no supervisados. En el primer caso, cuando existe más de un atributo con falta de datos, el aprendizaje se realiza sucesiva y separadamente para cada uno, lo que significa que la tarea ha de repetirse tantas veces como atributos con valores ausentes hay en el conjunto de datos [72]. El inicio de los trabajos de esta tesis ha estado principalmente motivado en la necesidad de mejorar los resultados obtenidos al tratar de resolver problemas de falta de 7 información de variables categóricas en sondeos de opinión utilizando los procedimientos que la literatura considera como el estado del arte en ese ámbito. Se ha encontrado, así, que muchos de los métodos que se proponen tienen hipótesis de funcionamiento que están muy lejos de las situaciones reales que se encuentran en la práctica y, además, las soluciones existentes han avanzado frecuentemente en direcciones no adecuadas, sin replantear los fundamentos básicos. Esto ha conducido de una forma natural a probar métodos propios de otro ámbito como es el aprendizaje automático, para lo que ha sido necesario, en ocasiones, proponer modificaciones de algunos procedimientos ya existentes de modo que pudieran aceptar como entradas el tipo de datos que estos sondeos de opinión manejan. Como resultado, y en el caso concreto de un tipo específico de redes neuronales, se ha diseñado una nueva arquitectura y un nuevo algoritmo de funcionamiento que se presentan aquí como aportación más novedosa de este estudio.
Resumo:
Los estudios paleoecológicos holocenos basados en macro- y megafósiles encierran un gran valor debido a que su información tiene generalmente carácter local, su origen es conocido, pueden ser datados directamente mediante el método radiocarbónico, y pueden identificarse a un nivel taxonómicamente preciso. Sin embargo son pocas las áreas del Sur de Europa en las que sea conocida una alta densidad de yacimientos con restos leñosos de gran tamaño. En esta tesis, se presentan datos de 53 yacimientos de la sierra de Gredos y de la cordillera Cantábrica (Península Ibérica). Los restos fueron hallados en ambientes variados, como zonas higroturbosas, turberas erosionadas o lagos, y fueron identificadas mediante el estudio de la anatomía de la madera o mediante rasgos morfológicos. En la sierra de Gredos, la evidencia paleobotánica indica la existencia de un panorama relativamente estable a lo largo del Holoceno medio y principio del Holoceno final y sugiere la persistencia, a lo largo de milenios, de un piso de pinares ampliamente distribuído en cotas altas de la sierra. La información obtenida de piñas y frutos mejoran la información taxonómica disponible y revelan la existencia tanto de Pinus sylvestris como de Pinus nigra en estas sierras durante el Holoceno. La datación radiocarbónica, medición de anillos de crecimiento y sincronización preliminar de 26 secciones de troncos de subfósiles demuestran el potencial de este material de las montañas de Iberia central en la obtención de cronologías holocenas de pino. En la cordillera Cantábrica, los datos aportan información espacialmente precisa de distribuciones de ciertas especies arbóreas durante el Holoceno. En las zonas centrales de la cordillera, han sido hallados fundamentalmente restos de pino, mientras que en las zonas más occidentales los pinos estás ausentes y los restos encontrados corresponden a otras especies de caducifolios (Betula, Salix, Quercus) y arbustos (Erica, Fabaceae) Esta información paleobiogeográfica constrasta con la distribución natural actual de Pinus sylvestris y Pinus nigra en el área de estudio. En la sierra de Gredos, la naturalidad de las escasos rodales de pinos que aún persisten ha sido discutida, mientras que en la cordillera Cantábrica, la única especie del grupo que persiste es P. sylvestris y está localizada en unos pocos relictos. El clima pudo haber jugado un papel importante en una primera fase de declive de los pinares durante el Holoceno inicial, mostrado en numerosos registros polínicos de manera casi sincrónica y asociada a una expansión de frondosas. Sin embargo la información histórica disponible y la comparación entre las áreas de distribución de los pinares en el presente, modelizada y en momentos anteriores a la la generalización de la presión antrópica sugiere que durante los últimos dos milenios, la actividad humana ha sido responsable de la desaparición de estas especies como árboles naturales en áreas extensas. ABSTRACTMacro- and megafossil studies provide information of great value in palaeoecology because such evidence is spatially precise, directly radiocarbon dated and usually taxon-specific. However, few areas of southern Europe have a high density of sites with Holocene woody remains. Here, local data from 53 sites in the Gredos Mountains and the Cantabrian Range (Iberian Peninsula) is presented. Woody remains were recovered from mires, eroded peat bogs and lakes and were identified by their wood anatomy or morphological traits. In the Gredos Mountains, palaeobotanical evidence portrays a relatively stable picture of tree distribution over the mid- and beggining of the late-Holocene, and suggests the persistence of a widespread belt of pinewoods. Cones and fruits enlarge the taxonomic information available and reveal that both Pinus sylvestris and Pinus nigra were present locally during the Holocene. Radiocarbon dating, tree ring measurement and preliminary cross-dating of 26 pine sub-fossil logs demonstrate the potential of obtaining a long pine chronology from subfossil wood from the mountains of Central Iberia. In the Cantabrian Range the data provide spatially precise evidence of tree distribution in the region during the Holocene. Pines were mostly identified in the central areas, whereas at the western edge no pine evidence was detected and deciduous trees (Betula, Salix, Quercus) and shrubs (Erica, Fabaceae) were identified. This palaeoecological information contrasts with the current natural distribution ranges of P. sylvestris and P. nigra in the study area. In the Gredos Mountains, the naturality of the few pine stands currently growing has been heavily debated. In the Cantabrian Range P. sylvestris is the only pine species that is today present, and its natural presence is now limited to a few enclaves. Climate may have played a key role in the early-Holocene, as pollen archives document a pine demise that is synchronous with the spread of broadleaved taxa. However, available historical data and the comparison of the reconstructed distribution of pinewoods before extensive human forest disturbance with both present and modelled distributions suggests that during the last two millennia, anthropogenic activity may have removed these species as native trees from a large territory.
Resumo:
Los incendios forestales son la principal causa de mortalidad de árboles en la Europa mediterránea y constituyen la amenaza más seria para los ecosistemas forestales españoles. En la Comunidad Valenciana, diariamente se despliega cerca de un centenar de vehículos de vigilancia, cuya distribución se apoya, fundamentalmente, en un índice de riesgo de incendios calculado en función de las condiciones meteorológicas. La tesis se centra en el diseño y validación de un nuevo índice de riesgo integrado de incendios, especialmente adaptado a la región mediterránea y que facilite el proceso de toma de decisiones en la distribución diaria de los medios de vigilancia contra incendios forestales. El índice adopta el enfoque de riesgo integrado introducido en la última década y que incluye dos componentes de riesgo: el peligro de ignición y la vulnerabilidad. El primero representa la probabilidad de que se inicie un fuego y el peligro potencial para que se propague, mientras que la vulnerabilidad tiene en cuenta las características del territorio y los efectos potenciales del fuego sobre el mismo. Para el cálculo del peligro potencial se han identificado indicadores relativos a los agentes naturales y humanos causantes de incendios, la ocurrencia histórica y el estado de los combustibles, extremo muy relacionado con la meteorología y las especies. En cuanto a la vulnerabilidad se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructuras de defensa), como de las características del terreno (valor, capacidad de regeneración…). Todos estos indicadores constituyen una estructura jerárquica en la que, siguiendo las recomendaciones de la Comisión europea para índices de riesgo de incendios, se han incluido indicadores representativos del riesgo a corto plazo y a largo plazo. El cálculo del valor final del índice se ha llevado a cabo mediante la progresiva agregación de los componentes que forman cada uno de los niveles de la estructura jerárquica del índice y su integración final. Puesto que las técnicas de decisión multicriterio están especialmente orientadas a tratar con problemas basados en estructuras jerárquicas, se ha aplicado el método TOPSIS para obtener la integración final del modelo. Se ha introducido en el modelo la opinión de los expertos, mediante la ponderación de cada uno de los componentes del índice. Se ha utilizado el método AHP, para obtener las ponderaciones de cada experto y su integración en un único peso por cada indicador. Para la validación del índice se han empleado los modelos de Ecuaciones de Estimación Generalizadas, que tienen en cuenta posibles respuestas correlacionadas. Para llevarla a cabo se emplearon los datos de oficiales de incendios ocurridos durante el período 1994 al 2003, referenciados a una cuadrícula de 10x10 km empleando la ocurrencia de incendios y su superficie, como variables dependientes. Los resultados de la validación muestran un buen funcionamiento del subíndice de peligro de ocurrencia con un alto grado de correlación entre el subíndice y la ocurrencia, un buen ajuste del modelo logístico y un buen poder discriminante. Por su parte, el subíndice de vulnerabilidad no ha presentado una correlación significativa entre sus valores y la superficie de los incendios, lo que no descarta su validez, ya que algunos de sus componentes tienen un carácter subjetivo, independiente de la superficie incendiada. En general el índice presenta un buen funcionamiento para la distribución de los medios de vigilancia en función del peligro de inicio. No obstante, se identifican y discuten nuevas líneas de investigación que podrían conducir a una mejora del ajuste global del índice. En concreto se plantea la necesidad de estudiar más profundamente la aparente correlación que existe en la provincia de Valencia entre la superficie forestal que ocupa cada cuadrícula de 10 km del territorio y su riesgo de incendios y que parece que a menor superficie forestal, mayor riesgo de incendio. Otros aspectos a investigar son la sensibilidad de los pesos de cada componente o la introducción de factores relativos a los medios potenciales de extinción en el subíndice de vulnerabilidad. Summary Forest fires are the main cause of tree mortality in Mediterranean Europe and the most serious threat to the Spanisf forest. In the Spanish autonomous region of Valencia, forest administration deploys a mobile fleet of 100 surveillance vehicles in forest land whose allocation is based on meteorological index of wildlandfire risk. This thesis is focused on the design and validation of a new Integrated Wildland Fire Risk Index proposed to efficient allocation of vehicles and specially adapted to the Mediterranean conditions. Following the approaches of integrated risk developed last decade, the index includes two risk components: Wildland Fire Danger and Vulnerability. The former represents the probability a fire ignites and the potential hazard of fire propagation or spread danger, while vulnerability accounts for characteristics of the land and potential effects of fire. To calculate the Wildland Fire Danger, indicators of ignition and spread danger have been identified, including human and natural occurrence agents, fuel conditions, historical occurrence and spread rate. Regarding vulnerability se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructurasd de defensa), como de las características del terreno (valor, capacidad de regeneración…). These indicators make up the hierarchical structure for the index, which, following the criteria of the European Commission both short and long-term indicators have been included. Integration consists of the progressive aggregation of the components that make up every level in risk the index and, after that, the integration of these levels to obtain a unique value for the index. As Munticriteria methods are oriented to deal with hierarchically structured problems and with situations in which conflicting goals prevail, TOPSIS method is used in the integration of components. Multicriteria methods were also used to incorporate expert opinion in weighting of indicators and to carry out the aggregation process into the final index. The Analytic Hierarchy Process method was used to aggregate experts' opinions on each component into a single value. Generalized Estimation Equations, which account for possible correlated responses, were used to validate the index. Historical records of daily occurrence for the period from 1994 to 2003, referred to a 10x10-km-grid cell, as well as the extent of the fires were the dependant variables. The results of validation showed good Wildland Fire Danger component performance, with high correlation degree between Danger and occurrence, a good fit of the logistic model used and a good discrimination power. The vulnerability component has not showed a significant correlation between their values and surface fires, which does not mean the index is not valid, because of the subjective character of some of its components, independent of the surface of the fires. Overall, the index could be used to optimize the preventing resources allocation. Nevertheless, new researching lines are identified and discussed to improve the overall performance of the index. More specifically the need of study the inverse relationship between the value of the wildfire Fire Danger component and the forested surface of each 10 - km cell is set out. Other points to be researched are the sensitivity of the index component´s weight and the possibility of taking into account indicators related to fire fighting resources to make up the vulnerability component.
Resumo:
El impacto negativo que tienen los virus en las plantas hace que estos puedan ejercer un papel ecológico como moduladores de la dinámica espacio-temporal de las poblaciones de sus huéspedes. Entender cuáles son los mecanismos genéticos y los factores ambientales que determinan tanto la epidemiología como la estructura genética de las poblaciones de virus puede resultar de gran ayuda para la comprensión del papel ecológico de las infecciones virales. Sin embargo, existen pocos trabajos experimentales que hayan abordado esta cuestión. En esta tesis, se analiza el efecto de la heterogeneidad del paisaje sobre la incidencia de los virus y la estructura genética de sus poblaciones. Asimismo, se explora como dichos factores ambientales influyen en la importancia relativa que los principales mecanismos de generación de variabilidad genética (mutación, recombinación y migración) tienen en la evolución de los virus. Para ello se ha usado como sistema los begomovirus que infectan poblaciones de chiltepín (Capsicum annuum var. aviculare (Dierbach) D´Arcy & Eshbaugh) en México. Se analizó la incidencia de diferentes virus en poblaciones de chiltepín distribuidas a lo largo de seis provincias biogeográficas, representando el área de distribución de la especie en México, y localizadas en hábitats con diferente grado de intervención humana: poblaciones sin intervención humana (silvestres); poblaciones toleradas (lindes y pastizales), y poblaciones manejadas por el hombre (monocultivos y huertos familiares). Entre los virus analizados, los begomovirus mostraron la mayor incidencia, detectándose en todas las poblaciones y años de muestreo. Las únicas dos especies de begomovirus que se encontraron infectando al chiltepín fueron: el virus del mosaico dorado del chile (Pepper golden mosaic virus, PepGMV) y el virus huasteco del amarilleo de venas del chile (Pepper huasteco yellow vein virus, PHYVV). Por ello, todos los análisis realizados en esta tesis se centran en estas dos especies de virus. La incidencia de PepGMV y PHYVV, tanto en infecciones simples como mixtas, aumento cuanto mayor fue el nivel de intervención humana en las poblaciones de chiltepín, lo que a su vez se asoció con una menor biodiversidad y una mayor densidad de plantas. Además, la incidencia de infecciones mixtas, altamente relacionada con la presencia de síntomas, fue también mayor en las poblaciones cultivadas. La incidencia de estos dos virus también varió en función de la población de chiltepín y de la provincia biogeográfica. Por tanto, estos resultados apoyan una de las hipótesis XVI clásicas de la Patología Vegetal según la cual la simplificación de los ecosistemas naturales debida a la intervención humana conduce a un mayor riesgo de enfermedad de las plantas, e ilustran sobre la importancia de la heterogeneidad del paisaje a diferentes escalas en la determinación de patrones epidemiológicos. La heterogeneidad del paisaje no solo afectó a la epidemiología de PepGMV y PHYVV, sino también a la estructura genética de sus poblaciones. En ambos virus, el nivel de diferenciación genética mayor fue la población, probablemente asociado a la capacidad de migración de su vector Bemisia tabaci; y en segundo lugar la provincia biogeográfica, lo que podría estar relacionado con el papel del ser humano como agente dispersor de PepGMV y PHYVV. La estima de las tasas de sustitución nucleotídica de las poblaciones de PepGMV y PHYVV mostró una rápida dinámica evolutiva. Los árboles filogenéticos de ambos virus presentaron una topología en estrella, lo que sugiere una expansión reciente en las poblaciones de chiltepín. La reconstrucción de los patrones de migración de ambos virus indicó que ésta expansión parece haberse producido desde la zona central de México siguiendo un patrón radial, y en los últimos 30 años. Es importante tener en cuenta que el patrón espacial de la diversidad genética de las poblaciones de PepGMV y PHYVV es similar al descrito previamente para el chiltepín lo que podría dar lugar a la congruencia de las genealogías del huésped y la de los virus. Dicha congruencia se encontró cuando se tuvieron en cuenta únicamente las poblaciones de hábitats silvestres y tolerados, lo que probablemente se debe a una codivergencia en el espacio pero no en el tiempo, dado que la evolución de virus y huésped han ocurrido a escalas temporales muy diferentes. Finalmente, el análisis de la frecuencia de recombinación en PepGMV y PHYVV indicó que esta juega un papel importante en la evolución de ambos virus, dependiendo su importancia del nivel de intervención humana de la población de chiltepín. Este factor afectó también a la intensidad de la selección a la que se ven sometidos los genomas de PepGMV y PHYVV. Los resultados de esta tesis ponen de manifiesto la importancia que la reducción de la biodiversidad asociada al nivel de intervención humana de las poblaciones de plantas y la heterogeneidad del paisaje tiene en la emergencia de nuevas enfermedades virales. Por tanto, es necesario considerar estos factores ambientales a la hora de comprender la epidemiologia y la evolución de los virus de plantas.XVII SUMMARY Plant viruses play a key role as modulators of the spatio-temporal dynamics of their host populations, due to their negative impact in plant fitness. Knowledge on the genetic and environmental factors that determine the epidemiology and the genetic structure of virus populations may help to understand the ecological role of viral infections. However, few experimental works have addressed this issue. This thesis analyses the effect of landscape heterogeneity in the prevalence of viruses and the genetic structure of their populations. Also, how these environmental factors influence the relative importance of the main mechanisms for generating genetic variability (mutation, recombination and migration) during virus evolution is explored. To do so, the begomoviruses infecting chiltepin (Capsicum annuum var. aviculare (Dierbach) D'Arcy & Eshbaugh) populations in Mexico were used. Incidence of different viruses in chiltepin populations of six biogeographical provinces representing the species distribution in Mexico was determined. Populations belonged to different habitats according to the level of human management: populations with no human intervention (Wild); populations naturally dispersed and tolerated in managed habitats (let-standing), and human managed populations (cultivated). Among the analyzed viruses, the begomoviruses showed the highest prevalence, being detected in all populations and sampling years. Only two begomovirus species infected chiltepin: Pepper golden mosaic virus, PepGMV and Pepper huasteco yellow vein virus, PHYVV. Therefore, all the analyses presented in this thesis are focused in these two viruses. The prevalence of PepGMV and PHYVV, in single and mixed infections, increased with higher levels of human management of the host population, which was associated with decreased biodiversity and increased plant density. Furthermore, cultivated populations showed higher prevalence of mixed infections and symptomatic plants. The prevalence of the two viruses also varied depending on the chiltepin population and on the biogeographical province. Therefore, these results support a classical hypothesis of Plant Pathology stating that simplification of natural ecosystems due to human management leads to an increased disease risk, and illustrate on the importance of landscape heterogeneity in determining epidemiological patterns. Landscape heterogeneity not only affected the epidemiology of PepGMV and PHYVV, but also the genetic structure of their populations. Both viruses had the highest level of genetic differentiation at the population scale, probably associated with the XVIII migration patterns of its vector Bemisia tabaci, and a second level at the biogeographical province scale, which could be related to the role of humans as dispersal agents of PepGMV and PHYVV. The estimates of nucleotide substitution rates of the virus populations indicated rapid evolutionary dynamics. Accordingly, phylogenetic trees of both viruses showed a star topology, suggesting a recent diversification in the chiltepin populations. Reconstruction of PepGMV and PHYVV migration patterns indicated that they expanded from central Mexico following a radial pattern during the last 30 years. Importantly, the spatial genetic structures of the virus populations were similar to that described previously for the chiltepin, which may result in the congruence of the host and virus genealogies. Such congruence was found only in wild and let-standing populations. This is probably due to a co-divergence in space but not in time, given the different evolutionary time scales of the host and virus populations. Finally, the frequency of recombination detected in the PepGMV and PHYVV populations indicated that this mechanism plays an important role in the evolution of both viruses at the intra-specific scale. The level of human management had a minor effect on the frequency of recombination, but influenced the strength of negative selective pressures in the viral genomes. The results of this thesis highlight the importance of decreased biodiversity in plant populations associated with the level of human management and of landscape heterogeneity on the emergence of new viral diseases. Therefore it is necessary to consider these environmental factors in order to fully understand the epidemiology and evolution of plant viruses.