52 resultados para Contribución vibracional

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

This Doctoral Thesis entitled Contribution to the analysis, design and assessment of compact antenna test ranges at millimeter wavelengths aims to deepen the knowledge of a particular antenna measurement system: the compact range, operating in the frequency bands of millimeter wavelengths. The thesis has been developed at Radiation Group (GR), an antenna laboratory which belongs to the Signals, Systems and Radiocommunications department (SSR), from Technical University of Madrid (UPM). The Radiation Group owns an extensive experience on antenna measurements, running at present four facilities which operate in different configurations: Gregorian compact antenna test range, spherical near field, planar near field and semianechoic arch system. The research work performed in line with this thesis contributes the knowledge of the first measurement configuration at higher frequencies, beyond the microwaves region where Radiation Group features customer-level performance. To reach this high level purpose, a set of scientific tasks were sequentially carried out. Those are succinctly described in the subsequent paragraphs. A first step dealed with the State of Art review. The study of scientific literature dealed with the analysis of measurement practices in compact antenna test ranges in addition with the particularities of millimeter wavelength technologies. Joint study of both fields of knowledge converged, when this measurement facilities are of interest, in a series of technological challenges which become serious bottlenecks at different stages: analysis, design and assessment. Thirdly after the overview study, focus was set on Electromagnetic analysis algorithms. These formulations allow to approach certain electromagnetic features of interest, such as field distribution phase or stray signal analysis of particular structures when they interact with electromagnetic waves sources. Properly operated, a CATR facility features electromagnetic waves collimation optics which are large, in terms of wavelengths. Accordingly, the electromagnetic analysis tasks introduce an extense number of mathematic unknowns which grow with frequency, following different polynomic order laws depending on the used algorithmia. In particular, the optics configuration which was of our interest consisted on the reflection type serrated edge collimator. The analysis of these devices requires a flexible handling of almost arbitrary scattering geometries, becoming this flexibility the nucleus of the algorithmia’s ability to perform the subsequent design tasks. This thesis’ contribution to this field of knowledge consisted on reaching a formulation which was powerful at the same time when dealing with various analysis geometries and computationally speaking. Two algorithmia were developed. While based on the same principle of hybridization, they reached different order Physics performance at the cost of the computational efficiency. Inter-comparison of their CATR design capabilities was performed, reaching both qualitative as well as quantitative conclusions on their scope. In third place, interest was shifted from analysis - design tasks towards range assessment. Millimetre wavelengths imply strict mechanical tolerances and fine setup adjustment. In addition, the large number of unknowns issue already faced in the analysis stage appears as well in the on chamber field probing stage. Natural decrease of dynamic range available by semiconductor millimeter waves sources requires in addition larger integration times at each probing point. These peculiarities increase exponentially the difficulty of performing assessment processes in CATR facilities beyond microwaves. The bottleneck becomes so tight that it compromises the range characterization beyond a certain limit frequency which typically lies on the lowest segment of millimeter wavelength frequencies. However the value of range assessment moves, on the contrary, towards the highest segment. This thesis contributes this technological scenario developing quiet zone probing techniques which achieves substantial data reduction ratii. Collaterally, it increases the robustness of the results to noise, which is a virtual rise of the setup’s available dynamic range. In fourth place, the environmental sensitivity of millimeter wavelengths issue was approached. It is well known the drifts of electromagnetic experiments due to the dependance of the re sults with respect to the surrounding environment. This feature relegates many industrial practices of microwave frequencies to the experimental stage, at millimeter wavelengths. In particular, evolution of the atmosphere within acceptable conditioning bounds redounds in drift phenomena which completely mask the experimental results. The contribution of this thesis on this aspect consists on modeling electrically the indoor atmosphere existing in a CATR, as a function of environmental variables which affect the range’s performance. A simple model was developed, being able to handle high level phenomena, such as feed - probe phase drift as a function of low level magnitudes easy to be sampled: relative humidity and temperature. With this model, environmental compensation can be performed and chamber conditioning is automatically extended towards higher frequencies. Therefore, the purpose of this thesis is to go further into the knowledge of millimetre wavelengths involving compact antenna test ranges. This knowledge is dosified through the sequential stages of a CATR conception, form early low level electromagnetic analysis towards the assessment of an operative facility, stages for each one of which nowadays bottleneck phenomena exist and seriously compromise the antenna measurement practices at millimeter wavelengths.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La capacidad de comunicación de los seres humanos ha crecido gracias a la evolución de dispositivos móviles cada vez más pequeños, manejables, potentes, de mayor autonomía y más asequibles. Esta tendencia muestra que en un futuro próximo cercano cada persona llevaría consigo por lo menos un dispositivo de altas prestaciones. Estos dispositivos tienen incorporados algunas formas de comunicación: red de telefonía, redes inalámbricas, bluetooth, entre otras. Lo que les permite también ser empleados para la configuración de redes móviles Ad Hoc. Las redes móviles Ad Hoc, son redes temporales y autoconfigurables, no necesitan un punto de acceso para que los nodos intercambien información entre sí. Cada nodo realiza las tareas de encaminador cuando sea requerido. Los nodos se pueden mover, cambiando de ubicación a discreción. La autonomía de estos dispositivos depende de las estrategias de como sus recursos son utilizados. De tal forma que los protocolos, algoritmos o modelos deben ser diseñados de forma eficiente para no impactar el rendimiento del dispositivo, siempre buscando un equilibrio entre sobrecarga y usabilidad. Es importante definir una gestión adecuada de estas redes especialmente cuando estén siendo utilizados en escenarios críticos como los de emergencias, desastres naturales, conflictos bélicos. La presente tesis doctoral muestra una solución eficiente para la gestión de redes móviles Ad Hoc. La solución contempla dos componentes principales: la definición de un modelo de gestión para redes móviles de alta disponibilidad y la creación de un protocolo de enrutamiento jerárquico asociado al modelo. El modelo de gestión propuesto, denominado High Availability Management Ad Hoc Network (HAMAN), es definido en una estructura de cuatro niveles, acceso, distribución, inteligencia e infraestructura. Además se describen los componentes de cada nivel: tipos de nodos, protocolos y funcionamiento. Se estudian también las interfaces de comunicación entre cada componente y la relación de estas con los niveles definidos. Como parte del modelo se diseña el protocolo de enrutamiento Ad Hoc, denominado Backup Cluster Head Protocol (BCHP), que utiliza como estrategia de encaminamiento el empleo de cluster y jerarquías. Cada cluster tiene un Jefe de Cluster que concentra la información de enrutamiento y de gestión y la envía al destino cuando esta fuera de su área de cobertura. Para mejorar la disponibilidad de la red el protocolo utiliza un Jefe de Cluster de Respaldo el que asume las funciones del nodo principal del cluster cuando este tiene un problema. El modelo HAMAN es validado a través de un proceso la simulación del protocolo BCHP. El protocolo BCHP se implementa en la herramienta Network Simulator 2 (NS2) para ser simulado, comparado y contrastado con el protocolo de enrutamiento jerárquico Cluster Based Routing Protocol (CBRP) y con el protocolo de enrutamiento Ad Hoc reactivo denominado Ad Hoc On Demand Distance Vector Routing (AODV). Abstract The communication skills of humans has grown thanks to the evolution of mobile devices become smaller, manageable, powerful, more autonomy and more affordable. This trend shows that in the near future each person will carry at least one high-performance device. These high-performance devices have some forms of communication incorporated: telephony network, wireless networks, bluetooth, among others. What can also be used for configuring mobile Ad Hoc networks. Ad Hoc mobile networks, are temporary and self-configuring networks, do not need an access point for exchange information between their nodes. Each node performs the router tasks as required. The nodes can move, change location at will. The autonomy of these devices depends on the strategies of how its resources are used. So that the protocols, algorithms or models should be designed to efficiently without impacting device performance seeking a balance between overhead and usability. It is important to define appropriate management of these networks, especially when being used in critical scenarios such as emergencies, natural disasters, wars. The present research shows an efficient solution for managing mobile ad hoc networks. The solution comprises two main components: the definition of a management model for highly available mobile networks and the creation of a hierarchical routing protocol associated with the model. The proposed management model, called High Availability Management Ad Hoc Network (HAMAN) is defined in a four-level structure: access, distribution, intelligence and infrastructure. The components of each level: types of nodes, protocols, structure of a node are shown and detailed. It also explores the communication interfaces between each component and the relationship of these with the levels defined. The Ad Hoc routing protocol proposed, called Backup Cluster Head Protocol( BCHP), use of cluster and hierarchies like strategies. Each cluster has a cluster head which concentrates the routing information and management and sent to the destination when out of cluster coverage area. To improve the availability of the network protocol uses a Backup Cluster Head who assumes the functions of the node of the cluster when it has a problem. The HAMAN model is validated accross the simulation of their BCHP routing protocol. BCHP protocol has been implemented in the simulation tool Network Simulator 2 (NS2) to be simulated, compared and contrasted with a hierarchical routing protocol Cluster Based Routing Protocol (CBRP) and a routing protocol called Reactive Ad Hoc On Demand Distance Vector Routing (AODV).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el presente trabajo se ha analizado la diversidad existente en el ADN cloroplástico (ADNcp) de 16 poblaciones distribuidas a lo largo del Sistema Central. Para ello, se ha empleado la técnica de PCR-RFLP (amplificación de fragmentos específicos y posterior digestión con enzimas de restricción) sobre 38 regiones del ADNcp (Grivet et al., 2001).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta Tesis constituye una contribución a los Modelos y Metodologías para la Estimación de la Calidad Percibida por los Usuarios, o Calidad de Experiencia (QoE), a partir de Parámetros de Calidad y/o Rendimiento de Red y/o Servicio (QoS) en Servicios Multimedia, y específicamente en servicios Triple-Play (3P): servicios de Televisión (TV), Telefonía y Datos ofrecidos por un mismo operador como un paquete único. En particular, se centra en los servicios Triple-Play convergentes (desplegados sobre una Red de Transporte común basada en IP, gestionada por un único operador como un Sistema Autónomo (SA)), y la relación entre la Calidad Percibida por los usuarios de dichos servicios y los parámetros de rendimiento de la Red de Transporte IP subyacente. Específicamente, contribuye a la estimación ‘en línea’ (es decir, durante la prestación del servicio, en tiempo real o casi-real) de dicha calidad. La calidad de experiencia de los usuarios es un factor determinante para el éxito o fracaso de estos servicios, y su adecuada gestión resulta por tanto un elemento crucial para el despliegue exitoso de los mismos. La calidad de experiencia resulta fácil de entender, pero compleja de implementar en sistemas reales, debido principalmente a la dificultad de su modelado, evaluación, y traducción en términos de parámetros de calidad de servicio. Mientras que la calidad de servicio puede medirse, monitorizarse y controlarse fácilmente, la calidad de experiencia es todavía muy difícil de gestionar. Una metodología completa de gestión de la calidad de experiencia debe incluir al menos: monitorización de la experiencia de los usuarios durante el consumo del servicio; adaptación de la provisión de contenidos a las condiciones variables del contexto; predicción del nivel de degradación potencial de la calidad de experiencia; y recuperación de la degradación debida a cambios en el sistema. Para conseguir un control completo de la experiencia de los usuarios finales, todas estas tareas deben ser realizadas durante la prestación del servicio y de forma coordinada. Por lo tanto, la capacidad de medir, estimar y monitorizar la calidad percibida en tiempo casi-real, y relacionarla con las condiciones de servicio de la red, resulta crítica para los proveedores de este tipo de servicios, especialmente en el caso de los más exigentes, tales como la difusión de Televisión sobre IP (IPTV). Para ello se ha seleccionado un modelo ya existente, de tipo matricial, para la estimación de la Calidad Global en servicios complejos a partir de los parámetros de funcionamiento interno de los agentes que proporcionan los servicios. Este modelo, definido en términos de servicios y sus componentes, percepciones de los usuarios, capacidades de los agentes, indicadores de rendimiento y funciones de evaluación, permite estimar la calidad global de un conjunto de servicios convergentes, tal como la perciben uno o más grupos de usuarios. Esto se consigue combinando los resultados de múltiples modelos parciales, tales que cada uno de ellos proporciona la valoración de la calidad percibida para uno de los servicios componentes, obtenida a partir de un conjunto de parámetros de rendimiento y/o Calidad de Servicio de la red de transporte IP convergente. El modelo se basa en la evaluación de las percepciones de los usuarios a partir de Factores de Valoración, calculados a partir de Indicadores de Rendimiento, que se derivan a su vez de Parámetros de Funcionamiento Interno correspondientes a las capacidades de los distintos agentes que intervienen en la prestación de los servicios. El trabajo original incluye la aplicación del modelo a un servicio 3P (datos+voz+vídeo). En este trabajo, sin embargo, el servicio de vídeo (Vídeo bajo Demanda, VoD) se considera poco importante y es finalmente ignorado. En el caso de los usuarios residenciales, el servicio de voz (Voz sobre IP, VoIP) se considera asimismo poco importante y es también ignorado, por lo que el servicio global se reduce finalmente a los servicios de datos (Acceso a Internet y juegos interactivos). Esta simplificación era razonable en su momento, pero la evolución del mercado de servicios convergentes ha hecho que en la actualidad las razones que la justificaban no sean ya aplicables. En esta Tesis, por lo tanto, hemos considerado un servicio ‘Triple-Play’ completo, incluyendo servicios de datos, voz y vídeo. Partiendo de dicho modelo, se ha procedido a actualizar los servicios considerados, eliminando los no relevantes e incluyendo otros no considerados, así como a incluir nuevos elementos (percepciones) para la estimación de la calidad de los servicios; actualizar, extender y/o mejorar los modelos de estimación de los servicios ya incluidos; incluir modelos de estimación para los nuevos servicios y elementos añadidos; desarrollar nuevos modelos de estimación para aquellos servicios o elementos para los que no existen modelos adecuados; y por último, extender, actualizar y/o mejorar los modelos para la estimación de la calidad global. Con todo ello se avanza apreciablemente en la modelización y estimación de la Calidad de Experiencia (QoE) en Servicios Multimedia a partir de Parámetros de Calidad de Servicio (QoS) y/o Rendimiento de la Red, y específicamente en la estimación ‘en línea’, en tiempo casi-real, de dicha calidad en servicios Triple-Play convergentes. La presente Tesis Doctoral se enmarca en la línea de investigación sobre Calidad de Servicio del grupo de Redes y Servicios de Telecomunicación e Internet, dentro del Departamento de Ingeniería de Sistemas Telemáticos (DIT) de la Universidad Politécnica de Madrid (UPM).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la situación actual, tanto las posibilidades de contratar como los resultados económicos de un astillero, dependen de su capacidad para construir un buque en el plazo mas corto posible. Dentro de los trabajos de diseño y construcción de de un buque el trabajo de tuberías ha sido el que tradicionalmente ha condicionado los plazos de construcción. En este estudio se considerara que se han tenido en cuenta los criterios necesarios para que las instalaciones del buque funcionen correctamente y se verá como los sistemas de diseño influyen en el coste y plazo del buque y, por tanto, en la productividad del astillero. Se estudian los distintos procesos de diseño, fabricación y montaje de tuberías, la evolución de estos procesos a lo largo del tiempo, los módulos de armamento que se realizan en los astilleros, los modelos de cámara de máquinas, y los sistemas de ayuda al diseño por ordenador. El autor, en su puesto de Jefe de la Oficina Tecnológica de la Factoría de Sevilla de Astilleros Españoles en los últimos 12 años, ha tomado parte activa en esta evolución, formando parte de un equipo que ha situado a este astillero entre los mas avanzarlos de Europa. Todo lo anterior sirve de base para la segunda parte de este estudio, donde se abordan las que, en opinión del autor, son las nuevas tendencias en el diseño de tuberías en la construcción naval. V Integración del CAD/CAM o CIM : CAD = computer aided design o diseño asistido por ordenador, CAM = computer aided manufacturing o fabricación asistida por ordenador, CIM = computer integrated manufacturing o fabricación integrada por ordenador. Se estudia la integración de los procesos de diseño con el resto de los procesos de gestión y de producción de un astillero, proponiéndose un modelo de cómo el autor ve esta integración. Se comenta la actual tendencia a pasar de las automatizaciones duras con maquinas especializadas para cada proceso, a las automatizaciones blandas en las que un robot puede realizar distintos procesos modificando su programación. Se estudian las nuevas posibilidades de la normal i zacio'n, de los planos parametrizados y de la tecnología de grupos aportando algunos ejemplos. Se estudia también como los procesos anteriores conducirán a una optimización del producto en sí, es decir a conseguir mejores buques. En las conclusiones destacamos como el camino que tienen los países desarrollados, como el nuestro, para mantener una industria competitiva de construcción naval va por la mecanización de los procesos constructivos siguiendo las tendencias anteriores y obteniendo buques optimizados. vi SUMMARY Under the present situation the possibilities to contract and the economical results of a Shipyard depend on its capacity to build a ship within the shortest time. i Within the works of design and construction of a ship, piping work has traditionally conditioned the construction time. In this study it shall be considered that the necessary criteria for the ship installations to operate correctly have been taken into account and it shall be noticed how the design systems influence on the cost and time of a ship and therefore on the Shipyard's productivity. Studies are made of different design processes, manufacturing and installation of piping, evolution of these processes along the time, outfitting modules made in the Shipyard, engine room models and computerized design aid systems. The author, in his post of Chief of the Technological Office of Sevilla Shipyard of Astilleros Españoles for the last 12 years, has taken an active part in this evolution, making part of a team which has placed this Shipyard among the most advanced in Europe. All of the above is used for the second part of this study, whereby an approach is made to those who, in the author's opinion, are the new trends in the piping design of shipbuilding. vii Integration of CAD/CAM or CIM: CAD = computer aided design, CAM = computer aided manufacturing, CIM = computer integrated manufacturing. i A study is made of the integration of design processes with the remaining step and production Shipyard processes, proposing a model of how the author views this integration. Comments are made on the present trend to go from hard automations with specialized machines for each process to soft automations, in which a robot can carry out different processes modifying its programmes. Studies are made of: New possibility of standardization, parametrized drawings and group technology, bringing some examples. It is also studied how the above processes shall lead to optimize the product itself, that is, to obtain better ships. In the conclusions we stand out how the way of developed countries (as ours) to maintain a competitive shipbuilding industry is by computerizing constructive processes, following the above trends and obtaining better ships.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesis doctoral CONTRIBUCIÓN AL ESTUDIO DE DOS CONCEPTOS BÁSICOS DE LA LÓGICA FUZZY constituye un conjunto de nuevas aportaciones al análisis de dos elementos básicos de la lógica fuzzy: los mecanismos de inferencia y la representación de predicados vagos. La memoria se encuentra dividida en dos partes que corresponden a los dos aspectos señalados. En la Parte I se estudia el concepto básico de «estado lógico borroso». Un estado lógico borroso es un punto fijo de la aplicación generada a partir de la regla de inferencia conocida como modus ponens generalizado. Además, un preorden borroso puede ser representado mediante los preórdenes elementales generados por el conjunto de sus estados lógicos borrosos. El Capítulo 1 está dedicado a caracterizar cuándo dos estados lógicos dan lugar al mismo preorden elemental, obteniéndose también un representante de la clase de todos los estados lógicos que generan el mismo preorden elemental. El Capítulo finaliza con la caracterización del conjunto de estados lógicos borrosos de un preorden elemental. En el Capítulo 2 se obtiene un subconjunto borroso trapezoidal como una clase de una relación de indistinguibilidad. Finalmente, el Capítulo 3 se dedica a estudiar dos tipos de estados lógicos clásicos: los irreducibles y los minimales. En el Capítulo 4, que inicia la Parte II de la memoria, se aborda el problema de obtener la función de compatibilidad de un predicado vago. Se propone un método, basado en el conocimiento del uso del predicado mediante un conjunto de reglas y de ciertos elementos distinguidos, que permite obtener una expresión general de la función de pertenencia generalizada de un subconjunto borroso que realice la función de extensión del predicado borroso. Dicho método permite, en ciertos casos, definir un conjunto de conectivas multivaluadas asociadas al predicado. En el último capítulo se estudia la representación de antónimos y sinónimos en lógica fuzzy a través de auto-morfismos. Se caracterizan los automorfismos sobre el intervalo unidad cuando sobre él se consideran dos operaciones: una t-norma y una t-conorma ambas arquimedianas. The PhD Thesis CONTRIBUCIÓN AL ESTUDIO DE DOS CONCEPTOS BÁSICOS DE LA LÓGICA FUZZY is a contribution to two basic concepts of the Fuzzy Logic. It is divided in two parts, the first is devoted to a mechanism of inference in Fuzzy Logic, and the second to the representation of vague predicates. «Fuzzy Logic State» is the basic concept in Part I. A Fuzzy Logic State is a fixed-point for the mapping giving the Generalized Modus Ponens Rule of inference. Moreover, a fuzzy preordering can be represented by the elementary preorderings generated by its Fuzzy Logic States. Chapter 1 contemplates the identity of elementary preorderings and the selection of representatives for the classes modulo this identity. This chapter finishes with the characterization of the set of Fuzzy Logic States of an elementary preordering. In Chapter 2 a Trapezoidal Fuzzy Set as a class of a relation of Indistinguishability is obtained. Finally, Chapter 3 is devoted to study two types of Classical Logic States: irreducible and minimal. Part II begins with Chapter 4 dealing with the problem of obtaining a Compa¬tibility Function for a vague predicate. When the use of a predicate is known by means of a set of rules and some distinguished elements, a method to obtain the general expression of the Membership Function is presented. This method allows, in some cases, to reach a set of multivalued connectives associated to the predicate. Last Chapter is devoted to the representation of antonyms and synonyms in Fuzzy Logic. When the unit interval [0,1] is endowed with both an archimedean t-norm and a an archi-medean t-conorm, it is showed that the automorphisms' group is just reduced to the identity function.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Designado por la Escuela Especial de Ingenieros de Montes para desarrollar como proyecto final de carrera, el tema propuesto por el Patrimonio Forestal del Estado, sobre un estudio geobotánico de las Sierras de Segura y Casería, someto a aprobación el presente trabajo que titulo "Contribución al estudio geobotánico de las Sierras de Segura y Cazorla"

Relevância:

20.00% 20.00%

Publicador:

Resumo:

One important task in the design of an antenna is to carry out an analysis to find out the characteristics of the antenna that best fulfills the specifications fixed by the application. After that, a prototype is manufactured and the next stage in design process is to check if the radiation pattern differs from the designed one. Besides the radiation pattern, other radiation parameters like directivity, gain, impedance, beamwidth, efficiency, polarization, etc. must be also evaluated. For this purpose, accurate antenna measurement techniques are needed in order to know exactly the actual electromagnetic behavior of the antenna under test. Due to this fact, most of the measurements are performed in anechoic chambers, which are closed areas, normally shielded, covered by electromagnetic absorbing material, that simulate free space propagation conditions, due to the absorption of the radiation absorbing material. Moreover, these facilities can be employed independently of the weather conditions and allow measurements free from interferences. Despite all the advantages of the anechoic chambers, the results obtained both from far-field measurements and near-field measurements are inevitably affected by errors. Thus, the main objective of this Thesis is to propose algorithms to improve the quality of the results obtained in antenna measurements by using post-processing techniques and without requiring additional measurements. First, a deep revision work of the state of the art has been made in order to give a general vision of the possibilities to characterize or to reduce the effects of errors in antenna measurements. Later, new methods to reduce the unwanted effects of four of the most commons errors in antenna measurements are described and theoretical and numerically validated. The basis of all them is the same, to perform a transformation from the measurement surface to another domain where there is enough information to easily remove the contribution of the errors. The four errors analyzed are noise, reflections, truncation errors and leakage and the tools used to suppress them are mainly source reconstruction techniques, spatial and modal filtering and iterative algorithms to extrapolate functions. Therefore, the main idea of all the methods is to modify the classical near-field-to-far-field transformations by including additional steps with which errors can be greatly suppressed. Moreover, the proposed methods are not computationally complex and, because they are applied in post-processing, additional measurements are not required. The noise is the most widely studied error in this Thesis, proposing a total of three alternatives to filter out an important noise contribution before obtaining the far-field pattern. The first one is based on a modal filtering. The second alternative uses a source reconstruction technique to obtain the extreme near-field where it is possible to apply a spatial filtering. The last one is to back-propagate the measured field to a surface with the same geometry than the measurement surface but closer to the AUT and then to apply also a spatial filtering. All the alternatives are analyzed in the three most common near-field systems, including comprehensive noise statistical analyses in order to deduce the signal-to-noise ratio improvement achieved in each case. The method to suppress reflections in antenna measurements is also based on a source reconstruction technique and the main idea is to reconstruct the field over a surface larger than the antenna aperture in order to be able to identify and later suppress the virtual sources related to the reflective waves. The truncation error presents in the results obtained from planar, cylindrical and partial spherical near-field measurements is the third error analyzed in this Thesis. The method to reduce this error is based on an iterative algorithm to extrapolate the reliable region of the far-field pattern from the knowledge of the field distribution on the AUT plane. The proper termination point of this iterative algorithm as well as other critical aspects of the method are also studied. The last part of this work is dedicated to the detection and suppression of the two most common leakage sources in antenna measurements. A first method tries to estimate the leakage bias constant added by the receiver’s quadrature detector to every near-field data and then suppress its effect on the far-field pattern. The second method can be divided into two parts; the first one to find the position of the faulty component that radiates or receives unwanted radiation, making easier its identification within the measurement environment and its later substitution; and the second part of this method is able to computationally remove the leakage effect without requiring the substitution of the faulty component. Resumen Una tarea importante en el diseño de una antena es llevar a cabo un análisis para averiguar las características de la antena que mejor cumple las especificaciones fijadas por la aplicación. Después de esto, se fabrica un prototipo de la antena y el siguiente paso en el proceso de diseño es comprobar si el patrón de radiación difiere del diseñado. Además del patrón de radiación, otros parámetros de radiación como la directividad, la ganancia, impedancia, ancho de haz, eficiencia, polarización, etc. deben ser también evaluados. Para lograr este propósito, se necesitan técnicas de medida de antenas muy precisas con el fin de saber exactamente el comportamiento electromagnético real de la antena bajo prueba. Debido a esto, la mayoría de las medidas se realizan en cámaras anecoicas, que son áreas cerradas, normalmente revestidas, cubiertas con material absorbente electromagnético. Además, estas instalaciones se pueden emplear independientemente de las condiciones climatológicas y permiten realizar medidas libres de interferencias. A pesar de todas las ventajas de las cámaras anecoicas, los resultados obtenidos tanto en medidas en campo lejano como en medidas en campo próximo están inevitablemente afectados por errores. Así, el principal objetivo de esta Tesis es proponer algoritmos para mejorar la calidad de los resultados obtenidos en medida de antenas mediante el uso de técnicas de post-procesado. Primeramente, se ha realizado un profundo trabajo de revisión del estado del arte con el fin de dar una visión general de las posibilidades para caracterizar o reducir los efectos de errores en medida de antenas. Después, se han descrito y validado tanto teórica como numéricamente nuevos métodos para reducir el efecto indeseado de cuatro de los errores más comunes en medida de antenas. La base de todos ellos es la misma, realizar una transformación de la superficie de medida a otro dominio donde hay suficiente información para eliminar fácilmente la contribución de los errores. Los cuatro errores analizados son ruido, reflexiones, errores de truncamiento y leakage y las herramientas usadas para suprimirlos son principalmente técnicas de reconstrucción de fuentes, filtrado espacial y modal y algoritmos iterativos para extrapolar funciones. Por lo tanto, la principal idea de todos los métodos es modificar las transformaciones clásicas de campo cercano a campo lejano incluyendo pasos adicionales con los que los errores pueden ser enormemente suprimidos. Además, los métodos propuestos no son computacionalmente complejos y dado que se aplican en post-procesado, no se necesitan medidas adicionales. El ruido es el error más ampliamente estudiado en esta Tesis, proponiéndose un total de tres alternativas para filtrar una importante contribución de ruido antes de obtener el patrón de campo lejano. La primera está basada en un filtrado modal. La segunda alternativa usa una técnica de reconstrucción de fuentes para obtener el campo sobre el plano de la antena donde es posible aplicar un filtrado espacial. La última es propagar el campo medido a una superficie con la misma geometría que la superficie de medida pero más próxima a la antena y luego aplicar también un filtrado espacial. Todas las alternativas han sido analizadas en los sistemas de campo próximos más comunes, incluyendo detallados análisis estadísticos del ruido con el fin de deducir la mejora de la relación señal a ruido lograda en cada caso. El método para suprimir reflexiones en medida de antenas está también basado en una técnica de reconstrucción de fuentes y la principal idea es reconstruir el campo sobre una superficie mayor que la apertura de la antena con el fin de ser capaces de identificar y después suprimir fuentes virtuales relacionadas con las ondas reflejadas. El error de truncamiento que aparece en los resultados obtenidos a partir de medidas en un plano, cilindro o en la porción de una esfera es el tercer error analizado en esta Tesis. El método para reducir este error está basado en un algoritmo iterativo para extrapolar la región fiable del patrón de campo lejano a partir de información de la distribución del campo sobre el plano de la antena. Además, se ha estudiado el punto apropiado de terminación de este algoritmo iterativo así como otros aspectos críticos del método. La última parte de este trabajo está dedicado a la detección y supresión de dos de las fuentes de leakage más comunes en medida de antenas. El primer método intenta realizar una estimación de la constante de fuga del leakage añadido por el detector en cuadratura del receptor a todos los datos en campo próximo y después suprimir su efecto en el patrón de campo lejano. El segundo método se puede dividir en dos partes; la primera de ellas para encontrar la posición de elementos defectuosos que radian o reciben radiación indeseada, haciendo más fácil su identificación dentro del entorno de medida y su posterior substitución. La segunda parte del método es capaz de eliminar computacionalmente el efector del leakage sin necesidad de la substitución del elemento defectuoso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen La investigación descrita en esta memoria se enmarca en el campo de la lógica borro¬sa. Más concretamente, en el estudio de la incompatibilidad, de la compatibilidad y de la suplementaridad en los conjuntos borrosos y en los de Atanassov. En este orden de ideas, en el primer capítulo, se construyen, tanto de forma directa como indirecta, funciones apropiadas para medir la incompatibilidad entre dos conjuntos borro-sos. Se formulan algunos axiomas para modelizar la continuidad de dichas funciones, y se determina si las medidas propuestas, y otras nuevas que se introducen, verifican algún tipo de continuidad. Finalmente, se establece la noción de conjuntos borrosos compatibles, se introducen axiomas para medir esta propiedad y se construyen algunas medidas de compa¬tibilidad. El segundo capítulo se dedica al estudio de la incompatibilidad y de la compatibilidad en el campo de los conjuntos de Atanassov. Así, en primer lugar, se presenta una definición axiomática de medida de incompatibilidad en este contexto. Después, se construyen medidas de incompatibilidad por medio de los mismos métodos usados en el caso borroso. Además, se formulan axiomas de continuidad y se determina el tipo de continuidad de las medidas propuestas. Finalmente, se sigue un camino similar al caso borroso para el estudio de la compatibilidad. En el tercer capítulo, después de abordar la antonimia de conjuntos borrosos y de conjuntos de Atanassov, se formalizan las nociones de conjuntos suplementarios en estos dos entornos y se presenta, en ambos casos, un método para obtener medidas de suplementaridad a partir de medidas de incompatibilidad vía antónimos. The research described in this report pertains to the field of fuzzy logic and specifically studies incompatibility, compatibility and supplementarity in fuzzy sets and Atanassov's fuzzy sets. As such is the case, Chapter 1 describes both the direct and indirect construction of appropriate functions for measuring incompatibility between two fuzzy sets. We formulate some axioms for modelling the continuity of functions and determine whether the proposed and other measures introduced satisfy any type of continuity. Chapter 2 focuses on the study of incompatibility and compatibility in the field of Ata¬nassov's fuzzy sets. First, we present an axiomatic definition of incompatibility measure in this field. Then, we use the same methods to construct incompatibility measures as in the fuzzy case. Additionally, we formulate continuity axioms and determine the type of conti¬nuity of the proposed measures. Finally, we take a similar approach as in the fuzzy case to the study of compatibility. After examining the antonymy of fuzzy sets and Atanassov's sets, Chapter 3 formalizes the notions of supplementary sets in these two domains, and, in both cases, presents a method for obtaining supplementarity measures from incompatibility measures via antonyms.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las Tecnologías de la Información y de las Comunicaciones, ofrecen una buena oportunidad para el desarrollo de comunidades virtuales de aprendizaje, especialmente en el caso de las titulaciones conjuntas entre organizaciones. Estas comunidades permiten a las organizaciones aprovechar mejor las oportunidades de aprendizaje que brindan las tecnologías de Internet, aportando mejores contenidos y experiencias de aprendizaje (Recursos de aprendizaje) tanto para los profesores como para los alumnos. Sin embargo, actualmente no existe una tecnología clara con la que poder federar plataformas de gestión e impartición de titulaciones virtuales (LMS), con la que dar un adecuado soporte a las titulaciones conjuntas. En este trabajo, se presenta una metodología y una arquitectura de federación de plataformas LMS para poder gestionar titulaciones conjuntas en ambiente de e-learning. Actualmente, existe escaso conocimiento acerca de los problemas que están imposibilitando la utilización de estos escenarios. Por ello, este trabajo se presenta como una solución para los miembros de la comunidad (directores, docentes, investigadores y estudiantes), ofreciendo un marco conceptual, que ayuda a entender estos escenarios e identifica los requisitos de diseño que son útiles para generar servicios de aprendizaje accesibles a los miembros de la comunidad (Grid de recursos de aprendizaje) y para integrar los LMS en una nube de titulaciones conjuntas en ambientes de e-learning. Así mismo, en el presente documento se presentan varias experiencias, en las que se han implementado comunidades virtuales de aprendizaje en la ciudad de Cartagena de Indias (Colombia), que han servido para inspirar y validar la solución propuesta en este trabajo. ABSTRACT Information and communication technologies offer a great opportunity for the development of virtual learning communities, like as joint degrees between Organizations. Virtual Learning Communities allow organizations to be more cooperative during training activities via the Internet, with the provision of their learning expertise (learning resource). Internet enables multiple organizations to share their learning expertise with others. In these cooperative knowledge spaces, each organization contributes with their partners providing learning resources that they offer to students and teachers. However, currently there is no clear technology with which to federate Learning Management Systems (LMS) to give adequate support to joint degrees. In this work, we present a description of the problems that would face the generation of the Joint degrees in e-learning environments. Currently little is known about the problems that prevent the formation of virtual learning communities generated from the experience contributed by multiple organizations, so, this work is important for community members (Directors, Teachers, Researchers and practitioners) because it offers a conceptual framework that helps understand these scenarios and can provide useful design requirements when generating learning services for the community (Grid of Learning Resources) and to integrate the LMS in a cloud of joint degrees in e-learning environments. We also propose various experiences in which virtual learning communities have been integrated in Cartagena de Indias (Colombia) which have served to inspire and validate the solution proposed in this paper.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Monilinia spp. (M. laxa, M. fructigena y M. fructicola) causa marchitez en brotes y flores, chancros en ramas y podredumbre de la fruta de hueso provocando pérdidas económicas importantes en años con climatología favorable para el desarrollo de la enfermedad, particularmente en variedades tardías de melocotonero y nectarino. En estos huéspedes en España, hasta el momento, la especie predominante es M. laxa y, en menor proporción, M. fructigena. La reciente introducción en Europa de la especie de cuarentena M. fructicola hace necesaria una detección e identificación rápida de cada una de las especies. Además, hay diversos aspectos de la etiología y epidemiología de la enfermedad que no se conocen en las condiciones de cultivo españolas. En un primer objetivo de esta Tesis se ha abordado la detección e identificación de las especies de Monilinia spp. causantes de podredumbre parda. El estudio de las bases epidemiológicas para el control de la enfermedad constituye el fin del segundo objetivo. Para la detección del género Monilinia en material vegetal por PCR, diferenciándolo de otros hongos presentes en la superficie del melocotonero, se diseñaron una pareja de cebadores siguiendo un análisis del ADN ribosomal. La discriminación entre especies de Monilinia se consiguió utilizando marcadores SCAR (región amplificada de secuencia caracterizada), obtenidos después de un estudio de marcadores polimórficos de ADN amplificados al azar (RAPDs). También fue diseñado un control interno de amplificación (CI) basado en la utilización de un plásmido con secuencias de los cebadores diferenciadores del género, para ser utilizado en el protocolo de diagnóstico de la podredumbre parda con el fin de reconocer falsos negativos debidos a la inhibición de PCR por componentes celulares del material vegetal. Se disponía de un kit comercial que permitía distinguir Monilinia de otros géneros y M. fructicola del resto de especies mediante anticuerpos monoclonales utilizando la técnica DAS-ELISA. En esta Tesis se probaron diferentes fuentes de material como micelio ó conidias procedentes de cultivos en APD, o el micelio de la superficie de frutas o de momias frescas, como formas de antígeno. Los resultados obtenidos con ELISA se compararon con la identificación por métodos morfológico-culturales y por PCR con los cebadores desarrollados en esta Tesis. Los resultados demostraron la posibilidad de una detección temprana en frutas frescas por este método, realzando las posibilidades de una diagnosis temprana para una prevención más eficaz de M. fructicola en fruta de hueso. El estudio epidemiológico de la enfermedad comenzó con la determinación de las principales fuentes de inóculo primario y su importancia relativa en melocotoneros y nectarinos del valle del Ebro. Para ello se muestrearon 9 huertos durante los años 2003 a 2005 recogiendo todas las momias, frutos abortados, gomas, chancros, y brotes necróticos en los árboles. También se recogieron brotes aparentemente sanos y muestras de material vegetal situados en el suelo. En estas muestras se determinó la presencia de Monilinia spp. Los resultados mostraron que la fuente principal de inóculo son las momias que se quedan en los árboles en las que la supervivencia del hongo tras el invierno es muy alta. También son fuentes de inóculo las momias del suelo y los brotes necróticos. De aquí se deriva que una recomendación importante para los agricultores es que deben eliminar este material de los huertos. Un aspecto no estudiado en melocotonero o nectarino en España es la posible relación que puede darse entre la incidencia de infecciones latentes en los frutos inmaduros a lo largo del cultivo y la incidencia de podredumbre en los frutos en el momento de la recolección y en postcosecha. Esta relación se había observado previamente en otros frutales de hueso infectados con M. fructicola en diversos países del mundo. Para estudiar esta relación se realizaron ensayos en cinco huertos comerciales de melocotonero y nectarino situados en el Valle del Ebro en cuatro estados fenológicos durante los años 2000-2002. No se observaron infecciones latentes en botón rosa, dándose la máxima incidencia en precosecha, aunque en algunos huertos se daba otro pico en el endurecimiento del embrión. La especie prevaleciente fue M. laxa. Se obtuvo una correlación positiva significativa entre la incidencia de infecciones latentes y la incidencia de podredumbre en postcosecha. Se desarrolló también un modelo de predicción de las infecciones latentes en función de la temperatura (T) y el periodo de humectación (W). Este modelo indicaba que T y W explicaban el 83% de la variación en la incidencia de infecciones latentes causadas por Monilinia spp. Por debajo de 8ºC no se predecían latentes, necesitándose más de 22h de W para predecir la ocurrencia de latentes con T = 8ºC, mientras que solo se necesitaban 5h de W a 25ºC. Se hicieron también ensayos en condiciones controladas para determinar la relación entre la incidencia de las infecciones latentes, las condiciones ambientales (T y W), la concentración de inóculo del patógeno (I) y el estado de desarrollo del huésped (S) y para validar el modelo de predicción desarrollado con los experimentos de campo. Estos ensayos se llevaron cabo con flores y frutos de nectarino procedentes de un huerto comercial en seis estados fenológicos en los años 2004 y 2005, demostrándose que la incidencia de podredumbre en postcosecha y de infecciones latentes estaba afectada por T, W, I y S. En los frutos se producían infecciones latentes cuando la T no era adecuada para el desarrollo de podredumbre. Una vez desarrollado el embrión eran necesarias más de 4-5h de W al día y un inóculo superior a 104 conidias ml-1 para que se desarrollase o podredumbre o infección latente. La ecuación del modelo obtenido con los datos de campo era capaz de predecir los datos observados en estos experimentos. Para evaluar el efecto del inóculo de Monilinia spp. en la incidencia de infecciones latentes y de podredumbre de frutos en postcosecha se hicieron 11 experimentos en huertos comerciales de melocotonero y nectarino del Valle del Ebro durante 2002 a 2005. Se observó una correlación positiva entre los números de conidias de Monilinia spp. en la superficie de los frutos y la incidencia de infecciones latentes De los estudios anteriores se deducen otras dos recomendaciones importantes para los agricultores: las estrategias de control deben tener en cuenta las infecciones latentes y estimar el riesgo potencial de las mismas basándose en la T y W. Deben tener también en cuenta la concentración de esporas de Monilinia spp. en la superficie de los frutos para disminuir el riesgo de podredumbre parda. El conocimiento de la estructura poblacional de los patógenos sienta las bases para establecer métodos más eficaces de manejo de las enfermedades. Por ello en esta Tesis se ha estudiado el grado de diversidad genética entre distintas poblaciones de M. laxa en diferentes localidades españolas utilizando 144 marcadores RAPDs (59 polimórficos y 85 monomórficos) y 21 aislados. El análisis de la estructura de la población reveló que la diversidad genética dentro de las subpoblaciones (huertos) (HS) representaba el 97% de la diversidad genética (HT), mientras que la diversidad genética entre subpoblaciones (DST) sólo representaba un 3% del total de esta diversidad. La magnitud relativa de la diferenciación génica entre subpoblaciones (GST) alcanzaba 0,032 y el número estimado de migrantes por generación (Nm) fue de 15,1. Los resultados obtenidos en los dendrogramas estaban de acuerdo con el análisis de diversidad génica. Las agrupaciones obtenidas eran independientes del huerto de procedencia, año o huésped. En la Tesis se discute la importancia relativa de las diferentes fuentes evolutivas en las poblaciones de M. laxa. Finalmente se realizó un muestreo en distintos huertos de melocotonero y nectarino del Valle del Ebro para determinar la existencia o no de aislados resistentes a los fungicidas del grupo de los benzimidazoles y las dicarboximidas, fungicidas utilizados habitualmente para el control de la podredumbre parda y con alto riesgo de desarrollar resistencia en las poblaciones patógenas. El análisis de 114 aislados de M. laxa con los fungicidas Benomilo (bencimidazol) (1Bg m.a ml-1), e Iprodiona (dicarboximida) (5Bg m.a ml-1), mostró que ninguno era resistente en las dosis ensayadas. Monilinia spp. (M. laxa, M. fructigena and M. fructicola) cause bud and flower wilt, canker in branches and stone fruit rot giving rise important economic losses in years with appropriate environmental conditions, it is particularly important in late varieties of peach and nectarine. Right now, M. laxa is the major species for peach and nectarine in Spain followed by M. fructigena, in a smaller proportion. The recent introduction of the quarantine organism M. fructicola in Europe makes detection and identification of each one of the species necessary. In addition, there are different aspects of disease etiology and epidemiology that are not well known in Spain conditions. The first goal of this Thesis was the detection and identification of Monilinia spp. causing brown rot. Study of the epidemiology basis for disease control was the second objective. A pair of primers for PCR detection was designed based on the ribosomal DNA sequence in order to detect Monilinia spp. in plant material and to discriminate it from other fungi colonizing peach tree surface. Discrimination among Monilinia spp. was successful by SCAR markers (Sequence Characterized Amplified Region), obtained after a random amplified polymorphic DNA markers (RAPDs) study. An internal control for the PCR (CI) based on the use of a mimic plasmid designed on the primers specific for Monilinia was constructed to be used in diagnosis protocol for brown rot in order to avoid false negatives due to the inhibition of PCR as consequence of remained plant material. A commercial kit based on DAS-ELISA and monoclonals antibodies was successfully tested to distinguish Monilinia from other fungus genera and M. fructicola from other Monilinia species. Different materials such as micelium or conidias from APD cultures, or micelium from fresh fruit surfaces or mummies were tested in this Thesis, as antigens. Results obtained by ELISA were compared to classical identification by morphologic methods and PCR with the primers developed in this Thesis. Results demonstrated the possibility of an early detection in fresh fruits by this method for a more effective prevention of M. fructicola in stone fruit. The epidemiology study of the disease started with the determination of the main sources of primary inoculum and its relative importance in peach trees and nectarines in the Ebro valley. Nine orchards were evaluated during years 2003 to 2005 collecting all mummies, aborted fruits, rubbers, cankers, and necrotic buds from the trees. Apparently healthy buds and plant material located in the ground were also collected. In these samples presence of Monilinia spp. was determined. Results showed that the main inoculum sources are mummies that stay in the trees and where fungus survival after the winter is very high. Mummies on the ground and the necrotics buds are also sources of inoculum. As consequence of this an important recommendation for the growers is the removal of this material of the orchards. An important issue not well studied in peach or nectarine in Spain is the possible relationship between the incidence of latent infections in the immature fruits and the incidence of fruit rot at harvesting and postharvesting. This relationship had been previously shown in other stone fruit trees infected with M. fructicola in different countries over the world. In order to study this relationship experiments were run in five commercial peach and nectarine orchards located in the Ebro Valley in four phenologic states from 2000 to 2002. Latent infections were not observed in pink button, the maxima incidence arise in preharvest, although in some orchards another increase occurred in the embryo hardening. The most prevalence species was M. laxa. A significant positive correlation between the incidence of latent infections and the incidence of rot in postharvest was obtained. A prediction model of the latent infections based on the temperature (T) and the wetness duration (W) was also developed. This model showed that T and W explained 83% of the variation in latent infection incidence caused by Monilinia spp. Below 8ºC latent infection was not predicted, more than 22h of W with T = 8ºC were needed to predict latent infection occurrence of, whereas at 25ºC just 5h of W were enough. Tests under controlled conditions were also made to determine the relationship among latent infections incidence, environmental conditions (T and W), inoculum concentration of the pathogen (I) and development state of the host (S) to validate the prediction model developed on the field experiments. These tests were made with flowers and fruits of nectarine coming from a commercial orchard, in six phenologic states in 2004 and 2005, showing that incidence of rot in postharvest and latent infections were affected by T, W, I and S. In fruits latent infections took place when the T was not suitable for rot development. Once developed the embryo, more than 4-5h of W per day and higher inoculums (104 conidia ml-1) were necessary for rot or latent infection development. The equation of the model obtained with the field data was able to predict the data observed in these experiments. In order to evaluate the effect of inoculum of Monilinia spp. in the incidence of latent infections and of rot of fruits in postharvest, 11 experiments in commercial orchards of peach and nectarine of the Ebro Valley were performed from 2002 to 2005. A positive correlation between the conidial numbers of Monilinia spp. in the surface of the fruits and the incidence of latent infections was observed. Based on those studies other two important recommendations for the agriculturists are deduced: control strategies must consider the latent infections and potential risk based on the T and W. Spores concentration of Monilinia spp. in the surface of fruits must be also taken in concern to reduce the brown rot risk. The knowledge of the population structure of the pathogens determines the bases to establish more effective methods of diseases handling. For that reason in this Thesis the degree of genetic diversity among different M. laxa populations has been studied in different Spanish locations using 144 RAPDs markers (59 polymorphic and 85 monomorphics) on 21 fungal isolates. The analysis of the structure of the population revealed that the genetic diversity within the subpopulations (orchards) (HS) represented 97% of the genetic diversity (HT), whereas the genetic diversity between subpopulations (DST) only represented a 3% of the total of this diversity. The relative magnitude of the genic differentiation between subpopulations (GST) reached 0.032 and the considered number of migrantes by generation (Nm) was of 15.1. The results obtained in dendrograms were in agreement with the analysis of genic diversity. The obtained groupings were independent of the orchard of origin, year or host. In the Thesis the relative importance of the different evolutionary sources in the populations from M. laxa is discussed. Finally a sampling of resistant isolates in different orchards from peach and nectarine of Ebro Valley was made to determine the existence of fungicide resistance of the group of benzimidazoles and the dicarboximidas, fungicides used habitually for the control of rot brown and with high risk of resistance developing in the pathogenic populations. The analysis of 114 isolated ones of M. laxa with the fungicides Benomilo (bencimidazol) (1Bg m.a ml-1), and Iprodiona (dicarboximida) (5Bg m.a ml-1), showed no resistant in the doses evaluated.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La Gestión Forestal Sustentable es la principal herramienta para garantizar la compatibilidad entre producción y conservación en todos los bosques, y mas especialmente en los que exhiben niveles máximos de diversidad, como los tropicales humedos. En ellos existe un gran desconocimiento sobre la gestión de los recursos maderables de pequeña dimensión y los no maderables (PFNM) con mercado local. La madera redonda de pequeño diámetro es un recurso forestal de bajo valor económico extraído tradicionalmente por los pobladores locales de las zonas tropicales húmedas para construir sus viviendas. Los fustes de mejor calidad se obtienen del bosque de varillal, o bosques sobre arena blanca, altamente oligotroficos, sin potencial agrícola, escasos, dispersos, de pequeña superficie, gran fragilidad y alto porcentaje de endemismos. En el entorno de los centros urbanos de la Amazonia peruana, esta madera supone uno de los principales ingresos económicos para la población local, al ser extraida para su comercialización en dichos centros urbanos. Esto supone un riesgo de sobre-explotacion cuyos efectos se desconocen hasta el momento. Para acercarnos la situacion ambiental, social y económica asociada al varillal, se han realizado inventarios botanicos y de estructura forestal, se ha descrito el sistema de aprovechamiento tradicional y cuantificado sus efectos y, finalmente, se han realizado encuestas orientadas a analizar la situación social y economica de las comunidades locales que extraen y comercializan sus productos. El aprovechamiento tradicional del varillal es una actividad de bajo impacto que no emplea maquinaria y se centra en la extracción de fustes con diámetro normal entre 5 y 15 cm y características especificas de longitud, forma de fuste y calidad de la especie. Los resultados ponen de manifiesto la relevancia de la distancia existente entre el punto de extracción y el punto de venta, asi como la gran influencia que tiene la situación social y económica en la gestión sustentable del varillal. Todo ello pone en evidencia que si existe un cierto efecto negativo de la extracción intensa y continuada que han sufrido los varíllales mas próximos al centro urbano. Para favorecer una Gestión Forestal Sustentable que reduzca este efecto negativo es esencial llevar a cabo una adecuada planificación comunal que permita establecer una secuencia ordenada de zonas de corta y un cronograma para su gestión y aprovechamiento que evite la extracción repetida en un mismo varillal. ABSTRACT Sustainable forest management is the main tool to ensure compatibility between production and conservation in all forests, and especially in those exhibiting the maximum levels of diversity, such as tropical rain. Within them there is a great ignorance about the management of small sized timber and non-timber resources (PFMN) in the local market. The small-diameter round timber is a forest resource of low economic value extracted traditionally by local people of the humid tropics to build their homes. The better quality shafts are obtained from varillal forest or forests on white sand, highly oligotrophic, no agricultural potential, few, scattered, small size, fragility and high percentage of endemic species. In the environment of the urban centres of the Peruvian Amazon, this wood is one of the main incomes for the local population, since it is extracted for marketing in these urban centres. This poses a risk of overexploitation whose effects are unknown so far. To approach the environmental, social and economic situation associated to the varillal, botanical and forest structure inventories have been conducted, traditional harvesting systems described and their effects quantified and targeted surveys have eventually been conducted to analyse the social and local economic situation of the communities that extract and sell the products. The traditional use of varillal is a low-impact activity that does not use machinery and focuses on the extraction of shafts with a normal diameter of between 5 and 15 cm and specific characteristics in length, stem form and quality of the species. The results highlight the importance of the distance from the extraction point and the sale point, and the great influence of the social and economic situation in the sustainable management of varillal. This demonstrates that there is indeed a negative effect caused by the intense and continuous extraction that varillales closest to the city centre have suffered. To encourage a Sustainable Forest Management to reduce this negative effect is essential to conduct proper community planning in order to establish an ordered sequence of areas and a chronogram for their management and use, to avoid a repeat extraction in the same varillal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The extraordinary increase of new information technologies, the development of Internet, the electronic commerce, the e-government, mobile telephony and future cloud computing and storage, have provided great benefits in all areas of society. Besides these, there are new challenges for the protection of information, such as the loss of confidentiality and integrity of electronic documents. Cryptography plays a key role by providing the necessary tools to ensure the safety of these new media. It is imperative to intensify the research in this area, to meet the growing demand for new secure cryptographic techniques. The theory of chaotic nonlinear dynamical systems and the theory of cryptography give rise to the chaotic cryptography, which is the field of study of this thesis. The link between cryptography and chaotic systems is still subject of intense study. The combination of apparently stochastic behavior, the properties of sensitivity to initial conditions and parameters, ergodicity, mixing, and the fact that periodic points are dense, suggests that chaotic orbits resemble random sequences. This fact, and the ability to synchronize multiple chaotic systems, initially described by Pecora and Carroll, has generated an avalanche of research papers that relate cryptography and chaos. The chaotic cryptography addresses two fundamental design paradigms. In the first paradigm, chaotic cryptosystems are designed using continuous time, mainly based on chaotic synchronization techniques; they are implemented with analog circuits or by computer simulation. In the second paradigm, chaotic cryptosystems are constructed using discrete time and generally do not depend on chaos synchronization techniques. The contributions in this thesis involve three aspects about chaotic cryptography. The first one is a theoretical analysis of the geometric properties of some of the most employed chaotic attractors for the design of chaotic cryptosystems. The second one is the cryptanalysis of continuos chaotic cryptosystems and finally concludes with three new designs of cryptographically secure chaotic pseudorandom generators. The main accomplishments contained in this thesis are: v Development of a method for determining the parameters of some double scroll chaotic systems, including Lorenz system and Chua’s circuit. First, some geometrical characteristics of chaotic system have been used to reduce the search space of parameters. Next, a scheme based on the synchronization of chaotic systems was built. The geometric properties have been employed as matching criterion, to determine the values of the parameters with the desired accuracy. The method is not affected by a moderate amount of noise in the waveform. The proposed method has been applied to find security flaws in the continuous chaotic encryption systems. Based on previous results, the chaotic ciphers proposed by Wang and Bu and those proposed by Xu and Li are cryptanalyzed. We propose some solutions to improve the cryptosystems, although very limited because these systems are not suitable for use in cryptography. Development of a method for determining the parameters of the Lorenz system, when it is used in the design of two-channel cryptosystem. The method uses the geometric properties of the Lorenz system. The search space of parameters has been reduced. Next, the parameters have been accurately determined from the ciphertext. The method has been applied to cryptanalysis of an encryption scheme proposed by Jiang. In 2005, Gunay et al. proposed a chaotic encryption system based on a cellular neural network implementation of Chua’s circuit. This scheme has been cryptanalyzed. Some gaps in security design have been identified. Based on the theoretical results of digital chaotic systems and cryptanalysis of several chaotic ciphers recently proposed, a family of pseudorandom generators has been designed using finite precision. The design is based on the coupling of several piecewise linear chaotic maps. Based on the above results a new family of chaotic pseudorandom generators named Trident has been designed. These generators have been specially designed to meet the needs of real-time encryption of mobile technology. According to the above results, this thesis proposes another family of pseudorandom generators called Trifork. These generators are based on a combination of perturbed Lagged Fibonacci generators. This family of generators is cryptographically secure and suitable for use in real-time encryption. Detailed analysis shows that the proposed pseudorandom generator can provide fast encryption speed and a high level of security, at the same time. El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de Internet, el comercio electrónico, la administración electrónica, la telefonía móvil y la futura computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección de la información, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos electrónicos. La criptografía juega un papel fundamental aportando las herramientas necesarias para garantizar la seguridad de estos nuevos medios, pero es imperativo intensificar la investigación en este ámbito para dar respuesta a la demanda creciente de nuevas técnicas criptográficas seguras. La teoría de los sistemas dinámicos no lineales junto a la criptografía dan lugar a la ((criptografía caótica)), que es el campo de estudio de esta tesis. El vínculo entre la criptografía y los sistemas caóticos continúa siendo objeto de un intenso estudio. La combinación del comportamiento aparentemente estocástico, las propiedades de sensibilidad a las condiciones iniciales y a los parámetros, la ergodicidad, la mezcla, y que los puntos periódicos sean densos asemejan las órbitas caóticas a secuencias aleatorias, lo que supone su potencial utilización en el enmascaramiento de mensajes. Este hecho, junto a la posibilidad de sincronizar varios sistemas caóticos descrita inicialmente en los trabajos de Pecora y Carroll, ha generado una avalancha de trabajos de investigación donde se plantean muchas ideas sobre la forma de realizar sistemas de comunicaciones seguros, relacionando así la criptografía y el caos. La criptografía caótica aborda dos paradigmas de diseño fundamentales. En el primero, los criptosistemas caóticos se diseñan utilizando circuitos analógicos, principalmente basados en las técnicas de sincronización caótica; en el segundo, los criptosistemas caóticos se construyen en circuitos discretos u ordenadores, y generalmente no dependen de las técnicas de sincronización del caos. Nuestra contribución en esta tesis implica tres aspectos sobre el cifrado caótico. En primer lugar, se realiza un análisis teórico de las propiedades geométricas de algunos de los sistemas caóticos más empleados en el diseño de criptosistemas caóticos vii continuos; en segundo lugar, se realiza el criptoanálisis de cifrados caóticos continuos basados en el análisis anterior; y, finalmente, se realizan tres nuevas propuestas de diseño de generadores de secuencias pseudoaleatorias criptográficamente seguros y rápidos. La primera parte de esta memoria realiza un análisis crítico acerca de la seguridad de los criptosistemas caóticos, llegando a la conclusión de que la gran mayoría de los algoritmos de cifrado caóticos continuos —ya sean realizados físicamente o programados numéricamente— tienen serios inconvenientes para proteger la confidencialidad de la información ya que son inseguros e ineficientes. Asimismo una gran parte de los criptosistemas caóticos discretos propuestos se consideran inseguros y otros no han sido atacados por lo que se considera necesario más trabajo de criptoanálisis. Esta parte concluye señalando las principales debilidades encontradas en los criptosistemas analizados y algunas recomendaciones para su mejora. En la segunda parte se diseña un método de criptoanálisis que permite la identificaci ón de los parámetros, que en general forman parte de la clave, de algoritmos de cifrado basados en sistemas caóticos de Lorenz y similares, que utilizan los esquemas de sincronización excitador-respuesta. Este método se basa en algunas características geométricas del atractor de Lorenz. El método diseñado se ha empleado para criptoanalizar eficientemente tres algoritmos de cifrado. Finalmente se realiza el criptoanálisis de otros dos esquemas de cifrado propuestos recientemente. La tercera parte de la tesis abarca el diseño de generadores de secuencias pseudoaleatorias criptográficamente seguras, basadas en aplicaciones caóticas, realizando las pruebas estadísticas, que corroboran las propiedades de aleatoriedad. Estos generadores pueden ser utilizados en el desarrollo de sistemas de cifrado en flujo y para cubrir las necesidades del cifrado en tiempo real. Una cuestión importante en el diseño de sistemas de cifrado discreto caótico es la degradación dinámica debida a la precisión finita; sin embargo, la mayoría de los diseñadores de sistemas de cifrado discreto caótico no ha considerado seriamente este aspecto. En esta tesis se hace hincapié en la importancia de esta cuestión y se contribuye a su esclarecimiento con algunas consideraciones iniciales. Ya que las cuestiones teóricas sobre la dinámica de la degradación de los sistemas caóticos digitales no ha sido totalmente resuelta, en este trabajo utilizamos algunas soluciones prácticas para evitar esta dificultad teórica. Entre las técnicas posibles, se proponen y evalúan varias soluciones, como operaciones de rotación de bits y desplazamiento de bits, que combinadas con la variación dinámica de parámetros y con la perturbación cruzada, proporcionan un excelente remedio al problema de la degradación dinámica. Además de los problemas de seguridad sobre la degradación dinámica, muchos criptosistemas se rompen debido a su diseño descuidado, no a causa de los defectos esenciales de los sistemas caóticos digitales. Este hecho se ha tomado en cuenta en esta tesis y se ha logrado el diseño de generadores pseudoaleatorios caóticos criptogr áficamente seguros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el campo de la Ingeniería de Protocolos es fundamental el papel que han tomado los organismos normalizadores de Servicios y Sistemas de Comunicaciones, como ISO e ITU. En este entorno, las Técnicas de Descripción Formal son un mecanismo clave para el diseño y especificación de dichos protocolos.Esta actividad ha surgido, en gran parte, debida a las necesidades de interconectividad, que está alcanzando niveles difícilmente imaginables hace pocos añoos: se pretende que sistemas heterogéneos y completamente diferentes cooperen y trabajen de forma distribuida o, simplemente, que intercambien volúmenes de información cada vez mayores. Surgen normas y recomendaciones a partir de iniciativas públicas orientadas a proporcionar normas en los servicios y protocolos de comunicaciones; normas que los fabricantes deben cumplir y organismos independientes deben certificar u homologar. Existen dos campos de actuación bien diferentes: por un lado, las normas deben ser precisas y no contener ambigüedades . Por otro, es necesario comprobar que el producto se atiene a la norma. Este proceso se realiza en base a unas pruebas denominadas de Conformidad. l primer campo es el causante directo del desarrollo de las FDTs. El segundo, ha provocado que ISO normalice un entorno específico y una metodología para el desarrollo y ejecución de Pruebas de Conformidad: la norma ISO-9646. En este entorno tiene lugar el desarrollo de la presente tesis. Como objetivos fundamentales se ha trabajado en 1) conceptualización y subsiguiente formalización del proceso de ejecución de Pruebas de Conformidad y elementos integrantes en las arquitecturas de pruebas, y 2) definición de una métrica de cobertura que aproveche la existencia de especificaciones formales como elemento de referencia para la generación de las pruebas de conformidad.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las nanopartículas de metales nobles (especialmente las de oro) tienen un gran potencial asociado al desarrollo de sistemas de terapia contra el cáncer debido principalmente a sus propiedades ópticas, ya que cuando son irradiadas con un haz de luz sintonizado en longitud de onda con su máximo de Resonancia de Plasmón Superficial, absorben de manera muy eficiente dicha luz y la disipan rápidamente al medio en forma de calor localizado. Esta característica por tanto, puede ser aprovechada para conseguir elevar la temperatura de células tumorales hasta sobrepasar umbrales a partir de los cuales se produciría la muerte celular. Partiendo de estos principios, esta tesis se centra en el desarrollo y la caracterización de una serie de prototipos de hipertermia óptica basados en la irradiación de nanopartículas de oro con un haz de luz adecuado, así como en la aplicación in vitro de la terapia sobre células cancerígenas. Además, el trabajo se orienta a identificar y comprender los procesos mecánicos y térmicos asociados a este tipo de hipertermia, y a desarrollar modelos que los describan, estudiando y planteando nuevas formas de irradiación, para, en última instancia, poder optimizar los procesos descritos y hacerlos más efectivos. Los resultados obtenidos indican que, el uso de nanopartículas de oro, y más concretamente de nanorods de oro, para llevar a cabo terapias de hipertermia óptica, permite desarrollar terapias muy efectivas para inducir muerte en células cancerígenas, especialmente en tumores superficiales, o como complemento quirúrgico en tumores internos. Sin embargo, los efectos de la toxicidad de las nanopartículas de oro, aún deben ser detalladamente estudiados, ya que este tipo de terapias sólo será viable si se consigue una completa biocompatibilidad. Por otro lado, el estudio exhaustivo de los procesos térmicos que tienen lugar durante la irradiación de las nanopartículas ha dado lugar a una serie de modelos que permiten determinar la efectividad fototérmica de las nanopartículas y además, visualizar la evolución de la temperatura tanto a escala nanométrica como a escala macrométrica, en función de los parámetros ópticos y térmicos del sistema. El planteamiento de nuevas formas de irradiación y el desarrollo de dispositivos orientados a estudiar los fenómenos mecánicos que tienen lugar durante la irradiación pulsada de baja frecuencia y baja potencia de nanopartículas de oro, ha dado lugar a la detección de ondas de presión asociadas a procesos de expansión termoelástica, abriendo la puerta al desarrollo de terapias de hipertermia que combinen la muerte celular producida por calentamiento con la muerte derivada de los fenómenos mecánicos descritos.VII Noble metal nanoparticles (especially gold ones), have a huge potential in the development of therapy systems against cancer mainly due to their optical properties, so that, when these particles are irradiated with a light that is syntonized in wavelength with their maximum of Surface Plasmon Resonance, they effectively absorb and dissipate the light to the surrounding medium as localized heat. We can take advantage of this characteristic for rising the temperature of cancer cells above the threshold at which cellular death would occur. From these principles, this thesis is oriented to the development and characterization of a series of optical hyperthermia prototypes based on the irradiation of gold nanoparticles using the suitable light, and on the in vitro application of this therapy over cancer cells, to understand the mechanical and thermal processes associated with this kind of hyperthermia, developing descriptive models, and to study and to approach new ways of irradiation in order to, ultimately, optimize the described processes and make them more effective. The obtained results show that, the use of gold nanoparticles, and more specifically, of gold nanorods, to carry out optical hyperthermia therapies, allows the development of very effective therapies in order to induce death in VIII cancer cells, especially in superficial tumors, or like surgical complement in more internal tumors. However, the toxicity effects of the gold nanoparticles still need to be studied more detail, because this kind of therapies will be feasible only if a complete biocompatibility is achieved. On the other hand, the exhaustive study of the thermal processes that take place during the irradiation of the nanoparticles resulted in a series of models that allow the determination of the photothermal efficiency of the nanoparticles and also the visualization of the temperature evolution, both at nanoscale and at macroscale, as a function of the optical and thermal parameters of the system. The proposal of new ways of irradiation and the development of devices oriented to study the mechanical effects that take place during the low frequency and low power pulsing irradiation of gold nanoparticles has led to the detection of pressure waves associated to thermoelastic expansion processes, opening the door to the development of hyperthermia therapies that combine the cellular death due to the heating with the death derived from the described mechanical phenomena.