677 resultados para Bulas de Cruzada
Resumo:
Bula fechada en Roma a 22 de Junio de 1709
Resumo:
Alcance y contenido: Copia ms. sin firmar de un oficio envíado por el Subdelegado en Valencia de la "Colecturía general de espolios y vacantes", ramo Inquisición, organismo creado en Madrid en 1753, unida a la Comisaría general de Cruzada, aunque con función independiente y jurisdicción especial. El Colector General, tenía subdelegados en todas las diócesis. Esta Colecturía se suprimió en 1851. El subdelegado le reclama tanto al Regente de la Real Audiencia de Valencia, como al Rector de la Universidad Literaria la protectoría del Colegio de los Santos Reyes de Villena por ser una institución perteneciente a la Inquisición.
Resumo:
Contiene: Breve de Papa Benedicto XIV dado en Roma el dia 12 de marzo de 1742, confirmando la licencia a los enfermos para poder comer carne los dias de ayuno preceptivo.
Resumo:
La globalización, en las últimas décadas, ha tenido una amplia repercusión e influencia sobre la evolución de los procesos que intervienen en la gestión y la ordenación urbano-territorial. Esta influencia ha sido especialmente destacable en los procesos de conformación de las Ciudades Globales (CG). No obstante, dentro de los procesos actuales, y de los ya iniciados décadas atrás, se encuentran discordancias tanto con respecto a los modelos de gestión urbanoterritoriales como con relación a los procesos de conformación de las CG. Esto es debido a que cada territorio o CG no ha seguido un proceso homogéneo; sino que, a través del modelo empresarial de la “Planificación Estratégica” (PE) cada proceso ha sido adaptado para poder atender y potenciar las características más singulares de cada territorio, y de esta forma, poder alcanzar las ambiciosas posiciones de liderazgo. Por este motivo, el éxito de la PE se ha basado en simplificar la complejidad de los modelos y agentes que participan en los procesos de conformación de los territorios y ciudades globales. En esta investigación se propone analizar el valor de la PE como proceso de gestión y ordenación urbano-territorial; al igual que se pretende esclarecer tanto los modelos como los elementos de los que se compone. Para, poder así, identificar las relaciones que se producen entre los modelos y elementos principales de los que se compone una PE. Por motivos relacionados con la necesaria acotación de toda investigación, y mediante el apoyo de tanto el tutor de esta investigación como de expertos externos consultados, se ha acordado analizar los aspectos más característicos del proceso estratégico, como son: los territoriales, los económicos y los de gobernanza. Esta investigación se ha llevado a cabo a través del uso del método estudio de casos, mediante un proceso de recogida de información compuesto por dos estudios de campo, Singapur y Dubái, con similitudes tanto en el proceso como en los resultados. También se han realizado consultas a expertos multidisciplinares, cuya información y aportaciones se han articulado y procesado mediante la utilización del sistema de análisis de realidades complejas, presentado en el marco conceptual. Los resultados del estudio de los casos de Singapur y de Dubái muestran como las acciones urbano-territoriales que se han llevado a cabo en ambas ciudades y en sus territorios circundantes son consecuencia del uso de la planificación estratégica en beneficio de un mejor posicionamiento dentro del contexto global. De esta forma, mediante el análisis de las asimetrías y de las relaciones existentes entre el proceso, los casos de estudio y el contexto global, se identifica y se esclarece los términos relacionados con las ciudades globales referentes, consolidadas y emergentes. A su vez, a lo largo del marco conceptual se correlaciona y esclarece los procesos territoriales, económicos y de gobernanza, identificando las responsabilidades entre las instituciones, los organismos, los agentes y los actores (tanto públicos como privados) que inician y gestionan tanto el plan estratégico como los procesos derivados de él. Para finalizar, el análisis cruzado de los resultados demuestra la relación existente entre la planificación estratégica, la ordenación urbano-territorial, la gestión económica y la gobernanza. Pudiéndose identifican las asimetrías producidas durante la implantación de un plan estratégico, de forma que, tras un análisis del sistema de realidades complejas, estas asimetrías puedan ser solventadas. RESUMO Nas últimas décadas, a globalização tem tido um grande impacto sobre a evolução dos processos de gestão e planejamento urbano-territorial. Essa influência foi particularmente notável nos processos de formação das cidades globais (CG). No entanto, comparando os processos atuais e aqueles iniciados há décadas, as discrepâncias são encontradas tanto no que diz respeito aos modelos de uso do solo urbano, como em relação aos processos de formação e gestão das CG. Isso ocorre porque cada território ou CG não tem seguido um processo uniforme; mas, por meio do modelo de negócios de "Planejamento Estratégico" (PE) cada processo foi adaptado para servir e melhorar as características mais singulares de cada território para alcançar posições de liderança global. Portanto, o sucesso do PE é baseado na simplificação da complexidade dos modelos e atores envolvidos nos processos de formação dos territórios e das cidades globais. Esta pesquisa tem como objetivo analisar o valor do PE como um processo de gestão territorial e urbana; como também esclarecer os modelos e elementos do PE estudados. Para, então, poder identificar as relações que ocorrem entre os modelos e os principais elementos integrantes de um PE. Como recorte de pesquisa, após consultas com o tutor da pesquisa e com outros pesquisadores especialistas, decidiu-se analisar os aspectos mais característicos do processo estratégico, sendo eles: os territoriais, os econômicos e os de governabilidade. Esta pesquisa ’e um estudo de casos. Para realizá-lo, foram escolhidos dois estudos de campo (Dubai e Cingapura) e além de consultas com especialistas multidisciplinares, cujas informações e colaborações foram analisadas por um sistema de analise de realidades complexas, explicado na parte conceitual dessa tese. Os resultados do estudo dos casos de Dubai e Cingapura mostra como as ações urbanoterritoriais que foram realizadas em ambas cidades e em seus territórios circundantes são resultado do uso do planejamento estratégico em prol de uma melhor localização no contexto global. Assim, através da análise das assimetrias e da relação entre o processo, os estudos de caso e o contexto global, identifica-se e esclarece os termos relacionados com as cidades globais referentes, consolidadas e emergentes. Também, no arcabouço conceitual correlacionase e esclarecem-se os processos econômicos, territoriais e de governabilidade, identificando as responsabilidades das instituições, agências, agentes e atores (públicos e privados), que iniciam e gerenciam tanto o plano estratégico, como os processos derivados. A análise cruzada dos resultados demonstra a relação entre o planejamento estratégico, o planejamento urbano-territorial, a gestão econômica e a governabilidade. A pesquisa é capaz de identificar as assimetrias produzidas durante a implementação de um plano estratégico, para que depois da análise do sistema de realidades complexas, essas assimetrias possam ser resolvidas. ABSTRACT Globalization, in recent decades, has had a wide impact and influence on the evolution of the processes involved in the urban planning management. This influence has been particularly notable in the formation processes for the Global Cities (GC). However, within the current processes, even in those started decades ago, discrepancies are found between the urbanterritorial models and their relation to the processes of formation for the CG. This is because each territory, or CG, has not followed a uniform process; although, each process has been adapted through the business model of the "Strategic Planning" (SP) to serve and enhance the most unique characteristics of each urban territory, until reaching the ambitious global leadership positions. Therefore, the success of SP is based on simplifying the complexity of the models and actors involved in the processes of formation of the GCs and territories. This research aims to analyze the value of SP as a process for the urban and territorial management; intended to clarify both models and elements of which it is composed. And, for so, identify the relationships that occur between them. For reasons related to the required limits of all research, and through the support of this research by both the tutor and the consulted outside experts, has agreed to analyze the most characteristic aspects of the strategic process, which are: territory, economy and governance. This research was conducted through the use of the case study methodology; by a process of information collection of two field studies, Singapore and Dubai, with similarities in both the process and the results; and through consultation with a variety of multidisciplinary experts. Whose information and input has been articulated and processed by the use of a system prepared for the complex analysis of realities presented in the research’s conceptual framework. Thus, analyzing the asymmetries and relationship between the results of the study cases of Singapore and Dubai, have shown how the urban-territorial actions, which have been carried out in both cities and in their surrounding territories, are the result of the use of the strategic planning process for the benefit of a better position with respect to the global context. Meanwhile, along the conceptual framework correlates and clarifies the territorial, economic and governance processes, identifying responsibilities between the institutions, agencies, agents and actors (public and private) that initiate and manage both strategic planning and processes derived from it. Finally, the cross-analysis of the results shows the relationship between strategic planning, urban and territorial planning, economic management and governance. Being able to identify and eliminate the asymmetries produced during the implementation of a strategic planning for the formation of a Global City.
Resumo:
El estudio de los ciclos del combustible nuclear requieren de herramientas computacionales o "códigos" versátiles para dar respuestas al problema multicriterio de evaluar los actuales ciclos o las capacidades de las diferentes estrategias y escenarios con potencial de desarrollo en a nivel nacional, regional o mundial. Por otra parte, la introducción de nuevas tecnologías para reactores y procesos industriales hace que los códigos existentes requieran nuevas capacidades para evaluar la transición del estado actual del ciclo del combustible hacia otros más avanzados y sostenibles. Brevemente, esta tesis se centra en dar respuesta a las principales preguntas, en términos económicos y de recursos, al análisis de escenarios de ciclos de combustible, en particular, para el análisis de los diferentes escenarios del ciclo del combustible de relativa importancia para España y Europa. Para alcanzar este objetivo ha sido necesaria la actualización y el desarrollo de nuevas capacidades del código TR_EVOL (Transition Evolution code). Este trabajo ha sido desarrollado en el Programa de Innovación Nuclear del CIEMAT desde el año 2010. Esta tesis se divide en 6 capítulos. El primer capítulo ofrece una visión general del ciclo de combustible nuclear, sus principales etapas y los diferentes tipos utilizados en la actualidad o en desarrollo para el futuro. Además, se describen las fuentes de material nuclear que podrían ser utilizadas como combustible (uranio y otros). También se puntualizan brevemente una serie de herramientas desarrolladas para el estudio de estos ciclos de combustible nuclear. El capítulo 2 está dirigido a dar una idea básica acerca de los costes involucrados en la generación de electricidad mediante energía nuclear. Aquí se presentan una clasificación de estos costos y sus estimaciones, obtenidas en la bibliografía, y que han sido evaluadas y utilizadas en esta tesis. Se ha incluido también una breve descripción del principal indicador económico utilizado en esta tesis, el “coste nivelado de la electricidad”. El capítulo 3 se centra en la descripción del código de simulación desarrollado para el estudio del ciclo del combustible nuclear, TR_EVOL, que ha sido diseñado para evaluar diferentes opciones de ciclos de combustibles. En particular, pueden ser evaluados las diversos reactores con, posiblemente, diferentes tipos de combustibles y sus instalaciones del ciclo asociadas. El módulo de evaluaciones económica de TR_EVOL ofrece el coste nivelado de la electricidad haciendo uso de las cuatro fuentes principales de información económica y de la salida del balance de masas obtenido de la simulación del ciclo en TR_EVOL. Por otra parte, la estimación de las incertidumbres en los costes también puede ser efectuada por el código. Se ha efectuado un proceso de comprobación cruzada de las funcionalidades del código y se descrine en el Capítulo 4. El proceso se ha aplicado en cuatro etapas de acuerdo con las características más importantes de TR_EVOL, balance de masas, composición isotópica y análisis económico. Así, la primera etapa ha consistido en el balance masas del ciclo de combustible nuclear actual de España. La segunda etapa se ha centrado en la comprobación de la composición isotópica del flujo de masas mediante el la simulación del ciclo del combustible definido en el proyecto CP-ESFR UE. Las dos últimas etapas han tenido como objetivo validar el módulo económico. De este modo, en la tercera etapa han sido evaluados los tres principales costes (financieros, operación y mantenimiento y de combustible) y comparados con los obtenidos por el proyecto ARCAS, omitiendo los costes del fin del ciclo o Back-end, los que han sido evaluado solo en la cuarta etapa, haciendo uso de costes unitarios y parámetros obtenidos a partir de la bibliografía. En el capítulo 5 se analizan dos grupos de opciones del ciclo del combustible nuclear de relevante importancia, en términos económicos y de recursos, para España y Europa. Para el caso español, se han simulado dos grupos de escenarios del ciclo del combustible, incluyendo estrategias de reproceso y extensión de vida de los reactores. Este análisis se ha centrado en explorar las ventajas y desventajas de reprocesado de combustible irradiado en un país con una “relativa” pequeña cantidad de reactores nucleares. Para el grupo de Europa se han tratado cuatro escenarios, incluyendo opciones de transmutación. Los escenarios incluyen los reactores actuales utilizando la tecnología reactor de agua ligera y ciclo abierto, un reemplazo total de los reactores actuales con reactores rápidos que queman combustible U-Pu MOX y dos escenarios del ciclo del combustible con transmutación de actínidos minoritarios en una parte de los reactores rápidos o en sistemas impulsados por aceleradores dedicados a transmutación. Finalmente, el capítulo 6 da las principales conclusiones obtenidas de esta tesis y los trabajos futuros previstos en el campo del análisis de ciclos de combustible nuclear. ABSTRACT The study of the nuclear fuel cycle requires versatile computational tools or “codes” to provide answers to the multicriteria problem of assessing current nuclear fuel cycles or the capabilities of different strategies and scenarios with potential development in a country, region or at world level. Moreover, the introduction of new technologies for reactors and industrial processes makes the existing codes to require new capabilities to assess the transition from current status of the fuel cycle to the more advanced and sustainable ones. Briefly, this thesis is focused in providing answers to the main questions about resources and economics in fuel cycle scenario analyses, in particular for the analysis of different fuel cycle scenarios with relative importance for Spain and Europe. The upgrade and development of new capabilities of the TR_EVOL code (Transition Evolution code) has been necessary to achieve this goal. This work has been developed in the Nuclear Innovation Program at CIEMAT since year 2010. This thesis is divided in 6 chapters. The first one gives an overview of the nuclear fuel cycle, its main stages and types currently used or in development for the future. Besides the sources of nuclear material that could be used as fuel (uranium and others) are also viewed here. A number of tools developed for the study of these nuclear fuel cycles are also briefly described in this chapter. Chapter 2 is aimed to give a basic idea about the cost involved in the electricity generation by means of the nuclear energy. The main classification of these costs and their estimations given by bibliography, which have been evaluated in this thesis, are presented. A brief description of the Levelized Cost of Electricity, the principal economic indicator used in this thesis, has been also included. Chapter 3 is focused on the description of the simulation tool TR_EVOL developed for the study of the nuclear fuel cycle. TR_EVOL has been designed to evaluate different options for the fuel cycle scenario. In particular, diverse nuclear power plants, having possibly different types of fuels and the associated fuel cycle facilities can be assessed. The TR_EVOL module for economic assessments provides the Levelized Cost of Electricity making use of the TR_EVOL mass balance output and four main sources of economic information. Furthermore, uncertainties assessment can be also carried out by the code. A cross checking process of the performance of the code has been accomplished and it is shown in Chapter 4. The process has been applied in four stages according to the most important features of TR_EVOL. Thus, the first stage has involved the mass balance of the current Spanish nuclear fuel cycle. The second stage has been focused in the isotopic composition of the mass flow using the fuel cycle defined in the EU project CP-ESFR. The last two stages have been aimed to validate the economic module. In the third stage, the main three generation costs (financial cost, O&M and fuel cost) have been assessed and compared to those obtained by ARCAS project, omitting the back-end costs. This last cost has been evaluated alone in the fourth stage, making use of some unit cost and parameters obtained from the bibliography. In Chapter 5 two groups of nuclear fuel cycle options with relevant importance for Spain and Europe are analyzed in economic and resources terms. For the Spanish case, two groups of fuel cycle scenarios have been simulated including reprocessing strategies and life extension of the current reactor fleet. This analysis has been focused on exploring the advantages and disadvantages of spent fuel reprocessing in a country with relatively small amount of nuclear power plants. For the European group, four fuel cycle scenarios involving transmutation options have been addressed. Scenarios include the current fleet using Light Water Reactor technology and open fuel cycle, a full replacement of the initial fleet with Fast Reactors burning U-Pu MOX fuel and two fuel cycle scenarios with Minor Actinide transmutation in a fraction of the FR fleet or in dedicated Accelerator Driven Systems. Finally, Chapter 6 gives the main conclusions obtained from this thesis and the future work foreseen in the field of nuclear fuel cycle analysis.
Resumo:
Sign. : []1, A-L2
Resumo:
Existe un ejemplar encuadernado dentro del volumen facticio XVIII/1829
Resumo:
Texto fechado en Valencia, 1679
Resumo:
El objetivo principal de esta tesis doctoral es profundizar en el análisis y diseño de un sistema inteligente para la predicción y control del acabado superficial en un proceso de fresado a alta velocidad, basado fundamentalmente en clasificadores Bayesianos, con el prop´osito de desarrollar una metodolog´ıa que facilite el diseño de este tipo de sistemas. El sistema, cuyo propósito es posibilitar la predicción y control de la rugosidad superficial, se compone de un modelo aprendido a partir de datos experimentales con redes Bayesianas, que ayudar´a a comprender los procesos dinámicos involucrados en el mecanizado y las interacciones entre las variables relevantes. Dado que las redes neuronales artificiales son modelos ampliamente utilizados en procesos de corte de materiales, también se incluye un modelo para fresado usándolas, donde se introdujo la geometría y la dureza del material como variables novedosas hasta ahora no estudiadas en este contexto. Por lo tanto, una importante contribución en esta tesis son estos dos modelos para la predicción de la rugosidad superficial, que se comparan con respecto a diferentes aspectos: la influencia de las nuevas variables, los indicadores de evaluación del desempeño, interpretabilidad. Uno de los principales problemas en la modelización con clasificadores Bayesianos es la comprensión de las enormes tablas de probabilidad a posteriori producidas. Introducimos un m´etodo de explicación que genera un conjunto de reglas obtenidas de árboles de decisión. Estos árboles son inducidos a partir de un conjunto de datos simulados generados de las probabilidades a posteriori de la variable clase, calculadas con la red Bayesiana aprendida a partir de un conjunto de datos de entrenamiento. Por último, contribuimos en el campo multiobjetivo en el caso de que algunos de los objetivos no se puedan cuantificar en números reales, sino como funciones en intervalo de valores. Esto ocurre a menudo en aplicaciones de aprendizaje automático, especialmente las basadas en clasificación supervisada. En concreto, se extienden las ideas de dominancia y frontera de Pareto a esta situación. Su aplicación a los estudios de predicción de la rugosidad superficial en el caso de maximizar al mismo tiempo la sensibilidad y la especificidad del clasificador inducido de la red Bayesiana, y no solo maximizar la tasa de clasificación correcta. Los intervalos de estos dos objetivos provienen de un m´etodo de estimación honesta de ambos objetivos, como e.g. validación cruzada en k rodajas o bootstrap.---ABSTRACT---The main objective of this PhD Thesis is to go more deeply into the analysis and design of an intelligent system for surface roughness prediction and control in the end-milling machining process, based fundamentally on Bayesian network classifiers, with the aim of developing a methodology that makes easier the design of this type of systems. The system, whose purpose is to make possible the surface roughness prediction and control, consists of a model learnt from experimental data with the aid of Bayesian networks, that will help to understand the dynamic processes involved in the machining and the interactions among the relevant variables. Since artificial neural networks are models widely used in material cutting proceses, we include also an end-milling model using them, where the geometry and hardness of the piecework are introduced as novel variables not studied so far within this context. Thus, an important contribution in this thesis is these two models for surface roughness prediction, that are then compared with respecto to different aspects: influence of the new variables, performance evaluation metrics, interpretability. One of the main problems with Bayesian classifier-based modelling is the understanding of the enormous posterior probabilitiy tables produced. We introduce an explanation method that generates a set of rules obtained from decision trees. Such trees are induced from a simulated data set generated from the posterior probabilities of the class variable, calculated with the Bayesian network learned from a training data set. Finally, we contribute in the multi-objective field in the case that some of the objectives cannot be quantified as real numbers but as interval-valued functions. This often occurs in machine learning applications, especially those based on supervised classification. Specifically, the dominance and Pareto front ideas are extended to this setting. Its application to the surface roughness prediction studies the case of maximizing simultaneously the sensitivity and specificity of the induced Bayesian network classifier, rather than only maximizing the correct classification rate. Intervals in these two objectives come from a honest estimation method of both objectives, like e.g. k-fold cross-validation or bootstrap.
Resumo:
El auge del "Internet de las Cosas" (IoT, "Internet of Things") y sus tecnologías asociadas han permitido su aplicación en diversos dominios de la aplicación, entre los que se encuentran la monitorización de ecosistemas forestales, la gestión de catástrofes y emergencias, la domótica, la automatización industrial, los servicios para ciudades inteligentes, la eficiencia energética de edificios, la detección de intrusos, la gestión de desastres y emergencias o la monitorización de señales corporales, entre muchas otras. La desventaja de una red IoT es que una vez desplegada, ésta queda desatendida, es decir queda sujeta, entre otras cosas, a condiciones climáticas cambiantes y expuestas a catástrofes naturales, fallos de software o hardware, o ataques maliciosos de terceros, por lo que se puede considerar que dichas redes son propensas a fallos. El principal requisito de los nodos constituyentes de una red IoT es que estos deben ser capaces de seguir funcionando a pesar de sufrir errores en el propio sistema. La capacidad de la red para recuperarse ante fallos internos y externos inesperados es lo que se conoce actualmente como "Resiliencia" de la red. Por tanto, a la hora de diseñar y desplegar aplicaciones o servicios para IoT, se espera que la red sea tolerante a fallos, que sea auto-configurable, auto-adaptable, auto-optimizable con respecto a nuevas condiciones que puedan aparecer durante su ejecución. Esto lleva al análisis de un problema fundamental en el estudio de las redes IoT, el problema de la "Conectividad". Se dice que una red está conectada si todo par de nodos en la red son capaces de encontrar al menos un camino de comunicación entre ambos. Sin embargo, la red puede desconectarse debido a varias razones, como que se agote la batería, que un nodo sea destruido, etc. Por tanto, se hace necesario gestionar la resiliencia de la red con el objeto de mantener la conectividad entre sus nodos, de tal manera que cada nodo IoT sea capaz de proveer servicios continuos, a otros nodos, a otras redes o, a otros servicios y aplicaciones. En este contexto, el objetivo principal de esta tesis doctoral se centra en el estudio del problema de conectividad IoT, más concretamente en el desarrollo de modelos para el análisis y gestión de la Resiliencia, llevado a la práctica a través de las redes WSN, con el fin de mejorar la capacidad la tolerancia a fallos de los nodos que componen la red. Este reto se aborda teniendo en cuenta dos enfoques distintos, por una parte, a diferencia de otro tipo de redes de dispositivos convencionales, los nodos en una red IoT son propensos a perder la conexión, debido a que se despliegan en entornos aislados, o en entornos con condiciones extremas; por otra parte, los nodos suelen ser recursos con bajas capacidades en términos de procesamiento, almacenamiento y batería, entre otros, por lo que requiere que el diseño de la gestión de su resiliencia sea ligero, distribuido y energéticamente eficiente. En este sentido, esta tesis desarrolla técnicas auto-adaptativas que permiten a una red IoT, desde la perspectiva del control de su topología, ser resiliente ante fallos en sus nodos. Para ello, se utilizan técnicas basadas en lógica difusa y técnicas de control proporcional, integral y derivativa (PID - "proportional-integral-derivative"), con el objeto de mejorar la conectividad de la red, teniendo en cuenta que el consumo de energía debe preservarse tanto como sea posible. De igual manera, se ha tenido en cuenta que el algoritmo de control debe ser distribuido debido a que, en general, los enfoques centralizados no suelen ser factibles a despliegues a gran escala. El presente trabajo de tesis implica varios retos que conciernen a la conectividad de red, entre los que se incluyen: la creación y el análisis de modelos matemáticos que describan la red, una propuesta de sistema de control auto-adaptativo en respuesta a fallos en los nodos, la optimización de los parámetros del sistema de control, la validación mediante una implementación siguiendo un enfoque de ingeniería del software y finalmente la evaluación en una aplicación real. Atendiendo a los retos anteriormente mencionados, el presente trabajo justifica, mediante una análisis matemático, la relación existente entre el "grado de un nodo" (definido como el número de nodos en la vecindad del nodo en cuestión) y la conectividad de la red, y prueba la eficacia de varios tipos de controladores que permiten ajustar la potencia de trasmisión de los nodos de red en respuesta a eventuales fallos, teniendo en cuenta el consumo de energía como parte de los objetivos de control. Así mismo, este trabajo realiza una evaluación y comparación con otros algoritmos representativos; en donde se demuestra que el enfoque desarrollado es más tolerante a fallos aleatorios en los nodos de la red, así como en su eficiencia energética. Adicionalmente, el uso de algoritmos bioinspirados ha permitido la optimización de los parámetros de control de redes dinámicas de gran tamaño. Con respecto a la implementación en un sistema real, se han integrado las propuestas de esta tesis en un modelo de programación OSGi ("Open Services Gateway Initiative") con el objeto de crear un middleware auto-adaptativo que mejore la gestión de la resiliencia, especialmente la reconfiguración en tiempo de ejecución de componentes software cuando se ha producido un fallo. Como conclusión, los resultados de esta tesis doctoral contribuyen a la investigación teórica y, a la aplicación práctica del control resiliente de la topología en redes distribuidas de gran tamaño. Los diseños y algoritmos presentados pueden ser vistos como una prueba novedosa de algunas técnicas para la próxima era de IoT. A continuación, se enuncian de forma resumida las principales contribuciones de esta tesis: (1) Se han analizado matemáticamente propiedades relacionadas con la conectividad de la red. Se estudia, por ejemplo, cómo varía la probabilidad de conexión de la red al modificar el alcance de comunicación de los nodos, así como cuál es el mínimo número de nodos que hay que añadir al sistema desconectado para su re-conexión. (2) Se han propuesto sistemas de control basados en lógica difusa para alcanzar el grado de los nodos deseado, manteniendo la conectividad completa de la red. Se han evaluado diferentes tipos de controladores basados en lógica difusa mediante simulaciones, y los resultados se han comparado con otros algoritmos representativos. (3) Se ha investigado más a fondo, dando un enfoque más simple y aplicable, el sistema de control de doble bucle, y sus parámetros de control se han optimizado empleando algoritmos heurísticos como el método de la entropía cruzada (CE, "Cross Entropy"), la optimización por enjambre de partículas (PSO, "Particle Swarm Optimization"), y la evolución diferencial (DE, "Differential Evolution"). (4) Se han evaluado mediante simulación, la mayoría de los diseños aquí presentados; además, parte de los trabajos se han implementado y validado en una aplicación real combinando técnicas de software auto-adaptativo, como por ejemplo las de una arquitectura orientada a servicios (SOA, "Service-Oriented Architecture"). ABSTRACT The advent of the Internet of Things (IoT) enables a tremendous number of applications, such as forest monitoring, disaster management, home automation, factory automation, smart city, etc. However, various kinds of unexpected disturbances may cause node failure in the IoT, for example battery depletion, software/hardware malfunction issues and malicious attacks. So, it can be considered that the IoT is prone to failure. The ability of the network to recover from unexpected internal and external failures is known as "resilience" of the network. Resilience usually serves as an important non-functional requirement when designing IoT, which can further be broken down into "self-*" properties, such as self-adaptive, self-healing, self-configuring, self-optimization, etc. One of the consequences that node failure brings to the IoT is that some nodes may be disconnected from others, such that they are not capable of providing continuous services for other nodes, networks, and applications. In this sense, the main objective of this dissertation focuses on the IoT connectivity problem. A network is regarded as connected if any pair of different nodes can communicate with each other either directly or via a limited number of intermediate nodes. More specifically, this thesis focuses on the development of models for analysis and management of resilience, implemented through the Wireless Sensor Networks (WSNs), which is a challenging task. On the one hand, unlike other conventional network devices, nodes in the IoT are more likely to be disconnected from each other due to their deployment in a hostile or isolated environment. On the other hand, nodes are resource-constrained in terms of limited processing capability, storage and battery capacity, which requires that the design of the resilience management for IoT has to be lightweight, distributed and energy-efficient. In this context, the thesis presents self-adaptive techniques for IoT, with the aim of making the IoT resilient against node failures from the network topology control point of view. The fuzzy-logic and proportional-integral-derivative (PID) control techniques are leveraged to improve the network connectivity of the IoT in response to node failures, meanwhile taking into consideration that energy consumption must be preserved as much as possible. The control algorithm itself is designed to be distributed, because the centralized approaches are usually not feasible in large scale IoT deployments. The thesis involves various aspects concerning network connectivity, including: creation and analysis of mathematical models describing the network, proposing self-adaptive control systems in response to node failures, control system parameter optimization, implementation using the software engineering approach, and evaluation in a real application. This thesis also justifies the relations between the "node degree" (the number of neighbor(s) of a node) and network connectivity through mathematic analysis, and proves the effectiveness of various types of controllers that can adjust power transmission of the IoT nodes in response to node failures. The controllers also take into consideration the energy consumption as part of the control goals. The evaluation is performed and comparison is made with other representative algorithms. The simulation results show that the proposals in this thesis can tolerate more random node failures and save more energy when compared with those representative algorithms. Additionally, the simulations demonstrate that the use of the bio-inspired algorithms allows optimizing the parameters of the controller. With respect to the implementation in a real system, the programming model called OSGi (Open Service Gateway Initiative) is integrated with the proposals in order to create a self-adaptive middleware, especially reconfiguring the software components at runtime when failures occur. The outcomes of this thesis contribute to theoretic research and practical applications of resilient topology control for large and distributed networks. The presented controller designs and optimization algorithms can be viewed as novel trials of the control and optimization techniques for the coming era of the IoT. The contributions of this thesis can be summarized as follows: (1) Mathematically, the fault-tolerant probability of a large-scale stochastic network is analyzed. It is studied how the probability of network connectivity depends on the communication range of the nodes, and what is the minimum number of neighbors to be added for network re-connection. (2) A fuzzy-logic control system is proposed, which obtains the desired node degree and in turn maintains the network connectivity when it is subject to node failures. There are different types of fuzzy-logic controllers evaluated by simulations, and the results demonstrate the improvement of fault-tolerant capability as compared to some other representative algorithms. (3) A simpler but more applicable approach, the two-loop control system is further investigated, and its control parameters are optimized by using some heuristic algorithms such as Cross Entropy (CE), Particle Swarm Optimization (PSO), and Differential Evolution (DE). (4) Most of the designs are evaluated by means of simulations, but part of the proposals are implemented and tested in a real-world application by combining the self-adaptive software technique and the control algorithms which are presented in this thesis.
Resumo:
La radioterapia intraoperatoria (RIO) con electrones es una modalidad de tratamiento contra el cáncer que combina cirugía y radiación terapéutica aplicada a un tumor sin resecar o al lecho tumoral después de una resección. Este tratamiento se planifica con una imagen preoperatoria del paciente. Sería adecuado incluir en la planificación información acerca de la superficie del lecho tumoral ya que la acumulación de fluidos, las superficies cóncavas y las irregularidades en la superficie irradiada modifican significativamente la distribución de la dosis. Existen diversos escáneres de superficie pero el que mejor se podría adaptar al entorno de la RIO sería el que utiliza un dispositivo de holografía conoscópica (ConoProbe, Optimet Metrology Ltd.) ya que permite realizar medidas de distancias en cavidades, en superficies reflectantes y en tejidos biológicos. La holografía conoscópica es una técnica de interferometría basada en la propagación de la luz en cristales birrefringentes. Para obtener las coordenadas 3D de los puntos de la superficie barridos por el dispositivo ConoProbe es necesario utilizar un sistema de posicionamiento como el que se utiliza en el quirófano de la RIO para localizar el aplicador de RIO con el que se conduce el haz de electrones (sistema de posicionamiento óptico OptiTrack, NaturalPoint Inc.). El objetivo de este proyecto fin de grado consistió en desarrollar un sistema de escaneado de superficies y realizar diversas pruebas para evaluar la calidad del sistema desarrollado y su viabilidad en el entorno de la RIO. Para integrar la información del dispositivo ConoProbe y del sistema de posicionamiento OptiTrack se realizó una calibración temporal para sincronizar los datos de ambos dispositivos utilizando la función de correlación cruzada y una calibración espacial para transformar la distancia medida por el dispositivo ConoProbe en coordenadas 3D de la superficie del objeto escaneado. Se plantearon dos métodos para realizar esta calibración espacial, por ajuste de pares de puntos y por ajuste a un plano. La calibración espacial elegida fue la primera ya que presentaba menor error. El error del sistema es inferior a 2 mm siendo un error aceptable en el entorno de la RIO. Diferentes pruebas con diversos materiales y formas han permitido comprobar que el sistema de escaneado funciona incluso con líquidos. En un procedimiento de RIO, el escaneado de la superficie se haría después de colocar el aplicador. En este caso, se puede obtener también la superficie del objeto alrededor de centro del aplicador colocando verticalmente el dispositivo ConoProbe. Es complicado obtener la superficie próxima a las paredes del aplicador debido a que estas afectan al cono de luz reflejado. De todas formas, el sistema de escaneado desarrollado proporciona más información en este escenario que un sistema de escáner 3D de luz estructurada (no se podría escanear nada de la superficie con el aplicador colocado). Esta información es útil para la estimación de la distribución de la dosis real que recibe un paciente en un procedimiento de RIO.
Resumo:
Esta Tesis doctoral fue desarrollada para estudiar las emisiones de amoniaco (NH3) y metano (CH4) en purines de cerdos, y los efectos ocasionados por cambios en la formulación de la dieta. Con este propósito, fueron llevados a cabo tres estudios. El experimento 1 fue realizado con el objetivo de analizar los factores de variación de la composición de purines y establecer ecuaciones de predicción para emisiones potenciales de NH3 y CH4. Fueron recogidas setenta y nueve muestras de piensos y purines durante dos estaciones del año (verano y invierno) de granjas comerciales situadas en dos regiones de España (Centro y Mediterráneo). Se muestrearon granjas de gestación, maternidad, lactación y cebo. Se determinó la composición de piensos y purines, y la emisión potencial de NH3 y CH4. El contenido de nutrientes de los piensos fue usado como covariable en el análisis. La espectroscopia de reflectancia del infrarrojo cercano (NIRS) se evaluó como herramienta de predicción de la composición y potencial emisión de gases del purín. Se encontró una amplia variabilidad en la composición de piensos y purines. Las granjas del Mediterráneo tenían mayor pH (P<0,001) y concentración de cenizas (P =0,02) en el purín que las del Centro. El tipo de granja también afectó al contenido de extracto etéreo (EE) del purín (P =0,02), observando los valores más elevados en las instalaciones de animales jóvenes. Los resultados sugieren un efecto tampón de la fibra de la dieta en el pH del purín y una relación directa (P<0,05) con el contenido de fibra fecal. El contenido de proteína del pienso no afectó al contenido de nitrógeno del purín, pero disminuyó (P=0,003) la concentración de sólidos totales (ST) y de sólidos volátiles (SV). Se obtuvieron modelos de predicción de la emisión potencial de NH3 (R2=0,89) y CH4 (R2=0,61) partir de la composición del purín. Los espectros NIRS mostraron una buena precisión para la estimación de la mayor parte de los constituyentes, con coeficientes de determinación de validación cruzada (R2cv) superiores a 0,90, así como para la predicción del potencial de emisiones de NH3 y CH4 (R2cv=0,84 y 0,68, respectivamente). El experimento 2 fue realizado para investigar los efectos del nivel de inclusión de dos fuentes de sub-productos fibrosos: pulpa de naranja (PN) y pulpa de algarroba (PA), en dietas iso-fibrosas de cerdos de cebo, sobre la composición del purín y las emisiones potenciales de NH3 y CH4. Treinta cerdos (85,4±12,3 kg) fueron alimentados con cinco dietas iso-nutritivas: control comercial trigo/cebada (C) y cuatro dietas experimentales incluyendo las dos fuentes de sub-productos a dos niveles (75 y 150 g/kg) en una estructura 2 × 2 factorial. Después de 14 días de periodo de adaptación, heces y orina fueron recogidas separadamente durante 7 días para medir la digestibilidad de los nutrientes y el nitrógeno (N) excretado (6 réplicas por dieta) en cerdos alojados individualmente en jaulas metabólicas. Las emisiones de NH3 y CH4 fueron medidas después de la recogida de los purínes durante 11 y 100 días respectivamente. La fuente y el nivel de subproductos fibrosos afectó a la eficiencia digestiva de diferentes formas, ya que los coeficientes de digestibilidad total aparente (CDTA) para la materia seca (MS), materia orgánica (MO), fracciones fibrosas y energía bruta (EB) aumentaron con la PN pero disminuyeron con la inclusión de PA (P<0,05). El CDTA de proteína bruta (PB) disminuyó con la inclusión de las dos fuentes de fibra, siendo más bajo al mayor nivel de inclusión. La concentración fecal de fracciones fibrosas aumentó (P<0,05) con el nivel de inclusión de PA pero disminuyó con el de PN (P<0,01). El nivel más alto de las dos fuentes de fibra en el pienso aumentó (P<0,02) el contenido de PB fecal pero disminuyó el contenido de N de la orina (de 205 para 168 g/kg MS, P<0,05) en todas las dietas suplementadas comparadas con la dieta C. Adicionalmente, las proporciones de nitrógeno indigerido, nitrógeno soluble en agua, nitrógeno bacteriano y endógeno excretado en heces no fueron afectados por los tratamientos. Las características iniciales del purín no difirieron entre las diferentes fuentes y niveles de fibra, excepto para el pH que disminuyó con la inclusión de altos niveles de sub-productos. La emisión de NH3 por kg de purín fue más baja en todas las dietas suplementadas con fibras que en la dieta C (2,44 vs.1,81g de promedio, P<0,05). Además, purines de dietas suplementadas con alto nivel de sub-productos tendieron (P<0,06) a emitir menos NH3 por kg de nitrógeno total y mostraron un potencial más bajo para emitir CH4, independientemente de la fuente de fibra. El experimento 3 investigó los efectos de la fuente de proteína en dietas prácticas. Tres piensos experimentales fueron diseñados para sustituir una mescla de harina y cascarilla de soja (SOJ) por harina de girasol (GIR) o por DDGS del trigo (DDGST). La proporción de otros ingredientes fue modificada para mantener los contenidos de nutrientes similares a través de las dietas. El cambio en la fuente de proteína dio lugar a diferencias en el contenido de fibra neutro detergente ligada a proteína bruta (FNDPB), fibra soluble (FS) y lignina ácido detergente (LAD) en la dieta. Veinticuatro cerdos (ocho por dieta), con 52,3 o 60,8 kg en la primera y segunda tanda respectivamente, fueron alojados individualmente en jaulas metabólicas. Durante un periodo de 7 días fue determinado el balance de MS, el CDTA de los nutrientes y la composición de heces y orina. Se realizó el mismo procedimiento del experimento 2 para medir las emisiones de NH3 y CH4 de los purines de cada animal. Ni la ingestión de MS ni el CDTA de la MS o de la energía fueron diferentes entre las dietas experimentales, pero el tipo de pienso afectó (P<0.001) la digestibilidad de la PB, que fue mayor para GIR (0,846) que para SOJ (0,775), mientras que la dieta DDGST mostró un valor intermedio (0,794). La concentración fecal de PB fue por tanto influenciada (P<0,001) por el tratamiento, observándose la menor concentración de PB en la dieta GIR y la mayor en la dieta SOJ. La proporción de N excretado en orina o heces disminuyó de 1,63 en la dieta GIR hasta 0,650 en la dieta SOJ, como consecuencia de perdidas más bajas en orina y más altas en heces, con todas las fracciones de nitrógeno fecales creciendo en paralelo a la excreción total. Este resultado fue paralelo a una disminución de la emisión potencial de NH3 (g/kg purín) en la dieta SOJ con respecto a la dieta GIR (desde 1,82 a 1,12, P<0,05), dando valores intermedios (1,58) para los purines de la dieta DDGST. Por otro lado, el CDTA de la FS y de la fibra neutro detergente (FND) fueron afectados (P<0,001 y 0,002, respectivamente) por el tipo de dieta, siendo más bajas en la dieta GIR que en la dieta SOJ; además, se observó un contenido más alto de FND (491 vs. 361g/kg) en la MS fecal para la dieta GIR que en la dieta SOJ, presentando la dieta DDGST valores intermedios. El grado de lignificación de la FND (FAD/FND x 100) de las heces disminuyó en el orden GIR>DDGST>SOJ (desde 0,171 hasta 0,109 y 0,086, respectivamente) en paralelo a la disminución del potencial de emisión de CH4 por g de SV del purín (desde 301 a 269 y 256 mL, respectivamente). Todos los purines obtenidos en estos tres experimentos y Antezana et al. (2015) fueron usados para desarrollar nuevas calibraciones con la tecnología NIRS, para predecir la composición del purín y el potencial de las emisiones de gases. Se observó una buena precisión (R2cv superior a 0,92) de las calibraciones cuando muestras de los ensayos controlados (2, 3 y Antezana et al., 2015) fueron añadidas, aumentando el rango de variación. Una menor exactitud fue observada para TAN y emisiones de NH3 y CH4, lo que podría explicarse por una menor homogeneidad en la distribución de las muestras cuando se amplía el rango de variación del estudio. ABSTRACT This PhD thesis was developed to study the emissions of ammonia (NH3) and methane (CH4) from pig slurry and the effects caused by changes on diet formulation. For these proposes three studies were conducted. Experiment 1 aimed to analyse several factors of variation of slurry composition and to establish prediction equations for potential CH4 and NH3 emissions. Seventy-nine feed and slurry samples were collected at two seasons (summer and winter) from commercial pig farms sited at two Spanish regions (Centre and Mediterranean). Nursery, growing-fattening, gestating and lactating facilities were sampled. Feed and slurry composition were determined, and potential CH4 and NH3 emissions measured. Feed nutrient contents were used as covariates in the analysis. Near infrared reflectance spectroscopy (NIRS) was evaluated as a predicting tool for slurry composition and potential gaseous emissions. A wide variability was found both in feed and slurry composition. Mediterranean farms had a higher pH (P<0.001) and ash (P=0.02) concentration than those located at the centre of Spain. Also, type of farm affected ether extract (EE) content of the slurry (P=0.02), with highest values obtained for the youngest animal facilities. Results suggested a buffer effect of dietary fibre on slurry pH and a direct relationship (P<0.05) with fibre constituents of manure. Dietary protein content did not affect slurry nitrogen content (N) but decreased (P=0.003) in total solid (TS) and volatile solids (VS) concentration. Prediction models of potential NH3 emissions (R2=0.89) and biochemical CH4 potential (B0) (R2=0.61) were obtained from slurry composition. Predictions from NIRS showed a high accuracy for most slurry constituents with coefficient of determination of cross validation (R2cv) above 0.90 and a similar accuracy of prediction of potential NH3 and CH4 emissions (R2cv=0.84 and 0.68, respectively) thus models based on slurry composition from commercial farms. Experiment 2 was conducted to investigate the effects of increasing the level of two sources of fibrous by-products, orange pulp (OP) and carob meal (CM), in iso-fibrous diets for growing-finishing pig, slurry composition and potential NH3 and CH4 emissions. Thirty pigs (85.4±12.3 kg) were fed five iso-nutritive diets: a commercial control wheat/barley (C) and four experimental diets including two sources of fibrous by-products OP and CM and two dietary levels (75 and 150 g/kg) in a 2 × 2 factorial arrangement. After a 14-day adaptation period, faeces and urine were collected separately for 7 days to measure nutrient digestibility and the excretory patterns of N from pigs (6 replicates per diet) housed individually in metabolic pens. For each animal, the derived NH3 and CH4 emissions were measured in samples of slurry over an 11 and 100-day storage periods, respectively. Source and level of the fibrous by-products affected digestion efficiency in a different way as the coefficients of total tract apparent digestibility (CTTAD) for dry matter (DM), organic matter (OM), fibre fractions and gross energy (GE) increased with OP but decreased with CM (P<0.05). Crude protein CTTAD decreased with the inclusion of both sources of fibre, being lower at the highest dietary level. Faecal concentration of fibre fractions increased (P<0.05) with the level of inclusion of CM but decreased with that of OP (P<0.01). High dietary level for both sources of fibre increased (P<0.02) CP faecal content but urine N content decreased (from 205 to 168 g/kg DM, P<0.05) in all the fibre-supplemented compared to C diet. Additionally, the proportions of undigested dietary, water soluble, and bacterial and endogenous debris of faecal N excretion were not affected by treatments. The initial slurry characteristics did not differ among different fibre sources and dietary levels, except pH, which decreased at the highest by-product inclusion levels. Ammonia emission per kg of slurry was lower in all the fibre-supplemented diets than in C diet (2.44 vs. 1.81g as average, P<0.05). Additionally, slurries from the highest dietary level of by-products tended (P<0.06) to emit less NH3 per kg of initial total Kjeldahl nitrogen (TKN) and showed a lower biochemical CH4 potential , independently of the fibre source. Experiment 3 investigated the effects of protein source in practical diets. Three experimental feeds were designed to substitute a mixture of soybean meal and soybean hulls (SB diet) with sunflower meal (SFM) or wheat DDGS (WDDGS). The proportion of other ingredients was also modified in order to maintain similar nutrient contents across diets. Changes in protein source led to differences in dietary content of neutral detergent insoluble crude protein (NDICP), soluble fibre (SF) and acid detergent lignin (ADL). Twenty-four pigs (eight per diet), weighing 52.3 or 60.8 kg at the first and second batch respectively, were housed individually in metabolic pens to determine during a 7-day period DM balance, CTTAD of nutrients, and faecal and urine composition. Representative slurry samples from each animal were used to measure NH3 and CH4 emissions over an 11 and or 100-day storage period, respectively. Neither DM intake, nor DM or energy CTTAD differed among experimental diets, but type of feed affected (P<0.001) CP digestibility, which was highest for SFM (0.846) than for SB (0.775) diet, with WDDGS-based diet giving an intermediate value (0.794). Faecal DM composition was influenced (P<0.001) accordingly, with the lowest CP concentration found for diet SFM and the highest for SB. The ratio of N excreted in urine or faeces decreased from SFM (1.63) to SB diet (0.650), as a consequence of both lower urine and higher faecal losses, with all the faecal N fractions increasing in parallel to total excretion. This result was parallel to a decrease of potential NH3 emission (g/kg slurry) in diet SB with respect to diet SFM (from 1.82 to 1.12, P<0.05), giving slurry from WDDGS-based diet an intermediate value (1.58). Otherwise, SF and insoluble neutral detergent fibre (NDF) CTTAD were affected (P<0.001 and P=0.002, respectively) by type of diet, being lower for SFM than in SB-diet; besides, a higher content of NDF (491 vs. 361 g/kg) in faecal DM was observed for SFM with respect to SB based diet, with WDDGS diet being intermediate. Degree of lignification of NDF (ADL/NDF x 100) of faeces decreased in the order SFM>WDDGS>SB (from 0.171 to 0.109 and 0.086, respectively) in parallel to a decrease of biochemical CH4 potential per g of VS of slurry (from 301 to 269 and 256 ml, respectively). All slurry samples obtained from these three experiments and Antezana et al. (2015) were used to develop new calibrations with NIRS technology, to predict the slurry composition and potential gaseous emissions of samples with greater variability in comparison to experiment 1. Better accuracy (R2cv above 0.92) was observed for calibrations when samples from controlled trials experiments (2, 3 and Antezana et al., 2015) were included, increasing the range of variation. A lower accuracy was observed for TAN, NH3 and CH4 gaseous emissions, which might be explained by the less homogeneous distribution with a wider range of data.
Resumo:
El diseño de una antena reflectarray bajo la aproximación de periodicidad local requiere la determinación de la matriz de scattering de estructuras multicapa con metalizaciones periódicas para un gran número de geometrías diferentes. Por lo tanto, a la hora de diseñar antenas reflectarray en tiempos de CPU razonables, se necesitan herramientas númericas rápidas y precisas para el análisis de las estructuras periódicas multicapa. En esta tesis se aplica la versión Galerkin del Método de los Momentos (MDM) en el dominio espectral al análisis de las estructuras periódicas multicapa necesarias para el diseño de antenas reflectarray basadas en parches apilados o en dipolos paralelos coplanares. Desgraciadamente, la aplicación de este método numérico involucra el cálculo de series dobles infinitas, y mientras que algunas series convergen muy rápidamente, otras lo hacen muy lentamente. Para aliviar este problema, en esta tesis se propone un novedoso MDM espectral-espacial para el análisis de las estructuras periódicas multicapa, en el cual las series rápidamente convergente se calculan en el dominio espectral, y las series lentamente convergentes se calculan en el dominio espacial mediante una versión mejorada de la formulación de ecuaciones integrales de potenciales mixtos (EIPM) del MDM. Esta versión mejorada se basa en la interpolación eficiente de las funciones de Green multicapa periódicas, y en el cálculo eficiente de las integrales singulares que conducen a los elementos de la matriz del MDM. El novedoso método híbrido espectral-espacial y el tradicional MDM en el dominio espectral se han comparado en el caso de los elementos reflectarray basado en parches apilados. Las simulaciones numéricas han demostrado que el tiempo de CPU requerido por el MDM híbrido es alrededor de unas 60 veces más rápido que el requerido por el tradicional MDM en el dominio espectral para una precisión de dos cifras significativas. El uso combinado de elementos reflectarray con parches apilados y técnicas de optimización de banda ancha ha hecho posible diseñar antenas reflectarray de transmisiónrecepción (Tx-Rx) y polarización dual para aplicaciones de espacio con requisitos muy restrictivos. Desgraciadamente, el nivel de aislamiento entre las polarizaciones ortogonales en antenas DBS (típicamente 30 dB) es demasiado exigente para ser conseguido con las antenas basadas en parches apilados. Además, el uso de elementos reflectarray con parches apilados conlleva procesos de fabricación complejos y costosos. En esta tesis se investigan varias configuraciones de elementos reflectarray basadas en conjuntos de dipolos paralelos con el fin de superar los inconvenientes que presenta el elemento basado en parches apilados. Primeramente, se propone un elemento consistente en dos conjuntos apilados ortogonales de tres dipolos paralelos para aplicaciones de polarización dual. Se ha diseñado, fabricado y medido una antena basada en este elemento, y los resultados obtenidos para la antena indican que tiene unas altas prestaciones en términos de ancho de banda, pérdidas, eficiencia y discriminación contrapolar, además de requerir un proceso de fabricación mucho más sencillo que el de las antenas basadas en tres parches apilados. Desgraciadamente, el elemento basado en dos conjuntos ortogonales de tres dipolos paralelos no proporciona suficientes grados de libertad para diseñar antenas reflectarray de transmisión-recepción (Tx-Rx) de polarización dual para aplicaciones de espacio por medio de técnicas de optimización de banda ancha. Por este motivo, en la tesis se propone un nuevo elemento reflectarray que proporciona los grados de libertad suficientes para cada polarización. El nuevo elemento consiste en dos conjuntos ortogonales de cuatro dipolos paralelos. Cada conjunto contiene tres dipolos coplanares y un dipolo apilado. Para poder acomodar los dos conjuntos de dipolos en una sola celda de la antena reflectarray, el conjunto de dipolos de una polarización está desplazado medio período con respecto al conjunto de dipolos de la otra polarización. Este hecho permite usar solamente dos niveles de metalización para cada elemento de la antena, lo cual simplifica el proceso de fabricación como en el caso del elemento basados en dos conjuntos de tres dipolos paralelos coplanares. Una antena de doble polarización y doble banda (Tx-Rx) basada en el nuevo elemento ha sido diseñada, fabricada y medida. La antena muestra muy buenas presentaciones en las dos bandas de frecuencia con muy bajos niveles de polarización cruzada. Simulaciones numéricas presentadas en la tesis muestran que estos bajos de niveles de polarización cruzada se pueden reducir todavía más si se llevan a cabo pequeñas rotaciones de los dos conjuntos de dipolos asociados a cada polarización. ABSTRACT The design of a reflectarray antenna under the local periodicity assumption requires the determination of the scattering matrix of a multilayered structure with periodic metallizations for quite a large number of different geometries. Therefore, in order to design reflectarray antennas within reasonable CPU times, fast and accurate numerical tools for the analysis of the periodic multilayered structures are required. In this thesis the Galerkin’s version of the Method of Moments (MoM) in the spectral domain is applied to the analysis of the periodic multilayered structures involved in the design of reflectarray antennas made of either stacked patches or coplanar parallel dipoles. Unfortunately, this numerical approach involves the computation of double infinite summations, and whereas some of these summations converge very fast, some others converge very slowly. In order to alleviate this problem, in the thesis a novel hybrid MoM spectral-spatial domain approach is proposed for the analysis of the periodic multilayered structures. In the novel approach, whereas the fast convergent summations are computed in the spectral domain, the slowly convergent summations are computed by means of an enhanced Mixed Potential Integral Equation (MPIE) formulation of the MoM in the spatial domain. This enhanced formulation is based on the efficient interpolation of the multilayered periodic Green’s functions, and on the efficient computation of the singular integrals leading to the MoM matrix entries. The novel hybrid spectral-spatial MoM code and the standard spectral domain MoM code have both been compared in the case of reflectarray elements based on multilayered stacked patches. Numerical simulations have shown that the CPU time required by the hybrid MoM is around 60 times smaller than that required by the standard spectral MoM for an accuracy of two significant figures. The combined use of reflectarray elements based on stacked patches and wideband optimization techniques has made it possible to design dual polarization transmit-receive (Tx-Rx) reflectarrays for space applications with stringent requirements. Unfortunately, the required level of isolation between orthogonal polarizations in DBS antennas (typically 30 dB) is hard to achieve with the configuration of stacked patches. Moreover, the use of reflectarrays based on stacked patches leads to a complex and expensive manufacturing process. In this thesis, we investigate several configurations of reflectarray elements based on sets of parallel dipoles that try to overcome the drawbacks introduced by the element based on stacked patches. First, an element based on two stacked orthogonal sets of three coplanar parallel dipoles is proposed for dual polarization applications. An antenna made of this element has been designed, manufactured and measured, and the results obtained show that the antenna presents a high performance in terms of bandwidth, losses, efficiency and cross-polarization discrimination, while the manufacturing process is cheaper and simpler than that of the antennas made of stacked patches. Unfortunately, the element based on two sets of three coplanar parallel dipoles does not provide enough degrees of freedom to design dual-polarization transmit-receive (Tx-Rx) reflectarray antennas for space applications by means of wideband optimization techniques. For this reason, in the thesis a new reflectarray element is proposed which does provide enough degrees of freedom for each polarization. This new element consists of two orthogonal sets of four parallel dipoles, each set containing three coplanar dipoles and one stacked dipole. In order to accommodate the two sets of dipoles in each reflectarray cell, the set of dipoles for one polarization is shifted half a period from the set of dipoles for the other polarization. This also makes it possible to use only two levels of metallization for the reflectarray element, which simplifies the manufacturing process as in the case of the reflectarray element based on two sets of three parallel dipoles. A dual polarization dual-band (Tx-Rx) reflectarray antenna based on the new element has been designed, manufactured and measured. The antenna shows a very good performance in both Tx and Rx frequency bands with very low levels of cross-polarization. Numerical simulations carried out in the thesis have shown that the low levels of cross-polarization can be even made smaller by means of small rotations of the two sets of dipoles associated to each polarization.
Resumo:
En los últimos años han surgido nuevos campos de las tecnologías de la información que exploran el tratamiento de la gran cantidad de datos digitales existentes y cómo transformarlos en conocimiento explícito. Las técnicas de Procesamiento del Lenguaje Natural (NLP) son capaces de extraer información de los textos digitales presentados en forma narrativa. Además, las técnicas de machine learning clasifican instancias o ejemplos en función de sus atributos, en distintas categorías, aprendiendo de otros previamente clasificados. Los textos clínicos son una gran fuente de información no estructurada; en consecuencia, información no explotada en su totalidad. Algunos términos usados en textos clínicos se encuentran en una situación de afirmación, negación, hipótesis o histórica. La detección de esta situación es necesaria para la estructuración de información, pero a su vez tiene una gran complejidad. Extrayendo características lingüísticas de los elementos, o tokens, de los textos mediante NLP; transformando estos tokens en instancias y las características en atributos, podemos mediante técnicas de machine learning clasificarlos con el objetivo de detectar si se encuentran afirmados, negados, hipotéticos o históricos. La selección de los atributos que cada token debe tener para su clasificación, así como la selección del algoritmo de machine learning utilizado son elementos cruciales para la clasificación. Son, de hecho, los elementos que componen el modelo de clasificación. Consecuentemente, este trabajo aborda el proceso de extracción de características, selección de atributos y selección del algoritmo de machine learning para la detección de la negación en textos clínicos en español. Se expone un modelo para la clasificación que, mediante el algoritmo J48 y 35 atributos obtenidos de características lingüísticas (morfológicas y sintácticas) y disparadores de negación, detecta si un token está negado en 465 frases provenientes de textos clínicos con un F-Score del 73%, una exhaustividad del 66% y una precisión del 81% con una validación cruzada de 10 iteraciones. ---ABSTRACT--- New information technologies have emerged in the recent years which explore the processing of the huge amount of existing digital data and its transformation into knowledge. Natural Language Processing (NLP) techniques are able to extract certain features from digital texts. Additionally, through machine learning techniques it is feasible to classify instances according to different categories, learning from others previously classified. Clinical texts contain great amount of unstructured data, therefore information not fully exploited. Some terms (tokens) in clinical texts appear in different situations such as affirmed, negated, hypothetic or historic. Detecting this situation is necessary for the structuring of this data, however not simple. It is possible to detect whether if a token is negated, affirmed, hypothetic or historic by extracting its linguistic features by NLP; transforming these tokens into instances, the features into attributes, and classifying these instances through machine learning techniques. Selecting the attributes each instance must have, and choosing the machine learning algorithm are crucial issues for the classification. In fact, these elements set the classification model. Consequently, this work approaches the features retrieval as well as the attributes and algorithm selection process used by machine learning techniques for the detection of negation in clinical texts in Spanish. We present a classification model which, through J48 algorithm and 35 attributes from linguistic features (morphologic and syntactic) and negation triggers, detects whether if a token is negated in 465 sentences from historical records, with a result of 73% FScore, 66% recall and 81% precision using a 10-fold cross-validation.
Resumo:
El proyecto consta de dos partes principales y dos anexos. La primera es teórica, en ella realizamos; a modo de introducción, un estudio sobre el tratamiento digital de la imagen, desarrollando las principales técnicas de tratamiento y análisis de imágenes que pudimos estudiar durante la carrera. Una vez desgranado el análisis nos centraremos en la correlación digital de imagen, su evolución y distintas técnicas, donde nos centramos en la correlación cruzada normalizada que usamos posteriormente para la correlación de imágenes con Matlab. La segunda parte consiste en la implementación de un sencillo programa mediante Matlab en el que podremos evaluar y analizar las diferencias entre dos o más imágenes, pudiendo observar gráficamente la desviación en milímetros entre varias imágenes y su dirección con vectores. Posteriormente analizamos los resultados obtenidos y proponemos posibles mejoras para futuros proyectos de correlación de imágenes digitales. Por último, incluimos un par de anexos en los que incluimos un tutorial para automatizar acciones con Adobe Photoshop para facilitar el pretratamiento de fotografías antes de analizarlas con el script y una posible práctica de laboratorio para futuros alumnos de la escuela utilizando nuestro script de Matlab. ABSTRACT. The project involves two main parts and two annexes. The first is theoretical, it performed; by way of introduction, a study on digital image processing, developing the main treatment techniques and image analysis we were able to study along our career. Once shelled analysis we will focus on digital image correlation, evolution and different techniques, where we focus on normalized cross-correlation which we use later for the correlation of images with Matlab. The second part is the implementation of a simple program using Matlab where we can evaluate and analyze the differences between two or more images and can graphically see the deviation in millimeters between various images and their direction vectors. Then we analyze the results and propose possible improvements for future projects correlation of digital images. Finally, we have a couple of annexes in which we include a tutorial to automate actions with Adobe Photoshop to facilitate pretreatment photographs before analyzing the script and a possible lab for future school students using our Matlab script.