839 resultados para tarjeta inteligente
Resumo:
En los últimos años la evolución de la información compartida por internet ha cambiado enormemente, llegando a convertirse en lo que llamamos hoy la Web Semántica. Este término, acuñado en 2004, muestra una manera más “inteligente” de compartir los datos, de tal manera que éstos puedan ser entendibles por una máquina o por cualquier persona en el mundo. Ahora mismo se encuentra en fase de expansión, prueba de ello es la cantidad de grupos de investigación que están actualmente dedicando sus esfuerzos al desarrollo e implementación de la misma y la amplitud de temáticas que tienen sus trabajos. Con la aparición de la Web Semántica, la tendencia de las bases de datos de nueva creación se está empezando a inclinar hacia la creación de ontologías más o menos sencillas que describan las bases de datos y así beneficiarse de las posibilidades de interoperabilidad que aporta. Con el presente trabajo se pretende el estudio de los beneficios que aporta la implementación de una ontología en una base de datos relacional ya creada, los trabajos necesarios para ello y las herramientas necesarias para hacerlo. Para ello se han tomado unos datos de gran interés y, como continuación a su trabajo, se ha implementado la ontología. Estos datos provienen del estudio de un método para la obtención automatizada del linaje de las parcelas registradas en el catastro español. Abstract: In the last years the evolution of the information shared on the Internet has dramatically changed, emerging what is called Semantic Web. This term appeared in 2004, defining a “smarter” way of sharing data. Data that could be understood by machines or by any human around the world. Nowadays, the Semantic Web is in expansion phase, as it can be probed by the amount of research groups working on this approach and the wide thematic range of their work. With the appearance of the Semantic Web, current database technologies are supported by the creation of ontologies which describe them and therefore get a new set of interoperability possibilities from them. This work focuses in the study of the benefits given by the implementation of an ontology in a created relational database, the steps to follow and the tools necessary to get it done. The study has been done by using data of considerable interest, coming from a study of the lineage of parcels registered in the Spanish cadaster. As a continuation of this work an ontology has been implemented.
Resumo:
A medida que la sociedad avanza, la cantidad de datos almacenados en sistemas de información y procesados por las aplicaciones y servidores software se eleva exponencialmente. Además, las nuevas tecnologías han confiado su desarrollo en la red internacionalmente conectada: Internet. En consecuencia, se han aprovechado las conexiones máquina a máquina (M2M) mediante Internet y se ha desarrollado el concepto de "Internet de las Cosas", red de dispositivos y terminales donde cualquier objeto cotidiano puede establecer conexiones con otros objetos o con un teléfono inteligente mediante los servicios desplegados en dicha red. Sin embargo, estos nuevos datos y eventos se deben procesar en tiempo real y de forma eficaz, para reaccionar ante cualquier situación. Así, las arquitecturas orientadas a eventos solventan la comprensión del intercambio de mensajes en tiempo real. De esta forma, una EDA (Event-Driven Architecture) brinda la posibilidad de implementar una arquitectura software con una definición exhaustiva de los mensajes, notificándole al usuario los hechos que han ocurrido a su alrededor y las acciones tomadas al respecto. Este Trabajo Final de Grado se centra en el estudio de las arquitecturas orientadas a eventos, contrastándolas con el resto de los principales patrones arquitectónicos. Esta comparación se ha efectuado atendiendo a los requisitos no funcionales de cada uno, como, por ejemplo, la seguridad frente a amenazas externas. Asimismo, el objetivo principal es el estudio de las arquitecturas EDA (Event-Driven Architecture) y su relación con la red de Internet de las Cosas, que permite a cualquier dispositivo acceder a los servicios desplegados en esa red mediante Internet. El objeto del TFG es observar y verificar las ventajas de esta arquitectura, debido a su carácter de tipo inmediato, mediante el envío y recepción de mensajes en tiempo real y de forma asíncrona. También se ha realizado un estudio del estado del arte de estos patrones de arquitectura software, así como de la red de IoT (Internet of Things) y sus servicios. Por otro lado, junto con este TFG se ha desarrollado una simulación de una EDA completa, con todos sus elementos: productores, consumidores y procesador de eventos complejo, además de la visualización de los datos. Para ensalzar los servicios prestados por la red de IoT y su relación con una arquitectura EDA, se ha implementado una simulación de un servicio personalizado de Tele-asistencia. Esta prueba de concepto ha ayudado a reforzar el aprendizaje y entender con más precisión todo el conocimiento adquirido mediante el estudio teórico de una EDA. Se ha implementado en el lenguaje de programación Java, mediante las soluciones de código abierto RabbitMQ y Esper, ayudando a su unión el estándar AMQP, para completar correctamente la transferencia.
Resumo:
Las alteraciones del sistema climático debido al aumento de concentraciones de gases de efecto invernadero (GEI) en la atmósfera, tendrán implicaciones importantes para la agricultura, el medio ambiente y la sociedad. La agricultura es una fuente importante de emisiones de gases de efecto invernadero (globalmente contribuye al 12% del total de GEI), y al mismo tiempo puede ser parte de la solución para mitigar las emisiones y adaptarse al cambio climático. Las acciones frente al desafío del cambio climático deben priorizar estrategias de adaptación y mitigación en la agricultura dentro de la agenda para el desarrollo de políticas. La agricultura es por tanto crucial para la conservación y el uso sostenible de los recursos naturales, que ya están sometidos a impactos del cambio climático, al mismo tiempo que debe suministrar alimentos para una población creciente. Por tanto, es necesaria una coordinación entre las actuales estrategias de política climática y agrícola. El concepto de agricultura climáticamente inteligente ha surgido para integrar todos estos servicios de la producción agraria. Al evaluar opciones para reducir las amenazas del cambio climático para la agricultura y el medio ambiente, surgen dos preguntas de investigación: • ¿Qué información es necesaria para definir prácticas agrarias inteligentes? • ¿Qué factores influyen en la implementación de las prácticas agrarias inteligentes? Esta Tesis trata de proporcionar información relevante sobre estas cuestiones generales con el fin de apoyar el desarrollo de la política climática. Se centra en sistemas agrícolas Mediterráneos. Esta Tesis integra diferentes métodos y herramientas para evaluar las alternativas de gestión agrícola y políticas con potencial para responder a las necesidades de mitigación y adaptación al cambio climático. La investigación incluye enfoques cuantitativos y cualitativos e integra variables agronómicas, de clima y socioeconómicas a escala local y regional. La investigación aporta una recopilación de datos sobre evidencia experimental existente, y un estudio integrado sobre el comportamiento de los agricultores y las posibles alternativas de cambio (por ejemplo, la tecnología, la gestión agrícola y la política climática). Los casos de estudio de esta Tesis - el humedal de Doñana (S España) y la región de Aragón (NE España) - permiten ilustrar dos sistemas Mediterráneos representativos, donde el uso intensivo de la agricultura y las condiciones semiáridas son ya una preocupación. Por este motivo, la adopción de estrategias de mitigación y adaptación puede desempeñar un papel muy importante a la hora de encontrar un equilibrio entre la equidad, la seguridad económica y el medio ambiente en los escenarios de cambio climático. La metodología multidisciplinar de esta tesis incluye una amplia gama de enfoques y métodos para la recopilación y el análisis de datos. La toma de datos se apoya en la revisión bibliográfica de evidencia experimental, bases de datos públicas nacionales e internacionales y datos primarios recopilados mediante entrevistas semi-estructuradas con los grupos de interés (administraciones públicas, responsables políticos, asesores agrícolas, científicos y agricultores) y encuestas con agricultores. Los métodos de análisis incluyen: meta-análisis, modelos de gestión de recursos hídricos (modelo WAAPA), análisis multicriterio para la toma de decisiones, métodos estadísticos (modelos de regresión logística y de Poisson) y herramientas para el desarrollo de políticas basadas en la ciencia. El meta-análisis identifica los umbrales críticos de temperatura que repercuten en el crecimiento y el desarrollo de los tres cultivos principales para la seguridad alimentaria (arroz, maíz y trigo). El modelo WAAPA evalúa el efecto del cambio climático en la gestión del agua para la agricultura de acuerdo a diferentes alternativas políticas y escenarios climáticos. El análisis multicriterio evalúa la viabilidad de las prácticas agrícolas de mitigación en dos escenarios climáticos de acuerdo a la percepción de diferentes expertos. Los métodos estadísticos analizan los determinantes y las barreras para la adopción de prácticas agrícolas de mitigación. Las herramientas para el desarrollo de políticas basadas en la ciencia muestran el potencial y el coste para reducir GEI mediante las prácticas agrícolas. En general, los resultados de esta Tesis proporcionan información sobre la adaptación y la mitigación del cambio climático a nivel de explotación para desarrollar una política climática más integrada y ayudar a los agricultores en la toma de decisiones. Los resultados muestran las temperaturas umbral y la respuesta del arroz, el maíz y el trigo a temperaturas extremas, siendo estos valores de gran utilidad para futuros estudios de impacto y adaptación. Los resultados obtenidos también aportan una serie de estrategias flexibles para la adaptación y la mitigación a escala local, proporcionando a su vez una mejor comprensión sobre las barreras y los incentivos para su adopción. La capacidad de mejorar la disponibilidad de agua y el potencial y el coste de reducción de GEI se han estimado para estas estrategias en los casos de estudio. Estos resultados podrían ayudar en el desarrollo de planes locales de adaptación y políticas regionales de mitigación, especialmente en las regiones Mediterráneas. ABSTRACT Alterations in the climatic system due to increased atmospheric concentrations of greenhouse gas emissions (GHG) are expected to have important implications for agriculture, the environment and society. Agriculture is an important source of GHG emissions (12 % of global anthropogenic GHG), but it is also part of the solution to mitigate emissions and to adapt to climate change. Responses to face the challenge of climate change should place agricultural adaptation and mitigation strategies at the heart of the climate change agenda. Agriculture is crucial for the conservation and sustainable use of natural resources, which already stand under pressure due to climate change impacts, increased population, pollution and fragmented and uncoordinated climate policy strategies. The concept of climate smart agriculture has emerged to encompass all these issues as a whole. When assessing choices aimed at reducing threats to agriculture and the environment under climate change, two research questions arise: • What information defines smart farming choices? • What drives the implementation of smart farming choices? This Thesis aims to provide information on these broad questions in order to support climate policy development focusing in some Mediterranean agricultural systems. This Thesis integrates methods and tools to evaluate potential farming and policy choices to respond to mitigation and adaptation to climate change. The assessment involves both quantitative and qualitative approaches and integrates agronomic, climate and socioeconomic variables at local and regional scale. The assessment includes the collection of data on previous experimental evidence, and the integration of farmer behaviour and policy choices (e.g., technology, agricultural management and climate policy). The case study areas -- the Doñana coastal wetland (S Spain) and the Aragón region (NE Spain) – illustrate two representative Mediterranean regions where the intensive use of agriculture and the semi-arid conditions are already a concern. Thus the adoption of mitigation and adaptation measures can play a significant role for reaching a balance among equity, economic security and the environment under climate change scenarios. The multidisciplinary methodology of this Thesis includes a wide range of approaches for collecting and analysing data. The data collection process include revision of existing experimental evidence, public databases and the contribution of primary data gathering by semi-structured interviews with relevant stakeholders (i.e., public administrations, policy makers, agricultural advisors, scientist and farmers among others) and surveys given to farmers. The analytical methods include meta-analysis, water availability models (WAAPA model), decision making analysis (MCA, multi-criteria analysis), statistical approaches (Logistic and Poisson regression models) and science-base policy tools (MACC, marginal abatement cost curves and SOC abatement wedges). The meta-analysis identifies the critical temperature thresholds which impact on the growth and development of three major crops (i.e., rice, maize and wheat). The WAAPA model assesses the effect of climate change for agricultural water management under different policy choices and climate scenarios. The multi-criteria analysis evaluates the feasibility of mitigation farming practices under two climate scenarios according to the expert views. The statistical approaches analyses the drivers and the barriers for the adoption of mitigation farming practices. The science-base policy tools illustrate the mitigation potential and cost effectiveness of the farming practices. Overall, the results of this Thesis provide information to adapt to, and mitigate of, climate change at farm level to support the development of a comprehensive climate policy and to assist farmers. The findings show the key temperature thresholds and response to extreme temperature effects for rice, maize and wheat, so such responses can be included into crop impact and adaptation models. A portfolio of flexible adaptation and mitigation choices at local scale are identified. The results also provide a better understanding of the stakeholders oppose or support to adopt the choices which could be used to incorporate in local adaptation plans and mitigation regional policy. The findings include estimations for the farming and policy choices on the capacity to improve water supply reliability, abatement potential and cost-effective in Mediterranean regions.
Resumo:
Las microrredes son agrupaciones de fuentes de generación distribuida, cargas y elementos almacenadores de energía, que pueden actuar individualmente o conectadas a una red mayor. Debido a que presentan una serie de ventajas se están implantando de forma progresiva y creciente en los sistemas eléctricos de potencia. Son sistemas totalmente autónomos y, por ello, altamente flexibles. Ante una situación anómala que pueda producirse en la red principal, ya sea un fallo eléctrico, una disrupción física en la topología o una subida desproporcionada de precio, la microrred debe ser capaz de detectar esa situación y desconectarse a fin de poder protegerse. La situación de islanding se produce cuando por cualquier circunstancia hay una pérdida de la red principal y la microrred queda operando de forma aislada. Los métodos anti-islanding, que ayudan a la detección del fenómeno en las microrredes y a la desconexión de las mismas presentan dificultades a la hora de realizar esa tarea en determinados puntos del plano P-Q. Con este trabajo fin de Máster se pretende profundizar en el conocimiento y aplicabilidad de los métodos de detección de islanding extendidos a microrredes. Se analiza la viabilidad del microinterrumptor inteligente diseñado por los investigadores de la Universidad de Wisconsin - Madison para desarrollar la función de detección y actuación ante una situación de islanding inintencionado. A continuación se realiza un estudio de armónicos en el punto de conexión entre la red principal y la microrred. Por último se utilizan los resultados de este análisis para implementar y validar un nuevo método pasivo de detección de islanding en el microinterruptor basado en la medida y monitorización del nivel de tensión de 5º armónico en el PCC.
Resumo:
En el trabajo que aquí presentamos se incluye la base teórica (sintaxis y semántica) y una implementación de un framework para codificar el razonamiento de la representación difusa o borrosa del mundo (tal y como nosotros, seres humanos, entendemos éste). El interés en la realización de éste trabajo parte de dos fuentes: eliminar la complejidad existente cuando se realiza una implementación con un lenguaje de programación de los llamados de propósito general y proporcionar una herramienta lo suficientemente inteligente para dar respuestas de forma constructiva a consultas difusas o borrosas. El framework, RFuzzy, permite codificar reglas y consultas en una sintaxis muy cercana al lenguaje natural usado por los seres humanos para expresar sus pensamientos, pero es bastante más que eso. Permite representar conceptos muy interesantes, como fuzzificaciones (funciones usadas para convertir conceptos no difusos en difusos), valores por defecto (que se usan para devolver resultados un poco menos válidos que los que devolveríamos si tuviésemos la información necesaria para calcular los más válidos), similaridad entre atributos (característica que utilizamos para buscar aquellos individuos en la base de datos con una característica similar a la buscada), sinónimos o antónimos y, además, nos permite extender el numero de conectivas y modificadores (incluyendo modificadores de negación) que podemos usar en las reglas y consultas. La personalización de la definición de conceptos difusos (muy útil para lidiar con el carácter subjetivo de los conceptos borrosos, donde nos encontramos con que cualificar a alguien de “alto” depende de la altura de la persona que cualifica) es otra de las facilidades incluida. Además, RFuzzy implementa la semántica multi-adjunta. El interés en esta reside en que introduce la posibilidad de obtener la credibilidad de una regla a partir de un conjunto de datos y una regla dada y no solo el grado de satisfacción de una regla a partir de el universo modelado en nuestro programa. De esa forma podemos obtener automáticamente la credibilidad de una regla para una determinada situación. Aún cuando la contribución teórica de la tesis es interesante en si misma, especialmente la inclusión del modificador de negacion, sus multiples usos practicos lo son también. Entre los diferentes usos que se han dado al framework destacamos el reconocimiento de emociones, el control de robots, el control granular en computacion paralela/distribuída y las busquedas difusas o borrosas en bases de datos. ABSTRACT In this work we provide a theoretical basis (syntax and semantics) and a practical implementation of a framework for encoding the reasoning and the fuzzy representation of the world (as human beings understand it). The interest for this work comes from two sources: removing the existing complexity when doing it with a general purpose programming language (one developed without focusing in providing special constructions for representing fuzzy information) and providing a tool intelligent enough to answer, in a constructive way, expressive queries over conventional data. The framework, RFuzzy, allows to encode rules and queries in a syntax very close to the natural language used by human beings to express their thoughts, but it is more than that. It allows to encode very interesting concepts, as fuzzifications (functions to easily fuzzify crisp concepts), default values (used for providing results less adequate but still valid when the information needed to provide results is missing), similarity between attributes (used to search for individuals with a characteristic similar to the one we are looking for), synonyms or antonyms and it allows to extend the number of connectives and modifiers (even negation) we can use in the rules. The personalization of the definition of fuzzy concepts (very useful for dealing with the subjective character of fuzziness, in which a concept like tall depends on the height of the person performing the query) is another of the facilities included. Besides, RFuzzy implements the multi-adjoint semantics. The interest in them is that in addition to obtaining the grade of satisfaction of a consequent from a rule, its credibility and the grade of satisfaction of the antecedents we can determine from a set of data how much credibility we must assign to a rule to model the behaviour of the set of data. So, we can determine automatically the credibility of a rule for a particular situation. Although the theoretical contribution is interesting by itself, specially the inclusion of the negation modifier, the practical usage of it is equally important. Between the different uses given to the framework we highlight emotion recognition, robocup control, granularity control in parallel/distributed computing and flexible searches in databases.
Resumo:
Esta Tesis tiene como objetivo principal el desarrollo de métodos de identificación del daño que sean robustos y fiables, enfocados a sistemas estructurales experimentales, fundamentalmente a las estructuras de hormigón armado reforzadas externamente con bandas fibras de polímeros reforzados (FRP). El modo de fallo de este tipo de sistema estructural es crítico, pues generalmente es debido a un despegue repentino y frágil de la banda del refuerzo FRP originado en grietas intermedias causadas por la flexión. La detección de este despegue en su fase inicial es fundamental para prevenir fallos futuros, que pueden ser catastróficos. Inicialmente, se lleva a cabo una revisión del método de la Impedancia Electro-Mecánica (EMI), de cara a exponer sus capacidades para la detección de daño. Una vez la tecnología apropiada es seleccionada, lo que incluye un analizador de impedancias así como novedosos sensores PZT para monitorización inteligente, se ha diseñado un procedimiento automático basado en los registros de impedancias de distintas estructuras de laboratorio. Basándonos en el hecho de que las mediciones de impedancias son posibles gracias a una colocación adecuada de una red de sensores PZT, la estimación de la presencia de daño se realiza analizando los resultados de distintos indicadores de daño obtenidos de la literatura. Para que este proceso sea automático y que no sean necesarios conocimientos previos sobre el método EMI para realizar un experimento, se ha diseñado e implementado un Interfaz Gráfico de Usuario, transformando la medición de impedancias en un proceso fácil e intuitivo. Se evalúa entonces el daño a través de los correspondientes índices de daño, intentando estimar no sólo su severidad, sino también su localización aproximada. El desarrollo de estos experimentos en cualquier estructura genera grandes cantidades de datos que han de ser procesados, y algunas veces los índices de daño no son suficientes para una evaluación completa de la integridad de una estructura. En la mayoría de los casos se pueden encontrar patrones de daño en los datos, pero no se tiene información a priori del estado de la estructura. En este punto, se ha hecho una importante investigación en técnicas de reconocimiento de patrones particularmente en aprendizaje no supervisado, encontrando aplicaciones interesantes en el campo de la medicina. De ahí surge una idea creativa e innovadora: detectar y seguir la evolución del daño en distintas estructuras como si se tratase de un cáncer propagándose por el cuerpo humano. En ese sentido, las lecturas de impedancias se emplean como información intrínseca de la salud de la propia estructura, de forma que se pueden aplicar las mismas técnicas que las empleadas en la investigación del cáncer. En este caso, se ha aplicado un algoritmo de clasificación jerárquica dado que ilustra además la clasificación de los datos de forma gráfica, incluyendo información cualitativa y cuantitativa sobre el daño. Se ha investigado la efectividad de este procedimiento a través de tres estructuras de laboratorio, como son una viga de aluminio, una unión atornillada de aluminio y un bloque de hormigón reforzado con FRP. La primera ayuda a mostrar la efectividad del método en sencillos escenarios de daño simple y múltiple, de forma que las conclusiones extraídas se aplican sobre los otros dos, diseñados para simular condiciones de despegue en distintas estructuras. Demostrada la efectividad del método de clasificación jerárquica de lecturas de impedancias, se aplica el procedimiento sobre las estructuras de hormigón armado reforzadas con bandas de FRP objeto de esta tesis, detectando y clasificando cada estado de daño. Finalmente, y como alternativa al anterior procedimiento, se propone un método para la monitorización continua de la interfase FRP-Hormigón, a través de una red de sensores FBG permanentemente instalados en dicha interfase. De esta forma, se obtienen medidas de deformación de la interfase en condiciones de carga continua, para ser implementadas en un modelo de optimización multiobjetivo, cuya solución se haya por medio de una expansión multiobjetivo del método Particle Swarm Optimization (PSO). La fiabilidad de este último método de detección se investiga a través de sendos ejemplos tanto numéricos como experimentales. ABSTRACT This thesis aims to develop robust and reliable damage identification methods focused on experimental structural systems, in particular Reinforced Concrete (RC) structures externally strengthened with Fiber Reinforced Polymers (FRP) strips. The failure mode of this type of structural system is critical, since it is usually due to sudden and brittle debonding of the FRP reinforcement originating from intermediate flexural cracks. Detection of the debonding in its initial stage is essential thus to prevent future failure, which might be catastrophic. Initially, a revision of the Electro-Mechanical Impedance (EMI) method is carried out, in order to expose its capabilities for local damage detection. Once the appropriate technology is selected, which includes impedance analyzer as well as novel PZT sensors for smart monitoring, an automated procedure has been design based on the impedance signatures of several lab-scale structures. On the basis that capturing impedance measurements is possible thanks to an adequately deployed PZT sensor network, the estimation of damage presence is done by analyzing the results of different damage indices obtained from the literature. In order to make this process automatic so that it is not necessary a priori knowledge of the EMI method to carry out an experimental test, a Graphical User Interface has been designed, turning the impedance measurements into an easy and intuitive procedure. Damage is then assessed through the analysis of the corresponding damage indices, trying to estimate not only the damage severity, but also its approximate location. The development of these tests on any kind of structure generates large amounts of data to be processed, and sometimes the information provided by damage indices is not enough to achieve a complete analysis of the structural health condition. In most of the cases, some damage patterns can be found in the data, but none a priori knowledge of the health condition is given for any structure. At this point, an important research on pattern recognition techniques has been carried out, particularly on unsupervised learning techniques, finding interesting applications in the medicine field. From this investigation, a creative and innovative idea arose: to detect and track the evolution of damage in different structures, as if it were a cancer propagating through a human body. In that sense, the impedance signatures are used to give intrinsic information of the health condition of the structure, so that the same clustering algorithms applied in the cancer research can be applied to the problem addressed in this dissertation. Hierarchical clustering is then applied since it also provides a graphical display of the clustered data, including quantitative and qualitative information about damage. The performance of this approach is firstly investigated using three lab-scale structures, such as a simple aluminium beam, a bolt-jointed aluminium beam and an FRP-strengthened concrete specimen. The first one shows the performance of the method on simple single and multiple damage scenarios, so that the first conclusions can be extracted and applied to the other two experimental tests, which are designed to simulate a debonding condition on different structures. Once the performance of the impedance-based hierarchical clustering method is proven to be successful, it is then applied to the structural system studied in this dissertation, the RC structures externally strengthened with FRP strips, where the debonding failure in the interface between the FRP and the concrete is successfully detected and classified, proving thus the feasibility of this method. Finally, as an alternative to the previous approach, a continuous monitoring procedure of the FRP-Concrete interface is proposed, based on an FBGsensors Network permanently deployed within that interface. In this way, strain measurements can be obtained under controlled loading conditions, and then they are used in order to implement a multi-objective model updating method solved by a multi-objective expansion of the Particle Swarm Optimization (PSO) method. The feasibility of this last proposal is investigated and successfully proven on both numerical and experimental RC beams strengthened with FRP.
Resumo:
Due to the significant increase of population and their natural desire of improving their standard of living, usage of energy extracted from world commodities, especially shaped as electricity, has increased in an intense manner during the last decades. This fact brings up a challenge with a complicated solution, which is how to guarantee that there will be enough energy so as to satisfy the energy demand of the world population. Among all the possible solutions that can be adopted to mitigate this problem one of them is almost of mandatory adoption, which consists of rationalizing energy utilization, in a way that its wasteful usage is minimized and it can be leveraged during a longer period of time. One of the ways to achieve it is by means of the improvement of the power distribution grid, so that it will be able to react in a more efficient manner against common issues, such as energy demand peaks or inaccurate electricity consumption forecasts. However, in order to be able to implement this improvement it is necessary to use technologies from the ICT (Information and Communication Technologies) sphere that often present challenges in some key areas: advanced metering infrastructure integration, interoperability and interconnectivity of the devices, interfaces to offer the applications, security measures design, etc. All these challenges may imply slowing down the adoption of the smart grid as a system to prolong the lifespan and utilization of the available energy. A proposal for an intermediation architecture that will make possible solving these challenges is put forward in this Master Thesis. Besides, one implementation and the tests that have been carried out to know the performance of the presented concepts have been included as well, in a way that it can be proved that the challenges set out by the smart grid can be resolved. RESUMEN. Debido al incremento significativo de la población y su deseo natural de mejorar su nivel de vida, la utilización de la energía extraída de las materias primas mundiales, especialmente en forma de electricidad, ha aumentado de manera intensa durante las últimas décadas. Este hecho plantea un reto de solución complicada, el cual es cómo garantizar que se dispondrá de la energía suficiente como para satisfacer la demanda energética de la población mundial. De entre todas las soluciones posibles que se pueden adoptar para mitigar este problema una de ellas es de casi obligatoria adopción, la cual consiste en racionalizar la utilización de la energía, de tal forma que se minimice su malgasto y pueda aprovecharse durante más tiempo. Una de las maneras de conseguirlo es mediante la mejora de la red de distribución de electricidad para que ésta pueda reaccionar de manera más eficaz contra problemas comunes, tales como los picos de demanda de energía o previsiones imprecisas acerca del consumo de electricidad. Sin embargo, para poder implementar esta mejora es necesario utilizar tecnologías del ámbito de las TIC (Tecnologías de la Información y la Comunicación) que a menudo presentan problemas en algunas áreas clave: integración de infraestructura de medición avanzada, interoperabilidad e interconectividad de los dispositivos, interfaces que ofrecer a las aplicaciones, diseño de medidas de seguridad, etc. Todos estos retos pueden implicar una ralentización en la adopción de la red eléctrica inteligente como un sistema para alargar la vida y la utilización de la energía disponible. En este Trabajo Fin de Máster se sugiere una propuesta para una arquitectura de intermediación que posibilite la resolución de estos retos. Además, una implementación y las pruebas que se han llevado a cabo para conocer el rendimiento de los conceptos presentados también han sido incluidas, de tal forma que se demuestre que los retos que plantea la red eléctrica inteligente pueden ser solventados.
Resumo:
Este trabajo se enmarca dentro del ámbito de las Ciudades Inteligentes. Una Ciudad Inteligente se puede definir como aquella ciudad que usa las tecnologías de la información y las comunicaciones para hacer que tanto su infraestructura crítica, como sus componentes y servicios públicos ofrecidos sean más interactivos, eficientes y los ciudadanos puedan ser más conscientes de ellos. Se trata de un concepto emergente que presenta una serie de retos de diseño que se deben abordar. Dos retos importantes son la variabilidad del contexto con el tiempo y la incertidumbre en la información del contexto. Una parte fundamental de estos sistemas, y que permite abordar estos retos, son los mecanismos de toma de decisión. Estos mecanismos permiten a los sistemas modificar su comportamiento en función de los cambios que detecten en su contexto, de manera que puedan adaptarse y responder adecuadamente a la situación en cada momento. Este trabajo tiene como objetivo el desarrollo de algoritmos de toma de decisión en el marco de las Ciudades Inteligentes. En particular, se ha diseñado e implementado, utilizando el software MATLAB, un algoritmo de toma de decisión que aborda los retos mencionados y que se puede aplicar en una de las áreas que engloban las Ciudades Inteligentes: los Sistemas Inteligentes de Transporte. Este proyecto se estructura fundamentalmente en dos partes: una parte teórica y una parte práctica. En la parte teórica se trata de proporcionar al lector nociones básicas sobre los conceptos de Ciudad Inteligente y Sistemas Inteligentes de Transporte, así como de la toma de decisión. También se explican los pasos del procedimiento de la toma de decisión y se proporciona un estado del arte de los algoritmos de toma de decisión existentes. Por otro lado, la segunda parte de este proyecto es totalmente original, y en ella el autor propone un algoritmo de toma de decisión para ser aplicado en el ámbito de los Sistemas Inteligentes de Transporte y desarrolla la implementación en MATLAB del algoritmo mencionado. Por último, para demostrar su funcionamiento, se valida el algoritmo en un escenario de aplicación consistente en un sistema inteligente de gestión del tráfico. ABSTRACT. This master thesis is framed under Smart Cities environment. A Smart City can be defined as the use of Information and Communication Technologies to make the critical infrastructure components and services of a city more intelligent, interconnected and efficient and citizens can be also more aware of them. Smart City is a new concept which presents a novel set of design challenges that must be addressed. Two important challenges are the changeable context and the uncertainty of context information. One of the essential parts of Smart Cities, which enables to address these challenges, are decision making mechanisms. Based on the information collected of the context, these systems can be configured to change its behavior whenever certain changes are detected, so that they can adapt themselves and response to the current situation properly. This master thesis is aimed at developing decision making algorithms under Smart Cities framework. In particular, a decision making algorithm which addresses the abovementioned challenges and that can be applied to one of the main categories of Smart Cities, named Intelligent Transportation Systems, has been designed and implemented. To do so, MATLAB software has been used. This project is mainly structured in two parts: a theoretical part and a practical part. In theoretical part, basic ideas about the concept of Smart Cities and Intelligent Transportation Systems are given, as well as the concept of decision making. The steps of the decision making procedure are also explained and a state of the art of existing decision making algorithms is provided. On the other hand, the second part of this project is totally original. In this part, the author propose a decision making algorithm that can be applied to Intelligent Transportation Systems and develops the implementation of the algorithm in MATLAB. Finally, to show the operation of the algorithm, it is validated in an application scenario consisting in a smart traffic management system.
Resumo:
La motivación de esta tesis es el desarrollo de una herramienta de optimización automática para la mejora del rendimiento de formas aerodinámicas enfocado en la industria aeronáutica. Este trabajo cubre varios aspectos esenciales, desde el empleo de Non-Uniform Rational B-Splines (NURBS), al cálculo de gradientes utilizando la metodología del adjunto continuo, el uso de b-splines volumétricas como parámetros de diseño, el tratamiento de la malla en las intersecciones, y no menos importante, la adaptación de los algoritmos de la dinámica de fluidos computacional (CFD) en arquitecturas hardware de alto paralelismo, como las tarjetas gráficas, para acelerar el proceso de optimización. La metodología adjunta ha posibilitado que los métodos de optimización basados en gradientes sean una alternativa prometedora para la mejora de la eficiencia aerodinámica de los aviones. La formulación del adjunto permite calcular los gradientes de una función de coste, como la resistencia aerodinámica o la sustentación, independientemente del número de variables de diseño, a un coste computacional equivalente a una simulación CFD. Sin embargo, existen problemas prácticos que han imposibilitado su aplicación en la industria, que se pueden resumir en: integrabilidad, rendimiento computacional y robustez de la solución adjunta. Este trabajo aborda estas contrariedades y las analiza en casos prácticos. Como resumen, las contribuciones de esta tesis son: • El uso de NURBS como variables de diseño en un bucle de automático de optimización, aplicado a la mejora del rendimiento aerodinámico de alas en régimen transónico. • El desarrollo de algoritmos de inversión de punto, para calcular las coordenadas paramétricas de las coordenadas espaciales, para ligar los vértices de malla a las NURBS. • El uso y validación de la formulación adjunta para el calculo de los gradientes, a partir de las sensibilidades de la solución adjunta, comparado con diferencias finitas. • Se ofrece una estrategia para utilizar la geometría CAD, en forma de parches NURBS, para tratar las intersecciones, como el ala-fuselaje. • No existen muchas alternativas de librerías NURBS viables. En este trabajo se ha desarrollado una librería, DOMINO NURBS, y se ofrece a la comunidad como código libre y abierto. • También se ha implementado un código CFD en tarjeta gráfica, para realizar una valoración de cómo se puede adaptar un código sobre malla no estructurada a arquitecturas paralelas. • Finalmente, se propone una metodología, basada en la función de Green, como una forma eficiente de paralelizar simulaciones numéricas. Esta tesis ha sido apoyada por las actividades realizadas por el Área de Dinámica da Fluidos del Instituto Nacional de Técnica Aeroespacial (INTA), a través de numerosos proyectos de financiación nacional: DOMINO, SIMUMAT, y CORESFMULAERO. También ha estado en consonancia con las actividades realizadas por el departamento de Métodos y Herramientas de Airbus España y con el grupo Investigación y Tecnología Aeronáutica Europeo (GARTEUR), AG/52. ABSTRACT The motivation of this work is the development of an automatic optimization strategy for large scale shape optimization problems that arise in the aeronautics industry to improve the aerodynamic performance; covering several aspects from the use of Non-Uniform Rational B-Splines (NURBS), the calculation of the gradients with the continuous adjoint formulation, the development of volumetric b-splines parameterization, mesh adaptation and intersection handling, to the adaptation of Computational Fluid Dynamics (CFD) algorithms to take advantage of highly parallel architectures in order to speed up the optimization process. With the development of the adjoint formulation, gradient-based methods for aerodynamic optimization become a promising approach to improve the aerodynamic performance of aircraft designs. The adjoint methodology allows the evaluation the gradients to all design variables of a cost function, such as drag or lift, at the equivalent cost of more or less one CFD simulation. However, some practical problems have been delaying its full implementation to the industry, which can be summarized as: integrability, computer performance, and adjoint robustness. This work tackles some of these issues and analyse them in well-known test cases. As summary, the contributions comprises: • The employment of NURBS as design variables in an automatic optimization loop for the improvement of the aerodynamic performance of aircraft wings in transonic regimen. • The development of point inversion algorithms to calculate the NURBS parametric coordinates from the space coordinates, to link with the computational grid vertex. • The use and validation of the adjoint formulation to calculate the gradients from the surface sensitivities in an automatic optimization loop and evaluate its reliability, compared with finite differences. • This work proposes some algorithms that take advantage of the underlying CAD geometry description, in the form of NURBS patches, to handle intersections and mesh adaptations. • There are not many usable libraries for NURBS available. In this work an open source library DOMINO NURBS has been developed and is offered to the community as free, open source code. • The implementation of a transonic CFD solver from scratch in a graphic card, for an assessment of the implementability of conventional CFD solvers for unstructured grids to highly parallel architectures. • Finally, this research proposes the use of the Green's function as an efficient paralellization scheme of numerical solvers. The presented work has been supported by the activities carried out at the Fluid Dynamics branch of the National Institute for Aerospace Technology (INTA) through national founding research projects: DOMINO, SIMUMAT, and CORESIMULAERO; in line with the activities carried out by the Methods and Tools and Flight Physics department at Airbus and the Group for Aeronautical Research and Technology in Europe (GARTEUR) action group AG/52.
Resumo:
La Smart City es el nuevo paradigma urbano. El artículo plantea la evolución del concepto Smart City, desde una concepción tecnológica hacia una visión centrada en las personas y, en consecuencia, la necesidad de enfocar el despliegue de la Ciudad Inteligente hacia la reducción de la brecha digital.
Resumo:
Los sistemas microinformáticos se componen principalmente de hardware y software, con el paso del tiempo el hardware se degrada, se deteriora y en ocasiones se avería. El software evoluciona, requiere un mantenimiento, de actualización y en ocasiones falla teniendo que ser reparado o reinstalado. A nivel hardware se analizan los principales componentes que integran y que son comunes en gran parte estos sistemas, tanto en equipos de sobre mesa como portátiles, independientes del sistema operativo, además de los principales periféricos, también se analizan y recomiendan algunas herramientas necesarias para realizar el montaje, mantenimiento y reparación de estos equipos. Los principales componentes hardware internos son la placa base, memoria RAM, procesador, disco duro, carcasa, fuente de alimentación y tarjeta gráfica. Los periféricos más destacados son el monitor, teclado, ratón, impresora y escáner. Se ha incluido un apartado donde se detallan los distintos tipos de BIOS y los principales parámetros de configuración. Para todos estos componentes, tanto internos como periféricos, se ha realizado un análisis de las características que ofrecen y los detalles en los que se debe prestar especial atención en el momento de seleccionar uno frente a otro. En los casos que existen diferentes tecnologías se ha hecho una comparativa entre ambas, destacando las ventajas y los inconvenientes de unas frente a otras para que sea el usuario final quien decida cual se ajusta mejor a sus necesidades en función de las prestaciones y el coste. Un ejemplo son las impresoras de inyección de tinta frente a las laser o los discos duros mecánicos en comparación con y los discos de estado sólido (SSD). Todos estos componentes están relacionados, interconectados y dependen unos de otros, se ha dedicado un capítulo exclusivamente para estudiar cómo se ensamblan estos componentes, resaltando los principales fallos que se suelen cometer o producir y se han indicado unas serie tareas de mantenimiento preventivo que se pueden realizar para prolongar la vida útil del equipo y evitar averías por mal uso. Los mantenimientos se pueden clasificar como predictivo, perfectivo, adaptativo, preventivo y correctivo. Se ha puesto el foco principalmente en dos tipos de mantenimiento, el preventivo descrito anteriormente y en el correctivo, tanto software como hardware. El mantenimiento correctivo está enfocado al análisis, localización, diagnóstico y reparación de fallos y averías hardware y software. Se describen los principales fallos que se producen en cada componente, cómo se manifiestan o qué síntomas presentan para poder realizar pruebas específicas que diagnostiquen y acoten el fallo. En los casos que es posible la reparación se detallan las instrucciones a seguir, en otro caso se recomienda la sustitución de la pieza o componente. Se ha incluido un apartado dedicado a la virtualización, una tecnología en auge que resulta muy útil para realizar pruebas de software, reduciendo tiempos y costes en las pruebas. Otro aspecto interesante de la virtualización es que se utiliza para montar diferentes servidores virtuales sobre un único servidor físico, lo cual representa un importante ahorro en hardware y costes de mantenimiento, como por ejemplo el consumo eléctrico. A nivel software se realiza un estudio detallado de los principales problemas de seguridad y vulnerabilidades a los que está expuesto un sistema microinformático enumerando y describiendo el comportamiento de los distintos tipos de elementos maliciosos que pueden infectar un equipo, las precauciones que se deben tomar para minimizar los riesgos y las utilidades que se pueden ejecutar para prevenir o limpiar un equipo en caso de infección. Los mantenimientos y asistencias técnicas, en especial las de tipo software, no siempre precisan de la atención presencial de un técnico cualificado, por ello se ha dedicado un capítulo a las herramientas de asistencia remota que se pueden utilizar en este ámbito. Se describen algunas de las más populares y utilizadas en el mercado, su funcionamiento, características y requerimientos. De esta forma el usuario puede ser atendido de una forma rápida, minimizando los tiempos de respuesta y reduciendo los costes. ABSTRACT Microcomputer systems are basically made up of pieces of hardware and software, as time pass, there’s a degradation of the hardware pieces and sometimes failures of them. The software evolves, new versions appears and requires maintenance, upgrades and sometimes also fails having to be repaired or reinstalled. The most important hardware components in a microcomputer system are analyzed in this document for a laptop or a desktop, with independency of the operating system they run. In addition to this, the main peripherals and devices are also analyzed and a recommendation about the most proper tools necessary for maintenance and repair this kind of equipment is given as well. The main internal hardware components are: motherboard, RAM memory, microprocessor, hard drive, housing box, power supply and graphics card. The most important peripherals are: monitor, keyboard, mouse, printer and scanner. A section has been also included where different types of BIOS and main settings are listed with the basic setup parameters in each case. For all these internal components and peripherals, an analysis of their features has been done. Also an indication of the details in which special attention must be payed when choosing more than one at the same time is given. In those cases where different technologies are available, a comparison among them has been done, highlighting the advantages and disadvantages of selecting one or another to guide the end user to decide which one best fits his needs in terms of performance and costs. As an example, the inkjet vs the laser printers technologies has been faced, or also the mechanical hard disks vs the new solid state drives (SSD). All these components are interconnected and are dependent one to each other, a special chapter has been included in order to study how they must be assembled, emphasizing the most often mistakes and faults that can appear during that process, indicating different tasks that can be done as preventive maintenance to enlarge the life of the equipment and to prevent damage because of a wrong use. The different maintenances can be classified as: predictive, perfective, adaptive, preventive and corrective. The main focus is on the preventive maintains, described above, and in the corrective one, in software and hardware. Corrective maintenance is focused on the analysis, localization, diagnosis and repair of hardware and software failures and breakdowns. The most typical failures that can occur are described, also how they can be detected or the specific symptoms of each one in order to apply different technics or specific tests to diagnose and delimit the failure. In those cases where the reparation is possible, instructions to do so are given, otherwise, the replacement of the component is recommended. A complete section about virtualization has also been included. Virtualization is a state of the art technology that is very useful especially for testing software purposes, reducing time and costs during the tests. Another interesting aspect of virtualization is the possibility to have different virtual servers on a single physical server, which represents a significant savings in hardware inversion and maintenance costs, such as electricity consumption. In the software area, a detailed study has been done about security problems and vulnerabilities a microcomputer system is exposed, listing and describing the behavior of different types of malicious elements that can infect a computer, the precautions to be taken to minimize the risks and the tools that can be used to prevent or clean a computer system in case of infection. The software maintenance and technical assistance not always requires the physical presence of a qualified technician to solve the possible problems, that’s why a complete chapter about the remote support tools that can be used to do so has been also included. Some of the most popular ones used in the market are described with their characteristics and requirements. Using this kind of technology, final users can be served quickly, minimizing response times and reducing costs.
Resumo:
Uno de los mayores retos para la comunidad científica es conseguir que las máquinas posean en un futuro la capacidad del sistema visual y cognitivo humanos, de forma que, por ejemplo, en entornos de video vigilancia, puedan llegar a proporcionar de manera automática una descripción fiable de lo que está ocurriendo en la escena. En la presente tesis, mediante la propuesta de un marco de trabajo de referencia, se discuten y plantean los pasos necesarios para el desarrollo de sistemas más inteligentes capaces de extraer y analizar, a diferentes niveles de abstracción y mediante distintos módulos de procesamiento independientes, la información necesaria para comprender qué está sucediendo en un conjunto amplio de escenarios de distinta naturaleza. Se parte de un análisis de requisitos y se identifican los retos para este tipo de sistemas en la actualidad, lo que constituye en sí mismo los objetivos de esta tesis, contribuyendo así a un modelo de datos basado en el conocimiento que permitirá analizar distintas situaciones en las que personas y vehículos son los actores principales, dejando no obstante la puerta abierta a la adaptación a otros dominios. Así mismo, se estudian los distintos procesos que se pueden lanzar a nivel interno así como la necesidad de integrar mecanismos de realimentación a distintos niveles que permitan al sistema adaptarse mejor a cambios en el entorno. Como resultado, se propone un marco de referencia jerárquico que integra las capacidades de percepción, interpretación y aprendizaje para superar los retos identificados en este ámbito; y así poder desarrollar sistemas de vigilancia más robustos, flexibles e inteligentes, capaces de operar en una variedad de entornos. Resultados experimentales ejecutados sobre distintas muestras de datos (secuencias de vídeo principalmente) demuestran la efectividad del marco de trabajo propuesto respecto a otros propuestos en el pasado. Un primer caso de estudio, permite demostrar la creación de un sistema de monitorización de entornos de parking en exteriores para la detección de vehículos y el análisis de plazas libres de aparcamiento. Un segundo caso de estudio, permite demostrar la flexibilidad del marco de referencia propuesto para adaptarse a los requisitos de un entorno de vigilancia completamente distinto, como es un hogar inteligente donde el análisis automático de actividades de la vida cotidiana centra la atención del estudio. ABSTRACT One of the most ambitious objectives for the Computer Vision and Pattern Recognition research community is that machines can achieve similar capacities to the human's visual and cognitive system, and thus provide a trustworthy description of what is happening in the scene under surveillance. Thus, a number of well-established scenario understanding architectural frameworks to develop applications working on a variety of environments can be found in the literature. In this Thesis, a highly descriptive methodology for the development of scene understanding applications is presented. It consists of a set of formal guidelines to let machines extract and analyse, at different levels of abstraction and by means of independent processing modules that interact with each other, the necessary information to understand a broad set of different real World surveillance scenarios. Taking into account the challenges that working at both low and high levels offer, we contribute with a highly descriptive knowledge-based data model for the analysis of different situations in which people and vehicles are the main actors, leaving the door open for the development of interesting applications in diverse smart domains. Recommendations to let systems achieve high-level behaviour understanding will be also provided. Furthermore, feedback mechanisms are proposed to be integrated in order to let any system to understand better the environment and the logical context around, reducing thus the uncertainty and noise, and increasing its robustness and precision in front of low-level or high-level errors. As a result, a hierarchical cognitive architecture of reference which integrates the necessary perception, interpretation, attention and learning capabilities to overcome main challenges identified in this area of research is proposed; thus allowing to develop more robust, flexible and smart surveillance systems to cope with the different requirements of a variety of environments. Once crucial issues that should be treated explicitly in the design of this kind of systems have been formulated and discussed, experimental results shows the effectiveness of the proposed framework compared with other proposed in the past. Two case studies were implemented to test the capabilities of the framework. The first case study presents how the proposed framework can be used to create intelligent parking monitoring systems. The second case study demonstrates the flexibility of the system to cope with the requirements of a completely different environment, a smart home where activities of daily living are performed. Finally, general conclusions and future work lines to further enhancing the capabilities of the proposed framework are presented.
Resumo:
Hoy en día, ya no se puede pasar por alto la necesidad de una agricultura climáticamente más inteligente para los 500 millones de pequeños agricultores del mundo (Wheeler, 2013). Estos representan aproximadamente el 60 % de la agricultura mundial y proporcionan hasta el 80 % de los alimentos en los países en vías de desarrollo, los pequeños agricultores gestionan vastas extensiones de tierra y lamentablemente incluyen los grupos con mayor proporción de personas en estado de inseguridad alimentaria. El cambio climático está transformando el contexto para la agricultura en pequeña escala. Durante siglos, los pequeños agricultores desarrollaron la capacidad de adaptarse a los cambios ambientales y la variabilidad del clima, pero la velocidad y la intensidad del cambio climático está superando su capacidad de respuesta. Si no se cambia la manera que tenemos de lidiar con el cambio climático, tanto en acciones locales como globales, es muy probable que las personas rurales de entornos vulnerables tengan que adaptarse a un calentamiento global promedio de 4 °C por encima de los niveles preindustriales para el año 2100. Esta alza de las temperaturas aumentará aún más la incertidumbre y provocará desastres naturales como las sequías, la erosión del suelo, la pérdida de biodiversidad y la escasez agua sean mucho más frecuentes. Uno de los factores más importantes para los pequeños agricultores es que ya no pueden depender de los promedios históricos, por lo que es más difícil para ellos para planificar y gestionar la producción debido a los cambios en los patrones climáticos. Algunos de los principales cultivos de cereales (trigo, arroz, maíz, etc.) han alcanzado su umbral de tolerancia al calor y un aumento de la temperatura en torno a 1,5-2 °C podría ser muy perjudicial. Estos efectos a corto plazo podrían ser agravados por otros a medio y largo plazo, los que se refieren al impacto socioeconómico en términos de oportunidades y estabilidad política. El cambio climático está haciendo que el desarrollo de la pequeña agricultura resulte mucho más caro. A nivel de proyectos, los programas resistentes al clima tienen, normalmente, unos costos iniciales más altos, tanto de diseño como de implementación. Por ejemplo, es necesario incluir gastos adicionales en infraestructura, operación y mantenimiento; desarrollo de nuevas capacidades y el intercambio de conocimientos en torno al cambio climático. También se necesita mayor inversión para fortalecer las instituciones frente a los nuevos retos que propone el cambio climático, o generar información que pueda ser de escala reducida y con enfoques que beneficien a la comunidad, el cambio climático es global pero los efectos son locales. Es, por tanto, el momento de redefinir la relación entre agricultura y medio ambiente, ya que se hace cada vez más necesario buscar mejores y más eficientes maneras para responder al cambio climático. Es importante señalar que la respuesta al cambio climático no significa reinventar todo lo que se ha aprendido sobre el desarrollo, significa aplicar un esfuerzo renovado para hacer frente a los cambios en el trabajo de cooperación al desarrollo de una manera más sistemática y más amplia. Una respuesta coherente al cambio climático requiere que la comunidad internacional reconozca la necesidad de aumentar el apoyo financiero para la adaptación así como un mayor énfasis en proporcionar soluciones diseñadas para aumentar la resiliencia1 de los pequeños agricultores a las crisis relacionadas con el clima. Con el fin de responder a algunos de los desafíos mencionados anteriormente, esta investigación pretende contribuir a fortalecer las capacidades de los pequeños productores, aquellos que actualmente están la primera línea frente a los desafíos del cambio climático, promoviendo un desarrollo que tenga un impacto positivo en sus medios de vida. La tesis se compone de cuatro capítulos. El primero define y analiza el marco teórico de las interacciones entre el cambio climático y el impacto en los proyectos de desarrollo rural, especialmente los que tienen por objetivo mejorar la seguridad alimentaria de los pequeños productores. En ese mismo capítulo, se presenta una revisión global de la financiación climática, incluyendo la necesidad de asignar suficientes recursos para la adaptación. Con el fin de lograr una mayor eficacia e impacto en los proyectos de desarrollo, la investigación desarrolla una metodología para integrar actividades de adaptación al cambio climático, presentada en el segundo capítulo. Esta metodología fue implementada y validada durante el periodo 2012-14, trabajando directamente con diferentes equipos gubernamentales en diez proyectos del Fondo Internacional de Desarrollo Agrícola ). El tercero presenta, de manera detallada, la aplicación de la metodología a los estudios de caso de Bolivia y Nicaragua, así como un resumen de las principales conclusiones en la aplicación de los ocho países restantes. Finalmente, en el último capítulo se presentan las conclusiones y un esbozo de futuras líneas de investigación. Actualmente, el tema de la sostenibilidad ambiental y el cambio climático está ganando terreno en la agenda de desarrollo. Es por ello que se alumbra esta investigación, para que a través de los resultados obtenidos y la implementación de la metodología propuesta, sirva como herramienta estratégica para la planificación y la gestión operativa a la hora de integrar iniciativas de adaptación en los proyectos de desarrollo rural. ABSTRACT The need for climate-smart agriculture for the world’s 500 million smallholder farms cannot be overlooked: they account for 60 per cent of global agriculture, provide up to 80 per cent of food in developing countries, manage vast areas of land and make up the largest share of the developing world’s undernourished. Climate change is transforming the context for smallholder agriculture. Over centuries smallholders have developed the capacity to adapt to environmental change and climate variability, but the speed and intensity of climate change is outpacing the speed of historically autonomous actions. In the absence of a profound step-change in local and global action on climate change, it is Increasingly likely that poor rural people would need to contend with an average global warming of 4 degrees above pre-industrial levels by 2100, if not sooner. Such substantial climatic change will further increase uncertainty and exacerbate weather –related disasters, droughts, biodiversity loss, and land and water scarcity. Perhaps most significantly for smallholder farmers, they can no longer rely on historical averages, making it harder for them to plan and manage production when planting seasons and weather patterns are shifting. The major cereal crops (wheat, rice, maize, etc.) are at their heat tolerance threshold and with a 1.5-2°C temperature increase could collapse. These “first-round” effects will be compounded by second-round socio-economic impacts in terms of economic opportunities and political stability. Climate change is making the development of smallholder agriculture more expensive. At project level, climate-resilient programmes typically have higher up-front design and implementation costs – e.g. infrastructure costs and initially increased asset management, operation and maintenance, more capacity-building and knowledge sharing, strengthening institutions, greater project development costs (downscaled data generation and community-based approaches), and greater costs from enhancing cross sectorial and stakeholders collaboration. Consequently it’s time to redefine the relationship between agriculture and environment as we need to look better and more efficient ways to respond to climate change. It is important to note that responding to climate change does not mean to throwing out or reinventing everything that has been learnt about development. It means a renewed effort to tackle wider and well-known development changes in a more systematic way. A coherent response to climate change requires acknowledge of the need to increase the financial support for adaptation and a continued emphasis on provided solutions designed to increase the resilience of smallholders and poor communities to shocks, which are weather related. In order to respond to some of the challenges mentioned before, this research aims to contribute to strengthen the capacities of the smallholders and to promote a development that will positively impact in the rural livelihoods of the most vulnerable smallholders farmers; those who currently are in the first line facing the challenges of climate change. The thesis has four chapters. Chapter one describes and analyses the theoretical framework of the interactions between climate change and the impact on rural development projects, especially those aimed at improving the food security of smallholders producers. In this chapter a comprehensive review of climate financing is presented, including the need to allocate sufficient resources for adaptation. In order to achieve greater effectiveness and impact on development projects, the research develops in the second chapter a methodology to integrate adaptation activities for climate change. This methodology was implemented and validated during the 2012-14 period, working directly with various government teams in ten projects of the International Fund for Agricultural Development (IFAD). The third chapter presents in detail the application of the methodology to the case studies of Bolivia and Nicaragua, as well as a summary of the main conclusions of its implementation in the remaining eight countries. The final chapter exposes the main conclusions and future research topics. At a time when environmental sustainability and climate change issues are gaining more attention, the research and obtained results through the implementation of the model methodology proposed, can be considered a strategic tool for planning and operational management to integrate adaptation initiatives in rural development projects. The use of the proposed methodology will boost incentives to scale up climate resilience programmes and integrate adaptation to climate change into wider smallholder development programmes.
Resumo:
This project is divided into two main parts: The first part shows the integration of an Embedded Linux operating system on a development hardware platform named Zedboard. This platform contains a Zynq-7000 System on Chip (Soc) which is composed by two dual core ARM Cortex-A9 processors and a FPGA Artix-7. The Embedded Linux is built with Linuxlink, a Timesys tool. Meanwhile, the platform hardware configuration is done with Xilinx Vivado. The system is loaded with an SD card which requires to have every files needed for the booting process and for the operation. Some of these files are generated with Xilinx SDK software. The second part starts up from the system already built to integrate a peripheral in the Zynq-7000 FPGA. Also the drivers for controlling the peripheral from the operating system are developed. Finally, a user space program is created to test both of them. RESUMEN. Este proyecto consta de dos partes: La primera muestra la integración de un sistema operativo Linux embebido en una plataforma de desarrollo hardware llamada Zedboard. Esta plataforma utiliza un System on Chip (SoC) Zynq-7000 que está formado por dos procesadores ARM Cortex-A9 de doble núcleo y una FPGA Artix-7. El Linux embebido se construye utilizando la herramienta Linuxlink de Timesys, mientras que el hardware de la plataforma de desarrollo se configura con Vivado de Xilinx. El sistema se carga en una tarjeta SD que debe tener todos los archivos necesarios para completar el arranque y hacer funcionar el sistema. Algunos de esos archivos se generan con la herramienta SDK de Xilinx. En la segunda parte se utiliza el sistema construido para integrar un periférico en la FPGA del Zynq-7000, haciendo uso de Vivado, y se desarrollan los drivers necesarios para utilizarlo mediante el sistema operativo. Para probar esta última parte se desarrolla un programa de espacio de usuario.
Resumo:
Los procesadores tradicionales de un solo núcleo han tenido que enfrentarse a grandes desafíos para poder mejorar su rendimiento y eficiencia energética. Mientras tanto, el rápido avance de las tecnologías de fabricación ha permitido la implementación de varios procesadores en un solo chip, ofreciendo un alto rendimiento y eficiencia energética. Éstos son los llamados procesadores multinúcleo. El objetivo de este proyecto es realizar un sistema multiprocesador para el procesamiento digital de señales de radio. Este sistema multiprocesador puede ser implementado en una tarjeta de prototipado. Para ello se ha utilizado el softcore MB-Lite y el sistema operativo en tiempo real FreeRTOS. ABSTRACT. Traditional single-core processors have faced great challenges to improve their performance and energy efficiency. Meanwhile, rapid advancing fabrication technologies have enabled the implementation of several processors in a single chip, providing high performance and energy efficiency. These are called multi-core processors. The aim of this project is to perform a multiprocessor system for digital radio signal processing. This multiprocessor system can be implemented in a general purpose prototyping card using. To achieve this project, the MB-Lite softcore and the FreeRTOS real time operating system have been used.