285 resultados para Vectores
Resumo:
Un modelo térmico de una caja de engranajes brinda la oportunidad de realizar un estudio más profundo sobre el calor disipado, relacionado con la pérdida de rendimiento en la transmisión por engranajes, hasta ahora sólo conocido indirectamente a través de ciertos ensayos. Un programa basado en un sistema de ecuaciones diferenciales ordinarias fue desarrollado en MATLAB para hacer el modelado térmico de una caja de ensayos de engranajes FZG. Dependiendo de las condiciones de funcionamiento del equipo, como son el nivel de precarga aplicada a los engranajes, el nivel de aceite usado en lubricación por barbotaje, la velocidad de la rueda y el tipo de acabado de los engranajes, se obtendrá distintos resultados. El modelo está basado en una red térmica en la cual cada nodo representa un elemento del equipo. Con las resistencias térmicas, los valores de las pérdidas de potencia (generadores de calor) y la inercia térmica de cada elemento, la evolución de la temperatura en el tiempo fue obtenida aplicando el primer principio de la termodinámica a cada nodo en cada instante de tiempo. Gracias a esto, la transferencia de calor entre los distintos elementos, las pérdidas de potencia, las resistencias térmicas y otros posibles parámetros (ratio del calor transmitido de las ruedas al aceite sobre las pérdidas por fricción) fueron también estimados en cada instante de tiempo en forma de matrices o vectores. Los resultados muestran una amplia capacidad y versatilidad del programa en términos de análisis térmico: el sentido y magnitud del flujo calorífico, herramientas visuales como la animación de la red térmica y de los elementos de la caja conforme se va calentando y la posibilidad de análisis térmico para diferentes condiciones de funcionamiento con sólo cambiar ciertas variables en el programa. Con estas funciones es posible dar un enfoque y abordar el estudio de la mínima cantidad de lubricante necesaria y otras maneras de amortiguar el sobrecalentamiento, además de conocer la temperatura de contacto entre engranajes. Esta temperatura, que es imposible de determinar experimentalmente, supondría un gran avance para tratar el desgaste superficial de engranajes.
Resumo:
Actualmente, la gestión de sistemas de Manejo Integrado de Plagas (MIP) en cultivos hortícolas tiene por objetivo priorizar los métodos de control no químicos en detrimento del consumo de plaguicidas, según recoge la directiva europea 2009/128/CE ‘Uso Sostenible de Plaguicidas’ (OJEC, 2009). El uso de agentes de biocontrol como alternativa a la aplicación de insecticidas es un elemento clave de los sistemas MIP por sus innegables ventajas ambientales que se utiliza ampliamente en nuestro país (Jacas y Urbaneja, 2008). En la región de Almería, donde se concentra el 65% de cultivo en invernadero de nuestro país (47.367 ha), MIP es la principal estrategia en pimiento (MAGRAMA, 2014), y comienza a serlo en otros cultivos como tomate o pepino. El cultivo de pepino, con 8.902 ha (MAGRAMA, 2013), tiene un protocolo semejante al pimiento (Robledo et al., 2009), donde la única especie de pulgón importante es Aphis gossypii Glover. Sin embargo, pese al continuo incremento de la superficie de cultivo agrícola bajo sistemas MIP, los daños originados por virosis siguen siendo notables. Algunos de los insectos presentes en los cultivos de hortícolas son importantes vectores de virus, como los pulgones, las moscas blancas o los trips, cuyo control resulta problemático debido a su elevada capacidad para transmitir virus vegetales incluso a una baja densidad de plaga (Holt et al., 2008; Jacas y Urbaneja, 2008). Las relaciones que se establecen entre los distintos agentes de un ecosistema son complejas y muy específicas. Se ha comprobado que, pese a que los enemigos naturales reducen de manera beneficiosa los niveles de plaga, su incorporación en los sistemas planta-insecto-virus puede desencadenar complicadas interacciones con efectos no deseables (Dicke y van Loon, 2000; Jeger et al., 2011). Así, los agentes de biocontrol también pueden inducir a que los insectos vectores modifiquen su comportamiento como respuesta al ataque y, con ello, el grado de dispersión y los patrones de distribución de las virosis que transmiten (Bailey et al., 1995; Weber et al., 1996; Hodge y Powell, 2008a; Hodge et al., 2011). Además, en ocasiones el control biológico por sí solo no es suficiente para controlar determinadas plagas (Medina et al., 2008). Entre los métodos que se pueden aplicar bajo sistemas MIP están las barreras físicas que limitan la entrada de plagas al interior de los invernaderos o interfieren con su movimiento, como pueden ser las mallas anti-insecto (Álvarez et al., 2014), las mallas fotoselectivas (Raviv y Antignus, 2004; Weintraub y Berlinger, 2004; Díaz y Fereres, 2007) y las mallas impregnadas en insecticida (Licciardi et al., 2008; Martin et al., 2014). Las mallas fotoselectivas reducen o bloquean casi por completo la transmisión de radiación UV, lo que interfiere con la visión de los insectos y dificulta o impide la localización del cultivo y su establecimiento en el mismo (Raviv y Antignus, 2004; Weintraub, 2009). Se ha comprobado cómo su uso puede controlar los pulgones y las virosis en cultivo de lechuga (Díaz et al., 2006; Legarrea et al., 2012a), así como la mosca blanca, los trips y los ácaros, y los virus que estos transmiten en otros cultivos (Costa y Robb, 1999; Antignus et al., 2001; Kumar y Poehling, 2006; Doukas y Payne, 2007a; Legarrea et al., 2010). Sin embargo, no se conoce perfectamente el modo de acción de estas barreras, puesto que existe un efecto directo sobre la plaga y otro indirecto mediado por la planta, cuya fisiología cambia al desarrollarse en ambientes con falta de radiación UV, y que podría afectar al ciclo biológico de los insectos fitófagos (Vänninen et al., 2010; Johansen et al., 2011). Del mismo modo, es necesario estudiar la compatibilidad de esta estrategia con los enemigos naturales de las plagas. Hasta la fecha, los estudios han evidenciado que los agentes de biocontrol pueden realizar su actividad bajo ambientes pobres en radiación UV (Chyzik et al., 2003; Chiel et al., 2006; Doukas y Payne, 2007b; Legarrea et al., 2012c). Otro método basado en barreras físicas son las mallas impregnadas con insecticidas, que se han usado tradicionalmente en la prevención de enfermedades humanas transmitidas por mosquitos (Martin et al., 2006). Su aplicación se ha ensayado en agricultura en ciertos cultivos al aire libre (Martin et al., 2010; Díaz et al., 2004), pero su utilidad en cultivos protegidos para prevenir la entrada de insectos vectores en invernadero todavía no ha sido investigada. Los aditivos se incorporan al tejido durante el proceso de extrusión de la fibra y se liberan lentamente actuando por contacto en el momento en que el insecto aterriza sobre la malla, con lo cual el riesgo medioambiental y para la salud humana es muy limitado. Los plaguicidas que se emplean habitualmente suelen ser piretroides (deltametrina o bifentrín), aunque también se ha ensayado dicofol (Martin et al., 2010) y alfa-cipermetrina (Martin et al., 2014). Un factor que resulta de vital importancia en este tipo de mallas es el tamaño del poro para facilitar una buena ventilación del cultivo, al tiempo que se evita la entrada de insectos de pequeño tamaño como las moscas blancas (Bethke y Paine, 1991; Muñoz et al., 1999). Asimismo, se plantea la necesidad de estudiar la compatibilidad de estas mallas con los enemigos naturales. Es por ello que en esta Tesis Doctoral se plantea la necesidad de evaluar nuevas mallas impregnadas que impidan el paso de insectos de pequeño tamaño al interior de los invernaderos, pero que a su vez mantengan un buen intercambio y circulación de aire a través del poro de la malla. Así, en la presente Tesis Doctoral, se han planteado los siguientes objetivos generales a desarrollar: 1. Estudiar el impacto de la presencia de parasitoides sobre el grado de dispersión y los patrones de distribución de pulgones y las virosis que éstos transmiten. 2. Conocer el efecto directo de ambientes pobres en radiación UV sobre el comportamiento de vuelo de plagas clave de hortícolas y sus enemigos naturales. 3. Evaluar el efecto directo de la radiación UV-A sobre el crecimiento poblacional de pulgones y mosca blanca, y sobre la fisiología de sus plantas hospederas, así como el efecto indirecto de la radiación UV-A en ambas plagas mediado por el crecimiento de dichas planta hospederas. 4. Caracterización de diversas mallas impregnadas en deltametrina y bifentrín con diferentes propiedades y selección de las óptimas para el control de pulgones, mosca blanca y sus virosis asociadas en condiciones de campo. Estudio de su compatibilidad con parasitoides. ABSTRACT Insect vectors of plant viruses are the main agents causing major economic losses in vegetable crops grown under protected environments. This Thesis focuses on the implementation of new alternatives to chemical control of insect vectors under Integrated Pest Management programs. In Spain, biological control is the main pest control strategy used in a large part of greenhouses where horticultural crops are grown. The first study aimed to increase our knowledge on how the presence of natural enemies such as Aphidius colemani Viereck may alter the dispersal of the aphid vector Aphis gossypii Glover (Chapter 4). In addition, it was investigated if the presence of this parasitoid affected the spread of aphid-transmitted viruses Cucumber mosaic virus (CMV, Cucumovirus) and Cucurbit aphid-borne yellows virus (CABYV, Polerovirus) infecting cucumber (Cucumis sativus L). SADIE methodology was used to study the distribution patterns of both the virus and its vector, and their degree of association. Results suggested that parasitoids promoted aphid dispersal in the short term, which enhanced CMV spread, though consequences of parasitism suggested potential benefits for disease control in the long term. Furthermore, A. colemani significantly limited the spread and incidence of the persistent virus CABYV in the long term. The flight activity of pests Myzus persicae (Sulzer), Bemisia tabaci (Gennadius) and Tuta absoluta (Meyrick), and natural enemies A. colemani and Sphaerophoria rueppellii (Weidemann) under UV-deficient environments was studied under field conditions (Chapter 5). One-chamber tunnels were covered with cladding materials with different UV transmittance properties. Inside each tunnel, insects were released from tubes placed in a platform suspended from the ceiling. Specific targets were located at different distances from the platform. The ability of aphids and whiteflies to reach their targets was diminished under UV-absorbing barriers, suggesting a reduction of vector activity under this type of nets. Fewer aphids reached distant traps under UV-absorbing nets, and significantly more aphids could fly to the end of the tunnels covered with non-UV blocking materials. Unlike aphids, differences in B. tabaci captures were mainly found in the closest targets. The oviposition of lepidopteran T. absoluta was also negatively affected by a UV-absorbing cover. The photoselective barriers were compatible with parasitism and oviposition of biocontrol agents. Apart from the direct response of insects to UV radiation, plant-mediated effects influencing insect performance were investigated (Chapter 6). The impact of UV-A radiation on the performance of aphid M. persicae and whitefly B. tabaci, and growth and leaf physiology of host plants pepper and eggplant was studied under glasshouse conditions. Plants were grown inside cages covered by transparent and UV-A-opaque plastic films. Plant growth and insect fitness were monitored. Leaves were harvested for chemical analysis. Pepper plants responded directly to UV-A by producing shorter stems whilst UV-A did not affect the leaf area of either species. UV-A-treated peppers had higher content of secondary metabolites, soluble carbohydrates, free amino acids and proteins. Such changes in tissue chemistry indirectly promoted aphid performance. For eggplants, chlorophyll and carotenoid levels decreased with supplemental UVA but phenolics were not affected. Exposure to supplemental UV-A had a detrimental effect on whitefly development, fecundity and fertility presumably not mediated by plant cues, as compounds implied in pest nutrition were unaltered. Lastly, the efficacy of a wide range of Long Lasting Insecticide Treated Nets (LLITNs) was studied under laboratory and field conditions. This strategy aimed to prevent aphids and whiteflies to enter the greenhouse by determining the optimum mesh size (Chapter 7). This new approach is based on slow release deltamethrin- and bifenthrin-treated nets with large hole sizes that allow improved ventilation of greenhouses. All LLITNs produced high mortality of M. persicae and A. gossypii although their efficacy decreased over time with sun exposure. It was necessary a net with hole size of 0.29 mm2 to exclude B. tabaci under laboratory conditions. The feasibility of two selected nets was studied in the field under a high insect infestation pressure in the presence of CMV- and CABYV-infected cucumber plants. Besides, the compatibility of parasitoid A. colemani with bifenthrin-treated nets was studied in parallel field experiments. Both nets effectively blocked the invasion of aphids and reduced the incidence of both viruses, however they failed to exclude whiteflies. We found that our LLITNs were compatible with parasitoid A. colemani. As shown, the role of natural enemies has to be taken into account regarding the dispersal of insect vectors and subsequent spread of plant viruses. The additional benefits of novel physicochemical barriers, such as photoselective and insecticide-impregnated nets, need to be considered in Integrated Pest Management programs of vegetable crops grown under protected environments.
Resumo:
El objetivo del presente trabajo de investigación es explorar nuevas técnicas de implementación, basadas en grafos, para las Redes de Neuronas, con el fin de simplificar y optimizar las arquitecturas y la complejidad computacional de las mismas. Hemos centrado nuestra atención en una clase de Red de Neuronas: las Redes de Neuronas Recursivas (RNR), también conocidas como redes de Hopfield. El problema de obtener la matriz sináptica asociada con una RNR imponiendo un determinado número de vectores como puntos fijos, no está en absoluto resuelto, el número de vectores prototipo que pueden ser almacenados en la red, cuando se utiliza la ley de Hebb, es bastante limitado, la red se satura rápidamente cuando se pretende almacenar nuevos prototipos. La ley de Hebb necesita, por tanto, ser revisada. Algunas aproximaciones dirigidas a solventar dicho problema, han sido ya desarrolladas. Nosotros hemos desarrollado una nueva aproximación en la forma de implementar una RNR en orden a solucionar estos problemas. La matriz sináptica es obtenida mediante la superposición de las componentes de los vectores prototipo, sobre los vértices de un Grafo, lo cual puede ser también interpretado como una coloración de dicho grafo. Cuando el periodo de entrenamiento se termina, la matriz de adyacencia del Grafo Resultante o matriz de pesos, presenta ciertas propiedades por las cuales dichas matrices serán llamadas tetraédricas. La energía asociada a cualquier estado de la red es representado por un punto (a,b) de R2. Cada uno de los puntos de energía asociados a estados que disten lo mismo del vector cero está localizado sobre la misma línea de energía de R2. El espacio de vectores de estado puede, por tanto, clasificarse en n clases correspondientes a cada una de las n diferentes distancias que puede tener cualquier vector al vector cero. La matriz (n x n) de pesos puede reducirse a un n-vector; de esta forma, tanto el tiempo de computación como el espacio de memoria requerido par almacenar los pesos, son simplificados y optimizados. En la etapa de recuperación, es introducido un vector de parámetros R2, éste es utilizado para controlar la capacidad de la red: probaremos que lo mayor es la componente a¡, lo menor es el número de puntos fijos pertenecientes a la línea de energía R¡. Una vez que la capacidad de la red ha sido controlada mediante este parámetro, introducimos otro parámetro, definido como la desviación del vector de pesos relativos, este parámetro sirve para disminuir ostensiblemente el número de parásitos. A lo largo de todo el trabajo, hemos ido desarrollando un ejemplo, el cual nos ha servido para ir corroborando los resultados teóricos, los algoritmos están escritos en un pseudocódigo, aunque a su vez han sido implamentados utilizando el paquete Mathematica 2.2., mostrándolos en un volumen suplementario al texto.---ABSTRACT---The aim of the present research is intended to explore new specifícation techniques of Neural Networks based on Graphs to be used in the optimization and simplification of Network Architectures and Computational Complexhy. We have focused our attention in a, well known, class of Neural Networks: the Recursive Neural Networks, also known as Hopfield's Neural Networks. The general problem of constructing the synaptic matrix associated with a Recursive Neural Network imposing some vectors as fixed points is fer for completery solved, the number of prototype vectors (learning patterns) which can be stored by Hebb's law is rather limited and the memory will thus quickly reach saturation if new prototypes are continuously acquired in the course of time. Hebb's law needs thus to be revised in order to allow new prototypes to be stored at the expense of the older ones. Some approaches related with this problem has been developed. We have developed a new approach of implementing a Recursive Neural Network in order to sob/e these kind of problems, the synaptic matrix is obtained superposing the components of the prototype vectors over the vértices of a Graph which may be interpreted as a coloring of the Graph. When training is finished the adjacency matrix of the Resulting Graph or matrix of weights presents certain properties for which it may be called a tetrahedral matrix The energy associated to any possible state of the net is represented as a point (a,b) in R2. Every one of the energy points associated with state-vectors having the same Hamming distance to the zero vector are located over the same energy Une in R2. The state-vector space may be then classified in n classes according to the n different possible distances firom any of the state-vectors to the zero vector The (n x n) matrix of weights may also be reduced to a n-vector of weights, in this way the computational time and the memory space required for obtaining the weights is optimized and simplified. In the recall stage, a parameter vectora is introduced, this parameter is used for controlling the capacity of the net: it may be proved that the bigger is the r, component of J, the lower is the number of fixed points located in the r¡ energy line. Once the capacity of the net has been controlled by the ex parameter, we introduced other parameter, obtained as the relative weight vector deviation parameter, in order to reduce the number of spurious states. All along the present text, we have also developed an example, which serves as a prove for the theoretical results, the algorithms are shown in a pseudocode language in the text, these algorithm so as the graphics have been developed also using the Mathematica 2.2. mathematical package which are shown in a supplementary volume of the text.
Resumo:
Las listas de espera son un problema para la mayor parte de los países que cuentan con un Sistema Nacional de Salud. El presente trabajo propone analizar el problema de las listas de espera desde una perspectiva de Decisión Multicriterio. Tras un análisis de las diferentes metodologías existentes, hemos elaborado un modelo de decisión basado en el método AHP (Analytic Hierarchy Process) para la gestión de listas de espera y lo hemos aplicado a un Hospital de la Comunidad de Madrid. La decisión multicriterio MCDM (Multiple Criteria Decision Making) es la teoría que estudia y analiza los problemas de decisión que involucran diferentes criterios. La MCDM enmarca con precisión problemas reales de toma de decisiones, planteados usualmente haciendo uso de varios criterios en conflicto; en los cuales, no será posible obtener en general una solución que asigne a todos los criterios su mejor valor sino que el decisor, aplicando distintas técnicas, deberá decidir la mejor solución a escoger del conjunto de soluciones factibles. El fundamento del AHP radica en descomponer problemas complejos en otros más sencillos y agregar las soluciones de los mismos. Según la propuesta de Saaty, el primer paso para la aplicación de este método es estructurar jerárquicamente el problema en niveles con distintos nodos interconectados. El primer nivel de la jerarquía corresponde al propósito del problema, el nivel/niveles intermedios a los criterios/subcriterios en base a los cuales se forma la decisión y el último corresponde a las alternativas o soluciones factibles del problema. La aplicación del método AHP requiere: -Realizar comparaciones por pares entre los entes de cada nivel jerárquico, en base a la importancia que presentan para el nodo del nivel superior de la jerarquía al que están ligados. Los resultados de estas comparaciones se recogen en forma de matrices de comparación por pares. -Obtener los vectores de prioridad correspondientes a cada una de las matrices de comparación por pares. -Calcular la contribución de cada alternativa al propósito del problema, mediante una agregación multiplicativa entre los niveles jerárquicos y en función de estos valores, ordenar las alternativas y seleccionar lo más conveniente como solución del problema. Como último paso en la metodología AHP debemos señalar que, cualquiera que sea el método empleado para sintetizar la información de dichas matrices para determinar los vectores de prioridad de los entes que se comparan, es posible realizar un análisis de sensibilidad del resultado alcanzado, visualizando y analizando otras posibles soluciones a obtener haciendo cambios en los juicios de valor emitidos por la unidad decisora al construir dichas matrices. El software Expert-Choice permite realizar el análisis de sensibilidad de 5 formas diferentes. En estos análisis se realizan variaciones en el valor de un peso o prioridad y se observa numérica y gráficamente como este cambio afecta a la puntuación de las alternativas.
Resumo:
En este Trabajo Fin de Grado se ha realizado primero un informe técnico de la cámara de profundidad de la empresa SoftKinetic DepthSense 325 y de cuatro entornos de desarrollo que tiene como objetivo el uso de dicha cámara para el desarrollo de interfaces hombre-máquina: Perceptual Computing, RealSense, DepthSense e iisu. Posteriormente, tras la evaluación de los entornos de desarrollo y selección del más adecuado para el objetivo, se ha desarrollado un prototipo de un sistema de reconocimiento visual de gestos de manos. La principal contribución a dicho sistema es el uso de redes neuronales para la clasificación de patrones espacio-temporales que representan los gestos a reconocer. Para el entrenamiento de las redes neuronales, se han probado varias configuraciones y los métodos de optimización basados en Gradiente Conjugado y el Gradiente Conjugado Escalado, eficaces para grandes cantidades de información. El sistema propuesto basado en redes neuronales se ha comparado con las populares Máquinas Vectores Soporte, obteniéndose resultados equiparables en términos de reconocimiento de gestos
Resumo:
En este proyecto, se presenta un informe técnico sobre la cámara Leap Motion y el Software Development Kit correspondiente, el cual es un dispositivo con una cámara de profundidad orientada a interfaces hombre-máquina. Esto es realizado con el propósito de desarrollar una interfaz hombre-máquina basada en un sistema de reconocimiento de gestos de manos. Después de un exhaustivo estudio de la cámara Leap Motion, se han realizado diversos programas de ejemplo con la intención de verificar las capacidades descritas en el informe técnico, poniendo a prueba la Application Programming Interface y evaluando la precisión de las diferentes medidas obtenidas sobre los datos de la cámara. Finalmente, se desarrolla un prototipo de un sistema de reconocimiento de gestos. Los datos sobre la posición y orientación de la punta de los dedos obtenidos de la Leap Motion son usados para describir un gesto mediante un vector descriptor, el cual es enviado a una Máquina Vectores Soporte, utilizada como clasificador multi-clase.
Resumo:
En el presente trabajo se aborda el problema del seguimiento de objetos, cuyo objetivo es encontrar la trayectoria de un objeto en una secuencia de video. Para ello, se ha desarrollado un método de seguimiento-por-detección que construye un modelo de apariencia en un dominio comprimido usando una nueva e innovadora técnica: “compressive sensing”. La única información necesaria es la situación del objeto a seguir en la primera imagen de la secuencia. El seguimiento de objetos es una aplicación típica del área de visión artificial con un desarrollo de bastantes años. Aun así, sigue siendo una tarea desafiante debido a varios factores: cambios de iluminación, oclusión parcial o total de los objetos y complejidad del fondo de la escena, los cuales deben ser considerados para conseguir un seguimiento robusto. Para lidiar lo más eficazmente posible con estos factores, hemos propuesto un algoritmo de tracking que entrena un clasificador Máquina Vector Soporte (“Support Vector Machine” o SVM en sus siglas en inglés) en modo online para separar los objetos del fondo de la escena. Con este fin, hemos generado nuestro modelo de apariencia por medio de un descriptor de características muy robusto que describe los objetos y el fondo devolviendo un vector de dimensiones muy altas. Por ello, se ha implementado seguidamente un paso para reducir la dimensionalidad de dichos vectores y así poder entrenar nuestro clasificador en un dominio mucho menor, al que denominamos domino comprimido. La reducción de la dimensionalidad de los vectores de características se basa en la teoría de “compressive sensing”, que dice que una señal con poca dispersión (pocos componentes distintos de cero) puede estar bien representada, e incluso puede ser reconstruida, a partir de un conjunto muy pequeño de muestras. La teoría de “compressive sensing” se ha aplicado satisfactoriamente en este trabajo y diferentes técnicas de medida y reconstrucción han sido probadas para evaluar nuestros vectores reducidos, de tal forma que se ha verificado que son capaces de preservar la información de los vectores originales. También incluimos una actualización del modelo de apariencia del objeto a seguir, mediante el reentrenamiento de nuestro clasificador en cada cuadro de la secuencia con muestras positivas y negativas, las cuales han sido obtenidas a partir de la posición predicha por el algoritmo de seguimiento en cada instante temporal. El algoritmo propuesto ha sido evaluado en distintas secuencias y comparado con otros algoritmos del estado del arte de seguimiento, para así demostrar el éxito de nuestro método.
Resumo:
La pérdida de bosques en la Tierra, principalmente en ecosistemas amazónicos, es un factor clave en el proceso del cambio climático. Para revertir esta situación, los mecanismos REDD (Reducing Emission from Deforestation and forest Degradation) están permitiendo la implementación de actividades de protección del clima a través de la reducción de emisiones por deforestación evitada, según los esquemas previstos en el Protocolo de Kioto. El factor técnico más crítico en un proyecto REDD es la determinación de la línea de referencia de emisiones, que define la expectativa futura sobre las emisiones de CO2 de origen forestal en ausencia de esfuerzos adicionales obtenidos como consecuencia de la implementación del programa REDD para frenar este tipo de emisiones. La zona del estudio se ubica en la región de San Martín (Perú), provincia cubierta fundamentalmente por bosques tropicales cuyas tasas de deforestación son de las más altas de la cuenca amazónica. En las últimas décadas del siglo XX, la región empezó un acelerado proceso de deforestación consecuencia de la integración vial con el resto del país y la rápida inmigración desde zonas rurales en busca de nuevas tierras agrícolas. Desde el punto de vista de la investigación llevada a cabo en la tesis doctoral, se pueden destacar dos líneas: 1. El estudio multitemporal mediante imágenes de satélite Landsat 5/TM con el propósito de calcular las pérdidas de bosque entre períodos. El estudio multitemporal se llevó a cabo en el período 1998-2011 utilizando imágenes Landsat 5/TM, aplicando la metodología de Análisis de Mezclas Espectrales (Spectral Mixtures Analysis), que permite descomponer la reflectancia de cada píxel de la imagen en diferentes fracciones de mezcla espectral. En este proceso, las etapas más críticas son el establecimiento de los espectros puros o endemembers y la recopilación de librerías espectrales adecuadas, en este caso de bosques tropicales, que permitan reducir la incertidumbre de los procesos. Como resultado de la investigación se ha conseguido elaborar la línea de referencia de emisiones histórica, para el período de estudio, teniendo en cuenta tanto los procesos de deforestación como de degradación forestal. 2. Relacionar los resultados de pérdida de bosque con factores de causalidad directos e indirectos. La determinación de los procesos de cambio de cobertura forestal utilizando técnicas geoespaciales permite relacionar, de manera significativa, información de los indicadores causales de dichos procesos. De igual manera, se pueden estimar escenarios futuros de deforestación y degradación de acuerdo al análisis de la evolución de dichos vectores, teniendo en cuenta otros factores indirectos o subyacentes, como pueden ser los económicos, sociales, demográficos y medioambientales. La identificación de los agentes subyacentes o indirectos es una tarea más compleja que la de los factores endógenos o directos. Por un lado, las relaciones causa – efecto son mucho más difusas; y, por otro, los efectos pueden estar determinados por fenómenos más amplios, consecuencia de superposición o acumulación de diferentes causas. A partir de los resultados de pérdida de bosque obtenidos mediante la utilización de imágenes Landsat 5/TM, se investigaron los criterios de condicionamiento directos e indirectos que podrían haber influido en la deforestación y degradación forestal en ese período. Para ello, se estudiaron las series temporales, para las mismas fechas, de 9 factores directos (infraestructuras, hidrografía, temperatura, etc.) y 196 factores indirectos (económicos, sociales, demográficos y ambientales, etc.) con, en principio, un alto potencial de causalidad. Finalmente se ha analizado la predisposición de cada factor con la ocurrencia de deforestación y degradación forestal por correlación estadística de las series temporales obtenidas. ABSTRACT Forests loss on Earth, mainly in Amazonian ecosystems, is a key factor in the process of climate change. To reverse this situation, the REDD (Reducing Emission from Deforestation and forest Degradation) are allowing the implementation of climate protection activities through reducing emissions from avoided deforestation, according to the schemes under the Kyoto Protocol. Also, the baseline emissions in a REDD project defines a future expectation on CO2 emissions from deforestation and forest degradation in the absence of additional efforts as a result of REDD in order to stop these emissions. The study area is located in the region of San Martín (Peru), province mainly covered by tropical forests whose deforestation rates are the highest in the Amazon basin. In the last decades of the twentieth century, the region began an accelerated process of deforestation due to road integration with the rest of the country and the rapid migration from rural areas for searching of new farmland. From the point of view of research in the thesis, we can highlight two lines: 1. The multitemporal study using Landsat 5/TM satellite images in order to calculate the forest loss between periods. The multitemporal study was developed in the period 1998-2011 using Landsat 5/TM, applying the methodology of Spectral Mixture Analysis, which allows decomposing the reflectance of each pixel of the image in different fractions of mixture spectral. In this process, the most critical step is the establishment of pure spectra or endemembers spectra, and the collecting of appropriate spectral libraries, in this case of tropical forests, to reduce the uncertainty of the process. As a result of research has succeeded in developing the baseline emissions for the period of study, taking into account both deforestation and forest degradation. 2. Relate the results of forest loss with direct and indirect causation factors. Determining the processes of change in forest cover using geospatial technologies allows relating, significantly, information of the causal indicators in these processes. Similarly, future deforestation and forest degradation scenarios can be estimated according to the analysis of the evolution of these drivers, taking into account other indirect or underlying factors, such as economic, social, demographic and environmental. Identifying the underlying or indirect agents is more complex than endogenous or direct factors. On the one hand, cause - effect relationships are much more diffuse; and, second, the effects may be determined by broader phenomena, due to superposition or accumulation of different causes. From the results of forest loss obtained using Landsat 5/TM, the criteria of direct and indirect conditioning that might have contributed to deforestation and forest degradation in that period were investigated. For this purpose, temporal series, for the same dates, 9 direct factors (infrastructure, hydrography, temperature, etc.) and 196 underlying factors (economic, social, demographic and environmental) with, in principle, a high potential of causality. Finally it was analyzed the predisposition of each factor to the occurrence of deforestation and forest degradation by statistical correlation of the obtained temporal series.
Resumo:
El presente trabajo parte con la intención de crear un entorno gráfico cómodo y amigable con el cual desarrollar la práctica relacionada con el estudio de las estrategias de estimación y compensación de movimiento aplicadas en los estándares de codificación de vídeo, y que forma parte de la asignatura “Televisión” de 4º de grado. Hasta ahora, se viene utilizado un entorno conocido como Cantata, proporcionado por Khoros, basado en la conexión de estructuras denominadas glifos a través de las cuales circula un flujo de datos (en nuestro caso, relacionado con el tratamiento de imágenes y vídeo). El presente trabajo adapta dicha estructura a las posibilidades gráficas de Matlab, incorporando, además, funcionalidades adicionales. En primer lugar, se expondrán los métodos de estimación y compensación que han sido programados en la herramienta desarrollada, así como las ventajas e inconvenientes asociados a cada uno de ellos. Dichos métodos de estimación y compensación de movimiento tratan de reducir la información a transmitir aprovechando la redundancia temporal presente entre las imágenes de una secuencia. El objetivo será establecer una correspondencia entre dos imágenes de una secuencia entre las que se ha producido un movimiento, calculando un conjunto de vectores en que representan dicho movimiento. Acto seguido, se describirán las claves de la interfaz gráfica desarrollada. En primer lugar se definirá el entorno gráfico habilitado por Khoros en el cual se ha desarrollado hasta ahora la práctica ya mencionada. Más tarde, introduciremos los aspectos más importantes para la creación de interfaces gráficas en Matlab, y se describirá brevemente una interfaz gráfica desarrollada anteriormente en el Grupo de Tratamiento de Imágenes (GTI) que ha sido tomada como referencia para el presente trabajo. Una vez presentado el entorno gráfico se describirán detalladamente los módulos elaborados para llevar a cabo la estimación y compensación de movimiento, además de otras funciones relacionadas con el tratamiento de imágenes y vídeo y la visualización de resultados. Por último, se propone un nuevo enunciado para la citada práctica, adaptado a la herramienta desarrollada y respetando, hasta donde ha sido posible, la estructura y objetivos docentes del enunciado original.
Resumo:
El agotamiento, la ausencia o, simplemente, la incertidumbre sobre la cantidad de las reservas de combustibles fósiles se añaden a la variabilidad de los precios y a la creciente inestabilidad en la cadena de aprovisionamiento para crear fuertes incentivos para el desarrollo de fuentes y vectores energéticos alternativos. El atractivo de hidrógeno como vector energético es muy alto en un contexto que abarca, además, fuertes inquietudes por parte de la población sobre la contaminación y las emisiones de gases de efecto invernadero. Debido a su excelente impacto ambiental, la aceptación pública del nuevo vector energético dependería, a priori, del control de los riesgos asociados su manipulación y almacenamiento. Entre estos, la existencia de un innegable riesgo de explosión aparece como el principal inconveniente de este combustible alternativo. Esta tesis investiga la modelización numérica de explosiones en grandes volúmenes, centrándose en la simulación de la combustión turbulenta en grandes dominios de cálculo en los que la resolución que es alcanzable está fuertemente limitada. En la introducción, se aborda una descripción general de los procesos de explosión. Se concluye que las restricciones en la resolución de los cálculos hacen necesario el modelado de los procesos de turbulencia y de combustión. Posteriormente, se realiza una revisión crítica de las metodologías disponibles tanto para turbulencia como para combustión, que se lleva a cabo señalando las fortalezas, deficiencias e idoneidad de cada una de las metodologías. Como conclusión de esta investigación, se obtiene que la única estrategia viable para el modelado de la combustión, teniendo en cuenta las limitaciones existentes, es la utilización de una expresión que describa la velocidad de combustión turbulenta en función de distintos parámetros. Este tipo de modelos se denominan Modelos de velocidad de llama turbulenta y permiten cerrar una ecuación de balance para la variable de progreso de combustión. Como conclusión también se ha obtenido, que la solución más adecuada para la simulación de la turbulencia es la utilización de diferentes metodologías para la simulación de la turbulencia, LES o RANS, en función de la geometría y de las restricciones en la resolución de cada problema particular. Sobre la base de estos hallazgos, el crea de un modelo de combustión en el marco de los modelos de velocidad de la llama turbulenta. La metodología propuesta es capaz de superar las deficiencias existentes en los modelos disponibles para aquellos problemas en los que se precisa realizar cálculos con una resolución moderada o baja. Particularmente, el modelo utiliza un algoritmo heurístico para impedir el crecimiento del espesor de la llama, una deficiencia que lastraba el célebre modelo de Zimont. Bajo este enfoque, el énfasis del análisis se centra en la determinación de la velocidad de combustión, tanto laminar como turbulenta. La velocidad de combustión laminar se determina a través de una nueva formulación capaz de tener en cuenta la influencia simultánea en la velocidad de combustión laminar de la relación de equivalencia, la temperatura, la presión y la dilución con vapor de agua. La formulación obtenida es válida para un dominio de temperaturas, presiones y dilución con vapor de agua más extenso de cualquiera de las formulaciones previamente disponibles. Por otra parte, el cálculo de la velocidad de combustión turbulenta puede ser abordado mediante el uso de correlaciones que permiten el la determinación de esta magnitud en función de distintos parámetros. Con el objetivo de seleccionar la formulación más adecuada, se ha realizado una comparación entre los resultados obtenidos con diversas expresiones y los resultados obtenidos en los experimentos. Se concluye que la ecuación debida a Schmidt es la más adecuada teniendo en cuenta las condiciones del estudio. A continuación, se analiza la importancia de las inestabilidades de la llama en la propagación de los frentes de combustión. Su relevancia resulta significativa para mezclas pobres en combustible en las que la intensidad de la turbulencia permanece moderada. Estas condiciones son importantes dado que son habituales en los accidentes que ocurren en las centrales nucleares. Por ello, se lleva a cabo la creación de un modelo que permita estimar el efecto de las inestabilidades, y en concreto de la inestabilidad acústica-paramétrica, en la velocidad de propagación de llama. El modelado incluye la derivación matemática de la formulación heurística de Bauwebs et al. para el cálculo de la incremento de la velocidad de combustión debido a las inestabilidades de la llama, así como el análisis de la estabilidad de las llamas con respecto a una perturbación cíclica. Por último, los resultados se combinan para concluir el modelado de la inestabilidad acústica-paramétrica. Tras finalizar esta fase, la investigación se centro en la aplicación del modelo desarrollado en varios problemas de importancia para la seguridad industrial y el posterior análisis de los resultados y la comparación de los mismos con los datos experimentales correspondientes. Concretamente, se abordo la simulación de explosiones en túneles y en contenedores, con y sin gradiente de concentración y ventilación. Como resultados generales, se logra validar el modelo confirmando su idoneidad para estos problemas. Como última tarea, se ha realizado un analisis en profundidad de la catástrofe de Fukushima-Daiichi. El objetivo del análisis es determinar la cantidad de hidrógeno que explotó en el reactor número uno, en contraste con los otros estudios sobre el tema que se han centrado en la determinación de la cantidad de hidrógeno generado durante el accidente. Como resultado de la investigación, se determinó que la cantidad más probable de hidrogeno que fue consumida durante la explosión fue de 130 kg. Es un hecho notable el que la combustión de una relativamente pequeña cantidad de hidrogeno pueda causar un daño tan significativo. Esta es una muestra de la importancia de este tipo de investigaciones. Las ramas de la industria para las que el modelo desarrollado será de interés abarca la totalidad de la futura economía de hidrógeno (pilas de combustible, vehículos, almacenamiento energético, etc) con un impacto especial en los sectores del transporte y la energía nuclear, tanto para las tecnologías de fisión y fusión. ABSTRACT The exhaustion, absolute absence or simply the uncertainty on the amount of the reserves of fossil fuels sources added to the variability of their prices and the increasing instability and difficulties on the supply chain are strong incentives for the development of alternative energy sources and carriers. The attractiveness of hydrogen in a context that additionally comprehends concerns on pollution and emissions is very high. Due to its excellent environmental impact, the public acceptance of the new energetic vector will depend on the risk associated to its handling and storage. Fromthese, the danger of a severe explosion appears as the major drawback of this alternative fuel. This thesis investigates the numerical modeling of large scale explosions, focusing on the simulation of turbulent combustion in large domains where the resolution achievable is forcefully limited. In the introduction, a general description of explosion process is undertaken. It is concluded that the restrictions of resolution makes necessary the modeling of the turbulence and combustion processes. Subsequently, a critical review of the available methodologies for both turbulence and combustion is carried out pointing out their strengths and deficiencies. As a conclusion of this investigation, it appears clear that the only viable methodology for combustion modeling is the utilization of an expression for the turbulent burning velocity to close a balance equation for the combustion progress variable, a model of the Turbulent flame velocity kind. Also, that depending on the particular resolution restriction of each problem and on its geometry the utilization of different simulation methodologies, LES or RANS, is the most adequate solution for modeling the turbulence. Based on these findings, the candidate undertakes the creation of a combustion model in the framework of turbulent flame speed methodology which is able to overcome the deficiencies of the available ones for low resolution problems. Particularly, the model utilizes a heuristic algorithm to maintain the thickness of the flame brush under control, a serious deficiency of the Zimont model. Under the approach utilized by the candidate, the emphasis of the analysis lays on the accurate determination of the burning velocity, both laminar and turbulent. On one side, the laminar burning velocity is determined through a newly developed correlation which is able to describe the simultaneous influence of the equivalence ratio, temperature, steam dilution and pressure on the laminar burning velocity. The formulation obtained is valid for a larger domain of temperature, steam dilution and pressure than any of the previously available formulations. On the other side, a certain number of turbulent burning velocity correlations are available in the literature. For the selection of the most suitable, they have been compared with experiments and ranked, with the outcome that the formulation due to Schmidt was the most adequate for the conditions studied. Subsequently, the role of the flame instabilities on the development of explosions is assessed. Their significance appears to be of importance for lean mixtures in which the turbulence intensity remains moderate. These are important conditions which are typical for accidents on Nuclear Power Plants. Therefore, the creation of a model to account for the instabilities, and concretely, the acoustic parametric instability is undertaken. This encloses the mathematical derivation of the heuristic formulation of Bauwebs et al. for the calculation of the burning velocity enhancement due to flame instabilities as well as the analysis of the stability of flames with respect to a cyclic velocity perturbation. The results are combined to build a model of the acoustic-parametric instability. The following task in this research has been to apply the model developed to several problems significant for the industrial safety and the subsequent analysis of the results and comparison with the corresponding experimental data was performed. As a part of such task simulations of explosions in a tunnel and explosions in large containers, with and without gradient of concentration and venting have been carried out. As a general outcome, the validation of the model is achieved, confirming its suitability for the problems addressed. As a last and final undertaking, a thorough study of the Fukushima-Daiichi catastrophe has been carried out. The analysis performed aims at the determination of the amount of hydrogen participating on the explosion that happened in the reactor one, in contrast with other analysis centered on the amount of hydrogen generated during the accident. As an outcome of the research, it was determined that the most probable amount of hydrogen exploding during the catastrophe was 130 kg. It is remarkable that the combustion of such a small quantity of material can cause tremendous damage. This is an indication of the importance of these types of investigations. The industrial branches that can benefit from the applications of the model developed in this thesis include the whole future hydrogen economy, as well as nuclear safety both in fusion and fission technology.
Resumo:
Este trabajo presenta una solución al problema del reconocimiento del género de un rostro humano a partir de una imagen. Adoptamos una aproximación que utiliza la cara completa a través de la textura de la cara normalizada y redimensionada como entrada a un clasificador Näive Bayes. Presentamos la técnica de Análisis de Componentes Principales Probabilístico Condicionado-a-la-Clase (CC-PPCA) para reducir la dimensionalidad de los vectores de características para la clasificación y asegurar la asunción de independencia para el clasificador. Esta nueva aproximación tiene la deseable propiedad de presentar un modelo paramétrico sencillo para las marginales. Además, este modelo puede estimarse con muy pocos datos. En los experimentos que hemos desarrollados mostramos que CC-PPCA obtiene un 90% de acierto en la clasificación, resultado muy similar al mejor presentado en la literatura---ABSTRACT---This paper presents a solution to the problem of recognizing the gender of a human face from an image. We adopt a holistic approach by using the cropped and normalized texture of the face as input to a Naïve Bayes classifier. First it is introduced the Class-Conditional Probabilistic Principal Component Analysis (CC-PPCA) technique to reduce the dimensionality of the classification attribute vector and enforce the independence assumption of the classifier. This new approach has the desirable property of a simple parametric model for the marginals. Moreover this model can be estimated with very few data. In the experiments conducted we show that using CCPPCA we get 90% classification accuracy, which is similar result to the best in the literature. The proposed method is very simple to train and implement.
Procedimiento multicriterio-multiobjetivo de planificación energética a comunidades rurales aisladas
Resumo:
La toma de decisiones en el sector energético se torna compleja frente a las disímiles opciones y objetivos a cumplir. Para minimizar esta complejidad, se han venido desarrollando una gama amplia de métodos de apoyo a la toma de decisiones en proyectos energéticos. En la última década, las energización de comunidades rurales aisladas ha venido siendo prioridad de muchos gobiernos para mitigar las migraciones del campo para la ciudad. Para la toma de decisiones en los proyectos energéticos de comunidades rurales aisladas se necesitan proyectar la influencia que estos tendrás sobre los costes económicos, medioambientales y sociales. Es por esta razón que el presente trabajo tuvo como objetivo diseñar un modelo original denominado Generación Energética Autóctona Y Limpia (GEAYL) aplicado a una comunidad rural aislada de la provincia de Granma en Cuba. Este modelo parte dos modelos que le preceden el PAMER y el SEMA. El modelo GEAYL constituye un procedimiento multicriterio-multiobjetivo de apoyo a la planificación energética para este contexto. Se plantearon cinco funciones objetivos: F1, para la minimización de los costes energéticos; F2 para la minimización de las emisiones de CO2, F3, para la minimización de las emisiones de NOx; F4, para la minimización de las emisiones de SOx (cuyos coeficientes fueron obtenidos a través de la literatura especializada) y F5, para la maximización de la Aceptación Social de la Energía. La función F5 y la manera de obtener sus coeficientes constituye la novedad del presente trabajo. Estos coeficientes se determinaron aplicando el método AHP (Proceso Analítico Jerárquico) con los datos de partidas derivados de una encuesta a los usuarios finales de la energía y a expertos. Para determinar el suministro óptimo de energía se emplearon varios métodos: la suma ponderada, el producto ponderado, las distancias de Manhattan L1, la distancia Euclidea L2 y la distancia L3. Para estas métricas se aplicaron distintos vectores de pesos para determinar las distintas estructuras de preferencias de los decisores. Finalmente, se concluyó que tener en consideración a Aceptación Social de la Energía como una función del modelo influye en el suministro de energía de cada alternativa energética. ABSTRACT Energy planning decision making is a complex task due to the multiple options to follow and objectives to meet. In order to minimize this complexity, a wide variety of methods and supporting tools have been designed. Over the last decade, rural energization has been a priority for many governments, aiming to alleviate rural to urban migration. Rural energy planning decision making must rely on financial, environmental and social costs. The purpose of this work is to define an original energy planning model named Clean and Native Energy Generation (Generación Energética Autóctona Y Limpia, GEAYL), and carry out a case study on Granma Province, Cuba. This model is based on two previous models: PAMER & SEMA. GEAYL is a multiobjective-multicriteria energy planning model, which includes five functions to be optimized: F1, to minimize financial costs; F2, to minimize CO2 emissions; F3, to minimize NOx emissions; F4, to minimize SOx emissions; and F5, to maximize energy Social Acceptability. The coefficients corresponding to the first four functions have been obtained through specialized papers and official data, and the ones belonging to F5 through an Analytic Hierarchy Process (AHP), built as per a statistical enquiry carried out on energy users and experts. F5 and the AHP application are considered to be the novelty of this model. In order to establish the optimal energy supply, several methods have been applied: weighted sum, weighted product, Manhattan distance L1, Euclidean distance L2 and L3. Several weight vectors have been applied to the mentioned distances in order to conclude the decision makers potential preference structure. Among the conclusions of this work, it must be noted that function F5, Social Acceptability, has a clear influence on every energy supply alternative.
Resumo:
La aportación al Plan Estratégico de Desarrollo Urbano de Makeni (Sierra Leona) desde la Infraestructura Verde pretende formalizar una estrategia de aproximación al territorio que ponga en valor la capacidad productiva de éste y permita compatibilizar la protección de las áreas de mayor valor con un desarrollo urbano y socioeconómico sostenible. La identificación de la Infraestructura Verde en el territorio no es otra cosa que la formalización de la “elección del sitio” que evidenciamos de importancia clave en HaB, identificando por un lado vulnerabilidades del terreno (áreas inundables, zonas de máxima pendientes y terrenos inadecuados) y por otros paisajes de interés dignos de ser protegidos por su gran valor cuyo diálogo, de igualdad entre las partes, evidenciarían las áreas de reserva óptimas para ser ocupadas. En un país con una elevada tasa de crecimiento demográfico en el que no existe la formación de la profesión de arquitecto ni ningún otro perfil relacionado con la Ordenación del Territorio, y considerándose una ciudad de tamaño medio de alto crecimiento en África que prevé pueda duplicar su población en aproximadamente 30 años, no queda otra cosa que anticiparse a una posible evolución de la ciudad sin rumbo fijo, leyendo sus potencialidades y fortalezas y trabajando a favor del territorio y no contra natura. La formalización de la Infraestructura Verde en el territorio de Makeni permite evidenciar una metodología de acercamiento a la práctica de la Ordenación Territorial que no es otra cosa que identificar y re-conocer el propio espacio y las relaciones que han imperado durante años (apartados de una visión holística del territorio y asumiendo que es una realidad en constante evolución) y pretende poder mostrar una herramienta que pueda ser replicable ya no solo en todo el territorio de Sierra Leona sino también en otros contextos africanos como sistema claro y evidenciable por la propia población; la agricultura como herramienta clave de custodia del territorio. La población ha entendido y rubricado (Foro de Makeni, Enero, 2014) la necesidad de marcar unas líneas estratégicas de Ordenación Territorial, que, en espera de la creciente población que habrá de albergar en horizontes cercanos, permitan controlar y pautar los futuros crecimientos de su ciudad. La estructura territorial de Makeni está conformada por los swaps, áreas inundables del sistema hídrico principal que formalizan una agricultura intensiva claramente vinculada al agua (wet lands). Estos swaps no pueden ser entendidos como los vacíos entre lo construido, sino como elementos estructurantes del territorio que, si bien hoy se evidencian como áreas degradadas y deterioradas, auguran y anticipan que la respuesta al planeamiento y la actitud frente a ellos pasa por poner el acento en estos espacios, puntos neurálgicos y potenciales de las futuras intervenciones. La Infraestructura verde urbana puede entenderse como un conjunto integrado y continuo de espacios, en general libres de edificación, de interés ambiental y cultural y las conexiones ecológicas y funcionales que los relacionan entre sí. Así estas conexiones funcionales no pretenden más que evidenciar y formalizar las futuras intervenciones en áreas degradadas de la ciudad ya consolidada para, a partir de ellas, generar sinergias detonantes de acciones que repercutan en el espacio público en pro de las relaciones sociales. Estos swaps podrían volver a ser verdaderos vectores de conexión de los corredores ecológicos que suponen los swaps y conformarse como verdaderas conexiones sociales, ecológicas y paisajísticas a escala de barrio, ciudad y territorio.
Resumo:
Los ataques a redes de información son cada vez más sofisticados y exigen una constante evolución y mejora de las técnicas de detección. Para ello, en este proyecto se ha diseñado e implementado una plataforma cooperativa para la detección de intrusiones basada en red. En primer lugar, se ha realizado un estudio teórico previo del marco tecnológico relacionado con este ámbito, en el que se describe y caracteriza el software que se utiliza para realizar ataques a sistemas (malware) así como los métodos que se utilizan para llegar a transmitir ese software (vectores de ataque). En el documento también se describen los llamados APT, que son ataques dirigidos con una gran inversión económica y temporal. Estos pueden englobar todos los malware y vectores de ataque existentes. Para poder evitar estos ataques, se estudiarán los sistemas de detección y prevención de intrusiones, describiendo brevemente los algoritmos que se tienden a utilizar en la actualidad. En segundo lugar, se ha planteado y desarrollado una plataforma en red dedicada al análisis de paquetes y conexiones para detectar posibles intrusiones. Este sistema está orientado a sistemas SCADA (Supervisory Control And Data Adquisition) aunque funciona sobre cualquier red IPv4/IPv6, para ello se definirá previamente lo que es un sistema SCADA, así como sus partes principales. Para implementar el sistema se han utilizado dispositivos de bajo consumo llamados Raspberry PI, estos se ubican entre la red y el equipo final que se quiera analizar. En ellos se ejecutan 2 aplicaciones desarrolladas de tipo cliente-servidor (la Raspberry central ejecutará la aplicación servidora y las esclavas la aplicación cliente) que funcionan de forma cooperativa utilizando la tecnología distribuida de Hadoop, la cual se explica previamente. Mediante esta tecnología se consigue desarrollar un sistema completamente escalable. La aplicación servidora muestra una interfaz gráfica que permite administrar la plataforma de análisis de forma centralizada, pudiendo ver así las alarmas de cada dispositivo y calificando cada paquete según su peligrosidad. El algoritmo desarrollado en la aplicación calcula el ratio de paquetes/tiempo que entran/salen del equipo final, procesando los paquetes y analizándolos teniendo en cuenta la información de señalización, creando diferentes bases de datos que irán mejorando la robustez del sistema, reduciendo así la posibilidad de ataques externos. Para concluir, el proyecto inicial incluía el procesamiento en la nube de la aplicación principal, pudiendo administrar así varias infraestructuras concurrentemente, aunque debido al trabajo extra necesario se ha dejado preparado el sistema para poder implementar esta funcionalidad. En el caso experimental actual el procesamiento de la aplicación servidora se realiza en la Raspberry principal, creando un sistema escalable, rápido y tolerante a fallos. ABSTRACT. The attacks to networks of information are increasingly sophisticated and demand a constant evolution and improvement of the technologies of detection. For this project it is developed and implemented a cooperative platform for detect intrusions based on networking. First, there has been a previous theoretical study of technological framework related to this area, which describes the software used for attacks on systems (malware) as well as the methods used in order to transmit this software (attack vectors). In this document it is described the APT, which are attacks directed with a big economic and time inversion. These can contain all existing malware and attack vectors. To prevent these attacks, intrusion detection systems and prevention intrusion systems will be discussed, describing previously the algorithms tend to use today. Secondly, a platform for analyzing network packets has been proposed and developed to detect possible intrusions in SCADA (Supervisory Control And Data Adquisition) systems. This platform is designed for SCADA systems (Supervisory Control And Data Acquisition) but works on any IPv4 / IPv6 network. Previously, it is defined what a SCADA system is and the main parts of it. To implement it, we used low-power devices called Raspberry PI, these are located between the network and the final device to analyze it. In these Raspberry run two applications client-server developed (the central Raspberry runs the server application and the slaves the client application) that work cooperatively using Hadoop distributed technology, which is previously explained. Using this technology is achieved develop a fully scalable system. The server application displays a graphical interface to manage analytics platform centrally, thereby we can see each device alarms and qualifying each packet by dangerousness. The algorithm developed in the application calculates the ratio of packets/time entering/leaving the terminal device, processing the packets and analyzing the signaling information of each packet, reating different databases that will improve the system, thereby reducing the possibility of external attacks. In conclusion, the initial project included cloud computing of the main application, being able to manage multiple concurrent infrastructure, but due to the extra work required has been made ready the system to implement this funcionality. In the current test case the server application processing is made on the main Raspberry, creating a scalable, fast and fault-tolerant system.
Resumo:
La presente Tesis investiga el campo del reconocimiento automático de imágenes mediante ordenador aplicado al análisis de imágenes médicas en mamografía digital. Hay un interés por desarrollar sistemas de aprendizaje que asistan a los radiólogos en el reconocimiento de las microcalcificaciones para apoyarles en los programas de cribado y prevención del cáncer de mama. Para ello el análisis de las microcalcificaciones se ha revelado como técnica clave de diagnóstico precoz, pero sin embargo el diseño de sistemas automáticos para reconocerlas es complejo por la variabilidad y condiciones de las imágenes mamográficas. En este trabajo se analizan los planteamientos teóricos de diseño de sistemas de reconocimiento de imágenes, con énfasis en los problemas específicos de detección y clasificación de microcalcificaciones. Se ha realizado un estudio que incluye desde las técnicas de operadores morfológicos, redes neuronales, máquinas de vectores soporte, hasta las más recientes de aprendizaje profundo mediante redes neuronales convolucionales, contemplando la importancia de los conceptos de escala y jerarquía a la hora del diseño y sus implicaciones en la búsqueda de la arquitectura de conexiones y capas de la red. Con estos fundamentos teóricos y elementos de diseño procedentes de otros trabajos en este área realizados por el autor, se implementan tres sistemas de reconocimiento de mamografías que reflejan una evolución tecnológica, culminando en un sistema basado en Redes Neuronales Convolucionales (CNN) cuya arquitectura se diseña gracias al análisis teórico anterior y a los resultados prácticos de análisis de escalas llevados a cabo en nuestra base de datos de imágenes. Los tres sistemas se entrenan y validan con la base de datos de mamografías DDSM, con un total de 100 muestras de entrenamiento y 100 de prueba escogidas para evitar sesgos y reflejar fielmente un programa de cribado. La validez de las CNN para el problema que nos ocupa queda demostrada y se propone un camino de investigación para el diseño de su arquitectura. ABSTRACT This Dissertation investigates the field of computer image recognition applied to medical imaging in mammography. There is an interest in developing learning systems to assist radiologists in recognition of microcalcifications to help them in screening programs for prevention of breast cancer. Analysis of microcalcifications has emerged as a key technique for early diagnosis of breast cancer, but the design of automatic systems to recognize them is complicated by the variability and conditions of mammographic images. In this Thesis the theoretical approaches to design image recognition systems are discussed, with emphasis on the specific problems of detection and classification of microcalcifications. Our study includes techniques ranging from morphological operators, neural networks and support vector machines, to the most recent deep convolutional neural networks. We deal with learning theory by analyzing the importance of the concepts of scale and hierarchy at the design stage and its implications in the search for the architecture of connections and network layers. With these theoretical facts and design elements coming from other works in this area done by the author, three mammogram recognition systems which reflect technological developments are implemented, culminating in a system based on Convolutional Neural Networks (CNN), whose architecture is designed thanks to the previously mentioned theoretical study and practical results of analysis conducted on scales in our image database. All three systems are trained and validated against the DDSM mammographic database, with a total of 100 training samples and 100 test samples chosen to avoid bias and stand for a real screening program. The validity of the CNN approach to the problem is demonstrated and a research way to help in designing the architecture of these networks is proposed.