859 resultados para análisis de casos


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Generalmente los elementos estructurales metálicos de las aeronaves se ubican en zonas de carga crítica, en la mayoría de los casos, estos elementos son conformados mediante procesos de mecanizado. La vida a fatiga de estos componentes es una propiedad dinámica muy importante que puede verse intensamente afectada por las condiciones superficiales producidas durante el proceso de mecanizado. En este trabajo se lleva a cabo un primer estudio de la influencia de los parámetros de corte en la resistencia a la fatiga de piezas torneadas de la aleación de aluminio aeronáutico UNS A92024-T351. Se ha prestado especial atención a la relación con el acabado superficial evaluado a partir de la rugosidad media aritmética

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis doctoral se enmarca dentro de la computación con membranas. Se trata de un tipo de computación bio-inspirado, concretamente basado en las células de los organismos vivos, en las que se producen múltiples reacciones de forma simultánea. A partir de la estructura y funcionamiento de las células se han definido diferentes modelos formales, denominados P sistemas. Estos modelos no tratan de modelar el comportamiento biológico de una célula, sino que abstraen sus principios básicos con objeto de encontrar nuevos paradigmas computacionales. Los P sistemas son modelos de computación no deterministas y masivamente paralelos. De ahí el interés que en los últimos años estos modelos han suscitado para la resolución de problemas complejos. En muchos casos, consiguen resolver de forma teórica problemas NP-completos en tiempo polinómico o lineal. Por otra parte, cabe destacar también la aplicación que la computación con membranas ha tenido en la investigación de otros muchos campos, sobre todo relacionados con la biología. Actualmente, una gran cantidad de estos modelos de computación han sido estudiados desde el punto de vista teórico. Sin embargo, el modo en que pueden ser implementados es un reto de investigación todavía abierto. Existen varias líneas en este sentido, basadas en arquitecturas distribuidas o en hardware dedicado, que pretenden acercarse en lo posible a su carácter no determinista y masivamente paralelo, dentro de un contexto de viabilidad y eficiencia. En esta tesis doctoral se propone la realización de un análisis estático del P sistema, como vía para optimizar la ejecución del mismo en estas plataformas. Se pretende que la información recogida en tiempo de análisis sirva para configurar adecuadamente la plataforma donde se vaya a ejecutar posteriormente el P sistema, obteniendo como consecuencia una mejora en el rendimiento. Concretamente, en esta tesis se han tomado como referencia los P sistemas de transiciones para llevar a cabo el estudio de dicho análisis estático. De manera un poco más específica, el análisis estático propuesto en esta tesis persigue que cada membrana sea capaz de determinar sus reglas activas de forma eficiente en cada paso de evolución, es decir, aquellas reglas que reúnen las condiciones adecuadas para poder ser aplicadas. En esta línea, se afronta el problema de los estados de utilidad de una membrana dada, que en tiempo de ejecución permitirán a la misma conocer en todo momento las membranas con las que puede comunicarse, cuestión que determina las reglas que pueden aplicarse en cada momento. Además, el análisis estático propuesto en esta tesis se basa en otra serie de características del P sistema como la estructura de membranas, antecedentes de las reglas, consecuentes de las reglas o prioridades. Una vez obtenida toda esta información en tiempo de análisis, se estructura en forma de árbol de decisión, con objeto de que en tiempo de ejecución la membrana obtenga las reglas activas de la forma más eficiente posible. Por otra parte, en esta tesis se lleva a cabo un recorrido por un número importante de arquitecturas hardware y software que diferentes autores han propuesto para implementar P sistemas. Fundamentalmente, arquitecturas distribuidas, hardware dedicado basado en tarjetas FPGA y plataformas basadas en microcontroladores PIC. El objetivo es proponer soluciones que permitan implantar en dichas arquitecturas los resultados obtenidos del análisis estático (estados de utilidad y árboles de decisión para reglas activas). En líneas generales, se obtienen conclusiones positivas, en el sentido de que dichas optimizaciones se integran adecuadamente en las arquitecturas sin penalizaciones significativas. Summary Membrane computing is the focus of this doctoral thesis. It can be considered a bio-inspired computing type. Specifically, it is based on living cells, in which many reactions take place simultaneously. From cell structure and operation, many different formal models have been defined, named P systems. These models do not try to model the biological behavior of the cell, but they abstract the basic principles of the cell in order to find out new computational paradigms. P systems are non-deterministic and massively parallel computational models. This is why, they have aroused interest when dealing with complex problems nowadays. In many cases, they manage to solve in theory NP problems in polynomial or lineal time. On the other hand, it is important to note that membrane computing has been successfully applied in many researching areas, specially related to biology. Nowadays, lots of these computing models have been sufficiently characterized from a theoretical point of view. However, the way in which they can be implemented is a research challenge, that it is still open nowadays. There are some lines in this way, based on distributed architectures or dedicated hardware. All of them are trying to approach to its non-deterministic and parallel character as much as possible, taking into account viability and efficiency. In this doctoral thesis it is proposed carrying out a static analysis of the P system in order to optimize its performance in a computing platform. The general idea is that after data are collected in analysis time, they are used for getting a suitable configuration of the computing platform in which P system is going to be performed. As a consequence, the system throughput will improve. Specifically, this thesis has made use of Transition P systems for carrying out the study in static analysis. In particular, the static analysis proposed in this doctoral thesis tries to achieve that every membrane can efficiently determine its active rules in every evolution step. These rules are the ones that can be applied depending on the system configuration at each computational step. In this line, we are going to tackle the problem of the usefulness states for a membrane. This state will allow this membrane to know the set of membranes with which communication is possible at any time. This is a very important issue in determining the set of rules that can be applied. Moreover, static analysis in this thesis is carried out taking into account other properties such as membrane structure, rule antecedents, rule consequents and priorities among rules. After collecting all data in analysis time, they are arranged in a decision tree structure, enabling membranes to obtain the set of active rules as efficiently as possible in run-time system. On the other hand, in this doctoral thesis is going to carry out an overview of hardware and software architectures, proposed by different authors in order to implement P systems, such as distributed architectures, dedicated hardware based on PFGA, and computing platforms based on PIC microcontrollers. The aim of this overview is to propose solutions for implementing the results of the static analysis, that is, usefulness states and decision trees for active rules. In general, conclusions are satisfactory, because these optimizations can be properly integrated in most of the architectures without significant penalties.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El accidente de rotura de tubos de un generador de vapor (Steam Generator Tube Rupture, SGTR) en los reactores de agua a presión es uno de los transitorios más exigentes desde el punto de vista de operación. Los transitorios de SGTR son especiales, ya que podría dar lugar a emisiones radiológicas al exterior sin necesidad de daño en el núcleo previo o sin que falle la contención, ya que los SG pueden constituir una vía directa desde el reactor al medio ambiente en este transitorio. En los análisis de seguridad, el SGTR se analiza desde un punto determinista y probabilista, con distintos enfoques con respecto a las acciones del operador y las consecuencias analizadas. Cuando comenzaron los Análisis Deterministas de Seguridad (DSA), la forma de analizar el SGTR fue sin dar crédito a la acción del operador durante los primeros 30 min del transitorio, lo que suponía que el grupo de operación era capaz de detener la fuga por el tubo roto dentro de ese tiempo. Sin embargo, los diferentes casos reales de accidentes de SGTR sucedidos en los EE.UU. y alrededor del mundo demostraron que los operadores pueden emplear más de 30 minutos para detener la fuga en la vida real. Algunas metodologías fueron desarrolladas en los EEUU y en Europa para abordar esa cuestión. En el Análisis Probabilista de Seguridad (PSA), las acciones del operador se tienen en cuenta para diseñar los cabeceros en el árbol de sucesos. Los tiempos disponibles se utilizan para establecer los criterios de éxito para dichos cabeceros. Sin embargo, en una secuencia dinámica como el SGTR, las acciones de un operador son muy dependientes del tiempo disponible por las acciones humanas anteriores. Además, algunas de las secuencias de SGTR puede conducir a la liberación de actividad radiológica al exterior sin daño previo en el núcleo y que no se tienen en cuenta en el APS, ya que desde el punto de vista de la integridad de núcleo son de éxito. Para ello, para analizar todos estos factores, la forma adecuada de analizar este tipo de secuencias pueden ser a través de una metodología que contemple Árboles de Sucesos Dinámicos (Dynamic Event Trees, DET). En esta Tesis Doctoral se compara el impacto en la evolución temporal y la dosis al exterior de la hipótesis más relevantes encontradas en los Análisis Deterministas a nivel mundial. La comparación se realiza con un modelo PWR Westinghouse de tres lazos (CN Almaraz) con el código termohidráulico TRACE, con hipótesis de estimación óptima, pero con hipótesis deterministas como criterio de fallo único o pérdida de energía eléctrica exterior. Las dosis al exterior se calculan con RADTRAD, ya que es uno de los códigos utilizados normalmente para los cálculos de dosis del SGTR. El comportamiento del reactor y las dosis al exterior son muy diversas, según las diferentes hipótesis en cada metodología. Por otra parte, los resultados están bastante lejos de los límites de regulación, pese a los conservadurismos introducidos. En el siguiente paso de la Tesis Doctoral, se ha realizado un análisis de seguridad integrado del SGTR según la metodología ISA, desarrollada por el Consejo de Seguridad Nuclear español (CSN). Para ello, se ha realizado un análisis termo-hidráulico con un modelo de PWR Westinghouse de 3 lazos con el código MAAP. La metodología ISA permite la obtención del árbol de eventos dinámico del SGTR, teniendo en cuenta las incertidumbres en los tiempos de actuación del operador. Las simulaciones se realizaron con SCAIS (sistema de simulación de códigos para la evaluación de la seguridad integrada), que incluye un acoplamiento dinámico con MAAP. Las dosis al exterior se calcularon también con RADTRAD. En los resultados, se han tenido en cuenta, por primera vez en la literatura, las consecuencias de las secuencias en términos no sólo de daños en el núcleo sino de dosis al exterior. Esta tesis doctoral demuestra la necesidad de analizar todas las consecuencias que contribuyen al riesgo en un accidente como el SGTR. Para ello se ha hecho uso de una metodología integrada como ISA-CSN. Con este enfoque, la visión del DSA del SGTR (consecuencias radiológicas) se une con la visión del PSA del SGTR (consecuencias de daño al núcleo) para evaluar el riesgo total del accidente. Abstract Steam Generator Tube Rupture accidents in Pressurized Water Reactors are known to be one of the most demanding transients for the operating crew. SGTR are special transient as they could lead to radiological releases without core damage or containment failure, as they can constitute a direct path to the environment. The SGTR is analyzed from a Deterministic and Probabilistic point of view in the Safety Analysis, although the assumptions of the different approaches regarding the operator actions are quite different. In the beginning of Deterministic Safety Analysis, the way of analyzing the SGTR was not crediting the operator action for the first 30 min of the transient, assuming that the operating crew was able to stop the primary to secondary leakage within that time. However, the different real SGTR accident cases happened in the USA and over the world demonstrated that operators can took more than 30 min to stop the leakage in actual sequences. Some methodologies were raised in the USA and in Europe to cover that issue. In the Probabilistic Safety Analysis, the operator actions are taken into account to set the headers in the event tree. The available times are used to establish the success criteria for the headers. However, in such a dynamic sequence as SGTR, the operator actions are very dependent on the time available left by the other human actions. Moreover, some of the SGTR sequences can lead to offsite doses without previous core damage and they are not taken into account in PSA as from the point of view of core integrity are successful. Therefore, to analyze all this factors, the appropriate way of analyzing that kind of sequences could be through a Dynamic Event Tree methodology. This Thesis compares the impact on transient evolution and the offsite dose of the most relevant hypothesis of the different SGTR analysis included in the Deterministic Safety Analysis. The comparison is done with a PWR Westinghouse three loop model in TRACE code (Almaraz NPP), with best estimate assumptions but including deterministic hypothesis such as single failure criteria or loss of offsite power. The offsite doses are calculated with RADTRAD code, as it is one of the codes normally used for SGTR offsite dose calculations. The behaviour of the reactor and the offsite doses are quite diverse depending on the different assumptions made in each methodology. On the other hand, although the high conservatism, such as the single failure criteria, the results are quite far from the regulatory limits. In the next stage of the Thesis, the Integrated Safety Assessment (ISA) methodology, developed by the Spanish Nuclear Safety Council (CSN), has been applied to a thermohydraulical analysis of a Westinghouse 3-loop PWR plant with the MAAP code. The ISA methodology allows obtaining the SGTR Dynamic Event Tree taking into account the uncertainties on the operator actuation times. Simulations are performed with SCAIS (Simulation Code system for Integrated Safety Assessment), which includes a dynamic coupling with MAAP thermal hydraulic code. The offsite doses are calculated also with RADTRAD. The results shows the consequences of the sequences in terms not only of core damage but of offsite doses. This Thesis shows the need of analyzing all the consequences in an accident such as SGTR. For that, an it has been used an integral methodology like ISA-CSN. With this approach, the DSA vision of the SGTR (radiological consequences) is joined with the PSA vision of the SGTR (core damage consequences) to measure the total risk of the accident.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El estudio de materiales, especialmente biológicos, por medios no destructivos está adquiriendo una importancia creciente tanto en las aplicaciones científicas como industriales. Las ventajas económicas de los métodos no destructivos son múltiples. Existen numerosos procedimientos físicos capaces de extraer información detallada de las superficie de la madera con escaso o nulo tratamiento previo y mínima intrusión en el material. Entre los diversos métodos destacan las técnicas ópticas y las acústicas por su gran versatilidad, relativa sencillez y bajo coste. Esta tesis pretende establecer desde la aplicación de principios simples de física, de medición directa y superficial, a través del desarrollo de los algoritmos de decisión mas adecuados basados en la estadística, unas soluciones tecnológicas simples y en esencia, de coste mínimo, para su posible aplicación en la determinación de la especie y los defectos superficiales de la madera de cada muestra tratando, en la medida de lo posible, no alterar su geometría de trabajo. Los análisis desarrollados han sido los tres siguientes: El primer método óptico utiliza las propiedades de la luz dispersada por la superficie de la madera cuando es iluminada por un laser difuso. Esta dispersión produce un moteado luminoso (speckle) cuyas propiedades estadísticas permiten extraer propiedades muy precisas de la estructura tanto microscópica como macroscópica de la madera. El análisis de las propiedades espectrales de la luz laser dispersada genera ciertos patrones mas o menos regulares relacionados con la estructura anatómica, composición, procesado y textura superficial de la madera bajo estudio que ponen de manifiesto características del material o de la calidad de los procesos a los que ha sido sometido. El uso de este tipo de láseres implica también la posibilidad de realizar monitorizaciones de procesos industriales en tiempo real y a distancia sin interferir con otros sensores. La segunda técnica óptica que emplearemos hace uso del estudio estadístico y matemático de las propiedades de las imágenes digitales obtenidas de la superficie de la madera a través de un sistema de scanner de alta resolución. Después de aislar los detalles mas relevantes de las imágenes, diversos algoritmos de clasificacion automatica se encargan de generar bases de datos con las diversas especies de maderas a las que pertenecían las imágenes, junto con los márgenes de error de tales clasificaciones. Una parte fundamental de las herramientas de clasificacion se basa en el estudio preciso de las bandas de color de las diversas maderas. Finalmente, numerosas técnicas acústicas, tales como el análisis de pulsos por impacto acústico, permiten complementar y afinar los resultados obtenidos con los métodos ópticos descritos, identificando estructuras superficiales y profundas en la madera así como patologías o deformaciones, aspectos de especial utilidad en usos de la madera en estructuras. La utilidad de estas técnicas esta mas que demostrada en el campo industrial aun cuando su aplicación carece de la suficiente expansión debido a sus altos costes y falta de normalización de los procesos, lo cual hace que cada análisis no sea comparable con su teórico equivalente de mercado. En la actualidad gran parte de los esfuerzos de investigación tienden a dar por supuesto que la diferenciación entre especies es un mecanismo de reconocimiento propio del ser humano y concentran las tecnologías en la definición de parámetros físicos (módulos de elasticidad, conductividad eléctrica o acústica, etc.), utilizando aparatos muy costosos y en muchos casos complejos en su aplicación de campo. Abstract The study of materials, especially the biological ones, by non-destructive techniques is becoming increasingly important in both scientific and industrial applications. The economic advantages of non-destructive methods are multiple and clear due to the related costs and resources necessaries. There are many physical processes capable of extracting detailed information on the wood surface with little or no previous treatment and minimal intrusion into the material. Among the various methods stand out acoustic and optical techniques for their great versatility, relative simplicity and low cost. This thesis aims to establish from the application of simple principles of physics, surface direct measurement and through the development of the more appropriate decision algorithms based on statistics, a simple technological solutions with the minimum cost for possible application in determining the species and the wood surface defects of each sample. Looking for a reasonable accuracy without altering their work-location or properties is the main objetive. There are three different work lines: Empirical characterization of wood surfaces by means of iterative autocorrelation of laser speckle patterns: A simple and inexpensive method for the qualitative characterization of wood surfaces is presented. it is based on the iterative autocorrelation of laser speckle patterns produced by diffuse laser illumination of the wood surfaces. The method exploits the high spatial frequency content of speckle images. A similar approach with raw conventional photographs taken with ordinary light would be very difficult. A few iterations of the algorithm are necessary, typically three or four, in order to visualize the most important periodic features of the surface. The processed patterns help in the study of surface parameters, to design new scattering models and to classify the wood species. Fractal-based image enhancement techniques inspired by differential interference contrast microscopy: Differential interference contrast microscopy is a very powerful optical technique for microscopic imaging. Inspired by the physics of this type of microscope, we have developed a series of image processing algorithms aimed at the magnification, noise reduction, contrast enhancement and tissue analysis of biological samples. These algorithms use fractal convolution schemes which provide fast and accurate results with a performance comparable to the best present image enhancement algorithms. These techniques can be used as post processing tools for advanced microscopy or as a means to improve the performance of less expensive visualization instruments. Several examples of the use of these algorithms to visualize microscopic images of raw pine wood samples with a simple desktop scanner are provided. Wood species identification using stress-wave analysis in the audible range: Stress-wave analysis is a powerful and flexible technique to study mechanical properties of many materials. We present a simple technique to obtain information about the species of wood samples using stress-wave sounds in the audible range generated by collision with a small pendulum. Stress-wave analysis has been used for flaw detection and quality control for decades, but its use for material identification and classification is less cited in the literature. Accurate wood species identification is a time consuming task for highly trained human experts. For this reason, the development of cost effective techniques for automatic wood classification is a desirable goal. Our proposed approach is fully non-invasive and non-destructive, reducing significantly the cost and complexity of the identification and classification process.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El microclima urbano juega un rol importante en el consumo energético de los edificios y en las sensaciones de confort en los espacios exteriores. La urgente necesidad de aumentar la eficiencia energética, reducir las emisiones de los contaminantes y paliar la evidente falta de sostenibilidad que afecta a las ciudades, ha puesto la atención en el urbanismo bioclimático como referente para una propuesta de cambio en la forma de diseñar y vivir la ciudad. Hasta ahora las investigaciones en temas de microclima y eficiencia energética se han concentrado principalmente en como orientar el diseño de nuevos desarrollo. Sin embargo los principales problemas de la insostenibilidad de las actuales conurbaciones son el resultado del modelo de crecimiento especulativo y altamente agotador de recursos que han caracterizado el boom inmobiliario de las últimas décadas. Vemos entonces, tanto en España como en el resto de los Países Europeos, la necesidad de reorientar el sector de la construcción hacía la rehabilitación del espacio construido, como una alternativa capaz de dar una solución más sostenible para el mercado inmobiliario. En este propósito de mejorar la calidad de las ciudades actuales, el espacio público juega un papel fundamental, sobre todo como lugar para el encuentro y la socialización entre los ciudadanos. La sensación térmica condiciona la percepción de un ambiente, así que el microclima puede ser determinante para el éxito o el fracaso de un espacio urbano. Se plantea entonces cómo principal objetivo de la investigación, la definición de estrategias para el diseño bioclimático de los entornos urbanos construidos, fundamentados en las componentes morfotipológica, climática y de los requerimientos de confort para los ciudadanos. Como ulterior elemento de novedad se decide estudiar la rehabilitación de los barrios de construcción de mediado del siglo XX, que en muchos casos constituyen bolsas de degrado en la extendida periferia de las ciudades modernas. La metodología empleada para la investigación se basa en la evaluación de las condiciones climáticas y de confort térmico de diferentes escenarios de proyecto, aplicados a tres casos de estudio situados en un barrio periurbano de la ciudad de Madrid. Para la determinación de los parámetros climáticos se han empleado valores obtenidos con un proceso de simulación computarizada, basados en los principios de fluidodinámica, termodinámica y del intercambio radioactivo en el espacio construido. A través de uso de programas de simulación podemos hacer una previsión de las condiciones microclimáticas de las situaciones actuales y de los efectos de la aplicación de medidas. La gran ventaja en el uso de sistemas de cálculo es que se pueden evaluar diferentes escenarios de proyecto y elegir entre ellos el que asegura mejores prestaciones ambientales. Los resultados obtenidos en los diferentes escenarios han sido comparados con los valores de confort del estado actual, utilizando como indicador de la sensación térmica el índice UTCI. El análisis comparativo ha permitido la realización de una tabla de resumen donde se muestra la evaluación de las diferentes soluciones de rehabilitación. Se ha podido así demostrar que no existe una solución constructiva eficaz para todas las aplicaciones, sino que cada situación debe ser estudiada individualmente, aplicando caso por caso las medidas más oportunas. Si bien los sistemas de simulación computarizada pueden suponer un importante apoyo para la fase de diseño, es responsabilidad del proyectista emplear las herramientas más adecuadas en cada fase y elegir las soluciones más oportunas para cumplir con los objetivos del proyecto. The urban microclimate plays an important role on buildings energy consumption and comfort sensation in exterior spaces. Nowadays, cities need to increase energy efficiency, reduce the pollutants emissions and mitigate the evident lack of sustainability. In reason of this, attention has focused on the bioclimatic urbanism as a reference of change proposal of the way to design and live the city. Hitherto, the researches on microclimate and energy efficiency have mainly concentrated on guiding the design of new constructions. However the main problems of unsustainability of existing conurbations are the result of the growth model highly speculative and responsible of resources depletion that have characterized the real estate boom of recent decades. In Spain and other European countries, become define the need to redirect the construction sector towards urban refurbishment. This alternative is a more sustainable development model and is able to provide a solution for the real estate sector. In order to improve the quality of today's cities, the public space plays a key role, especially in order to provide to citizens places for meeting and socializing. The thermal sensation affects the environment perception, so microclimate conditions can be decisive for the success or failure of urban space. For this reasons, the main objective of this work is focused on the definition of bioclimatic strategies for existing urban spaces, based on the morpho-typological components, climate and comfort requirements for citizens. As novelty element, the regeneration of neighborhoods built in middle of the twentieth century has been studied, because are the major extended in periphery of modern cities and, in many cases, they represent deprived areas. The research methodology is based on the evaluation of climatic conditions and thermal comfort of different project scenarios, applied to three case studies located in a suburban neighborhood of Madrid. The climatic parameters have been obtained by computer simulation process, based on fluid dynamics, thermodynamics and radioactive exchange in urban environment using numerical approach. The great advantage in the use of computing systems is the capacity for evaluate different project scenarios. The results in the different scenarios were compared with the comfort value obtained in the current state, using the UTCI index as indicator of thermal sensation. Finally, an abacus of the thermal comfort improvement obtained by different countermeasures has been performed. One of the major achievement of doctoral work is the demonstration of there are not any design solution suitable for different cases. Each situation should be analyzed and specific design measures should be proposed. Computer simulation systems can be a significant support and help the designer in the decision making phase. However, the election of the most suitable tools and the appropriate solutions for each case is designer responsibility.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La aplicación de criterios de sostenibilidad ha de entenderse como el procedimiento esencial para la necesaria reconversión del sector de la construcción, que movilizando el 10% de la economía mundial, representa más de la tercera parte del consumo mundial de recursos, en torno al 30-40% del consumo energético y emisiones de gases de efecto invernadero, 30-40% de la generación de residuos y el 12% de todo el gasto en agua dulce del planeta. La presente investigación se enmarca en una estrategia general de promover la evaluación de la sostenibilidad en la edificación en el contexto español, dando un primer paso centrado en la evaluación del comportamiento ambiental. El hilo conductor de la investigación parte de la necesidad de establecer un marco teórico de sostenibilidad, que permita clarificar conceptos y definir criterios de valoración adecuados. Como siguiente paso, la investigación se dirige a la revisión del panorama internacional de normativa e instrumentos voluntarios, con el objetivo de clarificar el difuso panorama que caracteriza a la sostenibilidad en el sector de la edificación en la actualidad y enmarcar la investigación en un contexto de políticas y programaciones ya existentes. El objetivo principal reside en el planteamiento de una metodología de evaluación de los aspectos o impactos ambientales asociados al ciclo de vida de la edificación, aplicable al contexto español, como una de las tres dimensiones que constituyen los pilares básicos de la sostenibilidad. Los ámbitos de evaluación de los aspectos sociales y económicos, para los que no existe actualmente un grado de definición metodológico suficientemente congruente, son adicionalmente examinados, de cara a ofrecer una visión holística de la evaluación. Previo al desarrollo de la propuesta, se aborda, en primer lugar, la descripción de las características básicas y limitaciones de la metodología de Análisis de Ciclo de Vida (ACV), para posteriormente proceder a profundizar en el estado del arte de aplicación de ACV a la edificación, realizando una revisión crítica de los trabajos de investigación que han sido desarrollados en los últimos años. Esta revisión permite extraer conclusiones sobre su grado de coherencia con el futuro entorno normativo e identificar dos necesidades prioritarias de actuación: -La necesidad de armonización, dadas las fuertes inconsistencias metodológicas detectadas, que imposibilitan la comparación de los resultados obtenidos en los trabajos de evaluación. -La necesidad de simplificación, dada la complejidad inherente a la evaluación, de modo que, manteniendo el máximo rigor, sea viable su aplicación práctica en el contexto español. A raíz de la participación en los trabajos de desarrollo normativo a nivel europeo, se ha adquirido una visión crítica sobre las implicaciones metodológicas de la normativa en definición, que permite identificar la hoja de ruta que marcará el escenario europeo en los próximos años. La definición de la propuesta metodológica integra los principios generales de aplicación de ACV con el protocolo metodológico establecido en la norma europea, considerando adicionalmente las referencias normativas de las prácticas constructivas en el contexto español. En el planteamiento de la propuesta se han analizado las posibles simplificaciones aplicables, con el objetivo de hacer viable su implementación, centrando los esfuerzos en la sistematización del concepto de equivalente funcional, el establecimiento de recomendaciones sobre el tipo de datos en función de su disponibilidad y la revisión crítica de los modelos de cálculo de los impactos ambientales. Las implicaciones metodológicas de la propuesta se describen a través de una serie de casos de estudio, que ilustran su viabilidad y las características básicas de aplicación. Finalmente, se realiza un recorrido por los aspectos que han sido identificados como prioritarios en la conformación del escenario de perspectivas futuras, líneas de investigación y líneas de acción. Abstract Sustainability criteria application must be understood as the essential procedure for the necessary restructuring of the construction sector, which mobilizes 10% of the world economy, accounting for more than one third of the consumption of the world's resources, around 30 - 40% of energy consumption and emissions of greenhouse gases, 30-40% of waste generation and 12% of all the fresh water use in the world. This research is in line with an overall strategy to promote the sustainability assessment of building in the Spanish context, taking a first step focused on the environmental performance assessment. The thread of the present research sets out from the need to establish a theoretical framework of sustainability which clarifies concepts and defines appropriate endpoints. As a next step, the research focuses on the review of the international panorama regulations and voluntary instruments, with the aim of clarifying the fuzzy picture that characterizes sustainability in the building sector at present while framing the research in the context of existing policies and programming. The main objective lies in the approach of a methodology for the assessment of the environmental impacts associated with the life cycle of building, applicable to the Spanish context, as one of the three dimensions that constitute the pillars of sustainability. The areas of assessment of social and economic issues, for which there is currently a degree of methodological definition consistent enough, are further examined, in order to provide a holistic view of the assessment. The description of the basic features and limitations of the methodology of Life Cycle Assessment (LCA) are previously addressed, later proceeding to deepen the state of the art of LCA applied to the building sector, conducting a critical review of the research works that have been developed in recent years. This review allows to establish conclusions about the degree of consistency with the future regulatory environment and to identify two priority needs for action: - The need for harmonization, given the strong methodological inconsistencies detected that prevent the comparison of results obtained in assessment works. - The need for simplification, given the inherent complexity of the assessment, so that, while maintaining the utmost rigor, make the practical application feasible in the Spanish context. The participation in the work of policy development at European level has helped to achieve a critical view of the methodological implications of the rules under debate, identifying the roadmap that will mark the European scene in the coming years. The definition of the proposed methodology integrates the general principles of LCA methodology with the protocol established in the European standard, also considering the regulatory standards to construction practices in the Spanish context. In the proposed approach, possible simplifications applicable have been analyzed, in order to make its implementation possible, focusing efforts in systematizing the functional equivalent concept, establishing recommendations on the type of data based on their availability and critical review of the calculation models of environmental impacts. The methodological implications of the proposal are described through a series of case studies, which illustrate the feasibility and the basic characteristics of its application. Finally, the main aspects related to future prospects, research lines and lines of action that have been identified as priorities are outlined.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El documento se divide en dos grandes puntos: La utilización de las redes sociales en el deporte y con mayor detalle en el fútbol. El análisis de viabilidad de instalar una red social especializada para futbolistas amateur. Respecto al primero, presenta como se está usando el Social Media (SM) en los deportes, porque el actual y vertiginoso cambio en la sociedad, con la implantación de las redes sociales, proporciona una excelente forma de llegar a mercados que hace décadas eran inalcanzables. En base a lo anterior se presentan los casos de mejores prácticas de la industria deportiva en cuanto a redes sociales y cómo funcionan, y las nuevas tendencias en el tema. Además se presenta al fútbol desde un punto de vista estratégico tanto en su parte gerencial como en SM. Con lo anterior se deducen las buenas prácticas y las medidas que deberían implementarse para ampliar mercados y dar notoriedad en el mundo virtual a los clubes y ligas europeas de fútbol. Sobre el segundo punto, se plantea la viabilidad de una nueva red social para un target muy específico. Para esto se estudian las redes sociales existentes en el mercado viendo sus puntos débiles y fuertes. De todas las redes sociales analizadas, sólo hay una red social deportiva que es viable y funciona económicamente. Esta firma tiene en su cartera de productos la idea diferenciadora de la red social propuesta, validando así la propuesta del autor.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El análisis de la velocidad de carrera mediante sensores láser permite la obtención de datos en tiempo real siendo ventajosos frente a otros sistemas. El objetivo de este estudio fue valorar la validez y fiabilidad del sensor láser del sistema BioLaserSport® para el cálculo de velocidades medias y máximas mediante estadísticos relativos y absolutos. Los participantes fueron 17 varones (20.85 ± 1.54 años). Se utilizó un sensor láser tipo 1 (LDM301, Jenoptik, Germany) que registró posiciones de los deportistas a 2000 Hz. Los datos se trataron con la rutina DSL-30 creada con DasyLab v.10.0. Para la validación se utilizó un sistema de fotogrametría-2D con una cámara de alta velocidad (Exilim High Speed EX-F1, Casio) y SkillSpector v.1.3.2. (Video4coach, Grubbemollevej). Además, se utilizaron foto-células de doble haz (Polifemo Light, Microgate, Italy) y un cronómetro Racetime2 (Microgate, Italy). Se registraron, durante dos días, tres series de 30 m de carrera a máxima velocidad. El sensor láser proporcionó, con relación a la fotogrametría, diferencias en las velocidades medias y máximas de -0.11 m•s-1 y 0.14 m•s-1, respectivamente, con unos coeficientes de correlación superiores a 0.86, y mayores de 0.92 con las foto-células para las velocidades medias. Este mostró una excelente fiabilidad test-retest para las velocidades medias con un coeficiente de correlación intraclase (ICC) entre 0.7-0.9 y un error estándar de la media (SEM y SEM%), intrasesión e intersesión, menor de 0.05 m•s-1 y 0.12 m•s-1, respectivamente, y menores de 0.75% y de 2%, respectivamente. Para las velocidades máximas,los valores fueron menores de 0.10 m•s-1 y 0.17 m•s-1, respectivamente, y en ambos casos menores a 1.36% y 1,89%. El láser fue capaz de identificar mínimos cambios detectables (MDC y MDC%) intrasesión, para ambas variables, menores a 0.14 m•s-1 y 0.29 m•s-1, respectivamente (< 2.09% y < 3.76%) e intersesión, menores de 0.34 m•s-1 y 0.47 m•s-1 (< 5.56% y < 5.25%), respectivamente. En consecuencia, es un instrumento útil para el análisis de la evolución de la velocidad intrasujeto y entre sujetos en la carrera de velocidad entre 0-30 m, proporcionando resultados en tiempo real, pero se han de considerar los SEM, SEM%, MDC y MDC% para valorar la mejora del rendimiento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El abandono académico preocupa en todas las universidades y tiene especial incidencia en los estudios de Ingeniería y Arquitectura. En este trabajo se presentan los resultados de un estudio exhaustivo del abandono desarrollado en el marco de un proyecto transversal de Innovación Educativa, con la participación de más de 80 profesores de la Universidad Politécnica de Madrid (UPM), que pretende analizar los factores más influyentes en el abandono y, en particular, su relación con el absentismo académico. Se toma como población de estudio el colectivo de estudiantes de nuevo ingreso del curso 2010-11 en la UPM, que no se han matriculado en el curso 2011-12 en la misma carrera. Es lo que técnicamente se conoce como pre-abandono y que, en la inmensa mayoría de los casos, se convierte en abandono definitivo de la titulación iniciada.Se han usado dos metodologías: 1. Análisis de la información objetiva procedente de bases de datos de la UPM relativa a variables académicas (nota y opción de acceso, rendimiento académico, ...)y de componente social (sexo, nacionalidad, ...),así como de la información sobre absentismo solicitada a los profesores de las diferentes asignaturas, para la población de estudio. 2. Análisis de la información subjetiva recogida mediante trabajo de campo, a través de encuestas telefónicas(CATI) y entrevistasen profundidad, de los estudiantes en situación de pre-abandono. Entre las conclusiones más relevantes del estudio cabe señalar: En un porcentaje significativo el pre-abandono corresponde a un cambio para continuar estudios del mismo nivel en la misma u otra institución. El absentismo se identifica como predictor del abandono. El factor académico más relacionado con el abandono de una titulación es la nota de acceso. Los alumnos de la población de estudio tienen nota de acceso y rendimiento académico inferiores a los de los alumnos que continúan sus estudios. También presentan mayores índices de absentismo académico y menor participación en las actividades de aprendizaje y evaluación. Respecto a los factores de componente social y personal, se ha observado menor abandono entre las mujeres y mayor abandono entre los estudiantes extranjeros. En cuanto a la integración en la universidad y la relación con los compañeros, se ha detectado que los estudiantes de la población de pre-abandono perciben su integración en la comunidad universitaria como menos efectiva.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Algunas levaduras son capaces de producir deterioro en alimentos desarrollándose en su superficie como colonias. La medida del crecimiento de éstas evaluando el aumento de células viables es una técnica laboriosa y tediosa, mientras que la medida del aumento de su radio proporciona un resultado inmediato. En este trabajo, como alternativa a la medición manual del radio de la colonia, se plantea el empleo de técnicas de análisis de imagen que permiten automatizar el proceso de medición. A partir de las imágenes escaladas digitales, adquiridas en escala de gris de las colonias en crecimiento se ha desarrollado un algoritmo de análisis de imagen con el software MATLAB®. Esta herramienta se ha utilizado para procesar diariamente las imágenes de colonias de cuatro especies de levaduras deteriorantes: Zygosaccharomyces rouxii, Debaryomyces hansenii, Saccharomyces cerevisiae y Rhodotorula glutinis. El error de predicción del tamaño de la colonia al aplicar el algoritmo es comparable con el cometido en la medición manual, no superando en ambos casos el 3-4% y obteniéndose un ajuste medio (R2) entre ambas mediciones de 0.99, ajuste consistente e independiente de la especie de levadura estudiada. La observación de que el crecimiento bifásico del radio está correlacionado con las fases de aumento de células viables hace de este algoritmo una excelente herramienta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A lo largo de la historia en numerosas ocasiones la imaginación de los creadores ha ido por delante de las posibilidades técnicas de cada momento. Muchas de estas nuevas ideas han requerido largos periodos de tiempo para materializarse como realidad construida, hasta que el desarrollo tecnológico e industrial ha alcanzado un desarrollo suficiente. Estas limitaciones técnicas se han acotado paulatinamente desembocando en la situación actual en la que cualquier planteamiento formal puede ser representado y analizado desde un punto de vista estructural, concluyéndose por tanto que ha desaparecido la barrera del análisis y de la representación gráfica en lo que al desarrollo de los proyectos arquitectónicos se refiere. A lo largo del artículo se analiza cómo la formulación del método de los elementos finitos en la década de los 50 y la posterior generalización de los ordenadores personales y de los paquetes de software de dibujo (C.A.D.) y análisis estructural (F.E.M.) en los estudios de arquitectura e ingeniería en la década de los 80 del siglo pasado, posibilitó el desarrollo de cualquier propuesta arquitectónica por compleja que ésta sea. Esto ha provocado una verdadera revolución a nivel formal en el mundo de la arquitectura, especialmente en el campo de la edificación singular o icónica. Se estudia este proceso a través de ocho casos de estudio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los procedimientos de evaluación de la calidad de la voz basados en la valoración subjetiva a través de la percepción acústica por parte de un experto están bastante extendidos. Entre ellos,el protocolo GRBAS es el más comúnmente utilizado en la rutina clínica. Sin embargo existen varios problemas derivados de este tipo de estimaciones, el primero de los cuales es que se precisa de profesionales debidamente entrenados para su realización. Otro inconveniente reside en el hecho de que,al tratarse de una valoración subjetiva, múltiples circunstancias significativas influyen en la decisión final del evaluador, existiendo en muchos casos una variabilidad inter-evaluador e intra-evaluador en los juicios. Por estas razones se hace necesario el uso de parámetros objetivos que permitan realizar una valoración de la calidad de la voz y la detección de diversas patologías. Este trabajo tiene como objetivo comparar la efectividad de diversas técnicas de cálculo de parámetros representativos de la voz para su uso en la clasificación automática de escalas perceptuales. Algunos parámetros analizados serán los coeficientes Mel-Frequency Cepstral Coefficients(MFCC),las medidas de complejidad y las de ruido.Así mismo se introducirá un nuevo conjunto de características extraídas del Espectro de Modulación (EM) denominadas Centroides del Espectro de Modulación (CEM).En concreto se analizará el proceso de detección automática de dos de los cinco rasgos que componen la escala GRBAS: G y R. A lo largo de este documento se muestra cómo las características CEM proporcionan resultados similares a los de otras técnicas anteriormente utilizadas y propician en algún caso un incremento en la efectividad de la clasificación cuando son combinados con otros parámetros.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el ámbito de la competición deportiva profesional, el entrenador es una figura clave dentro del equipo y afecta de manera significativa al rendimiento del mismo. El comportamiento del entrenador, las decisiones que tome durante el partido, sus formas, tiempos, etc. afectan a las actuaciones de los jugadores dentro de la pista y suponen un aspecto muy importante a tener en cuenta a la hora de analizar el rendimiento de los equipos en una competición. Los condicionantes de la competición, la urgencia en las decisiones, la incertidumbre de su cumplimiento, etc., afectan a su conducta verbal. Por tanto, debemos conocer algunos de los comportamientos que resultan más eficaces por parte del entrenador para conseguir el mayor rendimiento de su equipo durante el partido y a partir de ahí tratar de construir un modelo teórico sobre que requisitos debería cumplir esta conducta verbal, ya que creemos que es a través del análisis de la observación de una conducta en una situación real como se pueden establecer estos parámetros teóricos sobre la comunicación. Para ello realizamos un estudio de 6 casos de entrenadores expertos en los que observamos su comportamiento verbal durante 4 partidos para extraer una información que comparada con los estudios previos, determine si es posible o no, establecer un modelo mínimo común de comportamiento eficaz en competición. En cuanto al objeto de la observación en el estudio de los casos nos hemos centrado en el contenido de la información, el que, su significado y sólo de tipo verbal, ya que consideramos la comunicación no verbal como algo más sujeto a posibles interpretaciones, aspecto que no estudiamos. ABSTRACT In the area of the sports professional competition, the coach is a key figure inside the team and concerns in a significant way the performance of the same one. The behavior of the coach, the decisions that it takes during the game, his forms, times, etc. They concern the actions of the players inside the track and suppose a very important aspect to bear in mind at the moment of analyzing the performance of the teams in a competition. The determining ones of the competition, the urgency in the decisions, the uncertainty of his fulfillment, etc., they concern his verbal behavior. Therefore, we must know some of the behaviors that turn out to be more effective on the part of the coach to obtain the best performance of his team during the game and from there tries to construct a theoretical model on whom requirements it should fulfill this verbal behavior, since we believe that it is across the analysis of the observation of a conduct in a true situation since these theoretical parameters can be established on the communication. For it we realize a study of 6 cases of expert coaches in that we observe his verbal behavior during 4 games to extract information that compared with the previous studies, it determines if it is possible or not, establishes a minimal common model of effective behavior in competition. As for the object of the observation in the study of the cases we have centered on the content of the information, the fact that, his meaning and only of verbal type, since we consider the not verbal communication as slightly more subject to possible interpretations, aspect that we do not study.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la actualidad, el desarrollo de las tecnologías de adquisición y análisis de imagen médica permiten la implementación de aplicaciones con fines clínicos y de investigación que resulten en un mejor conocimiento de la fisiopatología humana y, en la práctica, un mejor tratamiento a los pacientes. Utilizando imágenes de resonancia magnética nuclear y de tomografía por emisión de fotón único (SPECT), se han desarrollado los algoritmos de registro necesarios para ser integrados en dos procedimientos de uso clínico. En el primero de estos procedimientos, el objetivo es la localización del foco epileptogénico en casos de epilepsia fármacorresistente mediante el protocolo denominado SISCOM. En este contexto, se ha implementado un algoritmo de registro rígido para el corregistro de Resonancia Magnética e imagen SPECT interictal, así como un algoritmo de registro afín que ayuda a la segmentación de imágenes SPECT. Así mismo, se han validado y caracterizado ambos algoritmos y la librería sobre la que se han desarrollado. El segundo procedimiento tiene por objeto la cuantificación de neurotransmisores dopaminérgicos para el diagnóstico de Enfermedad de Parkinson. En este contexto, se ha implementado un algoritmo de registro SPECT-template necesario para realizar correctamente la cuantificación.