972 resultados para estimación por punto


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La importancia de la Biomasa a nivel mundial, ha llevado a que más de 130 países celebren el protocolo de Kioto sobre el cambio climático dictaminando como objetivo la reducción de las emisiones de seis gases de efecto invernadero y tres gases industriales fluorados, así como la incorporación de la fijación del CO2 como un objetivo dentro de los criterios de gestión de bosques. Entre las metodologías no destructivas para estimación de biomasa, aquí desarrolladas se describen tres técnicas que varios autores han propuesto para calcular los valores de biomasa y carbono, tal como el uso de ecuaciones alométricas por medio de la medición de variables dasométricas como el DAP, la aplicación de la teoría de huecos (v.g. DHP, TRAC), y la obtención de biomasa mediante información radar. Las imágenes radar proporcionan una clara ventaja al poder ser adquiridas en cualquier momento del día e independientemente de las condiciones climatológicas. Se han adquirido dos imágenes de sensores diferentes, tal como ALOSPALSAR que trabaja en la banda L y RADARSAT-2 que trabaja en la banda C, se aplica la metodología descrita por Saatchi et al. (2007), desarrollando los algoritmos semiempíricos propuestos para la estimación de biomasa del fuste (Ws) y biomasa de la copa (Wc), obteniendo los coeficientes a partir de información adquirida en campo. ABSTRACT The importance of biomass worldwide has led to more than 130 countries to celebrate the Kyoto Protocol, aimed at reducing emissions of six greenhouse gases and three fluorinated industrial gases, and the incorporation of the fixation of CO2 as an objective within forest management criteria. Among the non-destructive methods for estimating biomass, three techniques were developed. These have been described by some authors, as the use of allometric equations by measuring forest variables such as the DAP, the application of the Gap Theory (e.g. DHP, TRAC), as well as deriving biomass by radar information. The radar images provide a clear advantage since they can be gathered at any time of the day regardless of the weather conditions. For this purpose, two radar products have acquired from different sensors, such as ALOSPALSAR operating on L frequency band and RADARSAT-2 operating on C frequency band. The methodology applied in this work is described in Saatchi et al. (2007), that develop semiempirical algorithms for estimating stem biomass (Ws) and crown biomass (Wc). The corresponding coefficients are determined by means of regression procedures using field information derived from allometric and radiation measurements.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las glorietas se han convertido en los últimos años en un tipo de intersección muy popular. Un apartado esencial del diseño de glorietas es la seguridad de circulación, aspecto muy relacionado con la distribución de velocidades. La geometría debe limitar las diferentes posibilidades de trayectoria de tal forma que los conductores moderen su velocidad y exista una adecuada consistencia de velocidades. Las guías de diseño tradicionalmente han propuesto una serie de indicadores geométricos (radio de entrada de la trayectoria, radio de la deflexión y ángulo ?, entre los principales) suponiendo que unos valores adecuados para estos indicadores favorecen el control de la velocidad y la seguridad en la intersección. Un enfoque más moderno, se basa en modelar las trayectorias de los vehículos y analizar el perfil de velocidades. En cualquier caso, siguiendo los indicadores denominados tradicionales o los enfoques más modernos, se requiere establecer las trayectorias con mayor o menor detalle. Esto define una tarea compleja, laboriosa y no exenta de cierta subjetividad. Para su definición no existe consenso internacional en cuanto a la metodología a emplear. En la presente investigación se propone una nueva metodología para abordar el cálculo de trayectorias. El modelo se centra en glorietas de un carril con cualquier configuración en las alineaciones de acceso. El dato básico es la geometría de la glorieta. A partir de ella, y en base a la definición de una serie de retranqueos respecto de los bordes de calzada, se han desarrollado una serie de construcciones geométricas que permiten establecer de forma automática las trayectorias aproximadas de los vehículos más rápidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente proyecto tiene como objeto la puesta a punto de métodos de análisis de combustibles basados en la espectrometría atómica, centrándose en un equipo de absorción atómica que, como su nombre indica, funciona bajo el principio de la absorción atómica y un equipo ICP que trabaja por plasma acoplado inductivamente y que se rige bajo el principio espectrométrico de la emisión atómica. La finalidad de la puesta a punto de ambos métodos es llevar un control de calidad periódico sobre los combustibles. Se pondrán a punto dos métodos normalizados de ensayos, uno bajo la norma UNE EN 16135 para la determinación del contenido de manganeso en gasolinas; otro bajo la norma EN 16576 para determinar el contenido de manganeso y de hierro en gasóleos de automoción. La puesta a punto de ambos métodos tiene un procedimiento asociado que se puede resumir en cuatro pasos: lectura de la norma, creación del método en el software informático con el que trabaja el equipo, calibración del mismo y realización del estudio de exactitud del método. Abstract The aim of this project is to tune up analytical methods based on the principle of the atomic spectrometry, focusing on testing equipment which works under the principle of atomic absorption and Inductively Coupled Plasma (ICP) equipment governed under the principle of atomic emission. The purpose of tuning up both methods is to perform a quality control on fuels. Two different standard methods will be developed: One under the standard UNE EN 16135 for measuring the content of manganese in gasolines; the other one under the standard EN 16576 for the determination of manganese and iron content in middle distillate fuels. Tune up of both methods procedure can be summarized in four steps: Reading the standard, creation of the method on the computer software associated to the equipment, calibration of the equipment and completion of accuracy study.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis doctoral propone una metodología de estimación de demanda de tráfico de Internet basada en la caracterización de perfiles de usuario de Internet, con el objetivo de analizar el rendimiento y dimensionamiento de una red de acceso. Se realiza un exhaustivo análisis del estado del arte clasificado en tres partes. La primera parte se encuentra relacionada con la caracterización de usuarios en Internet. Incluye un estudio de las metodologías de extracción de conocimiento basado en técnicas de minería de datos, y un análisis de modelos teóricos y estudios previos de usuarios de Internet. En la segunda parte, se incluye un análisis de modelos teóricos para caracterizar fuentes de tráfico de aplicaciones de Internet, así como un estudio comparativo de los modelos de tráfico ON/OFF para un conjunto de aplicaciones representativas de Internet. En la última parte, se incluye un estudio de las arquitecturas de redes de acceso más relevantes y se propone un modelo genérico de arquitectura de red de acceso. Esta tesis doctoral define un marco metodológico basado en Procesos de Descubrimiento de Conocimiento (KDPs), con el que extraer, identificar y caracterizar, a los usuarios de Internet a partir de fuentes de información estadística. Se ha aplicado esta metodología a los usuarios residenciales en España y se ha identificado una distinción clara entre No-Usuarios (47%) y Usuarios de Internet (53%). Dentro de los usuarios de Internet se han extraído 4 perfiles de usuarios: Esporádicos (16%), Instrumentales (10%), Sociales (14%) y Avanzados (13%). Esta metodología también ha sido aplicada a años anteriores con el fin de realizar un pronóstico de la evolución de la tipología de usuarios de Internet en España. A continuación, se propone un método de estimación de demanda de tráfico basado en los perfiles de usuario de Internet identificados, con el objetivo de analizar el rendimiento de la red de acceso subyacente. Esta metodología se encuentra basada en 3 modelos: red de acceso, tráfico de red y perfiles de usuario y aplicaciones. Por último, la tesis presenta un modelo y una herramienta de simulación con la que se implementa el método de estimación de demanda anteriormente descrito. El modelo y la herramienta de simulación han sido validados frente a un modelo analítico mediante el uso de un escenario simplificado basado en fuentes de tráfico ON/OFF homogéneas. Mediante el uso de la herramienta de simulación desarrollada, se aplica la metodología de estimación de demanda a dos casos de uso, que se corresponden a dos escenarios de redes de acceso idénticas, a excepción de la caracterización de los usuarios de la misma. En el primer caso de uso, la red de acceso se caracteriza por los perfiles de usuario residenciales de Internet identificados para el año 2012, y en el segundo caso de uso, se utiliza el pronóstico de evolución de perfiles de usuario de Internet para el año 2017. Se concluye con una comparación del rendimiento de la red de acceso para ambos casos de uso, a partir del análisis del Grado de Servicio (GoS) de ambos escenarios.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La iluminación con diodos emisores de luz (LED) está reemplazando cada vez en mayor medida a las fuentes de luz tradicionales. La iluminación LED ofrece ventajas en eficiencia, consumo de energía, diseño, tamaño y calidad de la luz. Durante más de 50 años, los investigadores han estado trabajando en mejoras LED. Su principal relevancia para la iluminación está aumentando rápidamente. Esta tesis se centra en un campo de aplicación importante, como son los focos. Se utilizan para enfocar la luz en áreas definidas, en objetos sobresalientes en condiciones profesionales. Esta iluminación de alto rendimiento requiere una calidad de luz definida, que incluya temperaturas ajustables de color correlacionadas (CCT), de alto índice de reproducción cromática (CRI), altas eficiencias, y colores vivos y brillantes. En el paquete LED varios chips de diferentes colores (rojo, azul, fósforo convertido) se combinan para cumplir con la distribución de energía espectral con alto CRI. Para colimar la luz en los puntos concretos deseados con un ángulo de emisión determinado, se utilizan blancos sintonizables y diversos colores de luz y ópticas secundarias. La combinación de una fuente LED de varios colores con elementos ópticos puede causar falta de homogeneidad cromática en la distribución espacial y angular de la luz, que debe resolverse en el diseño óptico. Sin embargo, no hay necesidad de uniformidad perfecta en el punto de luz debido al umbral en la percepción visual del ojo humano. Por lo tanto, se requiere una descripción matemática del nivel de uniformidad del color con respecto a la percepción visual. Esta tesis está organizada en siete capítulos. Después de un capítulo inicial que presenta la motivación que ha guiado la investigación de esta tesis, en el capítulo 2 se presentan los fundamentos científicos de la uniformidad del color en luces concentradas, como son: el espacio de color aplicado CIELAB, la percepción visual del color, los fundamentos de diseño de focos respecto a los motores de luz y ópticas no formadoras de imágenes, y los últimos avances en la evaluación de la uniformidad del color en el campo de los focos. El capítulo 3 desarrolla diferentes métodos para la descripción matemática de la distribución espacial del color en un área definida, como son la diferencia de color máxima, la desviación media del color, el gradiente de la distribución espacial de color, así como la suavidad radial y axial. Cada función se refiere a los diferentes factores que influyen en la visión, los cuales necesitan un tratamiento distinto que el de los datos que se tendrán en cuenta, además de funciones de ponderación que pre- y post-procesan los datos simulados o medidos para la reducción del ruido, la luminancia de corte, la aplicación de la ponderación de luminancia, la función de sensibilidad de contraste, y la función de distribución acumulativa. En el capítulo 4, se obtiene la función de mérito Usl para la estimación de la uniformidad del color percibida en focos. Se basó en los resultados de dos conjuntos de experimentos con factor humano realizados para evaluar la percepción visual de los sujetos de los patrones de focos típicos. El primer experimento con factor humano dio lugar al orden de importancia percibida de los focos. El orden de rango percibido se utilizó para correlacionar las descripciones matemáticas de las funciones básicas y la función ponderada sobre la distribución espacial del color, que condujo a la función Usl. El segundo experimento con factor humano probó la percepción de los focos bajo condiciones ambientales diversas, con el objetivo de proporcionar una escala absoluta para Usl, para poder así sustituir la opinión subjetiva personal de los individuos por una función de mérito estandarizada. La validación de la función Usl se presenta en relación con el alcance de la aplicación y condiciones, así como las limitaciones y restricciones que se realizan en el capítulo 5. Se compararon los datos medidos y simulados de varios sistemas ópticos. Se discuten los campos de aplicación , así como validaciones y restricciones de la función. El capítulo 6 presenta el diseño del sistema de focos y su optimización. Una evaluación muestra el análisis de sistemas basados en el reflector y la lente TIR. Los sistemas ópticos simulados se comparan en la uniformidad del color Usl, sensibilidad a las sombras coloreadas, eficiencia e intensidad luminosa máxima. Se ha comprobado que no hay un sistema único que obtenga los mejores resultados en todas las categorías, y que una excelente uniformidad de color se pudo alcanzar por la conjunción de dos sistemas diferentes. Finalmente, el capítulo 7 presenta el resumen de esta tesis y la perspectiva para investigar otros aspectos. ABSTRACT Illumination with light-emitting diodes (LED) is more and more replacing traditional light sources. They provide advantages in efficiency, energy consumption, design, size and light quality. For more than 50 years, researchers have been working on LED improvements. Their main relevance for illumination is rapidly increasing. This thesis is focused on one important field of application which are spotlights. They are used to focus light on defined areas, outstanding objects in professional conditions. This high performance illumination required a defined light quality including tunable correlated color temperatures (CCT), high color rendering index (CRI), high efficiencies and bright, vivid colors. Several differently colored chips (red, blue, phosphor converted) in the LED package are combined to meet spectral power distribution with high CRI, tunable white and several light colors and secondary optics are used to collimate the light into the desired narrow spots with defined angle of emission. The combination of multi-color LED source and optical elements may cause chromatic inhomogeneities in spatial and angular light distribution which needs to solved at the optical design. However, there is no need for perfect uniformity in the spot light due to threshold in visual perception of human eye. Therefore, a mathematical description of color uniformity level with regard to visual perception is required. This thesis is organized seven seven chapters. After an initial one presenting the motivation that has guided the research of this thesis, Chapter 2 introduces the scientific basics of color uniformity in spot lights including: the applied color space CIELAB, the visual color perception, the spotlight design fundamentals with regards to light engines and nonimaging optics, and the state of the art for the evaluation of color uniformity in the far field of spotlights. Chapter 3 develops different methods for mathematical description of spatial color distribution in a defined area, which are the maximum color difference, the average color deviation, the gradient of spatial color distribution as well as the radial and axial smoothness. Each function refers to different visual influencing factors, and they need different handling of data be taken into account, along with weighting functions which pre- and post-process the simulated or measured data for noise reduction, luminance cutoff, the implementation of luminance weighting, contrast sensitivity function, and cumulative distribution function. In chapter 4, the merit function Usl for the estimation of the perceived color uniformity in spotlights is derived. It was based on the results of two sets of human factor experiments performed to evaluate the visual perception of typical spotlight patterns by subjects. The first human factor experiment resulted in the perceived rank order of the spotlights. The perceived rank order was used to correlate the mathematical descriptions of basic functions and weighted function concerning the spatial color distribution, which lead to the Usl function. The second human factor experiment tested the perception of spotlights under varied environmental conditions, with to objective to provide an absolute scale for Usl, so the subjective personal opinion of individuals could be replaced by a standardized merit function. The validation of the Usl function is presented concerning the application range and conditions as well as limitations and restrictions in carried out in chapter 5. Measured and simulated data of various optical several systems were compared. Fields of applications are discussed as well as validations and restrictions of the function. Chapter 6 presents spotlight system design and their optimization. An evaluation shows the analysis of reflector-based and TIR lens systems. The simulated optical systems are compared in color uniformity Usl , sensitivity to colored shadows, efficiency, and peak luminous intensity. It has been found that no single system which performed best in all categories, and that excellent color uniformity could be reached by two different system assemblies. Finally, chapter 7 summarizes the conclusions of the present thesis and an outlook for further investigation topics.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el presente proyecto se propone una nueva zonificación sísmica para América Central, a partir de la cual se ha realizado el cálculo de peligrosidad sísmica a nivel regional. Dicha zonificación y el posterior cálculo de peligrosidad desarrollado se presentan como actualización de los resultados del estudio previo desarrollado para la región (Benito et al., 2012), realizando asimismo la comparación entre los resultados de ambos estudios. En primer lugar se ha realizado la revisión de la zonificación existente, modificando la geometría de algunas zonas en base al conocimiento generado en los últimos años sobre todo en lo que se refiere a la geometría de la subducción,que varía de ángulo a lo largo de la trinchera Mesoamericana. Ello conlleva, a su vez, cambios en la sismicidad asignada a las zonas corticales y de subducción interfase. Los cambios y ajustes entre zonas se realizaron contando con el consenso de diferentes expertos en la materia y en colaboración con el Dr. Guillermo Alvarado, vulcanólogo del Instituto Costarricense de Electricidad (ICE), que desarrolló una estancia en Madrid, para trabajar con el Grupo de Investigación de Ingeniería Sísmica de la UPM (GIIS) en noviembre de 2014. Para la propuesta de nueva zonificación, se ha partido del catálogo sísmico depurado hasta 2011, completo y homogeneizado a magnitud momento, Mw. Dicho catálogo recoge una gran actividad sísmica y fue confeccionado dentro del proyecto RESIS II, en el cual participó el Grupo de Ingeniería Sísmica. Se ha seleccionado de dicho catálogo la sismicidad registrada en las nuevas zonas sismogenéticas propuestas y se han calculado los parámetros sísmicos de cada zona: la tasa acumulada de ocurrencia de terremotos, la magnitud máxima y el parámetro beta. Se ha considerado que la sismicidad se ajusta al modelo de recurrencia de Gutenberg-Richter, el cual establece una proporción constante entre el número de sismos grandes y pequeños para una determinada zona. Para la estimación de los parámetros sísmicos se ha utilizado el software Expel, desarrollado por el Grupo de Investigación de Ingeniería Sísmica de la UPM. Utilizando las zonas sismogenéticas propuestas y sus parámetros sísmicos,se ha calculado la amenaza sísmica en toda la región de Centroamérica, evaluada en cada punto como la probabilidad de que el movimiento del suelo exceda valores de aceleración prefijados, y obteniendo así la curva de peligrosidad en puntos de una malla cubriendo la región de estudio. Los cálculos han sido realizados empleando el software específico de peligrosidad sísmica CRISIS 2014. Los resultados se presentan en mapas de peligrosidad obtenidos para diferentes periodos de retorno en términos de aceleración pico (PGA), así como de otras aceleraciones espectrales SA (T) para diversos periodos estructurales T en el rango de 0,1 a 2 s. Para el diseño de los mapas se ha utilizado el software ArcGIS 10.1. Adicionalmente, se ha realizado un análisis de sensibilidad en los resultados ante diferentes propuestas de profundidad de la zonificación interfase,estudiando así el impacto de dichos cambios en los parámetros sísmicos de las zonas y en los resultados del cálculo de la peligrosidad. Finalmente, se han comparado los resultados obtenidos en este trabajo (tanto los parámetros sísmicos de la nueva zonificación como las aceleraciones resultantes del estudio de peligrosidad) con los resultados pertenecientes al estudio recogido en el libro Amenaza Sísmica en América Central de Benito et al.(2010), y en la posterior publicación de Benito et al. (2012), analizando así las principales diferencias entre ambos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto se basa en la comparación de un modelo de flujo lineal frente a un modelo de ecuaciones completas. Con esta motivación se empleará un programa de cada tipo. Los elegidos son el WAsP y el WindSim respectivamente. Tras una breve descripción de cada programa, estudiaremos los distintos elementos que los componen y su estructura. Entre todas las posibilidades que presentan ambos programas, el proyecto se centrará en la estimación del recurso eólico. En teoría, el programa que emplea un modelo lineal no será apto en terrenos complejos, por ello se tratará de estimar el error cometido por el modelo lineal tomando como referencia el modelo de ecuaciones completas. Con el objetivo de comparar ambos programas y poder distinguir sus diferencias, se plantea un caso común, en el cual se evaluarán distintas condiciones meteorológicas para colinas de forma gaussiana y distinta pendiente. Con ello se pretende medir la evolución de la precisión del WAsP conforme el terreno se va haciendo más complejo. Otras variables a tener en cuenta serán la variación de la velocidad del viento y la altura del punto de cálculo. Finalmente se analizan y explican los resultados obtenidos acompañados de elementos visuales proporcionados por los programas. 2. Abstract The main objective of this project is the comparison of two models, one based on the lineal flux and the other based on the complete equations. Thanks to two different computer programmes, WAsP and WindSim, the first one using a linear model and the second one using a complete equation model, we will be able to highlight the main differences between both models. Furthermore, a description of the structure and elements of each program will be outlined. This project will focus on the estimation of the wind resource. In theory, the program which uses a linear model will not be useful in complex terrains. Therefore, we will try to estimate the fault of the lineal model comparing it to the complete equation model. In order to be able to distinguish the differences between both programmes, the same exercise will be proposed to be solved by both of them. Here a range of meteorological conditions will be evaluated over a Gaussian hill with a slope that varies. Thereby, we will be able to measure the evolution of the precision of WAsP according to the increase of the slope. Finally, the results are analysed and explained with help of some visual characters.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente trabajo parte con la intención de crear un entorno gráfico cómodo y amigable con el cual desarrollar la práctica relacionada con el estudio de las estrategias de estimación y compensación de movimiento aplicadas en los estándares de codificación de vídeo, y que forma parte de la asignatura “Televisión” de 4º de grado. Hasta ahora, se viene utilizado un entorno conocido como Cantata, proporcionado por Khoros, basado en la conexión de estructuras denominadas glifos a través de las cuales circula un flujo de datos (en nuestro caso, relacionado con el tratamiento de imágenes y vídeo). El presente trabajo adapta dicha estructura a las posibilidades gráficas de Matlab, incorporando, además, funcionalidades adicionales. En primer lugar, se expondrán los métodos de estimación y compensación que han sido programados en la herramienta desarrollada, así como las ventajas e inconvenientes asociados a cada uno de ellos. Dichos métodos de estimación y compensación de movimiento tratan de reducir la información a transmitir aprovechando la redundancia temporal presente entre las imágenes de una secuencia. El objetivo será establecer una correspondencia entre dos imágenes de una secuencia entre las que se ha producido un movimiento, calculando un conjunto de vectores en que representan dicho movimiento. Acto seguido, se describirán las claves de la interfaz gráfica desarrollada. En primer lugar se definirá el entorno gráfico habilitado por Khoros en el cual se ha desarrollado hasta ahora la práctica ya mencionada. Más tarde, introduciremos los aspectos más importantes para la creación de interfaces gráficas en Matlab, y se describirá brevemente una interfaz gráfica desarrollada anteriormente en el Grupo de Tratamiento de Imágenes (GTI) que ha sido tomada como referencia para el presente trabajo. Una vez presentado el entorno gráfico se describirán detalladamente los módulos elaborados para llevar a cabo la estimación y compensación de movimiento, además de otras funciones relacionadas con el tratamiento de imágenes y vídeo y la visualización de resultados. Por último, se propone un nuevo enunciado para la citada práctica, adaptado a la herramienta desarrollada y respetando, hasta donde ha sido posible, la estructura y objetivos docentes del enunciado original.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente comunicación tiene por objetivo analizar las posibilidades que el uso de la fotogrametría nos ofrece en el estudio y documentación del arte rupestre, en concreto los grabados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta Tesis tiene como objetivo principal el desarrollo de métodos de identificación del daño que sean robustos y fiables, enfocados a sistemas estructurales experimentales, fundamentalmente a las estructuras de hormigón armado reforzadas externamente con bandas fibras de polímeros reforzados (FRP). El modo de fallo de este tipo de sistema estructural es crítico, pues generalmente es debido a un despegue repentino y frágil de la banda del refuerzo FRP originado en grietas intermedias causadas por la flexión. La detección de este despegue en su fase inicial es fundamental para prevenir fallos futuros, que pueden ser catastróficos. Inicialmente, se lleva a cabo una revisión del método de la Impedancia Electro-Mecánica (EMI), de cara a exponer sus capacidades para la detección de daño. Una vez la tecnología apropiada es seleccionada, lo que incluye un analizador de impedancias así como novedosos sensores PZT para monitorización inteligente, se ha diseñado un procedimiento automático basado en los registros de impedancias de distintas estructuras de laboratorio. Basándonos en el hecho de que las mediciones de impedancias son posibles gracias a una colocación adecuada de una red de sensores PZT, la estimación de la presencia de daño se realiza analizando los resultados de distintos indicadores de daño obtenidos de la literatura. Para que este proceso sea automático y que no sean necesarios conocimientos previos sobre el método EMI para realizar un experimento, se ha diseñado e implementado un Interfaz Gráfico de Usuario, transformando la medición de impedancias en un proceso fácil e intuitivo. Se evalúa entonces el daño a través de los correspondientes índices de daño, intentando estimar no sólo su severidad, sino también su localización aproximada. El desarrollo de estos experimentos en cualquier estructura genera grandes cantidades de datos que han de ser procesados, y algunas veces los índices de daño no son suficientes para una evaluación completa de la integridad de una estructura. En la mayoría de los casos se pueden encontrar patrones de daño en los datos, pero no se tiene información a priori del estado de la estructura. En este punto, se ha hecho una importante investigación en técnicas de reconocimiento de patrones particularmente en aprendizaje no supervisado, encontrando aplicaciones interesantes en el campo de la medicina. De ahí surge una idea creativa e innovadora: detectar y seguir la evolución del daño en distintas estructuras como si se tratase de un cáncer propagándose por el cuerpo humano. En ese sentido, las lecturas de impedancias se emplean como información intrínseca de la salud de la propia estructura, de forma que se pueden aplicar las mismas técnicas que las empleadas en la investigación del cáncer. En este caso, se ha aplicado un algoritmo de clasificación jerárquica dado que ilustra además la clasificación de los datos de forma gráfica, incluyendo información cualitativa y cuantitativa sobre el daño. Se ha investigado la efectividad de este procedimiento a través de tres estructuras de laboratorio, como son una viga de aluminio, una unión atornillada de aluminio y un bloque de hormigón reforzado con FRP. La primera ayuda a mostrar la efectividad del método en sencillos escenarios de daño simple y múltiple, de forma que las conclusiones extraídas se aplican sobre los otros dos, diseñados para simular condiciones de despegue en distintas estructuras. Demostrada la efectividad del método de clasificación jerárquica de lecturas de impedancias, se aplica el procedimiento sobre las estructuras de hormigón armado reforzadas con bandas de FRP objeto de esta tesis, detectando y clasificando cada estado de daño. Finalmente, y como alternativa al anterior procedimiento, se propone un método para la monitorización continua de la interfase FRP-Hormigón, a través de una red de sensores FBG permanentemente instalados en dicha interfase. De esta forma, se obtienen medidas de deformación de la interfase en condiciones de carga continua, para ser implementadas en un modelo de optimización multiobjetivo, cuya solución se haya por medio de una expansión multiobjetivo del método Particle Swarm Optimization (PSO). La fiabilidad de este último método de detección se investiga a través de sendos ejemplos tanto numéricos como experimentales. ABSTRACT This thesis aims to develop robust and reliable damage identification methods focused on experimental structural systems, in particular Reinforced Concrete (RC) structures externally strengthened with Fiber Reinforced Polymers (FRP) strips. The failure mode of this type of structural system is critical, since it is usually due to sudden and brittle debonding of the FRP reinforcement originating from intermediate flexural cracks. Detection of the debonding in its initial stage is essential thus to prevent future failure, which might be catastrophic. Initially, a revision of the Electro-Mechanical Impedance (EMI) method is carried out, in order to expose its capabilities for local damage detection. Once the appropriate technology is selected, which includes impedance analyzer as well as novel PZT sensors for smart monitoring, an automated procedure has been design based on the impedance signatures of several lab-scale structures. On the basis that capturing impedance measurements is possible thanks to an adequately deployed PZT sensor network, the estimation of damage presence is done by analyzing the results of different damage indices obtained from the literature. In order to make this process automatic so that it is not necessary a priori knowledge of the EMI method to carry out an experimental test, a Graphical User Interface has been designed, turning the impedance measurements into an easy and intuitive procedure. Damage is then assessed through the analysis of the corresponding damage indices, trying to estimate not only the damage severity, but also its approximate location. The development of these tests on any kind of structure generates large amounts of data to be processed, and sometimes the information provided by damage indices is not enough to achieve a complete analysis of the structural health condition. In most of the cases, some damage patterns can be found in the data, but none a priori knowledge of the health condition is given for any structure. At this point, an important research on pattern recognition techniques has been carried out, particularly on unsupervised learning techniques, finding interesting applications in the medicine field. From this investigation, a creative and innovative idea arose: to detect and track the evolution of damage in different structures, as if it were a cancer propagating through a human body. In that sense, the impedance signatures are used to give intrinsic information of the health condition of the structure, so that the same clustering algorithms applied in the cancer research can be applied to the problem addressed in this dissertation. Hierarchical clustering is then applied since it also provides a graphical display of the clustered data, including quantitative and qualitative information about damage. The performance of this approach is firstly investigated using three lab-scale structures, such as a simple aluminium beam, a bolt-jointed aluminium beam and an FRP-strengthened concrete specimen. The first one shows the performance of the method on simple single and multiple damage scenarios, so that the first conclusions can be extracted and applied to the other two experimental tests, which are designed to simulate a debonding condition on different structures. Once the performance of the impedance-based hierarchical clustering method is proven to be successful, it is then applied to the structural system studied in this dissertation, the RC structures externally strengthened with FRP strips, where the debonding failure in the interface between the FRP and the concrete is successfully detected and classified, proving thus the feasibility of this method. Finally, as an alternative to the previous approach, a continuous monitoring procedure of the FRP-Concrete interface is proposed, based on an FBGsensors Network permanently deployed within that interface. In this way, strain measurements can be obtained under controlled loading conditions, and then they are used in order to implement a multi-objective model updating method solved by a multi-objective expansion of the Particle Swarm Optimization (PSO) method. The feasibility of this last proposal is investigated and successfully proven on both numerical and experimental RC beams strengthened with FRP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo que persigue el presente trabajo es el diseño de un sistema de interconexión basado en la tecnología WDM. Se presenta la comunicación entre dos Centros de Procesamiento de Datos (CPDs), localizados geográficamente distantes dentro de un entorno metropolitano. El punto de partida se establece sobre la base de una serie de requerimientos previos solicitados por un operador de telecomunicaciones, el cual pretende dotar de servicio mediante fibra óptica a varios centros de negocio dentro de la misma ciudad y, para ello, se solicita el diseño y la implementación de la solución lo que, en esencia, se tratará de un proyecto llave en mano. En este documento se expondrá el análisis del caso de estudio, la solución técnica desarrollada para satisfacer los requisitos requeridos por el cliente y la estimación económica del equipamiento e instalación del mismo. Del mismo modo, se establecerán líneas de trabajo futuras de cara a mejorar el sistema de comunicación implementado de acuerdo a las necesidades actuales y futuras, ya sea traducido en una mejora de las prestaciones o ahorro de costes. Para poder realizar el diseño de la solución, se establecen las bases teóricas de la tecnología WDM con el fin de disponer de los conocimientos necesarios para el estudio, diseño e implementación de la solución propuesta. ABSTRACT. The aim of this paper is to study the design of an interconnection system based on WDM technology. Communication will be means of two Data Center (DC) located at different geographical points within a metropolitan area. The starting point is based on a serie of demands requested by a telecommunications service provider, which claims to provide a communication service using fibre optics to several business centers within the same city and, to do this, it requires the design and deploy the solution that, will basically be a turnkey project. The paper analyzes the case of study, the technical solution which needs to be developed to fulfil the requirements required by the client and an estimate budget as regards the equipment and installation needed. In the same way, it describes the possible lines of work so as to improve implemented communication system taking into account the future needs, either related to improved performance or cost savings. To carry out the design of the solution, a theoretical basis of WDM technology is established in order to obtain the knowledge needed for the study, design and implementation of the proposed solution.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A menudo los científicos secuencian el ADN de un gran número de personas con el objetivo de determinar qué genes se asocian con determinadas enfermedades. Esto permite meóon del genoma humano. El precio de un perfil genómico completo se ha posicionado por debajo de los 200 dólares y este servicio lo ofrecen muchas compañías, la mayor parte localizadas en EEUU. Como consecuencia, en unos pocos a~nos la mayoría de las personas procedentes de los países desarrollados tendrán los medios para tener su ADN secuenciado. Alrededor del 0.5% del ADN de cada persona (que corresponde a varios millones de nucleótidos) es diferente del genoma de referencia debido a variaciones genéticas. Así que el genoma contiene información altamente sensible y personal y representa la identidad biológica óon sobre el entorno o estilo de vida de uno (a menudo facilmente obtenible de las redes sociales), sería posible inferir el fenotipo del individuo. Multiples GWAS (Genome Wide Association Studies) realizados en los últimos a~nos muestran que la susceptibilidad de un paciente a tener una enfermedad en particular, como el Alzheimer, cáncer o esquizofrenia, puede ser predicha parcialmente a partir de conjuntos de sus SNP (Single Nucleotide Polimorphism). Estos resultados pueden ser usados para medicina genómica personalizada (facilitando los tratamientos preventivos y diagnósticos), tests de paternidad genéticos y tests de compatibilidad genética para averiguar a qué enfermedades pueden ser susceptibles los descendientes. Estos son algunos de los beneficios que podemos obtener usando la información genética, pero si esta información no es protegida puede ser usada para investigaciones criminales y por compañías aseguradoras. Este hecho podría llevar a discriminaci ón genética. Por lo que podemos concluir que la privacidad genómica es fundamental por el hecho de que contiene información sobre nuestra herencia étnica, nuestra predisposición a múltiples condiciones físicas y mentales, al igual que otras características fenotópicas, ancestros, hermanos y progenitores, pues los genomas de cualquier par de individuos relacionados son idénticos al 99.9%, contrastando con el 99.5% de dos personas aleatorias. La legislación actual no proporciona suficiente información técnica sobre como almacenar y procesar de forma segura los genomas digitalizados, por lo tanto, es necesaria una legislación mas restrictiva ---ABSTRACT---Scientists typically sequence DNA from large numbers of people in order to determine genes associated with particular diseases. This allows to improve the modern healthcare and to provide a better understanding of the human genome. The price of a complete genome profile has plummeted below $200 and this service is ofered by a number of companies, most of them located in the USA. Therefore, in a few years, most individuals in developed countries will have the means of having their genomes sequenced. Around 0.5% of each person's DNA (which corresponds to several millions of nucleotides) is diferent from the reference genome, owing to genetic variations. Thus, the genome contains highly personal and sensitive information, and it represents our ultimate biological identity. By combining genomic data with information about one's environment or lifestyle (often easily obtainable from social networks), could make it possible to infer the individual's phenotype. Multiple Genome Wide Association Studies (GWAS) performed in recent years have shown that a patient's susceptibility to particular diseases, such as Alzheimer's, cancer, or schizophrenia, can be partially predicted from sets of his SNPs. This results can be used for personalized genomic medicine (facilitating preventive treatment and diagnosis), genetic paternity tests, ancestry and genealogical testing, and genetic compatibility tests in order to have knowledge about which deseases would the descendant be susceptible to. These are some of the betefts we can obtain using genoma information, but if this information is not protected it can be used for criminal investigations and insurance purposes. Such issues could lead to genetic discrimination. So we can conclude that genomic privacy is fundamental due to the fact that genome contains information about our ethnic heritage, predisposition to numerous physical and mental health conditions, as well as other phenotypic traits, and ancestors, siblings, and progeny, since genomes of any two closely related individuals are 99.9% identical, in contrast with 99.5%, for two random people. The current legislation does not ofer suficient technical information about safe and secure ways of storing and processing digitized genomes, therefore, there is need for more restrictive legislation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La exposición a altas concentraciones de radón supone un riesgo de desarrollar cáncer de pulmón. El radón de los edificios proviene principalmente del terreno. Por ello, es de gran importancia conocer las soluciones constructivas que supongan una barrera a la entrada de radón del terreno. Una envolvente de hormigón puede funcionar como barrera frente al radón, siempre y cuando reúna una serie de características de entre la que destaca su bajo coeficiente de difusión de radón, que se determina utilizando fuentes radiactivas, con lo que implica en cuanto a seguridad radiológica. En este artículo se presentan las bases para estimar el coeficiente de difusión del radón en el hormigón utilizando resultados empíricos de los coeficientes de difusión y de permeabilidad de gases no radioactivos como el oxígeno. También se presentan resultados de la correlación entre el coeficiente de permeabilidad y difusión del oxígeno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El principal objetivo de este trabajo es proporcionar una solución en tiempo real basada en visión estéreo o monocular precisa y robusta para que un vehículo aéreo no tripulado (UAV) sea autónomo en varios tipos de aplicaciones UAV, especialmente en entornos abarrotados sin señal GPS. Este trabajo principalmente consiste en tres temas de investigación de UAV basados en técnicas de visión por computador: (I) visual tracking, proporciona soluciones efectivas para localizar visualmente objetos de interés estáticos o en movimiento durante el tiempo que dura el vuelo del UAV mediante una aproximación adaptativa online y una estrategia de múltiple resolución, de este modo superamos los problemas generados por las diferentes situaciones desafiantes, tales como cambios significativos de aspecto, iluminación del entorno variante, fondo del tracking embarullado, oclusión parcial o total de objetos, variaciones rápidas de posición y vibraciones mecánicas a bordo. La solución ha sido utilizada en aterrizajes autónomos, inspección de plataformas mar adentro o tracking de aviones en pleno vuelo para su detección y evasión; (II) odometría visual: proporciona una solución eficiente al UAV para estimar la posición con 6 grados de libertad (6D) usando únicamente la entrada de una cámara estéreo a bordo del UAV. Un método Semi-Global Blocking Matching (SGBM) eficiente basado en una estrategia grueso-a-fino ha sido implementada para una rápida y profunda estimación del plano. Además, la solución toma provecho eficazmente de la información 2D y 3D para estimar la posición 6D, resolviendo de esta manera la limitación de un punto de referencia fijo en la cámara estéreo. Una robusta aproximación volumétrica de mapping basada en el framework Octomap ha sido utilizada para reconstruir entornos cerrados y al aire libre bastante abarrotados en 3D con memoria y errores correlacionados espacialmente o temporalmente; (III) visual control, ofrece soluciones de control prácticas para la navegación de un UAV usando Fuzzy Logic Controller (FLC) con la estimación visual. Y el framework de Cross-Entropy Optimization (CEO) ha sido usado para optimizar el factor de escala y la función de pertenencia en FLC. Todas las soluciones basadas en visión en este trabajo han sido probadas en test reales. Y los conjuntos de datos de imágenes reales grabados en estos test o disponibles para la comunidad pública han sido utilizados para evaluar el rendimiento de estas soluciones basadas en visión con ground truth. Además, las soluciones de visión presentadas han sido comparadas con algoritmos de visión del estado del arte. Los test reales y los resultados de evaluación muestran que las soluciones basadas en visión proporcionadas han obtenido rendimientos en tiempo real precisos y robustos, o han alcanzado un mejor rendimiento que aquellos algoritmos del estado del arte. La estimación basada en visión ha ganado un rol muy importante en controlar un UAV típico para alcanzar autonomía en aplicaciones UAV. ABSTRACT The main objective of this dissertation is providing real-time accurate robust monocular or stereo vision-based solution for Unmanned Aerial Vehicle (UAV) to achieve the autonomy in various types of UAV applications, especially in GPS-denied dynamic cluttered environments. This dissertation mainly consists of three UAV research topics based on computer vision technique: (I) visual tracking, it supplys effective solutions to visually locate interesting static or moving object over time during UAV flight with on-line adaptivity approach and multiple-resolution strategy, thereby overcoming the problems generated by the different challenging situations, such as significant appearance change, variant surrounding illumination, cluttered tracking background, partial or full object occlusion, rapid pose variation and onboard mechanical vibration. The solutions have been utilized in autonomous landing, offshore floating platform inspection and midair aircraft tracking for sense-and-avoid; (II) visual odometry: it provides the efficient solution for UAV to estimate the 6 Degree-of-freedom (6D) pose using only the input of stereo camera onboard UAV. An efficient Semi-Global Blocking Matching (SGBM) method based on a coarse-to-fine strategy has been implemented for fast depth map estimation. In addition, the solution effectively takes advantage of both 2D and 3D information to estimate the 6D pose, thereby solving the limitation of a fixed small baseline in the stereo camera. A robust volumetric occupancy mapping approach based on the Octomap framework has been utilized to reconstruct indoor and outdoor large-scale cluttered environments in 3D with less temporally or spatially correlated measurement errors and memory; (III) visual control, it offers practical control solutions to navigate UAV using Fuzzy Logic Controller (FLC) with the visual estimation. And the Cross-Entropy Optimization (CEO) framework has been used to optimize the scaling factor and the membership function in FLC. All the vision-based solutions in this dissertation have been tested in real tests. And the real image datasets recorded from these tests or available from public community have been utilized to evaluate the performance of these vision-based solutions with ground truth. Additionally, the presented vision solutions have compared with the state-of-art visual algorithms. Real tests and evaluation results show that the provided vision-based solutions have obtained real-time accurate robust performances, or gained better performance than those state-of-art visual algorithms. The vision-based estimation has played a critically important role for controlling a typical UAV to achieve autonomy in the UAV application.