28 resultados para Inversão
em Universidad Politécnica de Madrid
Resumo:
La discontinuidad de Mohorovičić, más conocida simplemente como “Moho” constituye la superficie de separación entre los materiales rocosos menos densos de la corteza y los materiales rocosos más densos del manto, suponiendo estas capas de densidad constante del orden de 2.67 y 3.27 g/cm3, y es un contorno básico para cualquier estudio geofísico de la corteza terrestre. Los estudios sísmicos y gravimétricos realizados demuestran que la profundidad del Moho es del orden de 30-40 km por debajo de la Península Ibérica y 5-15 km bajo las zonas marinas. Además las distintas técnicas existentes muestran gran correlación en los resultados. Haciendo la suposición de que el campo de gravedad de la Península Ibérica (como le ocurre al 90% de la Tierra) está isostáticamente compensado por la variable profundidad del Moho, suponiendo un contraste de densidad constante entre la corteza y el manto y siguiendo el modelo isostático de Vening Meinesz (1931), se formula el problema isostático inverso para obtener tal profundidad a partir de la anomalía Bouguer de la gravedad calculada gracias a la gravedad observada en la superficie terrestre. La particularidad de este modelo es la compensación isostática regional de la que parte la teoría, que se asemeja a la realidad en mayor medida que otros modelos existentes, como el de Airy-Heiskanen, que ha sido históricamente el más utilizado en trabajos semejantes. Además, su solución está relacionada con el campo de gravedad global para toda la Tierra, por lo que los actuales modelos gravitacionales, la mayoría derivados de observaciones satelitales, deberían ser importantes fuentes de información para nuestra solución. El objetivo de esta tesis es el estudio con detalle de este método, desarrollado por Helmut Moritz en 1990, que desde entonces ha tenido poca evolución y seguidores y que nunca se ha puesto en práctica en la Península Ibérica. Después de tratar su teoría, desarrollo y aspectos computacionales, se está en posición de obtener un modelo digital del Moho para esta zona a fin de poder utilizarse para el estudio de la distribución de masas bajo la superficie terrestre. A partir de los datos del Moho obtenidos por métodos alternativos se hará una comparación. La precisión de ninguno de estos métodos es extremadamente alta (+5 km aproximadamente). No obstante, en aquellas zonas donde exista una discrepancia de datos significaría un área descompensada, con posibles movimientos tectónicos o alto grado de riesgo sísmico, lo que le da a este estudio un valor añadido. ABSTRACT The Mohorovičić discontinuity, simply known as “Moho” constitutes the division between the rocky and less thick materials of the mantle and the heavier ones in the crust, assuming densities of the orders of 2.67 y 3.27 g/cm3 respectively. It is also a basic contour for every geophysical kind of studies about the terrestrial crust. The seismic and previous gravimetric observations done in the study area show that the Moho depth is of the order of 30-40 km beneath the ground and 5-15 km under the ocean basin. Besides, the different techniques show a good correlation in their results. Assuming that the Iberian Peninsula gravity field (as it happens for the 90% of the Earth) is isostatically compensated according to the variable Moho depth, supposing a constant density contrast between crust and mantle, and following the isostatic Vening Meinesz model (1931), the inverse isostatic problem can be formulated from Bouguer gravity anomaly data obtained thanks to the observed gravity at the surface of the Earth. The main difference between this model and other existing ones, such as Airy- Heiskanen’s (pure local compensation and mostly used in these kinds of works) is the approaching to a regional isostatic compensation, much more in accordance with reality. Besides, its solution is related to the global gravity field, and the current gravitational models -mostly satellite derived- should be important data sources in such solution. The aim of this thesis is to study with detail this method, developed by Helmut Moritz in 1990, which hardly ever has it put into practice. Moreover, it has never been used in Iberia. After studying its theory, development and computational aspects, we are able to get a Digital Moho Model of the Iberian Peninsula, in order to study the masses distribution beneath the Earth’s surface. With the depth Moho information obtained from alternative methods, a comparison will be done. Both methods give results with the same order of accuracy, which is not quite high (+ 5 km approximately). Nevertheless, the areas in which a higher difference is observed would mean a disturbance of the compensation, which could show an unbalanced area with possible tectonic movements or potential seismic risk. It will give us an important additive value, which could be used in, at first, non related fields, such as density discrepancies or natural disasters contingency plans.
Resumo:
La nitrificación-desnitrificación es el proceso biológico tradicional para la remoción de nitrógeno de las aguas residuales (Ruiz G. et al., 2006a), siendo fundamental ya que contribuye a controlar la eutroficación de los cuerpos receptores. Debido al deterioro que sobre la disponibilidad de los recursos han ejercido las actividades antropogénicas, es necesario orientar el tratamiento de las aguas residuales hacia tecnologías que ofrezcan el mayor grado de sustentabilidad, planteando innovaciones en el tratamiento. El presente proyecto de tesis doctoral versa sobre el estudio de la influencia de la relación C/N en la desnitrificación y metanogénesis de aguas residuales urbanas en un reactor anaeróbico de lecho fluidizado inverso (RLFI). Previamente a la realización de las pruebas experimentales de variación de la relación C/N, se llevó a cabo la etapa de arranque del RLFI la cual se inició en modo batch, favoreciendo la formación y adhesión de biopelícula al medio de soporte utilizado (Extendosphere). Después, sobrevino la operación en modo continuo desde una carga volumétrica aplicada (CVA) de 0.5 g DQOs/L⋅d hasta alcanzar 4 g DQOs/L⋅d, carga volumétrica a la cual se logró la plena estabilización del reactor, siendo la alta variabilidad de la concentración de DQOs en el agua residual urbana de alimentación, la principal problemática que ocasionó retrasos en la estabilidad del reactor. A una CVA de 4 g DQOs/L⋅d en estado estacionario, el valor mínimo de eficiencia de remoción de DQOs fue del 32.36% y el máximo de 66.99%. En estas condiciones el porcentaje de metano presente en el biogás producido tuvo un valor medio de 85.57 ± 2.93%, siendo un valor alto comparado con otros porcentajes de metano encontrados en la digestión anaerobia de aguas residuales urbanas. El YCH4 tuvo un valor medio de 0.316 ± 0.110 LCH4/g DQOrem⋅día. Los porcentajes de metanización variaron en el rango de 20.50 a 100%, registrándose un valor medio de 73.42 ± 25.63%. La considerable variabilidad en el porcentaje de metanización se debió principalmente a que se presentaron eventos de lavado de soporte colonizado, lo cual propició que las actividades metabólicas fueran orientadas hacia formación de biopelícula (anabolismo) en vez de estar dirigidas hacia producción de metano (catabolismo). En relación a los ensayos con variación de la relación C/N, se manejaron relaciones DQOs/N-NO3 en el rango de 1.65 a 21.1 g DQOs/g N-NO3. La tasa de remoción anaerobia de DQOs se incrementó con la concentración de sustrato en una relación casi lineal, ajustándose a una cinética de primer orden, lo que regularmente se presenta a concentraciones bajas de sustrato. La eficiencia del proceso de desnitrificación fue por lo regular alta, incrementándose ligeramente con la concentración de DQOs en el influente, con valores en el rango de 73.8 a 99.1%. Por otra parte, la tasa de remoción por metanogénesis se incrementó con la concentración relativa de sustrato (es decir, a mayores relaciones DQOs/N-NO3), siendo más sensitiva la metanogénesis a la concentración relativa de sustrato que la desnitrificación. Conforme aumentó la relación DQOs/N-NO3, la desnitrificación, de ser la ruta metabólica principal de utilización de la materia orgánica (comparada con la metanización), empezó a combinarse con la metanización. De manera evidente, a las relaciones DQOs/N-NO3 probadas, se manifestaron más las actividades desnitrificantes, quedando reflejadas por el alto porcentaje de utilización de la DQOs removida hacia la desnitrificación. La relación experimental DQOs/N-NO3 a la cual se pudiera haber cumplido con el requerimiento de materia orgánica (en términos de DQOs) para la desnitrificación de nitratos en las aguas residuales urbanas tratadas resultó aproximadamente ser igual a 7.1 g DQOs/g N-NO3. A una CVA de 4 g DQOs/L⋅d, se obtuvo un diámetro promedio máximo de soporte colonizado igual a 266.106 ± 69.279 μm aunque, hay que indicarlo, se presentaron fluctuaciones, las cuales se reflejaron también en el espesor de la biopelícula, el cual tuvo un valor máximo de 50.099 μm y un valor promedio de 37.294 ± 11.199 μm. Estas fluctuaciones pudieron deberse a la existencia de corrientes preferenciales dentro del reactor, las cuales no permitieron un acceso equitativo del sustrato a todo el lecho. Nitrification-denitrification is the traditional biological process for nitrogen removal from wastewaters (Ruiz G. et al., 2006a), being fundamental since it contributes to control the eutrophication of the receiving waters. Due to the deterioration that on the availability of the aquatic resources the anthropogenic activities have exerted, it is necessary to orient the treatment of wastewaters towards technologies that offer the greater degree of sustainability, raising innovations in the treatment. This work studied the influence of C/N ratio on denitrification and methanogenesis of urban wastewaters in an inverse fluidized bed reactor (IFBR). Previously to the accomplishment of the experimental tests with variation of C/N ratio, the start up of the IFBR was carried out in batch way, encouraging the formation and adhesion of biofilm to Extendosphere, which it was used as support. The operation in continuous way carried out from an organic loading rate (OLR) of 0.5 g CODs/L ∙ d to 4 g CODs/L ∙ d, when the steady-state was reached. The high variability of the CODs of the urban wastewaters caused delays in the stability of the reactor. Once stationary state was reached, the removal efficiency of CODs ranged from 32.36 to 66.99% to 4 g CODs/L ∙ d. In these conditions the percentage of methane in produced biogas had an average value of 85.57 ± 2.93%, being a high value compared with other studies treating anaerobically urban wastewaters. The YCH4 had an average value of 0.316 ± 0.110 LCH4/g CODrem ∙ d. The percentage of methanisation ranged from 20.50 to 100%, with an average value of 73.42 ± 25.63%. The considerable variability in the methanisation percentage occurred mainly due events of wash-out of colonized support, which caused that the metabolic activities were oriented towards formation of biofilm (anabolism) instead of methane production (catabolism). Concerning the tests with variation of C/N ratio, CODs/NO3-N ratios from 1.65 to 21.1 g CODs/g NO3-N were proved. The CODs anaerobic removal rate increased with the substrate concentration in an almost linear relation, adjusting to a kinetic of first order, which regularly appears to low concentrations of substrate. Efficiency of the denitrification process was regularly high, and it increased slightly with the CODs concentration in the influent, ranging from 73.8 to 99.1%. On the other hand, the CODs removal rate by methanogenesis increased with the substrate relative concentration (e.g., to greater CODs/NO3-N ratios), being more sensitive the methanogenesis to the substrate relative concentration that the denitrification. When the CODs/NO3-N ratio increased, the denitrification, of being the main metabolic route of use of the organic matter (compared with the methanogenesis), began to be combined with the methanogenesis. Definitively, to the proven CODs/NO3-N ratios the denitrification processes were more pronounced, being reflected by the high percentage of use of the removed CODs towards denitrification. The experimental CODs/NO3-N ratio to which it was possible to have been fulfilled the requirement of organic matter (in terms of CODs) for the denitrification of nitrates in urban wastewaters turned out to be approximately 7.1 g CODs/g NO3-N. It was obtained a maximum average diameter of colonized support of 266.106 ± 69.279 μm to 4 g CODs/L ∙ d, although it is necessary to indicate that appeared fluctuations in the thickness of biofilm, which had a maximum value of 50.099 μm and an average value of 37.294 ± 11.199 μm. These fluctuations could be due to the existence of preferential currents within the reactor, which did not allow an equitable access of the substrate to all the bed.
Resumo:
En el estado de Veracruz, al sur de México, se ubican empresas dedicadas a la obtención de etanol a partir de melaza de azúcar de caña. Las más pequeñas, tienen una producción promedio de 20,000 L de alcohol/día. Los efluentes de la producción de etanol incluyen agua de enfriamiento de condensadores, agua del lavado de tanques de fermentación y vinazas, estas últimas son los efluentes más contaminantes en las destilerías, por su concentración de material orgánico biodegradable y no biodegradable. Las vinazas se generan en grandes volúmenes, produciéndose de 12 a 15 litros de vinazas por cada litro de alcohol destilado. Estos efluentes se caracterizan por tener altas temperaturas, pH ácido y una elevada concentración de DQO así como de sólidos totales. La determinación de la biodegradabilidad anaerobia de un agua residual, permite estimar la fracción de DQO que puede ser transformada potencialmente en metano y la DQO recalcitrante que queda en el efluente. Para el desarrollo de una prueba de biodegradabilidad, es importante considerar diversos factores relacionados con la composición del agua a tratar, composición de los lodos y las condiciones bajo las cuales se lleva a cabo la prueba. La digestión anaerobia de aguas residuales industriales es comúnmente usada en todo el mundo, ofrece significativas ventajas para el tratamiento de efluentes altamente cargados. Los sistemas anaerobios de tratamiento de aguas residuales industriales incluyen tecnologías con biopelículas, estos sistemas de tratamiento anaerobio con biopelícula son una tecnología bien establecida para el tratamiento de efluentes industriales. El Reactor de Lecho Fluidizado Inverso Anaerobio (LFI) ha sido diseñado para el tratamiento de aguas residuales de alta carga, teniendo como ventajas el empleo de un soporte que proporciona una gran superficie y un bajo requerimiento de energía para la fluidización del lecho. En el presente trabajo, se lleva a cabo el análisis de un proceso de producción de etanol, identificando a los efluentes que se generan en el mismo. Se encuentra que el efluente final está compuesto principalmente por las vinazas provenientes del proceso de destilación. En la caracterización de las vinazas provenientes del proceso de producción de etanol a partir de melaza de azúcar de caña, se encontraron valores promedio de DQO de 193.35 gDQO/L, para los sólidos totales 109.78 gST/L y pH de 4.64. Así mismo, en esta investigación se llevó a cabo una prueba de biodegradabilidad anaerobia, aplicada a la vinaza proveniente de la producción de etanol. En la caracterización de los lodos empleados en el ensayo se obtiene una Actividad Metanogénica Especifica de 0.14 g DQO/gSSV.d. El porcentaje de remoción de DQO de la vinaza fue de 62.7%, obteniéndose una k igual a 0.031 h-1 y una taza de consumo de sustrato de 1.26 gDQO/d. El rendimiento de metano fue de 0.19 LCH4/g DQOremovida y el porcentaje de biodegradabilidad de 54.1%. El presente trabajo también evalúa el desempeño de un LFI, empleando Extendospher® como soporte y tratando efluentes provenientes de la producción de etanol. El reactor se arrancó en batch y posteriormente se operó en continuo a diferentes Cargas Orgánicas Volumétricas de 0.5, 1.0, 3.3, 6.8 y 10.4 g DQO/L.d. Además, se evaluaron diferentes Tiempos de Residencia Hidráulica de 10, 5 y 1 días. El sistema alcanzó las siguientes eficiencias promedio de remoción de DQO: 81% para la operación en batch; 58, 67, 59 y 50 % para las cargas de 0.5, 1.0, 3.3, 6.8 g DQO/L.d respectivamente. Para la carga de 10.4 g DQO/L.d, la eficiencia promedio de remoción de DQO fue 38%, en esta condición el reactor presentó inestabilidad y disminución del rendimiento de metano. La generación de metano inició hasta los 110 días de operación del reactor a una carga de 1.0 g DQO/L.d. El sistema alcanzó un rendimiento de metano desde 0.15 hasta 0.34 LCH4/g DQO. Durante la operación del reactor a una carga constante de 6.4 g DQO/L.d, y un TRH de 1 día, se alcanzó una eficiencia promedio de remoción de DQO de 52%. In the state of Veracruz, to the south of Mexico, there are located companies dedicated to the production of ethanol from molasses of cane sugar. The smallest, have a average production of 20,000 L ethanol/day. The effluent of production of ethanol include water of condensers, water originated from the cleanliness of tanks of fermentation and vinasses, the above mentioned are more effluent pollutants in the distilleries, for the poor organic matter degradability. The vinasses are generated in high volumes, producing from 12 to 15 L of vinasses per every liter of distilled ethanol. These effluent are characterized by its high temperature, pH acid and a high concentration of DQO as well as high concentration of TS. The determination of the anaerobic degradability of a waste water, it allows to estimate the fraction of DQO that can be transformed potentially into methane and the recalcitrant DQO that stays in the effluent. For the development of degradability test, it is important to consider factors related to the composition of the water to be treated, composition of the sludge and the conditions under which the test is carried out. The anaerobic digestion of industrial wastes water is used commonly in the whole world, it offers significant advantages for the treatment of effluent highly loaded. The anaerobic treatment of industrial wastes water include technologies with biofilms, this anaerobic treatment whit biofilms systems, is a well-established technology for treatment of industrial effluents. The Anaerobic Inverse Fluidized Bed Reactor (IFBR) has been developed to provide biological treatment of high strength organic wastewater for their large specific surface and their low energy requirements for fluidization. In this work, there is carried out the analysis of a process of production of ethanol, identifying the effluent ones that are generated in the process. One determined that the effluent end is composed principally by the vinasses originated from the process of distillation. In the characterization of the vinasses originated from the process of production of ethanol from cane sugar molasses, there were average values of DQO of 193.35 gDQO/L, average values of solid of 109.78 gST/L and pH of 4.64. In this investigation there was carried out a anaerobic degradability test of the vinasses generated in the production of ethanol. In the characterization of the sludge used in the essay, the specific methanogenic activity (SMA) was 0.14 gDQO/gSSV.d. The average removal of DQO of the vinasses was 62.7 %, k equal to 0.031 h-1 was obtained one and a rate of removal substrate of 1.26 gDQO/d. The methane yield was 0.19 LCH4/gDQO removed and the anaerobic biodegradability was a 54.1 %. This study describes the performance of IFBR with Extendospher®, for the treatment of vinasses. The start-up was made in batch, increasing gradually the Organic Load Rate (OLR): 0.5, 1.0, 3.3, 6.8 and 10.4 g COD/L.d. Different Hydraulic Retention Times (HRT) were evaluated: 10, 5 and 1 days. During the operation in batch, the COD removal obtained was of 81 %, and for OLR of 0.5, 1.0, 3.3, 6.8 g COD/L.d the removal obtained was 58, 67, 59 and 50 % respectively. For a maximum OLR of 10.4 g COD/L.d, the COD removal was 38 %, and the system presented instability and decrease of the yield methane. The methane production initiated after 110 days of the start-up of the IFBR, to organic load rate of 1.0 g COD/L.d. The system reached values in the methane yield from 0.15 up to 0.34 LCH4/g CODremoved, for the different organic load rates. During the operation to a constant OLR of 6.4 g COD/L.d, and a HRT of 1 day, the Anaerobic Inverse Fluidized Bed Reactor reached a maximum efficiency of removal of 52 %.
Resumo:
En el capítulo dedicado a la calidad de la estación, como primera etapa se realiza una exhaustiva revisión bibliográfica a partir de la cual se comprueba que los métodos más precisos para determinar esta calidad, en términos generales, son aquellos basados en la relación de la altura con la edad. En base a los datos que se encuentran disponibles y como fruto de esta revisión bibliográfica, se decide probar tres métodos: uno de ellos que estudia la evolución de la altura en función del diámetro (MEYER) y los otros dos en función de la edad (BAILEY y CLUTTER y GARCÍA). Para probar estos métodos, se utilizan datos de parcelas de producción distribuidas en los tres principales sistemas montañosos de España: Ibérico, Central y Pirenaico. El modelo de MEYER implica una clasificación previa de las parcelas en función de su clase de sitio y los ajustes se realizan para cada clase, con lo que se obtienen cuatro curvas polimórficas. La ecuación que describe este modelo es: H = 1.3 + s(1-e-bD) El modelo de BAILEY y CLUTTER genera también un sistema de curvas polimórficas y se genera a partir de la relación entre el 1og de la altura y la inversa de la edad: log H = a + b¡(1/AC) Este método implica una agrupación o estratificación de las parcelas en clases de sitio. Por último, se prueba el modelo de GARCÍA que se basa en una ecuación diferencial estocástica: dHc(t) = b(ac-Hc(t)) + a(t)dw(t) y se prueba la siguiente estructura paramétrica: a b c °"0 o *o H0 global 1 oca 1 g1obal 0.00 global 0.00 0.0 Posteriormente se hace un análisis de los residuos en que se aplica la prueba de Durbin-Watson que detecta la presencia de correlación serial. Se verifica la forma aproximada a un "cometa" en los residuos, lo que es frecuente en series de tiempo cuando la magnitud analizada (en nuestro caso, la altura dominante) se acumula en el tiempo. Esta prueba no es concluyente en el sentido de que no aclara que modelo es el más apropiado. Finalmente, se validan estos modelos utilizando datos de las parcelas de clara. Para esto se utiliza información de arboles tipo sometidos a análisis de tronco. Esta validación permite concluir que el modelo de GARCÍA es el que mejor explica la evolución del crecimiento en altura. En el capítulo dedicado a las distribuciones diamétricas, se pretende modelizar dichas distribuciones a través de variables de estado. Para esto, como primera etapa, se prueban para 45 parcelas y tres inventarios, las siguientes funciones: - Normal - Gamma - Ln de dos parámetros - Ln de tres parámetros - Beta I I - Wei bul 1 Mediante el uso de chi-cuadrado como estimador de la bondad del ajuste, se determina que la función de Weibull es la que mejor responde a la distribución diamétrica de nuestras parcelas. Posteriormente, se comprueba la bondad de dicho ajuste, mediante la prueba de Kolmogorov-Smirnov, el que determina que en el 99X de los casos, el ajuste es aceptable. Luego se procede a la recuperación de 1 os*parámetros de la función de Weibull; a, b y c. En esta etapa se estratifica la información y se realizan análisis de varianza (ANOVA) y pruebas de medias de TUKEY que dan como resultado el que se continúe trabajando por tratamiento y por inventario quedando la diferencia entre sitios absorbida por la altura dominante. Para la recuperación de los parámetros, se utilizan las variables de estado que definen a nuestras parcelas; edad, densidad, altura dominante, diámetro medio cuadrático y área basimétrica. El método seguido es la obtención de ecuaciones de regresión con las variables de estado como independientes para predecir los valores de los parámetros antes mencionados. Las ecuaciones se obtienen utilizando distintas vías (STEPWISE, ENTER y RSQUARE) lo que nos proporciona abundante material para efectuar la selección de éstas. La selección de las mejores ecuaciones se hace en base a dos estadísticos conocidos: - Coeficiente de determinación ajustado: R2 a - Cp de MALLOWS Estos elementos se tratan en forma conjunta considerando, además, que el número de parámetros esté en concordancia con el número de datos. El proceso de selección implica que se obtengan 36 ecuaciones de regresión que posteriormente se validan en dos sentidos. Por una parte, se calcula el valor de cada parámetro según la ecuación que le corresponda y se compara con el valor de los parámetros calculados en el ajuste de Weibull. Lo que se puede deducir de esta etapa es que la distorsión que sufren los parámetros al efectuar ecuaciones de regresión, es relativamente baja y la diferencia se produce debido a errores que se originan al realizar los modelos. Por otra parte, con las parcelas que se encuentren disponibles, se valida el modelo en el sentido de hacer el proceso inverso al anterior, es decir a partir de sus variables de estado, fácilmente medibles, se obtienen los valores de los parámetros que definen a la función de Weibull. Con esto se reconstruye la distribución diamétrica de cada función. Los resultados que se obtienen de esto indican que los ajustes son aceptables a un nivel del 1X en el caso de tres parcelas.
Resumo:
La contaminación acústica se ha convertido en uno de los principales problemas en materia medioambiental de nuestra sociedad. La creciente preocupación ha propiciado la aparición de legislación, en los distintos ámbitos de la administración, cuyo objetivo consiste en gestionar y reducir la contaminación acústica y sus efectos sobre las personas y el medio ambiente. En este sentido, en relación a las infraestructuras del transporte, y de modo muy especial en los aeropuertos, el monitorado del ruido se convierte en una herramienta de suma importancia para la gestión del ruido, la planificación del territorio y la adopción de medidas correctoras (planes de acción). Los terminales de monitorado de ruido ambiental, que se utilizan fundamentalmente en los aeropuertos, realizan una medición del nivel de ruido ambiental, y evalúan la contaminación que generan las aeronaves al ambiente sonoro general. Para ello, deben ser capaces de medir la evolución temporal del ruido y discriminar aquellos eventos sonoros que se correspondan con el paso de un avión frente al ruido de fondo. Los requisitos aplicables a las unidades de medida, así como los procedimientos de medida implicados han sido descritos recientemente en normas internacionales, como la ISO 20906 o la ARP 4721. Es precisamente en el aspecto relacionado con la discriminación del origen del ruido, donde los sistemas existentes presentan las principales carencias, ya que, un sistema básico de monitorado de ruido realiza la detección de eventos a partir de las medidas de nivel sonoro, evaluando los incrementos de nivel mediante la utilización de umbrales. Dichos umbrales relacionan nivel sonoro y tiempo, de forma que se efectúa el marcado de eventos cuando el nivel de presión sonora, Lp(t), supera un valor determinado durante, al menos, un determinado intervalo temporal. Uno de los principales objetivos de esta tesis se centra en el análisis de los sistemas que existen para la discriminación de ruido de aeronaves, y en el análisis de las contribuciones de estos sistemas sobre la incertidumbre de la medida y el reporte de resultados. Para la consecución de dicho objetivo, se ha definido un modelo de incertidumbre que permite evaluar los diferentes factores de influencia y realizar una cuantificación de la incertidumbre para diferentes escenarios. Durante este proceso se han definido y analizado los conceptos de incertidumbre de detección e incertidumbre de identificación, ambos derivados del diagrama de bloques que propone la norma ISO 20906 para la discriminación del ruido producido por los aviones y el procesado de datos. Asimismo, se pretende abordar el problema de la discriminación de aeronaves con un enfoque novedoso, que permita mejorar el rendimiento de los sistemas y reducir la incertidumbre. Mediante un sistema basado en reconocimiento de patrones uniclase, se aborda esta tarea en base al análisis de la semejanza entre la señal sonora registrada y el sonido que producen los aviones, dejando al margen la magnitud del sonido. Las técnicas de reconocimiento de patrones, y reconocimiento automático de habla, han sido aplicadas previamente al reconocimiento de fuentes de ruido ambiental. Algunos de estos proyectos se han centrado en el ruido de aviones, pero la novedad en esta tesis radica en la aplicación de clasificadores uniclase en un sistema que detecta eventos sonoros gracias a la clasificación de los fragmentos que lo componen. Actualmente los sistemas de gestión de ruido aeroportuario enlazan los datos de ruido proporcionados por las estaciones de monitorado con los datos procedentes del sistema seguimiento de los vuelos de los aviones mediante radar. Este tipo de sistemas es el que ha presentado mayor aceptación y ha sido implantado en los sistemas de monitorado de ruido de los principales aeropuertos internacionales. Sin embargo, este enfoque requiere de equipamiento que permita realizar el seguimiento de la posición de avión, y, dado que únicamente utilizan los niveles sonoros medidos para enlazarlos con el avión que los origina, no será capaz de detectar errores derivados de la presencia de una fuente sonora secundaria cuando existe un avión en la zona. El sistema que se plantea con la realización de esta tesis supone un avance debido a que permite eliminar del proceso de discriminación los umbrales de nivel sonoro, analizando única y exclusivamente la semejanza entre las señales comparadas. De esta manera se pretende mejorar las tasas de error en la identificación, e incluir umbrales de semejanza que permitan eliminar los umbrales de nivel sonoro en el proceso de detección. La implementación del sistema complementando al resto de sistemas del aeropuerto, permitirá la ampliación de las capacidades en el monitorado y la reducción de los costes en las campañas de medición desatendida. Al tiempo que se introducen las técnicas de reconocimiento de patrones en los sistemas de discriminación de los monitores de ruido, se pretende sacar partido de las posibilidades abiertas para dotar al sistema de capacidades adicionales, como es el caso de la detección del ruido de reversa, que se produce tras el aterrizaje de los aviones. La reversa se activa tras el contacto con tierra por parte de los aviones, para reducir la velocidad y acortar la distancia de frenado de los aviones. Esta práctica se usa de forma habitual en los aterrizajes, especialmente en los casos en los que la salida que debe tomar el avión rumbo al terminal se encuentra demasiado próxima al punto de aterrizaje. El empuje inverso se debe a una alteración en el flujo normal de aire que atraviesa los motores, que produce un violento choque contra la carcasa del motor, originando vibraciones y flujo turbulento que se convierte en ruido. El ruido de reversa puede alcanzar unos niveles mucho mayores que el propio aterrizaje, y sus características dinámicas y espectrales lo convierten en especialmente molesto. Por este motivo la utilización injustificada (salvo por motivos de seguridad) está prohibida o es desaconsejada en un gran número de aeropuertos, a nivel internacional (especialmente durante el período nocturno). Sin embargo, las autoridades aeroportuarias carecen de herramientas eficientes y fiables que permitan detectar la utilización de reversa, siendo este punto uno de los aspectos tratados en esta investigación.
Resumo:
Las técnicas SAR (Synthetic Aperture Radar, radar de apertura sintética) e ISAR (Inverse SAR, SAR inverso) son sistemas radar coherentes de alta resolución, capaces de proporcionar un mapa de la sección radar del blanco en el dominio espacial de distancia y acimut. El objetivo de ambas técnicas radica en conseguir una resolución acimutal más fina generando una apertura sintética a partir del movimiento relativo entre radar y blanco. Los radares imagen complementan la labor de los sistemas ópticos e infrarrojos convencionales, especialmente en condiciones meteorológicas adversas. Los sistemas SAR e ISAR convencionales se diseñan para iluminar blancos en situaciones de línea de vista entre sensor y blanco. Por este motivo, presentan un menor rendimiento en escenarios complejos, como por ejemplo en bosques o entornos urbanos, donde los retornos multitrayecto se superponen a los ecos directos procedentes de los blancos. Se conocen como "imágenes fantasma", puesto que enmascaran a los verdaderos blancos y dan lugar a una calidad visual pobre, complicando en gran medida la detección del blanco. El problema de la mitigación del multitrayecto en imágenes radar adquiere una relevancia teórica y práctica. En esta Tesis Doctoral, se hace uso del concepto de inversión temporal (Time Reversal, TR) para mejorar la calidad visual de las imágenes SAR e ISAR eliminando las "imágenes fantasma" originadas por la propagación multitrayecto (algoritmos TR-SAR y TR-ISAR, respectivamente). No obstante, previamente a la aplicación de estas innovadoras técnicas de mitigación del multi-trayecto, es necesario resolver el problema geométrico asociado al multitrayecto. Centrando la atención en la mejora de las prestaciones de TR-ISAR, se implementan una serie de técnicas de procesado de señal avanzadas antes y después de la etapa basada en inversión temporal (el eje central de esta Tesis). Las primeras (técnicas de pre-procesado) están relacionadas con el multilook averaging, las transformadas tiempo-frecuencia y la transformada de Radon, mientras que las segundas (técnicas de post-procesado) se componen de un conjunto de algoritmos de superresolución. En pocas palabras, todas ellas pueden verse como un valor añadido al concepto de TR, en lugar de ser consideradas como técnicas independientes. En resumen, la utilización del algoritmo diseñado basado en inversión temporal, junto con algunas de las técnicas de procesado de señal propuestas, no deben obviarse si se desean obtener imágenes ISAR de gran calidad en escenarios con mucho multitrayecto. De hecho, las imágenes resultantes pueden ser útiles para posteriores esquemas de reconocimiento automático de blancos (Automatic Target Recognition, ATR). Como prueba de concepto, se hace uso tanto de datos simulados como experimentales obtenidos a partir de radares de alta resolución con el fin de verificar los métodos propuestos.
Resumo:
Esta tesis se centra en el estudio y desarrollo de dispositivos de aplicación basados en cristal líquido polimérico. Las propiedades de los cristales líquidos los hacen interesantes para su uso en el desarrollo de dispositivos de seguridad para autenticación de productos y marcas, y detección y prevención de falsificaciones. Asimismo, pueden ser muy útiles para fabricar dispositivos basados en CLs dispersos en polímero, los cuales tienen a su vez múltiples aplicaciones. La orientación de las moléculas de cristal líquido y la birrefringencia son las dos características principales que afectan a las propiedades de estos dispositivos. Un dispositivo de cristal líquido estándar consiste en un sándwich formado por dos sustratos de vidrio transparente, dotados con electrodo de ITO (Indium Tin Oxide) en su superficie interna, que confinan el cristal líquido en su interior. En la primera parte de esta tesis se describen las características más importantes que describen una célula de cristal líquido. Esta introducción básica en necesaria para la correcta comprensión de los capítulos posteriores en los que se detalla el desarrollo concreto de los dispositivos desarrollados en la investigación llevada a cabo. Por ejemplo, en el caso de los dispositivos de seguridad se han eliminado los sustratos de vidrio (en la última fase de su desarrollo) para conseguir dispositivos flexibles. En la segunda parte de la tesis se incluye la descripción completa de los dispositivos fabricados, así como de los protocolos de fabricación seguidos y diseñados específicamente para ello. También se detallan en esta parte los resultados obtenidos, así como las propiedades ópticas y electroópticas en cada caso, y el/los equipos de caracterización utilizados. Utilizando cristal líquido nemático y colorante dicroico, se han desarrollado dispositivos que contienen múltiples imágenes latentes en cada cara del mismo. Utilizando distintas técnicas de alineamiento se consigue crear cualquier tipo de motivo latente, ya sean símbolos sencillos, figuras, logotipos o incluso imágenes con escala de gris. Cuanto más complejo es el dispositivo, mayor es la dificultad para reproducirlo en una eventual falsificación. Para visualizar e identificar los motivos es necesario emplear luz polarizada, por ejemplo, con la ayuda de un sencillo polarizador lineal. Dependiendo de si el polarizador está colocado delante del dispositivo o detrás del él, se mostrarán las imágenes generadas en una u otra cara. Este efecto es posible gracias al colorante dicroico añadido al CL, a la orientación inducida sobre las moléculas, y a la estructura de twist utilizada en los dispositivos. En realidad, para ver el efecto de los dispositivos no es necesario el uso de un polarizador, basta con el reflejo de una superficie dielétrica (percialmente polarizado), o la luz emitida por la pantalla de dispositivos de consumo comunes como un televisor LCD, un monitor de ordenador o un “smartphone”. Por otro lado, utilizando una mezcla entre un CL nemático polimérico y un CL nemático no polimérico es posible fabricar dispositivos LCPC (Liquid Crystal Polymer Composite) con propiedades electroópticas muy interesantes, que funcionan a tensiones de conmutación bajas. El CL polimérico conforma una estructura de red en el interior del sándwich que mantiene confinado al CL nemático en pequeños microdominios. Se han fabricado dispositivos LCPC con conmutación inversa utilizando tanto alineamiento homogéneo como homeotrópico. Debido a que tanto la estructura de CL polimérico como el CL nemático que rellena los microdominios están orientados en una misma dirección de alineamiento preinducida, la luz dispersada por el dispositivo se encuentra polarizada. La dirección de polarización coincide con la dirección de alineamiento. La innovación aportada por esta investigación: un nuevo dispositivo LCPC inverso de respuesta ultrarápida y polarizada basado en la mezcla de dos CL nemáticos y, un dispositivo de seguridad y autenticación, patentado internacionalmente, basado en CL nemáticos dopados con colorante dicroico. Abstract This thesis is centered on the availability to use polymerizable liquid crystals to develop non-display application LC devices. Liquid crystal properties make them useful for the development of security devices in applications of authentication and detection of fakes, and also to achieve polymer dispersed LC devices to be used for different applications that will be studied here. Induced orientation of liquid crystal molecules and birefringence are the two main properties used in these devices. A standard liquid crystal device is a sandwich consisting of two parallel glass substrates carrying a thin transparent ITO (Indium‐Tin‐Oxide) electrode on their inner surfaces with the liquid crystal in the middle. The first part of this thesis will describe the most important parameters describing a liquid crystal cell. This basis is necessary for the understanding of later chapters where models of the liquid crystal devices will be discussed and developed. In the case of security devices the standard structure of an LC device has been modified by eliminating the glass substrates in order to achieve plastic and flexible devices. The second part of the thesis includes a detailed description of the devices achieved and the manufacturing protocols that have been developed ad-hoc. The optical and electrooptical properties and the characterization equipment are described here as well. Employing nematic liquid crystal and dichroic colorants, we have developed devices that show, with the aid of a polarizer, multiple images on each side of the device. By different alignment techniques it is possible to create any kind of symbols, drawings or motifs with a grayscale; the more complex the created device is, the more difficult is to fake it. To identify the motifs it is necessary to use polarized light. Depending on whether the polarizer is located in front of the LC cell or behind it, different motifs from one or the other substrate are shown. The effect arises from the dopant color dye added to the liquid crystal, the induced orientation and the twist structure. In practice, a grazing reflection on a dielectric surface is polarized enough to see the effect. Any LC flat panel display (LCD TV, computer, mobile phone) can obviously be used as backlight as well. On the other hand, by using a mixture of polymerizable and non-polymerizable nematics liquid crystals it is also possible to achieve LCPC (Liquid Crystal Polymer Composite) devices that show really interesting electrooptical characteristics using low switching voltages. Polymerizable LC creates a hollow structure inside the sandwich glass cell that keep nematics liquid crystal confined creating microdomains. Homogeneous and homeotropic alignments have been used to develop inverse switching mode LCPCs. Due to the double LC oriented structure, the outgoing scattered light from these devices is already polarized. The polarization axis coincides with LC molecules director, the alignment direction promoted. The novelties derived from the investigation presented here, new ultrafast inverse LCPC with polarized outgoing scattered light based on oriented nematic LC mixture, and an internationally patented security and authentication device based on nematics (doped with dichroic dye) oriented polymerizable LC.
Resumo:
La Organización Mundial de la Salud (OMS) prevé que para el año 2020, el Daño Cerebral Adquirido (DCA) estará entre las 10 causas más comunes de discapacidad. Estas lesiones, dadas sus consecuencias físicas, sensoriales, cognitivas, emocionales y socioeconómicas, cambian dramáticamente la vida de los pacientes y sus familias. Las nuevas técnicas de intervención precoz y el desarrollo de la medicina intensiva en la atención al DCA han mejorado notablemente la probabilidad de supervivencia. Sin embargo, hoy por hoy, las lesiones cerebrales no tienen ningún tratamiento quirúrgico que tenga por objetivo restablecer la funcionalidad perdida, sino que las terapias rehabilitadoras se dirigen hacia la compensación de los déficits producidos. Uno de los objetivos principales de la neurorrehabilitación es, por tanto, dotar al paciente de la capacidad necesaria para ejecutar las Actividades de Vida Diaria (AVDs) necesarias para desarrollar una vida independiente, siendo fundamentales aquellas en las que la Extremidad Superior (ES) está directamente implicada, dada su gran importancia a la hora de la manipulación de objetos. Con la incorporación de nuevas soluciones tecnológicas al proceso de neurorrehabilitación se pretende alcanzar un nuevo paradigma centrado en ofrecer una práctica personalizada, monitorizada y ubicua con una valoración continua de la eficacia y de la eficiencia de los procedimientos y con capacidad de generar conocimientos que impulsen la ruptura del paradigma de actual. Los nuevos objetivos consistirán en minimizar el impacto de las enfermedades que afectan a la capacidad funcional de las personas, disminuir el tiempo de incapacidad y permitir una gestión más eficiente de los recursos. Estos objetivos clínicos, de gran impacto socio-económico, sólo pueden alcanzarse desde una apuesta decidida en nuevas tecnologías, metodologías y algoritmos capaces de ocasionar la ruptura tecnológica necesaria que permita superar las barreras que hasta el momento han impedido la penetración tecnológica en el campo de la rehabilitación de manera universal. De esta forma, los trabajos y resultados alcanzados en la Tesis son los siguientes: 1. Modelado de AVDs: como paso previo a la incorporación de ayudas tecnológicas al proceso rehabilitador, se hace necesaria una primera fase de modelado y formalización del conocimiento asociado a la ejecución de las actividades que se realizan como parte de la terapia. En particular, las tareas más complejas y a su vez con mayor repercusión terapéutica son las AVDs, cuya formalización permitirá disponer de modelos de movimiento sanos que actuarán de referencia para futuros desarrollos tecnológicos dirigidos a personas con DCA. Siguiendo una metodología basada en diagramas de estados UML se han modelado las AVDs 'servir agua de una jarra' y 'coger un botella' 2. Monitorización ubícua del movimiento de la ES: se ha diseñado, desarrollado y validado un sistema de adquisición de movimiento basado en tecnología inercial que mejora las limitaciones de los dispositivos comerciales actuales (coste muy elevado e incapacidad para trabajar en entornos no controlados); los altos coeficientes de correlación y los bajos niveles de error obtenidos en los corregistros llevados a cabo con el sistema comercial BTS SMART-D demuestran la alta precisión del sistema. También se ha realizado un trabajo de investigación exploratorio de un sistema de captura de movimiento de coste muy reducido basado en visión estereoscópica, habiéndose detectado los puntos clave donde se hace necesario incidir desde un punto de vista tecnológico para su incorporación en un entorno real 3. Resolución del Problema Cinemático Inverso (PCI): se ha diseñado, desarrollado y validado una solución al PCI cuando el manipulador se corresponde con una ES humana estudiándose 2 posibles alternativas, una basada en la utilización de un Perceptrón Multicapa (PMC) y otra basada en sistemas Artificial Neuro-Fuzzy Inference Systems (ANFIS). La validación, llevada a cabo utilizando información relativa a los modelos disponibles de AVDs, indica que una solución basada en un PMC con 3 neuronas en la capa de entrada, una capa oculta también de 3 neuronas y una capa de salida con tantas neuronas como Grados de Libertad (GdLs) tenga el modelo de la ES, proporciona resultados, tanto de precisión como de tiempo de cálculo, que la hacen idónea para trabajar en sistemas con requisitos de tiempo real 4. Control inteligente assisted-as-needed: se ha diseñado, desarrollado y validado un algoritmo de control assisted-as-needed para una ortesis robótica con capacidades de actuación anticipatoria de la que existe un prototipo implementado en la actualidad. Los resultados obtenidos demuestran cómo el sistema es capaz de adaptarse al perfil disfuncional del paciente activando la ayuda en instantes anteriores a la ocurrencia de movimientos incorrectos. Esta estrategia implica un aumento en la participación del paciente y, por tanto, en su actividad muscular, fomentándose los procesos la plasticidad cerebral responsables del reaprendizaje o readaptación motora 5. Simuladores robóticos para planificación: se propone la utilización de un simulador robótico assisted-as-needed como herramienta de planificación de sesiones de rehabilitación personalizadas y con un objetivo clínico marcado en las que interviene una ortesis robotizada. Los resultados obtenidos evidencian como, tras la ejecución de ciertos algoritmos sencillos, es posible seleccionar automáticamente una configuración para el algoritmo de control assisted-as-needed que consigue que la ortesis se adapte a los criterios establecidos desde un punto de vista clínico en función del paciente estudiado. Estos resultados invitan a profundizar en el desarrollo de algoritmos más avanzados de selección de parámetros a partir de baterías de simulaciones Estos trabajos han servido para corroborar las hipótesis de investigación planteadas al inicio de la misma, permitiendo, asimismo, la apertura de nuevas líneas de investigación. Summary The World Health Organization (WHO) predicts that by the year 2020, Acquired Brain Injury (ABI) will be among the ten most common ailments. These injuries dramatically change the life of the patients and their families due to their physical, sensory, cognitive, emotional and socio-economic consequences. New techniques of early intervention and the development of intensive ABI care have noticeably improved the survival rate. However, in spite of these advances, brain injuries still have no surgical or pharmacological treatment to re-establish the lost functions. Neurorehabilitation therapies address this problem by restoring, minimizing or compensating the functional alterations in a person disabled because of a nervous system injury. One of the main objectives of Neurorehabilitation is to provide patients with the capacity to perform specific Activities of the Daily Life (ADL) required for an independent life, especially those in which the Upper Limb (UL) is directly involved due to its great importance in manipulating objects within the patients' environment. The incorporation of new technological aids to the neurorehabilitation process tries to reach a new paradigm focused on offering a personalized, monitored and ubiquitous practise with continuous assessment of both the efficacy and the efficiency of the procedures and with the capacity of generating new knowledge. New targets will be to minimize the impact of the sicknesses affecting the functional capabilitiies of the subjects, to decrease the time of the physical handicap and to allow a more efficient resources handling. These targets, of a great socio-economic impact, can only be achieved by means of new technologies and algorithms able to provoke the technological break needed to beat the barriers that are stopping the universal penetration of the technology in the field of rehabilitation. In this way, this PhD Thesis has achieved the following results: 1. ADL Modeling: as a previous step to the incorporation of technological aids to the neurorehabilitation process, it is necessary a first modelling and formalization phase of the knowledge associated to the execution of the activities that are performed as a part of the therapy. In particular, the most complex and therapeutically relevant tasks are the ADLs, whose formalization will produce healthy motion models to be used as a reference for future technological developments. Following a methodology based on UML state-chart diagrams, the ADLs 'serving water from a jar' and 'picking up a bottle' have been modelled 2. Ubiquitous monitoring of the UL movement: it has been designed, developed and validated a motion acquisition system based on inertial technology that improves the limitations of the current devices (high monetary cost and inability of working within uncontrolled environments); the high correlation coefficients and the low error levels obtained throughout several co-registration sessions with the commercial sys- tem BTS SMART-D show the high precision of the system. Besides an exploration of a very low cost stereoscopic vision-based motion capture system has been carried out and the key points where it is necessary to insist from a technological point of view have been detected 3. Inverse Kinematics (IK) problem solving: a solution to the IK problem has been proposed for a manipulator that corresponds to a human UL. This solution has been faced by means of two different alternatives, one based on a Mulilayer Perceptron (MLP) and another based on Artificial Neuro-Fuzzy Inference Systems (ANFIS). The validation of these solutions, carried out using the information regarding the previously generated motion models, indicate that a MLP-based solution, with an architecture consisting in 3 neurons in the input layer, one hidden layer of 3 neurons and an output layer with as many neurons as the number of Degrees of Freedom (DoFs) that the UL model has, is the one that provides the best results both in terms of precission and in terms of processing time, making in idoneous to be integrated within a system with real time restrictions 4. Assisted-as-needed intelligent control: an assisted-as-needed control algorithm with anticipatory actuation capabilities has been designed, developed and validated for a robotic orthosis of which there is an already implemented prototype. Obtained results demonstrate that the control system is able to adapt to the dysfunctional profile of the patient by triggering the assistance right before an incorrect movement is going to take place. This strategy implies an increase in the participation of the patients and in his or her muscle activity, encouraging the neural plasticity processes in charge of the motor learning 5. Planification with a robotic simulator: in this work a robotic simulator is proposed as a planification tool for personalized rehabilitation sessions under a certain clinical criterium. Obtained results indicate that, after the execution of simple parameter selection algorithms, it is possible to automatically choose a specific configuration that makes the assisted-as-needed control algorithm to adapt both to the clinical criteria and to the patient. These results invite researchers to work in the development of more complex parameter selection algorithms departing from simulation batteries Obtained results have been useful to corroborate the hypotheses set out at the beginning of this PhD Thesis. Besides, they have allowed the creation of new research lines in all the studied application fields.
Resumo:
Se presenta la posibilidad de aplicación de la teoría de la fiabilidad estructural al cálculo de los márgenes de seguridad en túneles excavados. Tras una breve introducción a los procedimientos existentes para analizar la incertidumbre y de examinar las limitaciones de los coeficientes de seguridad tal como se definen habitualmente, se precisan los estados límites propuestos así como las variables aleatorias y la metodología aplicada. Se presenta también un ejemplo sencillo basado en un caso real y se termina con algunas conclusiones entre las que destaca la posibilidad de utilizar el método para resolver el problema inverso de identificación de propiedades.
Resumo:
En años recientes, se han realizado algunos esfuerzos para equipar a robots submarinos con impulsores vectorizados. Este sistema de propulsión permite el uso de una menor cantidad de impulsores, esto a su vez tiene consecuencias favorables en el volumen y costo del robot a medida que una mayor potencia de propulsión es requerida. El propósito de esta tesis es realizar un estudio sobre el modelado, control y diseño de robots submarinos de estructura paralela con impulsores vectorizados. De esta manera exponer los aspectos más importantes relativos a estos puntos, y proponer soluciones a los problemas que plantea la arquitectura de estos robots. En esta tesis se tomo como objeto de estudio el robot Remo 2, cuya estructura paralela representa una gran parte del volumen del robot y esto hace que su análisis sea el más complejo que se pueda tener en los robots de esta categoría. El diseño de este robot es un concepto radicalmente diferente al de los robots submarinos convencionales. Sus características son prometedoras, pero para poder sacar provecho de estas potencialidades es necesario un entendimiento de la dinámica del robot. En este trabajo se presenta el desarrollo y análisis de modelos analíticos, y el desarrollo de herramientas de simulación para este robot. El propósito de estas herramientas es identificar las oportunidades y restricciones impuestas por la estructura y la dinámica del vehículo. Se presenta el planteamiento (y solución) de los problemas cinemático y dinámico inverso para un robot submarino de estructura paralela. Por otro lado, se demostró por primera vez el funcionamiento del concepto del robot submarino a través de una herramienta de simulación. Haciendo uso de esta herramienta se exploro el desempeño del robot bajo diversos esquemas de control, se encontró que el robot es capaz de ejecutar con éxito diversas maniobras empleando controladores clásicos. Se presento un controlador basado en el modelo del robot y se demostró sus ventajas. Posteriormente se presento un apartado cuyo propósito es exponer aspectos importantes sobre el diseño de este tipo de robots, sobre todo aquellos que influyen en su desempeño cinetostático. Se plantea el problema del diseño óptimo de un robot tipo Remo 2, y se proponen un par de índices de desempeño globales. Otra contribución fue, en condición de coautoría, el diseño y análisis de una nueva estructura paralela la cual no ha sido considerada anteriormente en la literatura.
Resumo:
Si existe una imagen verdaderamente elocuente para describir a Richard Buckminster Fuller (1895-1983) esta es, sin duda, la que el pintor Boris Artzybasheff (1899-1965) realizó para la portada con la que la revista Time abrió el 10 de enero de 1964. En ella se puede ver como la cabeza de este inventor, ingeniero, poeta y arquitecto se encuentra facetada en cientos de triángulos, formando algo que no es sino una cúpula geodésica, como aquellas que le habían hecho famoso en todo el mundo. Frente a esta identificación que se da en la imagen de Artzybasheff entre Fuller y sus cúpulas, transformando al arquitecto en su propia obra, lo que se pretende realizar en este trabajo de investigación es el camino inverso, penetrar en esa cabeza o, mejor dicho, en esa cúpula que la alberga, a través del estudio de una de las cúpulas más personales que construyera RBF: la que fue su casa en Carbondale, en la que vivió durante toda la década de los años sesenta del pasado siglo, precisamente los mismo años de aquella fantástica portada de Time. El análisis detallado de esta obra nos permitirá acercarnos al centro gravitacional del pensamiento de RBF: la búsqueda de una mayor libertad para el hombre gracias a una arquitectura más sostenible y, por ello, más económica. Una búsqueda que le llevó a crear no sólo una casa, sino todo un mundo propio.
Resumo:
Un problema importante de ingeniería sísmica es la respuesta de depósitos estratificados de suelos cuando se encuentran sometidos a la acción del terremoto. El problema puede ser directo o inverso, según se pretenda obtener el movimiento en superficie cuando el fondo es solicitado por un sismo dado o, lo que es muy común en la técnica de análisis sísmico, se pretende realizar la deconvolución de un movimiento en superficie hasta una profundidad determinada con objeto de realizar a posteriori un análisis de interacción terreno-estructura. El problema es bien conocido así como sus dificultades relacionadas principalmente con el carácter no lineal del suelo y sus propiedades de amortiguamiento.
Resumo:
Hoy en día el ruido presente en los aeropuertos se ha convertido en un problema importante en las poblaciones cercanas a éstos por el incremento del tráfico aéreo año tras año. Gracias a que los aviones son cada vez menos ruidosos y el esfuerzo por parte de los gestores aeroportuarios en disminuir el ruido en su entorno los niveles de presión sonora se han rebajado con el paso del tiempo. A pesar de esa reducción de nivel de presión sonora existen algunas maniobras especialmente ruidosas que generan gran molestia a la población. Una de esas maniobras es el uso del sistema de frenado de reversa. Este sistema consiste en desviar el flujo de aire que sale del motor, produciéndose una rápida reducción de la velocidad, con el inconveniente de la gran generación de ruido. El uso de este sistema está prohibido en los grandes aeropuertos europeos bajo condiciones normales, pero a pesar de eso algunas aeronaves lo utilizan y no son sancionadas por no existir forma de comprobar que la reversa ha sido activada sin acceder a la caja negra del avión. En el año 2013 la Universidad Politécnica de Madrid patenta un sistema para detectar la activación del freno de reversa mediante procedimientos acústicos, concretamente con técnicas basadas en la estimación de la potencia acústica. Dicho sistema hace uso de dos micrófonos de medida para captar las ondas de presión sonora, y localizar su proveniencia para poder estimar la potencia acústica utilizando un modelo matemático inverso. Esos micrófonos han de estar durante periodos de tiempo indeterminados al aire libre, por ese motivo es necesario el diseño de algún tipo de sistema para proteger la instrumentación de la intemperie. Aunque existen soluciones comerciales generalistas para la medida de ruido en exteriores, dichas soluciones tienen un coste muy elevado que dificulta que el sistema de detección patentado pueda ser desarrollado comercialmente, por ello la motivación de este proyecto surge con la intención de diseñar elementos que puedan ser utilizados de manera conjunta con el sistema de detección de ruido de reversa para que en un futuro se pueda llegar a comercializar un producto completo con esta tecnología. El objetivo principal de este proyecto es diseñar y caracterizar desde el punto de vista acústico un sistema microfónico de intemperie, para cuantificar el efecto que provoca el uso del sistema que se va a implementar sobre la localización de eventos sonoros para que posteriormente se pueda valorar si desde el punto de vista técnico el prototipo diseñado puede ser utilizado junto con el sistema de detección de la reversa. Este Trabajo Fin de Máster se centrará en el diseño y caracterización de un sistema de localización de eventos sonoros, basado en la medida de la diferencia de tiempos de llegada de la onda acústica a dos micrófonos, así como en el diseño y medida del efecto que tiene un sistema de intemperie diseñado específicamente para esta aplicación, con la intención de que sea utilizado en las líneas de investigación abiertas del Grupo de Instrumentación y Acústica Aplicada de la Universidad Politécnica de Madrid. En el informe primero se hará una introducción en la que se expondrá la base teórica de la localización sonora y los métodos que generalmente se utilizan para su medida. También se realizará un análisis de los sistemas de medición acústica en intemperie para aplicar dichos conocimientos en el diseño que se propondrá más tarde. A continuación se expondrá la metodología propuesta para la caracterización del sistema implementado, consistente en una combinación de medidas de laboratorio con ensayos in situ. También se definirán los parámetros a definir que se consideran indispensables para conocer el correcto funcionamiento de un sistema de localización. Posteriormente se realizará un análisis de los resultados obtenidos en las mediciones, realizando comparaciones entre las distintas configuraciones adoptadas y valorando críticamente el funcionamiento del sistema de intemperie diseñado. Por último, se comentarán las conclusiones obtenidas tras el estudio, desarrollo y análisis de resultados obtenidos en este trabajo fin de máster. También se propondrán trabajos para el futuro que permitan perfeccionar el sistema diseñado frente a las condiciones de intemperie, y que además permitan aumentar su rango de funcionamiento.
Resumo:
GaN y AlN son materiales semiconductores piezoeléctricos del grupo III-V. La heterounión AlGaN/GaN presenta una elevada carga de polarización tanto piezoeléctrica como espontánea en la intercara, lo que genera en su cercanía un 2DEG de grandes concentración y movilidad. Este 2DEG produce una muy alta potencia de salida, que a su vez genera una elevada temperatura de red. Las tensiones de puerta y drenador provocan un stress piezoeléctrico inverso, que puede afectar a la carga de polarización piezoeléctrica y así influir la densidad 2DEG y las características de salida. Por tanto, la física del dispositivo es relevante para todos sus aspectos eléctricos, térmicos y mecánicos. En esta tesis se utiliza el software comercial COMSOL, basado en el método de elementos finitos (FEM), para simular el comportamiento integral electro-térmico, electro-mecánico y electro-térmico-mecánico de los HEMTs de GaN. Las partes de acoplamiento incluyen el modelo de deriva y difusión para el transporte electrónico, la conducción térmica y el efecto piezoeléctrico. Mediante simulaciones y algunas caracterizaciones experimentales de los dispositivos, hemos analizado los efectos térmicos, de deformación y de trampas. Se ha estudiado el impacto de la geometría del dispositivo en su auto-calentamiento mediante simulaciones electro-térmicas y algunas caracterizaciones eléctricas. Entre los resultados más sobresalientes, encontramos que para la misma potencia de salida la distancia entre los contactos de puerta y drenador influye en generación de calor en el canal, y así en su temperatura. El diamante posee une elevada conductividad térmica. Integrando el diamante en el dispositivo se puede dispersar el calor producido y así reducir el auto-calentamiento, al respecto de lo cual se han realizado diversas simulaciones electro-térmicas. Si la integración del diamante es en la parte superior del transistor, los factores determinantes para la capacidad disipadora son el espesor de la capa de diamante, su conductividad térmica y su distancia a la fuente de calor. Este procedimiento de disipación superior también puede reducir el impacto de la barrera térmica de intercara entre la capa adaptadora (buffer) y el substrato. La muy reducida conductividad eléctrica del diamante permite que pueda contactar directamente el metal de puerta (muy cercano a la fuente de calor), lo que resulta muy conveniente para reducir el auto-calentamiento del dispositivo con polarización pulsada. Por otra parte se simuló el dispositivo con diamante depositado en surcos atacados sobre el sustrato como caminos de disipación de calor (disipador posterior). Aquí aparece una competencia de factores que influyen en la capacidad de disipación, a saber, el surco atacado contribuye a aumentar la temperatura del dispositivo debido al pequeño tamaño del disipador, mientras que el diamante disminuiría esa temperatura gracias a su elevada conductividad térmica. Por tanto, se precisan capas de diamante relativamente gruesas para reducer ele efecto de auto-calentamiento. Se comparó la simulación de la deformación local en el borde de la puerta del lado cercano al drenador con estructuras de puerta estándar y con field plate, que podrían ser muy relevantes respecto a fallos mecánicos del dispositivo. Otras simulaciones se enfocaron al efecto de la deformación intrínseca de la capa de diamante en el comportamiento eléctrico del dispositivo. Se han comparado los resultados de las simulaciones de la deformación y las características eléctricas de salida con datos experimentales obtenidos por espectroscopía micro-Raman y medidas eléctricas, respectivamente. Los resultados muestran el stress intrínseco en la capa producido por la distribución no uniforme del 2DEG en el canal y la región de acceso. Además de aumentar la potencia de salida del dispositivo, la deformación intrínseca en la capa de diamante podría mejorar la fiabilidad del dispositivo modulando la deformación local en el borde de la puerta del lado del drenador. Finalmente, también se han simulado en este trabajo los efectos de trampas localizados en la superficie, el buffer y la barrera. Las medidas pulsadas muestran que tanto las puertas largas como las grandes separaciones entre los contactos de puerta y drenador aumentan el cociente entre la corriente pulsada frente a la corriente continua (lag ratio), es decir, disminuir el colapse de corriente (current collapse). Este efecto ha sido explicado mediante las simulaciones de los efectos de trampa de superficie. Por su parte, las referidas a trampas en el buffer se enfocaron en los efectos de atrapamiento dinámico, y su impacto en el auto-calentamiento del dispositivo. Se presenta también un modelo que describe el atrapamiento y liberación de trampas en la barrera: mientras que el atrapamiento se debe a un túnel directo del electrón desde el metal de puerta, el desatrapamiento consiste en la emisión del electrón en la banda de conducción mediante túnel asistido por fonones. El modelo también simula la corriente de puerta, debida a la emisión electrónica dependiente de la temperatura y el campo eléctrico. Además, también se ilustra la corriente de drenador dependiente de la temperatura y el campo eléctrico. ABSTRACT GaN and AlN are group III-V piezoelectric semiconductor materials. The AlGaN/GaN heterojunction presents large piezoelectric and spontaneous polarization charge at the interface, leading to high 2DEG density close to the interface. A high power output would be obtained due to the high 2DEG density and mobility, which leads to elevated lattice temperature. The gate and drain biases induce converse piezoelectric stress that can influence the piezoelectric polarization charge and further influence the 2DEG density and output characteristics. Therefore, the device physics is relevant to all the electrical, thermal, and mechanical aspects. In this dissertation, by using the commercial finite-element-method (FEM) software COMSOL, we achieved the GaN HEMTs simulation with electro-thermal, electro-mechanical, and electro-thermo-mechanical full coupling. The coupling parts include the drift-diffusion model for the electron transport, the thermal conduction, and the piezoelectric effect. By simulations and some experimental characterizations, we have studied the device thermal, stress, and traps effects described in the following. The device geometry impact on the self-heating was studied by electro-thermal simulations and electrical characterizations. Among the obtained interesting results, we found that, for same power output, the distance between the gate and drain contact can influence distribution of the heat generation in the channel and thus influence the channel temperature. Diamond possesses high thermal conductivity. Integrated diamond with the device can spread the generated heat and thus potentially reduce the device self-heating effect. Electro-thermal simulations on this topic were performed. For the diamond integration on top of the device (top-side heat spreading), the determinant factors for the heat spreading ability are the diamond thickness, its thermal conductivity, and its distance to the heat source. The top-side heat spreading can also reduce the impact of thermal boundary resistance between the buffer and the substrate on the device thermal behavior. The very low electrical conductivity of diamond allows that it can directly contact the gate metal (which is very close to the heat source), being quite convenient to reduce the self-heating for the device under pulsed bias. Also, the diamond coated in vias etched in the substrate as heat spreading path (back-side heat spreading) was simulated. A competing mechanism influences the heat spreading ability, i.e., the etched vias would increase the device temperature due to the reduced heat sink while the coated diamond would decrease the device temperature due to its higher thermal conductivity. Therefore, relative thick coated diamond is needed in order to reduce the self-heating effect. The simulated local stress at the gate edge of the drain side for the device with standard and field plate gate structure were compared, which would be relevant to the device mechanical failure. Other stress simulations focused on the intrinsic stress in the diamond capping layer impact on the device electrical behaviors. The simulated stress and electrical output characteristics were compared to experimental data obtained by micro-Raman spectroscopy and electrical characterization, respectively. Results showed that the intrinsic stress in the capping layer caused the non-uniform distribution of 2DEG in the channel and the access region. Besides the enhancement of the device power output, intrinsic stress in the capping layer can potentially improve the device reliability by modulating the local stress at the gate edge of the drain side. Finally, the surface, buffer, and barrier traps effects were simulated in this work. Pulsed measurements showed that long gates and distances between gate and drain contact can increase the gate lag ratio (decrease the current collapse). This was explained by simulations on the surface traps effect. The simulations on buffer traps effects focused on illustrating the dynamic trapping/detrapping in the buffer and the self-heating impact on the device transient drain current. A model was presented to describe the trapping and detrapping in the barrier. The trapping was the electron direct tunneling from the gate metal while the detrapping was the electron emission into the conduction band described by phonon-assisted tunneling. The reverse gate current was simulated based on this model, whose mechanism can be attributed to the temperature and electric field dependent electron emission in the barrier. Furthermore, the mechanism of the device bias via the self-heating and electric field impact on the electron emission and the transient drain current were also illustrated.
Resumo:
El problema inverso de la búsqueda de fuentes MEG consiste en la obtención de la distribución de los dipolos de corriente (fuentes) en el interior de la cabeza de un paciente a partir de las mediciones de campo electromagnético obtenidas en la superficie (magnetoencefalograma, MEG). Para obtener estos datos, en el ámbito científico se utiliza el algoritmo beamforming, comúnmente aceptado, cuyos resultados ofrecen un pequeño margen de error debido a la naturaleza del problema. Esta memoria desarrolla el trabajo realizado para optimizar un algoritmo de búsqueda aleatoria, Solis-Wets, utilizado para investigar la posibilidad de su aplicación en el ámbito científico, en sustitución del anteriormente mencionado, beamforming. También se estudiará la acción de encadenar ambos algoritmos, tomando como datos de entrada del algoritmo Solis-Wets aquellos proporcionados como solución por el algoritmo beamforming con objeto de minimizar el error en el que éste incurre. Esta optimización es necesaria para que la alternativa sea viable debido al tiempo necesario en su ejecución, e incluye el uso de bibliotecas auxiliares, así como la paralelización del código. Para la evaluación del algoritmo se han medido tanto la velocidad de generación de soluciones como el error de la mejor solución tras un número determinado de soluciones generadas. Como variables para esta evaluación se han tomado distintos compiladores, distintas soluciones de partida, precisión de los datos, así como el uso de distintas bibliotecas matemáticas disponibles.