76 resultados para medición del espectro


Relevância:

80.00% 80.00%

Publicador:

Resumo:

A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La generalización del uso de dispositivos móviles, con su consiguiente aumento del tráfico de datos, está generando una demanda cada vez mayor de bandas de frecuencia para el despliegue de sistemas de comunicación inalámbrica, así como una creciente congestión en las bandas bajas del espectro (hasta 3 GHz). Entre las posibles soluciones a este problema, se ha propuesto que la próxima generación de sistemas celulares, 5G, hagan uso de la banda milimétrica, entre 30 GHz y 300 GHz, donde hay anchos de banda contiguos disponibles con tamaños muy difíciles de encontrar en las frecuencias en uso en la generación actual. Este Proyecto de Fin de Grado tiene como finalidad estudiar la viabilidad del despliegue de sistemas celulares en dicha banda, basándose en los estudios tanto empíricos como teóricos ya publicados, así como en las recomendaciones de la UIT donde se estudian las características de propagación en estas bandas. En un siguiente apartado, se han analizado los documentos disponibles de los distintos proyectos y grupos, como pueden ser METIS-2020, impulsado por la Comisión Europea o IMT-2020 promovido por la UIT, dedicados a definir los futuros estándares de comunicación y sus características, así como la evolución de los actuales. Aparte del trabajo de documentación, se han realizado una serie de simulaciones. En primer lugar, se ha utilizado MATLAB para estudiar el comportamiento y la atenuación de la onda electromagnética a las frecuencias de interés en diferentes ubicaciones y climas, tanto en ubicaciones habituales como extremas, estudiándose los efectos de los gases atmosféricos y los hidrometeoros. También se ha utilizado software de planificación radioeléctrica profesional para hacer estudios de cobertura en entornos tanto urbanos, entre ellos Madrid o Barcelona, suburbanos, como Tres Cantos (Madrid) y O Barco de Valdeorras (Orense), y rurales como Valdefuentes (Cáceres) y Quiruelas de Vidriales (Zamora). Por último se han recogido todos los resultados, tanto los provenientes de los estudios como los obtenidos de nuestras propias simulaciones, y se ha realizado un breve comentario, comparando estos y analizando su impacto para posibles despliegues futuros de redes 5G. ABSTRACT. The generalization of mobile device use, with its associated data traffic growth, is generating a growing demand of spectrum for its use in the deployment of wireless telecommunication systems, and a growing congestion in the lower end of the spectrum (until 3 GHz). Among the possible solutions for this problem, it has been proposed that the next generation of cellular systems, 5G, makes use of the millimeter band, between 30 GHz and 300 GHz, where there are contiguous bandwidths with sizes hardly available in the bands used in the present. This Project aims to study the feasibility of cellular system deployments in said band, based on published empirical and theoretical studies and papers, and the ITU recommendations, where the propagation characteristics in those bands are studied. In the next section, available documentation coming from the different study groups and projects like METIS 2020 promoted by the European Commission, or IMT-2020, promoted by the ITU has been studied. In the documentation, future telecommunication standards and its characteristics and the evolution of the current ones are defined. Besides the documentation work, a series of simulations have been carried out. First, MATLAB has been used to study the behavior and attenuation of the electromagnetic wave at the frequencies of interest in different locations and climates, studying the effects of atmospheric gasses and hydrometeors in conventional and extreme locations. Industry standard radioelectric planning software has been used to study the coverage in different environments, such as urban locations like Madrid and Barcelona, both in Spain, suburban locations like Tres Cantos (Madrid, Spain) and O Barco de Valdeorras (Orense, Spain) and rural locations such as Valdefuentes (Cáreces, Spain) and Quiruelas de Vidriales (Zamora, Spain). Finally, all the results, both from the documentation and our own simulations, have been collected, and a brief commentary has been made, comparing those results and their possible impact in the future deployment of 5G networks.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las mayores dificultades que aparecen en una futura reedición de la Norma Sismorresistente son probablemente las derivadas de una carencia casi absoluta de datos básicos recogidos en el territorio nacional, y en particular los referentes a registros de acelerogramas acaecidos en los últimos años. Por otra parte, si bien la información histórica de los seísmos descritos en términos cualitativos - intensidades- es suficientemente extensa, no existe hasta la fecha un mapa adecuado de riesgo sísmico que comprenda todo el país. La incertidumbre representada por las anteriores limitaciones debe de ser subsanada en la redacción de una nueva norma, mediante un enérgico programa de trabajo, que incluya como objetivo prioritario, la aportación de los anteriores datos básicos referidos a España. Esta nota hace referencia, de un modo específico, a los criterios que deberían ser considerados en la modificación del espectro básico de respuesta al tener en cuenta la influencia del terreno bajo la cimentación (amplificación del suelo). Aquí no se incluyen los efectos del tipo de cimentación, que deberían ser considerados de un modo separado así como la interacción dinámica suelo-estructura, que constituye una situación más compleja y cuyo estudio exige al menos el conocimiento de la amplificación del suelo y que se suele llevar a cabo en el caso de estructuras importantes (centrales nucleares, presas de tierra, etc.) que no deben ser objetivo prioritario de una norma sismorresistente de aplicación más general a edificación normal

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las redes de sensores inalámbricas son uno de los sectores con más crecimiento dentro de las redes inalámbricas. La rápida adopción de estas redes como solución para muchas nuevas aplicaciones ha llevado a un creciente tráfico en el espectro radioeléctrico. Debido a que las redes inalámbricas de sensores operan en las bandas libres Industrial, Scientific and Medical (ISM) se ha producido una saturación del espectro que en pocos años no permitirá un buen funcionamiento. Con el objetivo de solucionar este tipo de problemas ha aparecido el paradigma de Radio Cognitiva (CR). La introducción de las capacidades cognitivas en las redes inalámbricas de sensores permite utilizar estas redes para aplicaciones con unos requisitos más estrictos respecto a fiabilidad, cobertura o calidad de servicio. Estas redes que aúnan todas estas características son llamadas redes de sensores inalámbricas cognitivas (CWSNs). La mejora en prestaciones de las CWSNs permite su utilización en aplicaciones críticas donde antes no podían ser utilizadas como monitorización de estructuras, de servicios médicos, en entornos militares o de vigilancia. Sin embargo, estas aplicaciones también requieren de otras características que la radio cognitiva no nos ofrece directamente como, por ejemplo, la seguridad. La seguridad en CWSNs es un aspecto poco desarrollado al ser una característica no esencial para su funcionamiento, como pueden serlo el sensado del espectro o la colaboración. Sin embargo, su estudio y mejora es esencial de cara al crecimiento de las CWSNs. Por tanto, esta tesis tiene como objetivo implementar contramedidas usando las nuevas capacidades cognitivas, especialmente en la capa física, teniendo en cuenta las limitaciones con las que cuentan las WSNs. En el ciclo de trabajo de esta tesis se han desarrollado dos estrategias de seguridad contra ataques de especial importancia en redes cognitivas: el ataque de simulación de usuario primario (PUE) y el ataque contra la privacidad eavesdropping. Para mitigar el ataque PUE se ha desarrollado una contramedida basada en la detección de anomalías. Se han implementado dos algoritmos diferentes para detectar este ataque: el algoritmo de Cumulative Sum y el algoritmo de Data Clustering. Una vez comprobado su validez se han comparado entre sí y se han investigado los efectos que pueden afectar al funcionamiento de los mismos. Para combatir el ataque de eavesdropping se ha desarrollado una contramedida basada en la inyección de ruido artificial de manera que el atacante no distinga las señales con información del ruido sin verse afectada la comunicación que nos interesa. También se ha estudiado el impacto que tiene esta contramedida en los recursos de la red. Como resultado paralelo se ha desarrollado un marco de pruebas para CWSNs que consta de un simulador y de una red de nodos cognitivos reales. Estas herramientas han sido esenciales para la implementación y extracción de resultados de la tesis. ABSTRACT Wireless Sensor Networks (WSNs) are one of the fastest growing sectors in wireless networks. The fast introduction of these networks as a solution in many new applications has increased the traffic in the radio spectrum. Due to the operation of WSNs in the free industrial, scientific, and medical (ISM) bands, saturation has ocurred in these frequencies that will make the same operation methods impossible in the future. Cognitive radio (CR) has appeared as a solution for this problem. The networks that join all the mentioned features together are called cognitive wireless sensor networks (CWSNs). The adoption of cognitive features in WSNs allows the use of these networks in applications with higher reliability, coverage, or quality of service requirements. The improvement of the performance of CWSNs allows their use in critical applications where they could not be used before such as structural monitoring, medical care, military scenarios, or security monitoring systems. Nevertheless, these applications also need other features that cognitive radio does not add directly, such as security. The security in CWSNs has not yet been explored fully because it is not necessary field for the main performance of these networks. Instead, other fields like spectrum sensing or collaboration have been explored deeply. However, the study of security in CWSNs is essential for their growth. Therefore, the main objective of this thesis is to study the impact of some cognitive radio attacks in CWSNs and to implement countermeasures using new cognitive capabilities, especially in the physical layer and considering the limitations of WSNs. Inside the work cycle of this thesis, security strategies against two important kinds of attacks in cognitive networks have been developed. These attacks are the primary user emulator (PUE) attack and the eavesdropping attack. A countermeasure against the PUE attack based on anomaly detection has been developed. Two different algorithms have been implemented: the cumulative sum algorithm and the data clustering algorithm. After the verification of these solutions, they have been compared and the side effects that can disturb their performance have been analyzed. The developed approach against the eavesdropping attack is based on the generation of artificial noise to conceal information messages. The impact of this countermeasure on network resources has also been studied. As a parallel result, a new framework for CWSNs has been developed. This includes a simulator and a real network with cognitive nodes. This framework has been crucial for the implementation and extraction of the results presented in this thesis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El consumo energético de las Redes de Sensores Inalámbricas (WSNs por sus siglas en inglés) es un problema histórico que ha sido abordado desde diferentes niveles y visiones, ya que no solo afecta a la propia supervivencia de la red sino que el creciente uso de dispositivos inteligentes y el nuevo paradigma del Internet de las Cosas hace que las WSNs tengan cada vez una mayor influencia en la huella energética. Debido a la tendencia al alza en el uso de estas redes se añade un nuevo problema, la saturación espectral. Las WSNs operan habitualmente en bandas sin licencia como son las bandas Industrial, Científica y Médica (ISM por sus siglas en inglés). Estas bandas se comparten con otro tipo de redes como Wi-Fi o Bluetooth cuyo uso ha crecido exponencialmente en los últimos años. Para abordar este problema aparece el paradigma de la Radio Cognitiva (CR), una tecnología que permite el acceso oportunista al espectro. La introducción de capacidades cognitivas en las WSNs no solo permite optimizar su eficiencia espectral sino que también tiene un impacto positivo en parámetros como la calidad de servicio, la seguridad o el consumo energético. Sin embargo, por otra parte, este nuevo paradigma plantea algunos retos relacionados con el consumo energético. Concretamente, el sensado del espectro, la colaboración entre los nodos (que requiere comunicación adicional) y el cambio en los parámetros de transmisión aumentan el consumo respecto a las WSN clásicas. Teniendo en cuenta que la investigación en el campo del consumo energético ha sido ampliamente abordada puesto que se trata de una de sus principales limitaciones, asumimos que las nuevas estrategias deben surgir de las nuevas capacidades añadidas por las redes cognitivas. Por otro lado, a la hora de diseñar estrategias de optimización para CWSN hay que tener muy presentes las limitaciones de recursos de estas redes en cuanto a memoria, computación y consumo energético de los nodos. En esta tesis doctoral proponemos dos estrategias de reducción de consumo energético en CWSNs basadas en tres pilares fundamentales. El primero son las capacidades cognitivas añadidas a las WSNs que proporcionan la posibilidad de adaptar los parámetros de transmisión en función del espectro disponible. La segunda es la colaboración, como característica intrínseca de las CWSNs. Finalmente, el tercer pilar de este trabajo es teoría de juegos como algoritmo de soporte a la decisión, ampliamente utilizado en WSNs debido a su simplicidad. Como primer aporte de la tesis se presenta un análisis completo de las posibilidades introducidas por la radio cognitiva en materia de reducción de consumo para WSNs. Gracias a las conclusiones extraídas de este análisis, se han planteado las hipótesis de esta tesis relacionadas con la validez de usar capacidades cognitivas como herramienta para la reducción de consumo en CWSNs. Una vez presentada las hipótesis, pasamos a desarrollar las principales contribuciones de la tesis: las dos estrategias diseñadas para reducción de consumo basadas en teoría de juegos y CR. La primera de ellas hace uso de un juego no cooperativo que se juega mediante pares de jugadores. En la segunda estrategia, aunque el juego continúa siendo no cooperativo, se añade el concepto de colaboración. Para cada una de las estrategias se presenta el modelo del juego, el análisis formal de equilibrios y óptimos y la descripción de la estrategia completa donde se incluye la interacción entre nodos. Con el propósito de probar las estrategias mediante simulación e implementación en dispositivos reales hemos desarrollado un marco de pruebas compuesto por un simulador cognitivo y un banco de pruebas formado por nodos cognitivos capaces de comunicarse en tres bandas ISM desarrollados en el B105 Lab. Este marco de pruebas constituye otra de las aportaciones de la tesis que permitirá el avance en la investigación en el área de las CWSNs. Finalmente, se presentan y discuten los resultados derivados de la prueba de las estrategias desarrolladas. La primera estrategia proporciona ahorros de energía mayores al 65% comparados con una WSN sin capacidades cognitivas y alrededor del 25% si la comparamos con una estrategia cognitiva basada en el sensado periódico del espectro para el cambio de canal de acuerdo a un nivel de ruido fijado. Este algoritmo se comporta de forma similar independientemente del nivel de ruido siempre que éste sea espacialmente uniformemente. Esta estrategia, a pesar de su sencillez, nos asegura el comportamiento óptimo en cuanto a consumo energético debido a la utilización de teoría de juegos en la fase de diseño del comportamiento de los nodos. La estrategia colaborativa presenta mejoras respecto a la anterior en términos de protección frente al ruido en escenarios de ruido más complejos donde aporta una mejora del 50% comparada con la estrategia anterior. ABSTRACT Energy consumption in Wireless Sensor Networks (WSNs) is a known historical problem that has been addressed from different areas and on many levels. But this problem should not only be approached from the point of view of their own efficiency for survival. A major portion of communication traffic has migrated to mobile networks and systems. The increased use of smart devices and the introduction of the Internet of Things (IoT) give WSNs a great influence on the carbon footprint. Thus, optimizing the energy consumption of wireless networks could reduce their environmental impact considerably. In recent years, another problem has been added to the equation: spectrum saturation. Wireless Sensor Networks usually operate in unlicensed spectrum bands such as Industrial, Scientific, and Medical (ISM) bands shared with other networks (mainly Wi-Fi and Bluetooth). To address the efficient spectrum utilization problem, Cognitive Radio (CR) has emerged as the key technology that enables opportunistic access to the spectrum. Therefore, the introduction of cognitive capabilities to WSNs allows optimizing their spectral occupation. Cognitive Wireless Sensor Networks (CWSNs) do not only increase the reliability of communications, but they also have a positive impact on parameters such as the Quality of Service (QoS), network security, or energy consumption. These new opportunities introduced by CWSNs unveil a wide field in the energy consumption research area. However, this also implies some challenges. Specifically, the spectrum sensing stage, collaboration among devices (which requires extra communication), and changes in the transmission parameters increase the total energy consumption of the network. When designing CWSN optimization strategies, the fact that WSN nodes are very limited in terms of memory, computational power, or energy consumption has to be considered. Thus, light strategies that require a low computing capacity must be found. Since the field of energy conservation in WSNs has been widely explored, we assume that new strategies could emerge from the new opportunities presented by cognitive networks. In this PhD Thesis, we present two strategies for energy consumption reduction in CWSNs supported by three main pillars. The first pillar is that cognitive capabilities added to the WSN provide the ability to change the transmission parameters according to the spectrum. The second pillar is that the ability to collaborate is a basic characteristic of CWSNs. Finally, the third pillar for this work is the game theory as a decision-making algorithm, which has been widely used in WSNs due to its lightness and simplicity that make it valid to operate in CWSNs. For the development of these strategies, a complete analysis of the possibilities is first carried out by incorporating the cognitive abilities into the network. Once this analysis has been performed, we expose the hypotheses of this thesis related to the use of cognitive capabilities as a useful tool to reduce energy consumption in CWSNs. Once the analyses are exposed, we present the main contribution of this thesis: the two designed strategies for energy consumption reduction based on game theory and cognitive capabilities. The first one is based on a non-cooperative game played between two players in a simple and selfish way. In the second strategy, the concept of collaboration is introduced. Despite the fact that the game used is also a non-cooperative game, the decisions are taken through collaboration. For each strategy, we present the modeled game, the formal analysis of equilibrium and optimum, and the complete strategy describing the interaction between nodes. In order to test the strategies through simulation and implementation in real devices, we have developed a CWSN framework composed by a CWSN simulator based on Castalia and a testbed based on CWSN nodes able to communicate in three different ISM bands. We present and discuss the results derived by the energy optimization strategies. The first strategy brings energy improvement rates of over 65% compared to WSN without cognitive techniques. It also brings energy improvement rates of over 25% compared with sensing strategies for changing channels based on a decision threshold. We have also seen that the algorithm behaves similarly even with significant variations in the level of noise while working in a uniform noise scenario. The collaborative strategy presents improvements respecting the previous strategy in terms of noise protection when the noise scheme is more complex where this strategy shows improvement rates of over 50%.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En 1587 un sismo de magnitud 6.4 asociado a las fallas ciegas de Quito, causó gran daño en la ciudad; esto es muy preocupante toda vez que existen estudios que indican que el período de recurrencia es de aproximadamente 200 años. Lo que implica que al 2014 debieron haberse producido dos sismos de igual magnitud, que gracias a Dios no ha sucedido, ya que las consecuencias habrían sido desastrosas porque buena parte de la ciudad se encuentra sobre estas fallas. Al no haberse registrado sismos de la magnitud indicada en los cuatro últimos siglos se tiene una gran acumulación de energía toda vez que la tasa de movimiento de estas fallas se encuentra entre los 3 y 4 mm al año. De tal manera que existe una gran probabilidad de tener un sismo muy fuerte. En estas condiciones es muy importante obtener espectros de respuesta elástica que se generarían por un sismo asociado a alguno de los segmentos de las fallas ciegas inversas de Quito y que mejor hacerlo con modelos de movimientos fuertes que han sido publicados en los últimos años y reconocidos a nivel mundial por la gran base de datos con la que fueron obtenidos. En este artículo se van a presentar tres modelos de movimientos fuertes y son los desarrollados por: Abrahamson, Silva y Kamai (2013); Campbell y Borzognia (2013); y el modelo de Zhao et al. (2006). Para cada uno de estos modelos se indican la base de datos y las ecuaciones que definen las ramas del espectro. Se destaca que estos modelos sirven también para encontrar leyes de atenuación del movimiento del suelo. Posteriormente como una aplicación se obtendrá espectros para cinco Parroquias del Centro Norte de Quito, a saber: Rumipamba, Belisario Quevedo, Mariscal Sucre, Iñaquito y Jipijapa; asociados al sismo máximo probable generados en el segmento de falla que está más cerca y es el denominado Ilumbisí-La Bota, con cada uno de los modelos indicados en el párrafo anterior y se encontrarán espectros ponderados para un nivel de confiabilidad del 84%. Las ordenadas espectrales que se hallan son mayores a las ordenadas espectrales que reporta la Norma Ecuatoriana de la Construcción de 2011 y los que se obtienen con los factores de sitio hallados en el estudio de Microzonificación Sísmica de Quito por ERN en el 2012.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tesis establece los fundamentos teóricos y diseña una colección abierta de clases C++ denominada VBF (Vector Boolean Functions) para analizar funciones booleanas vectoriales (funciones que asocian un vector booleano a otro vector booleano) desde una perspectiva criptográfica. Esta nueva implementación emplea la librería NTL de Victor Shoup, incorporando nuevos módulos que complementan a las funciones de NTL, adecuándolas para el análisis criptográfico. La clase fundamental que representa una función booleana vectorial se puede inicializar de manera muy flexible mediante diferentes estructuras de datas tales como la Tabla de verdad, la Representación de traza y la Forma algebraica normal entre otras. De esta manera VBF permite evaluar los criterios criptográficos más relevantes de los algoritmos de cifra en bloque y de stream, así como funciones hash: por ejemplo, proporciona la no-linealidad, la distancia lineal, el grado algebraico, las estructuras lineales, la distribución de frecuencias de los valores absolutos del espectro Walsh o del espectro de autocorrelación, entre otros criterios. Adicionalmente, VBF puede llevar a cabo operaciones entre funciones booleanas vectoriales tales como la comprobación de igualdad, la composición, la inversión, la suma, la suma directa, el bricklayering (aplicación paralela de funciones booleanas vectoriales como la empleada en el algoritmo de cifra Rijndael), y la adición de funciones coordenada. La tesis también muestra el empleo de la librería VBF en dos aplicaciones prácticas. Por un lado, se han analizado las características más relevantes de los sistemas de cifra en bloque. Por otro lado, combinando VBF con algoritmos de optimización, se han diseñado funciones booleanas cuyas propiedades criptográficas son las mejores conocidas hasta la fecha. ABSTRACT This thesis develops the theoretical foundations and designs an open collection of C++ classes, called VBF, designed for analyzing vector Boolean functions (functions that map a Boolean vector to another Boolean vector) from a cryptographic perspective. This new implementation uses the NTL library from Victor Shoup, adding new modules which complement the existing ones making VBF better suited for cryptography. The fundamental class representing a vector Boolean function can be initialized in a flexible way via several alternative types of data structures such as Truth Table, Trace Representation, Algebraic Normal Form (ANF) among others. This way, VBF allows the evaluation of the most relevant cryptographic criteria for block and stream ciphers as well as for hash functions: for instance, it provides the nonlinearity, the linearity distance, the algebraic degree, the linear structures, the frequency distribution of the absolute values of the Walsh Spectrum or the Autocorrelation Spectrum, among others. In addition, VBF can perform operations such as equality testing, composition, inversion, sum, direct sum, bricklayering (parallel application of vector Boolean functions as employed in Rijndael cipher), and adding coordinate functions of two vector Boolean functions. This thesis also illustrates the use of VBF in two practical applications. On the one hand, the most relevant properties of the existing block ciphers have been analysed. On the other hand, by combining VBF with optimization algorithms, new Boolean functions have been designed which have the best known cryptographic properties up-to-date.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En esta tesis se desarrolla una metodología alternativa para la determinación de la dureza Brinell a partir de imágenes obtenidas mediante microscopía confocal, que se ha mostrado robusta para mejorar los resultados de medición del diámetro en condiciones de reproducibilidad. Las validaciones realizadas evidencian su posibilidad real de implementación, especialmente para la certificación de patrones de dureza. Los estudios experimentales realizados ponen de manifiesto que la medición del diámetro de una huella de dureza Brinell, siguiendo la metodología tradicional, depende de la posición del patrón, de las características del equipo empleado y del propio operador. Dicha medida resulta crítica y las dificultades para identificar el borde de la huella incorporan a menudo una fuente adicional de incertidumbre difícil de soslayar. En esta investigación se han desarrollado dos modelos matemáticos que permiten identificar de forma unívoca el diámetro de la huella en el punto donde se produce el límite de contacto entre el indentador y el material de la probeta durante la realización del ensayo. Ambos modelos han sido implementados en Matlab® y se ha verificado su validez mediante datos sintéticos. Asimismo, se ha realizado una validación experimental sobre patrones de dureza certificados, empleando un microscopio confocal marca Leica, modelo DCM 3D disponible en el Laboratorio de Investigación de Materiales de Interés Tecnológico (LIMIT) de la Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid (ETSIDI – UPM). Dicha validación ha puesto de manifiesto la utilidad de esta nueva metodología por cuanto permite caracterizar las huellas, estimar las incertidumbres de medida y garantizar la trazabilidad metrológica de los resultados. ABSTRACT This PhD thesis presents an alternative methodology to determine the Brinell hardness from the images obtained by confocal microscopy that has proved to be robust to improve the results of indentation diameter measurements in reproducibility conditions. The validations carried out show the real possibility of its implementation, especially for calibration of hardness reference blocks. Experimental studies performed worldwide show that the measurement of the indentation diameter in a Brinell hardness test depends, when the traditional methodology is applied, on the position of the test block, the equipment characteristics and the operator. This measurement is critical and the difficulties to identify the edge of the indentation often bring an additional source of uncertainty with them that is hard to avoid. In this research two specific mathematical models have been developed to identify unambiguously the indentation diameter at the point where the edge of the boundary between the indenter and the test block is found during the test. Both models have been implemented on Matlab® and their validity has been verified by synthetic data An additional experimental validation with calibrated hardness reference blocks has been carried out using a Leica-brand confocal microscope, model DCM 3D, available in the Laboratory for Research on Materials of Technological Interest (LIMIT in its Spanish acronym) of the Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid (ETSIDI-UPM). This validation has shown the utility of this new methodology since it allows to characterize the indentation, to estimate the measurement uncertainties and to ensure the metrological traceability of the results.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En la presente tesis doctoral se ha realizado un estudio utilizando diferentes técnicas de crecimiento (RPE-MOCVD y spray pyrolysis) y estructuras (nanohilos, pozos y puntos cuánticos y capas) con el objetivo de desarrollar dispositivos que cubran desde el rango visible hasta el ultravioleta. Es por esta razón por la que se han elegido materiales basados en ZnO, debido a la posibilidades que estos ofrecen para variar su bandgap en un amplio rango de energías. Prueba de ello es que en este estudio se ha conseguido cubrir un rango espectral desde 1.86 hasta 4.11 eV, estudiandose además fenómenos físicos como son la difusión e incorporaci ón de la aleación o la adsorción de gases en la super_cie, lo que ha permitido la fabricación de diferentes fotodetectores de gran sensibilidad. Por todo ello, los resultados obtenidos en esta tesis suponen una gran contribución al conocimiento de las propiedades físicas de las aleaciones de Zn(Cd)O y Zn(Mg)O para potenciales aplicaciónes en dispositivos que operen en el rango visible y ultravioleta del espectro, respectivamente. En esta memoria se da en primer lugar una visión de las propiedades de materiales basados en ZnO, entrando en detalle en una de las ventajas que este presenta, la facilidad que tiene este material para formar nanoestructuras. En el capítulo 3 se dan los conceptos teóricos necesarios para comprender las propiedades ópticas de este tipo de materiales, mostrando también los resultados más reseñables obtenidos en ZnO. En los capítulos referentes a los resultados se pueden diferenciar dos grandes bloques. En el primer bloque de resultados se han analizado nanohilos y pozos cuánticos de Zn(Cd)O crecidos por la técnica de RPE-MOCVD (Capítulos 4 y 5). En el segundo se expondrá el estudio realizado sobre capas y puntos cuánticos de Zn(Mg)O crecidos por la técnica spray pyrolysis como se describe en mayor detalle a continuación. Nanohilos y pozos cuánticos de Zn(Cd)O crecidos por RPE-MOCVD Teóricamente aleando el ZnO con CdO es posible disminuir el valor del band- gap desde 3.37 eV hasta 0.95 eV, cubriendo por completo el espectro visible. El desarrollo del ternario Zn(Cd)O permitiría la fabricación de heteroestructuras y pozos cuánticos, muy importantes en el desarrollo de dispositivos optoelectrónicos que cubran la parte visible del espectro. Sin embargo, la diferencia de estructura cristalina entre estos dos materiales junto a la baja solubilidad del Cd y su alta presión de vapor, di_culta la obtención de material de alta calidad cristalina con alto contenido en Cd. En esta tesis doctoral se ha realizado una completa caracterización óptica y estructural de nanohilos de Zn(Cd)O credidos por la técnica de RPE-MOCVD. Estos nanohilos tinene unas longitudes comprendidas entre 1 y 3 _m y diámetros entre 100 y 200 nm. La concentración máxima introducida de Cd en estas estructuras ha sido de hasta un 54% manteniendo la estructura wurtzita del ZnO, siendo este el mayor contenido de Cd introducido hasta la fecha en nanostructuras basada en ZnO. Este hecho se traduce en una variación de la energía de emisión entre 3.31 y 1.86 eV con el aumento en Cd. El uso de diferentes técnicas de alta resoluci ón de caracterización estructural ha permitido demostrar la presencia de una sola fase estructural wurtzita sin observarse ningún indicio de separación de fases ni acumulación de Cd a lo largo del nanohilo para todos los contenidos de Cd. Con el propósito de fabricar dispositivos en nanohilos individuales, parte de esta tesis doctoral ha estado dedicada a estudiar el impacto que el recocido térmico tiene en las propiedades ópticas y eléctricas de nanohilos de Zn(Cd)O. El recocido térmico es un proceso clave en la optimización de dispositivos, ya sea para la obtenci ón de contactos óhmicos, reducción de defectos o difusión de dopantes por ejemplo. En este estudio se ha observado una mejora muy signi_cativa de las propiedades de emisión de los nanohilos cuando estos eran recocidos a temperaturas mayores que la de crecimiento (300 oC). En las muestras con Cd se ha observado además que el recocido también produce un desplazamiento de la emisión hacia mayores energías debido a una reducción homogénea del contenido de Cd. Medidas de fotoluminiscencia con resolución temporal muestran el impacto que tiene la localización del excitón en las _uctuaciones de potencial, debidas a una distribución estadística del Cd, en la dinámica de los portadores. Comparando el tiempo de vida de los portadores entre los nanohilos recocidos y sin recocer se ha observado un aumento de este parámetro en las estructuras recocidas. Este aumento es fundamentalmente debido a una reducción de centros de recombinación no radiativa asociados a defectos presentes a lo largo del nanohilo. Además, se ha estudiado la evolución de los tiempos de vida de los portadores en función de la temperatura, registrándose una menor estabilidad con la temperatura de los tiempos de vida en las muestras recocidas. Este resultado sugiere que el recocido térmico consigue reducir parte del desorden de la aleación en la estructura. Tras haber caracterizados los nanohilos se desarrollaron una serie de procesa dos para la fabricación de dispositivos basados en nanohilos individuales. Se fabricaron en concreto fotodetectores sensibles al UV, en los que se observó también la alta sensibilidad que muestran a la adsorción de gases en la super_cie, incrementada por la gran relación super_cie/volúmen característica de las nanoestructuras. Estos procesos de adsorción observados tienen un impacto directo sobre las propiedades ópticas y electricas de los dispositivos como se ha demostrado. Por ello que en esta tesis se hayan estudiado en detalle este tipo de procesos, ideando maneras para tener un mayor control sobre ellos. Finalmente se crecieron estructuras de pozos cuántico de ZnCdO/ZnO en nanohilos con contenidos de Cd nominales de 54 %. Las medidas ópticas realizadas mostraron como al aumentar la anchura del pozo de 0.7 a 10 nm, la emisión relacionada con el pozo se desplazaba entre 3.30 y 1.97 eV. Este gran desplazamiento representa el mayor obtenido hasta la fecha en pozos cuánticos de ZnCdO/ZnO. Sin embargo, al caracterizar estructuralmente estas muestras se observó la presencia de procesos de difusión de Cd entre el pozo y la barrera. Como se ha podido medir, este tipo de procesos reducen sustancialmente la concentración de Cd en el pozo al difundirse parte a la barrera. cambiando completamente la estructura de bandas nominal de estas estructuras. Este estudio demuestra la importancia del impacto de los procesos de difusión en la interpretación de los efectos de con_namiento cuántico para este tipo de estructuras. Capas y puntos cuánticos de Zn(Mg)O crecidos por spray pyrolysis La técnica de spray pyrolysis, debido a su simplicidad, bajo coste y capacidad de crecer sobre grandes áreas conservando una alta calidad cristalina presenta un gran interés en la comunidad cientí_ca para el potencial desarrollo de dispositivos comerciales. En esta tesis se ha estudiado las propiedades ópticas y eléctricas de capas y puntos cuánticos de Zn(Mg)O crecidos por esta técnica. Al contrario que pasa con el Cd, al introducir Mg en la estructura wurtzita de ZnO se consigue aumentar el bandgap del semiconductor. Sin embargo, al igual que pasa con el CdO, la diferencia de estructura cristalina entre el ZnO y el MgO limita la cantidad de Mg que se puede incorporar, haciendo que para una cierta concentración de Mg aparezcan el fenómeno de separación de fases. En esta tesis se ha conseguido incorporar hasta un contenido de Mg del 35% en la estructura wurtzita del ZnO utilizando la técnica de spray pyrolysis, resultado que representa la mayor concentración de Mg publicada hasta la fecha. Este hecho ha posibilitado variar la energía del borde de absorción desde 3.30 a 4.11 eV. En estas capas se ha realizado una completa caracterización óptica observándose una diferencia entre las energías del borde de absorción y del máximo de emisión creciente con el contenido en Mg. Esta diferencia, conocida como desplazamiento de Stokes, es debida en parte a la presencia de _uctuaciones de potencial producidas por un desorden estadístico de la aleación. Se han fabricado fotodetectores MSM de alta calidad utilizando las capas de Zn(Mg)O previamente caracterizadas, observándose un desplazamiento del borde de absorción con el aumento en Mg desde 3.32 a 4.02 eV. Estos dispositivos muestran altos valores de responsividad (10-103 A/W) y altos contrastes entre la responsividad bajo iluminación y oscuridad (10-107). Estos resultados son en parte debidos a la presencia de mecanismos de ganancia y una reducción de la corriente de oscuridad en las muestras con alto contenido de Mg. Utilizando esta misma técnica de crecimiento se han crecido puntos de Zn(Mg)O con concentraciones nominales de Mg entre 0 y 100 %, con dimensiones medias entre 4 y 6 nm. Las medidas estructurales realizadas muestran que hasta un valor de Mg de 45 %, los puntos están compuestos por una única fase estructural, wurtzita. A partir de esa concentración de Mg aparece una fase cúbica en los puntos, coexistiendo con la fase hexagonal hasta una concentración nominales del 85 %. Para concentraciones mayores de Mg, los puntos muestran una única fase estructural cúbica. Medidas de absorción realizadas en estos puntos de Zn(Mg)O muestran un desplazamiento del borde de absorción entre 3.33 y 3.55 eV cuando la concentraci ón de Mg en los puntos aumenta hasta el 40 %. Este desplazamiento observado es debido solamente a la fase wurtzita del Zn(Mg)O donde se incorpora el Mg. ABSTRACT This PhD theis presents a study using di_erent growth techniques (RPEMOCVD and spray pyrolysis) and structures (nanowires, quantum dots and wells and layers) in order to develop devices that extend from the visible to the ultraviolet range. For this reason ZnO based materials have been choosen, because they o_er the possibility to tunne the bandgap in this energy range. Proof of this is that this study has managed to cover a spectral range from 1.86 to 4.11 eV, also being studied physical phenomena such as di_usion and incorporation of alloy or adsorption of gases on the surface, allowing the develop di_erent highly sensitive photodetectors. Therefore, the results obtained in this thesis are a great contribution two large blockso the knowledge of the physical properties of alloys Zn(Cd)O and Zn(Mg)O for potential applications in devices that operate in the visible and ultraviolet range, respectively. In the _rst chapter, the general properties of ZnO-based materials are presented, showing the facilities that these kind of materials o_er to obtain di_erent nanoestructures. In Chapter 3, optical theoretical concepts are given to understand the optical properties of these materials, also showing the most signi_cant results of ZnO. In the chapters related with the results, two blocks could be distinguish. In the _rst one, Zn(Cd)O nanowires and quantum wells grown by RPE-MOCVD have been analyzed (Chapters 4 and 5). The second block of results shows the study performed in Zn(Mg)O _lms and quantum dots grown by spray pyrolysis. Zn(Cd)O nanowires and quantum wells grown by RPE-MOCVD In summary, the results of the PhD thesis are a great contribution to the knowledge of the physical properties of Zn(Cd)O and Zn(Mg)O alloys and their application for high performance devices operating in the visible and UV ranges, respectively. The performance of the device is still limited due to alloy solubility and p-doping stability, which opens a door for future research in this _eld. Theoretically, annealing ZnO with CdO allows to reduce the bandgap from 3.37 to 0.95 eV, covering the whole visible spectrum. The development of ZnCdO alloys allows the fabrication of heterostructures and quantum wells, necessary for the development of high performance optoelectronic devices. However, the di_erent crystal structures between CdO and ZnO and the low solubility of Cd and its high vapor pressure, hinders the growth of ZnCdO alloys with high Cd contents. In this PhD thesis Zn(Cd)O nanowires have been optically and structurally characterized, obtaining a maximum Cd content of 54% while maintaining their wurtzite structure. This Cd content, which allows lowering the bandgap down to 1.86 eV, is the highest concentration ever reported in nanostructures based on ZnO. The combination of optical and structural characterization techniques used during this thesis has allowed the demonstration of the presence of a single wurtzite structure, without observing any indication of phase separation or Cd accumulation along the nanowire. Annealing processes are essential in the fabrication of optoelectronic devices. For this reason, a complete study of the annealing e_ects in the optical and electrical properties of Zn(Cd)O nanowires has been performed. In the _rst place, annealing nanowires at higher temperatures than their growth temperature (300 oC) allows a signi_cant improvement of their emission properties. However, in the samples that contain Cd a shift in the emission towards higher energies has been observed due to a homogeneous reduction of the Cd content in the nanowires. Time resolved photoluminescence measurements show the impact of the exciton localization in the potential _uctuations due to a statistical alloy disorder. An increase in the carrier lifetime has been obtained for the annealed nanowires. This increase is mainly due to the reduction of non-radiative recombination centers associated with the defects present in the material. Furthermore, temperature dependent time resolved photoluminescence measurements suggest a reduction of the alloy disorder in the annealed samples. In this thesis, single nanowire photodetectors with a high responsivity in the UV range have been demonstrated. Due to the high surface/volume ratio, these structures are very sensitive to gas adsorption at the surface, which largely de_nes the optical and electrical properties of the material and, therefore, of the device. With the aim of obtaining time stable devices, the dynamic adsorption-desorption processes have been studied, developing di_erent approaches that allow a higher control over them. Finally, ZnCdO/ZnO quantum wells have been grown with a nominal Cd concentration of 54% inside the well. The performed optical measurements show that increasing the well width from 0.7 to 10 nm, shifts the emission related with the well from 3.30 to 1.97 eV. This result represents the highest shift reported in the literature. However, a detailed structural characterization shows the presence of di_usion phenomena which substantially reduce the concentration of Cd in the well, while increasing it in the barrier. This type of phenomena should be considered when ac curately interpretating the quantum con_nement e_ects in Zn(Cd)O/ZnO quantum wells. Theoretically, annealing ZnO with CdO allows to decrease the bandgap from 3.37 to 0.95 eV, covering the whole visible spectrum. Zn(Mg)O _lms and quantum dots grown by spray pyrolysis Due to its simplicity, low-cost and capacity to grow over large areas conserving a high crystal quality, spray pyrolysis technique presents a great interest in the scienti_c community for developing comercial devices. In this thesis, a complete study of the optical and structural properties of Zn(Mg)O _lms and quantum dots grown by spray pyrolysis has been performed. Contrary to Zn(Cd)O alloys, when introducing Mg in the ZnO wurtzite structure an increase in the bandgap in obtained. Once again, the di_erence in the crystal structure of ZnO and MgO limits the amount of Mg that can be introduced before phase separation appears. In this PhD thesis, a maximum Mg content of 35% has been incorporated in the wurtzite structure using spray pyrolysis. This variation in the Mg content translates into an increase of the absorption edge from 3.30 to 4.11 eV. Up to this date, this result represents the highest Mg content introduced by spray pyrolysis in a ZnO wurzite structure reported in the literature. The comparison of the emission and absorption spectra shows the presence of an increasing Stokes shift with Mg content. This phenomenon is partialy related with the presence of potential _uctuations due to an statistic alloy disorder. MSM photodetectors have been processed on previously characterized Zn(Mg)O _lms. These devices have shown a shift in the absorption edge from 3.32 to 4.02 eV with the increase in Mg content, high responsivity values (10-103 A/W) and high contrast ratios between illuminated and dark responsivities (10-107). These values are explained by the presence of a gain mechanism and a reduction of dark current in the ZnMgO samples. Zn(Mg)O quantum dots have also been grown using spray pyrolysis with Mg concentrations between 0 and 100% and with average widths ranging 4 to 6 nm. Structural measurements show that at a Mg concentration of 45% the cubic phase appears, coexisting with the hexagonal phase up to an 85% concentration of Mg content. From 85% onwards the quantum dots show only the cubic phase. Absorption measurements performed in these structures reveal a shift in the absorption edge from 3.33 to 3.55 eV when the Mg content increases up to 40 %.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los sistemas micro electro mecánicos (MEMS) han demostrado ser una exitosa familia de dispositivos que pueden usarse como plataforma para el desarrollo de dispositivos con aplicaciones en óptica, comunicaciones, procesado de señal y sensorización. Los dispositivos MEMS estándar suelen estar fabricados usando tecnología de silicio. Sin embargo, el rendimiento de estos MEMS se puede mejorar si se usan otros materiales. Por ejemplo, el diamante nanocristalino (NCD) ofrece unas excelentes propiedades mecánicas, transparencia y una superficie fácil de funcionalizar. Por otro lado, el sistema de materiales (In; Ga; Al)N, los materiales IIIN, se pueden usar para producir estructuras monocristalinas con alta sensibilidad mecánica y química. Además, el AlN se puede depositar por pulverización catódica reactiva sobre varios substratos, incluyendo NCD, para formar capas policristalinas orientadas con alta respuesta piezoeléctrica. Adicionalmente, tanto el NCD como los materiales III-N muestran una gran estabilidad térmica y química, lo que los hace una elección idónea para desarrollar dispositivos para aplicaciones para alta temperatura, ambientes agresivos e incluso para aplicaciones biocompatibles. En esta tesis se han usado estos materiales para el diseño y medición de demostradores tecnológicos. Se han perseguido tres objetivos principales: _ Desarrollo de unos procesos de fabricación apropiados. _ Medición de las propiedades mecánicas de los materiales y de los factores que limitan el rendimiento de los dispositivos. _ Usar los datos medidos para desarrollar dispositivos demostradores complejos. En la primera parte de esta tesis se han estudiado varias técnicas de fabricación. La estabilidad de estos materiales impide el ataque y dificulta la producción de estructuras suspendidas. Los primeros capítulos de esta disertación se dedican al desarrollo de unos procesos de transferencia de patrones por ataque seco y a la optimización del ataque húmedo sacrificial de varios substratos propuestos. Los resultados de los procedimientos de ataque se presentan y se describe la optimización de las técnicas para la fabricación de estructuras suspendidas de NCD y materiales III-N. En un capítulo posterior se estudia el crecimiento de AlN por pulverización catódica. Como se ha calculado en esta disertación para obtener una actuación eficiente de MEMS, las capas de AlN han de ser finas, típicamente d < 200 nm, lo que supone serias dificultades para la obtención de capas orientadas con respuesta piezoeléctrica. Las condiciones de depósito se han mapeado para identificar las fronteras que proporcionan el crecimiento de material orientado desde los primeros pasos del proceso. Además, durante la optimización de los procesos de ataque se estudió un procedimiento para fabricar películas de GaN nanoporoso. Estas capas porosas pueden servir como capas sacrificiales para la fabricación de estructuras suspendidas de GaN con baja tensión residual o como capas para mejorar la funcionalización superficial de sensores químicos o biológicos. El proceso de inducción de poros se discutirá y también se presentarán experimentos de ataque y funcionalización. En segundo lugar, se han determinado las propiedades mecánicas del NCD y de los materiales III-N. Se han fabricado varias estructuras suspendidas para la medición del módulo de Young y de la tensión residual. Además, las estructuras de NCD se midieron en resonancia para calcular el rendimiento de los dispositivos en términos de frecuencia y factor de calidad. Se identificaron los factores intrínsecos y extrínsecos que limitan ambas figuras de mérito y se han desarrollado modelos para considerar estas imperfecciones en las etapas de diseño de los dispositivos. Por otra parte, los materiales III-N normalmente presentan grandes gradientes de deformación residual que causan la deformación de las estructuras al ser liberadas. Se han medido y modelado estos efectos para los tres materiales binarios del sistema para proporcionar puntos de interpolación que permitan predecir las características de las aleaciones del sistema III-N. Por último, los datos recabados se han usado para desarrollar modelos analíticos y numéricos para el diseño de varios dispositivos. Se han estudiado las propiedades de transducción y se proporcionan topologías optimizadas. En el último capítulo de esta disertación se presentan diseños optimizados de los siguientes dispositivos: _ Traviesas y voladizos de AlN=NCD con actuación piezoeléctrica aplicados a nanoconmutadores de RF para señales de alta potencia. _ Membranas circulares de AlN=NCD con actuación piezoeléctrica aplicadas a lentes sintonizables. _ Filtros ópticos Fabry-Pérot basados en cavidades aéreas y membranas de GaN actuadas electrostáticamente. En resumen, se han desarrollado unos nuevos procedimientos optimizados para la fabricación de estructuras de NCD y materiales III-N. Estas técnicas se han usado para producir estructuras que llevaron a la determinación de las principales propiedades mecánicas y de los parámetros de los dispositivos necesarios para el diseño de MEMS. Finalmente, los datos obtenidos se han usado para el diseño optimizado de varios dispositivos demostradores. ABSTRACT Micro Electro Mechanical Systems (MEMS) have proven to be a successful family of devices that can be used as a platform for the development of devices with applications in optics, communications, signal processing and sensorics. Standard MEMS devices are usually fabricated using silicon based materials. However, the performance of these MEMS can be improved if other material systems are used. For instance, nanocrystalline diamond (NCD) offers excellent mechanical properties, optical transparency and ease of surface functionalization. On the other hand, the (In; Ga; Al)N material system, the III-N materials, can be used to produce single crystal structures with high mechanical and chemical sensitivity. Also, AlN can be deposited by reactive sputtering on various substrates, including NCD, to form oriented polycrystalline layers with high piezoelectric response. In addition, both NCD and III-N materials exhibit high thermal and chemical stability, which makes these material the perfect choice for the development of devices for high temperatures, harsh environments and even biocompatible applications. In this thesis these materials have been used for the design and measurement of technological demonstrators. Three main objectives have been pursued: _ Development of suitable fabrication processes. _ Measurement of the material mechanical properties and device performance limiting factors. _ Use the gathered data to design complex demonstrator devices. In a first part of the thesis several fabrication processes have been addressed. The stability of these materials hinders the etching of the layers and hampers the production of free standing structures. The first chapters of this dissertation are devoted to the development of a dry patterning etching process and to sacrificial etching optimization of several proposed substrates. The results of the etching processes are presented and the optimization of the technique for the manufacturing of NCD and III-N free standing structures is described. In a later chapter, sputtering growth of thin AlN layers is studied. As calculated in this dissertation, for efficient MEMS piezoelectric actuation the AlN layers have to be very thin, typically d < 200 nm, which poses serious difficulties to the production of c-axis oriented material with piezoelectric response. The deposition conditions have been mapped in order to identify the boundaries that give rise to the growth of c-axis oriented material from the first deposition stages. Additionally, during the etching optimization a procedure for fabricating nanoporous GaN layers was also studied. Such porous layers can serve as a sacrificial layer for the release of low stressed GaN devices or as a functionalization enhancement layer for chemical and biological sensors. The pore induction process will be discussed and etching and functionalization trials are presented. Secondly, the mechanical properties of NCD and III-N materials have been determined. Several free standing structures were fabricated for the measurement of the material Young’s modulus and residual stress. In addition, NCD structures were measured under resonance in order to calculate the device performance in terms of frequency and quality factor. Intrinsic and extrinsic limiting factors for both figures were identified and models have been developed in order to take into account these imperfections in the device design stages. On the other hand, III-N materials usually present large strain gradients that lead to device deformation after release. These effects have been measured and modeled for the three binary materials of the system in order to provide the interpolation points for predicting the behavior of the III-N alloys. Finally, the gathered data has been used for developing analytic and numeric models for the design of various devices. The transduction properties are studied and optimized topologies are provided. Optimized design of the following devices is presented at the last chapter of this dissertation: _ AlN=NCD piezoelectrically actuated beams applied to RF nanoswitches for large power signals. _ AlN=NCD piezoelectrically actuated circular membranes applied to tunable lenses. _ GaN based air gap tunable optical Fabry-Pérot filters with electrostatic actuation. On the whole, new optimized fabrication processes has been developed for the fabrication of NCD and III-N MEMS structures. These processing techniques was used to produce structures that led to the determination of the main mechanical properties and device parameters needed for MEMS design. Lastly, the gathered data was used for the design of various optimized demonstrator devices.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El trabajo contenido en esta tesis doctoral está encuadrado en el desarrollo de antenas reconfigurables electrónicamente capaces de proporcionar prestaciones competitivas a las aplicaciones cada vez más comunes que operan a frecuencias superiores a 60 GHz. En concreto, esta tesis se centra en el estudio, diseño, e implementación de las antenas reflectarray, a las que se introduce la tecnología de cristal líquido como elemento característico con el que se consigue reconfigurabilidad de haz de forma electrónica. Desde un punto de vista muy general, se puede describir un cristal líquido como un material cuya permitividad eléctrica es variable y controlada por una excitación externa, que generalmente suele corresponderse con un campo eléctrico quasi-estático (AC). Las antenas reflectarray de cristal líquido se han escogido como objeto de estudio por varias razones. La primera de ellas tiene que ver con las ventajas que los reflectarrays, y en especial aquellos realizados en configuración planar, proporcionan con respecto a otras antenas de alta ganancia como los reflectores o los “phased-arrays”. En los reflectarrays, la alimentación a través de una fuente primaria común (característica de reflectores) y el elevado número de grados de libertad de las celdas que los componen (característica de arrays) hacen que estas antenas puedan proporcionar prestaciones eléctricas iguales o mejores que las anteriores, a un coste más reducido y con estructuras de antena más compactas. La segunda razón radica en la flexibilidad que ofrece el cristal líquido a ser confinado y polarizado en recintos de geometría variada, como consecuencia de su fluidez (propiedad de los líquidos). Por ello, la tecnología de cristal líquido permite que el propio elemento reconfigurable en las celdas de reflectarray se adapte a la configuración planar de manera que en sí mismo, el cristal líquido sea una o varias de las capas características de esta configuración. Esto simplifica de forma drástica la estructura y la fabricación de este tipo de antenas, incluso si se comparan con reflectarrays reconfigurables basados en otras tecnologías como diodos, MEMS, etc. Por tanto, su coste y desarrollo es muy reducido, lo que hace que se puedan fabricar reflectarrays reconfigurables eléctricamente grandes, a bajo coste, y en producción elevada. Un ejemplo claro de una estructura similar, y que ha tenido éxito comercial, son las pantallas de cristal líquido. La tercera razón reside en el hecho de que el cristal líquido es, hasta la fecha, de las pocas tecnologías capaces de ofrecer reconfigurabilidad del haz a frecuencias superiores a 60 GHz. De hecho, el cristal líquido permite reconfigurabilidad en un amplio margen de frecuencias, que va desde DC a frecuencias del espectro visible, incluyendo las microondas y los THz. Otras tecnologías, como los materiales ferroeléctricos, el grafeno o la tecnología CMOS “on chip” permiten también conmutar el haz en estas frecuencias. Sin embargo, la tecnología CMOS tiene un elevado coste y actualmente está limitada a frecuencias inferiores a 150 GHz, y aunque los materiales ferroeléctricos o el grafeno puedan conmutar a frecuencias más altas y en un rango más amplio, tienen serias dificultades que los hacen aún inmaduros. En el caso de los materiales ferroeléctricos, los elevados voltajes para conmutar el material los hacen poco atractivos, mientras que en el caso del grafeno, su modelado aún está en discusión, y todavía no se han arrojado resultados experimentales que validen su idoneidad. Estas tres razones hacen que los reflectarrays basados en cristal líquido sean atractivos para multitud de aplicaciones de haz reconfigurable a frecuencias superiores a 60 GHz. Aplicaciones como radar de escaneo de imágenes de alta resolución, espectroscopia molecular, radiómetros para observación atmosférica, o comunicaciones inalámbricas de alta frecuencia (WiGig) son algunas de ellas. La tesis está estructurada en tres partes. En la primera de ellas se describen las características más comunes de los cristales líquidos, centrándonos en detalle en aquellas propiedades ofrecidas por este material en fase nemática. En concreto, se estudiará la anisotropía dieléctrica (Ae) de los cristales líquidos uniaxiales, que son los que se emplean en esta tesis, definida como la diferencia entre la permitividad paralela (£//) y la perpendicular (e±): Ae = e,, - e±. También se estudiará la variación de este parámetro (Ae) con la frecuencia, y el modelado electromagnético macroscópico más general que, extraído a partir de aquella, permite describir el cristal líquido para cada tensión de polarización en celdas de geometría planar. Este modelo es de suma importancia para garantizar precisión en el desfasaje proporcionado por las diferentes celdas reconfigurables para reflectarrays que se describirán en la siguiente parte de la tesis. La segunda parte de la tesis se centra en el diseño de celdas reflectarray resonantes basadas en cristal líquido. La razón por la que se escogen estos tipos de celdas reside en el hecho de que son las únicas capaces de proporcionar rangos de fase elevados ante la reducida anisotropía dieléctrica que ofrecen los cristales líquidos. El objetivo de esta parte trata, por tanto, de obtener estructuras de celdas reflectarray que sean capaces de proporcionar buenas prestaciones eléctricas a nivel de antena, mejorando sustancialmente las prestaciones de las celdas reportadas en el estado del arte, así como de desarrollar una herramienta de diseño general para aquellas. Para ello, se estudian las prestaciones eléctricas de diferentes tipos de elementos resonantes de cristal líquido que van, desde el más sencillo, que ha limitado el estado de la técnica hasta el desarrollo de esta tesis y que está formado por un sólo resonador, a elementos que constan de varios resonadores (multi-resonantes) y que pueden ser monocapa o multicapa. En un primer paso, el procedimiento de diseño de estas estructuras hace uso de un modelo convencional de cristal líquido que ha venido siendo usado en el estado del arte para este tipo de celdas, y que considera el cristal líquido como un material homogéneo e isótropo cuya permitividad varía entre (e/7) y (e±). Sin embargo, en esta parte de la tesis se demuestra que dicho modelado no es suficiente para describir de forma genérica el comportamiento del cristal líquido en las celdas tipo reflectarray. En la tesis se proponen procedimientos más exactos para el análisis y diseño basados en un modelo más general que define el cristal líquido como un material anisótropo e inhomogeneo en tres dimensiones, y se ha implementado una técnica que permite optimizar celdas multi-resonantes de forma eficiente para conseguir elevadas prestaciones en cuanto a ancho de banda, rango de fase, pérdidas, o sensibilidad al ángulo de incidencia. Los errores cometidos en el uso del modelado convencional a nivel de celda (amplitud y fase) se han analizado para varias geometrías, usando medidas de varios prototipos de antena que usan un cristal líquido real a frecuencias superiores a 100 GHz. Las medidas se han realizado en entorno periódico mediante un banco cuasi-óptico, que ha sido diseñado especialmente para este fin. Uno de estos prototipos se ha optimizado a 100 GHz para conseguir un ancho de banda relativamente elevado (10%), pérdidas reducidas, un rango de fase mayor de 360º, baja sensibilidad al ángulo de incidencia, y baja influencia de la inhomogeneidad transversal del cristal líquido en la celda. Estas prestaciones a nivel de celda superan de forma clara aquellas conseguidas por otros elementos que se han reportado en la literatura, de manera que dicho prototipo se ha usado en la última parte de la tesis para realizar diversas antenas de barrido. Finalmente, en esta parte se presenta una estrategia de caracterización de la anisotropía macroscópica a partir de medidas de los elementos de reflectarray diseñados en banco cuasi-óptico, obteniendo resultados tanto en las frecuencias de interés en RF como en AC, y comparándolas con aquellas obtenidas mediante otros métodos. La tercera parte de la tesis consiste en el estudio, diseño, fabricación y medida de antenas reconfigurables basadas en cristal líquido en configuraciones complejas. En reflectarrays pasivos, el procedimiento de diseño de la antena se limita únicamente al ajuste en cada celda de la antena de las dimensiones de las metalizaciones que se emplean para el control de fase, mediante procesos de optimización bien conocidos. Sin embargo, en el caso de reflectarrays reconfigurables basados en cristal líquido, resulta necesario un paso adicional, que consiste en calcular de forma adecuada las tensiones de control en cada celda del reflectarray para configurar la fase requerida en cada una de ellas, así como diseñar la estructura y los circuitos de control que permitan direccionar a cada elemento su tensión correspondiente. La síntesis de tensiones es por tanto igual o más importante que el diseño de la geometría de las celdas, puesto que éstas son las que están directamente relacionadas con la fase. En el estado del arte, existen varias estrategias de síntesis de tensiones que se basan en la caracterización experimental de la curva de fase respecto al voltaje. Sin embargo, esta caracterización sólo puede hacerse a un solo ángulo de incidencia y para unas determinadas dimensiones de celda, lo que produce que las tensiones sintetizadas sean diferentes de las adecuadas, y en definitiva que se alcancen errores de fase mayores de 70º. De esta forma, hasta la fecha, las prestaciones a nivel de antena que se han conseguido son reducidas en cuanto a ancho de banda, rango de escaneo o nivel de lóbulos secundarios. En esta última parte de la tesis, se introduce una nueva estrategia de síntesis de tensiones que es capaz de predecir mediante simulaciones, y con alta precisión, las tensiones que deben introducirse en cada celda teniendo en cuenta su ángulo de incidencia, sus dimensiones, la frecuencia, así como la señal de polarización definida por su frecuencia y forma de onda AC. Esta estrategia se basa en modelar cada uno de los estados de permitividad del cristal líquido como un sustrato anisótropo con inhomogeneidad longitudinal (1D), o en ciertos casos, como un tensor equivalente homogéneo. La precisión de ambos modelos electromagnéticos también se discute. Con el objetivo de obtener una herramienta eficiente de cálculo de tensiones, también se ha escrito e implementado una herramienta de análisis basada en el Método de los Momentos en el Dominio Espectral (SD-MoM) para sustratos estratificados anisótropos, que se usa en cada iteración del procedimiento de síntesis para analizar cada una de las celdas de la antena. La síntesis de tensiones se ha diseñado además para reducir al máximo el efecto del rizado de amplitud en el diagrama de radiación, que es característico en los reflectarrays que están formados por celdas con pérdidas elevadas, lo que en sí, supone un avance adicional para la obtención de mejores prestaciones de antena. Para el cálculo de los diagramas de radiación empleados en el procedimiento de síntesis, se asume un análisis elemento a elemento considerando periodicidad local, y se propone el uso de un método capaz de modelar el campo incidente de forma que se elimine la limitación de la periodicidad local en la excitación. Una vez definida la estrategia adecuada de cálculo de las tensiones a aplicar al cristal líquido en cada celda, la estructura de direccionamiento de las mismas en la antena, y diseñados los circuitos de control, se diseñan, fabrican y miden dos prototipos diferentes de antena de barrido electrónico a 100 GHz usando las celdas anteriormente presentadas. El primero de estos prototipos es un reflectarray en configuración “single offset” con capacidad de escaneo en un plano (elevación o azimut). Aunque previamente se realizan diseños de antenas de barrido en 2D a varias frecuencias en el rango de milimétricas y sub-milimétricas, y se proponen ciertas estrategias de direccionamiento que permiten conseguir este objetivo, se desarrolla el prototipo con direccionamiento en una dimensión con el fin de reducir el número de controles y posibles errores de fabricación, y así también validar la herramienta de diseño. Para un tamaño medio de apertura (con un numero de filas y columnas entre 30 y 50 elementos, lo que significa un reflectarray con un número de elementos superior a 900), la configuración “single offset” proporciona rangos de escaneo elevados, y ganancias que pueden oscilar entre los 20 y 30 dBi. En concreto, el prototipo medido proporciona un haz de barrido en un rango angular de 55º, en el que el nivel de lóbulos secundarios (SLL) permanece mejor de -13 dB en un ancho de banda de un 8%. La ganancia máxima es de 19.4 dBi. Estas prestaciones superan de forma clara aquellas conseguidas por otros autores. El segundo prototipo se corresponde con una antena de doble reflector que usa el reflectarray de cristal líquido como sub-reflector para escanear el haz en un plano (elevación o azimut). El objetivo básico de esta geometría es obtener mayores ganancias que en el reflectarray “single offset” con una estructura más compacta, aunque a expensas de reducir el rango de barrido. En concreto, se obtiene una ganancia máxima de 35 dBi, y un rango de barrido de 12º. Los procedimientos de síntesis de tensiones y de diseño de las estructuras de las celdas forman, en su conjunto, una herramienta completa de diseño precisa y eficiente de antenas reflectarray reconfigurables basados en cristales líquidos. Dicha herramienta se ha validado mediante el diseño, la fabricación y la medida de los prototipos anteriormente citados a 100 GHz, que consiguen algo nunca alcanzado anteriormente en la investigación de este tipo de antenas: unas prestaciones competitivas y una predicción excelente de los resultados. El procedimiento es general, y por tanto se puede usar a cualquier frecuencia en la que el cristal líquido ofrezca anisotropía dieléctrica, incluidos los THz. Los prototipos desarrollados en esta tesis doctoral suponen también unas de las primeras antenas de barrido real a frecuencias superiores a 100 GHz. En concreto, la antena de doble reflector para escaneo de haz es la primera antena reconfigurable electrónicamente a frecuencias superiores a 60 GHz que superan los 25 dBi de ganancia, siendo a su vez la primera antena de doble reflector que contiene un reflectarray reconfigurable como sub-reflector. Finalmente, se proponen ciertas mejoras que aún deben se deben realizar para hacer que estas antenas puedan ser un producto completamente desarrollado y competitivo en el mercado. ABSTRACT The work presented in this thesis is focused on the development of electronically reconfigurable antennas that are able to provide competitive electrical performance to the increasingly common applications operating at frequencies above 60 GHz. Specifically, this thesis presents the study, design, and implementation of reflectarray antennas, which incorporate liquid crystal (LC) materials to scan or reconfigure the beam electronically. From a general point of view, a liquid crystal can be defined as a material whose dielectric permittivity is variable and can be controlled with an external excitation, which usually corresponds with a quasi-static electric field (AC). By changing the dielectric permittivity at each cell that makes up the reflectarray, the phase shift on the aperture is controlled, so that a prescribed radiation pattern can be configured. Liquid Crystal-based reflectarrays have been chosen for several reasons. The first has to do with the advantages provided by the reflectarray antenna with respect to other high gain antennas, such as reflectors or phased arrays. The RF feeding in reflectarrays is achieved by using a common primary source (as in reflectors). This arrangement and the large number of degrees of freedom provided by the cells that make up the reflectarray (as in arrays), allow these antennas to provide a similar or even better electrical performance than other low profile antennas (reflectors and arrays), but assuming a more reduced cost and compactness. The second reason is the flexibility of the liquid crystal to be confined in an arbitrary geometry due to its fluidity (property of liquids). Therefore, the liquid crystal is able to adapt to a planar geometry so that it is one or more of the typical layers of this configuration. This simplifies drastically both the structure and manufacture of this type of antenna, even when compared with reconfigurable reflectarrays based on other technologies, such as diodes MEMS, etc. Therefore, the cost of developing this type of antenna is very small, which means that electrically large reconfigurable reflectarrays could be manufactured assuming low cost and greater productions. A paradigmatic example of a similar structure is the liquid crystal panel, which has already been commercialized successfully. The third reason lies in the fact that, at present, the liquid crystal is one of the few technologies capable of providing switching capabilities at frequencies above 60 GHz. In fact, the liquid crystal allows its permittivity to be switched in a wide range of frequencies, which are from DC to the visible spectrum, including microwaves and THz. Other technologies, such as ferroelectric materials, graphene or CMOS "on chip" technology also allow the beam to be switched at these frequencies. However, CMOS technology is expensive and is currently limited to frequencies below 150 GHz, and although ferroelectric materials or graphene can switch at higher frequencies and in a wider range, they have serious difficulties that make them immature. Ferroelectric materials involve the use of very high voltages to switch the material, making them unattractive, whereas the electromagnetic modelling of the graphene is still under discussion, so that the experimental results of devices based on this latter technology have not been reported yet. These three reasons make LC-based reflectarrays attractive for many applications that involve the use of electronically reconfigurable beams at frequencies beyond 60 GHz. Applications such as high resolution imaging radars, molecular spectroscopy, radiometers for atmospheric observation, or high frequency wireless communications (WiGig) are just some of them. This thesis is divided into three parts. In the first part, the most common properties of the liquid crystal materials are described, especially those exhibited in the nematic phase. The study is focused on the dielectric anisotropy (Ac) of uniaxial liquid crystals, which is defined as the difference between the parallel (e/7) and perpendicular (e±) permittivities: Ae = e,, - e±. This parameter allows the permittivity of a LC confined in an arbitrary volume at a certain biasing voltage to be described by solving a variational problem that involves both the electrostatic and elastic energies. Thus, the frequency dependence of (Ae) is also described and characterised. Note that an appropriate LC modelling is quite important to ensure enough accuracy in the phase shift provided by each cell that makes up the reflectarray, and therefore to achieve a good electrical performance at the antenna level. The second part of the thesis is focused on the design of resonant reflectarray cells based on liquid crystal. The reason why resonant cells have been chosen lies in the fact that they are able to provide enough phase range using the values of the dielectric anisotropy of the liquid crystals, which are typically small. Thus, the aim of this part is to investigate several reflectarray cell architectures capable of providing good electrical performance at the antenna level, which significantly improve the electrical performance of the cells reported in the literature. Similarly, another of the objectives is to develop a general tool to design these cells. To fulfill these objectives, the electrical yields of different types of resonant reflectarray elements are investigated, beginning from the simplest, which is made up of a single resonator and limits the state of the art. To overcome the electrical limitations of the single resonant cell, several elements consisting of multiple resonators are considered, which can be single-layer or multilayer. In a first step, the design procedure of these structures makes use of a conventional electromagnetic model which has been used in the literature, which considers that the liquid crystal behaves as homogeneous and isotropic materials whose permittivity varies between (e/7) y (e±). However, in this part of the thesis it is shown that the conventional modelling is not enough to describe the physical behaviour of the liquid crystal in reflectarray cells accurately. Therefore, a more accurate analysis and design procedure based on a more general model is proposed and developed, which defines the liquid crystal as an anisotropic three-dimensional inhomogeneous material. The design procedure is able to optimize multi-resonant cells efficiently to achieve good electrical performance in terms of bandwidth, phase range, losses, or sensitivity to the angle of incidence. The errors made when the conventional modelling (amplitude and phase) is considered have been also analysed for various cell geometries, by using measured results from several antenna prototypes made up of real liquid crystals at frequencies above 100 GHz. The measurements have been performed in a periodic environment using a quasi-optical bench, which has been designed especially for this purpose. One of these prototypes has been optimized to achieve a relatively large bandwidth (10%) at 100 GHz, low losses, a phase range of more than 360º, a low sensitivity to angle of incidence, and a low influence of the transversal inhomogeneity of the liquid crystal in the cell. The electrical yields of this prototype at the cell level improve those achieved by other elements reported in the literature, so that this prototype has been used in the last part of the thesis to perform several complete antennas for beam scanning applications. Finally, in this second part of the thesis, a novel strategy to characterise the macroscopic anisotropy using reflectarray cells is presented. The results in both RF and AC frequencies are compared with those obtained by other methods. The third part of the thesis consists on the study, design, manufacture and testing of LCbased reflectarray antennas in complex configurations. Note that the design procedure of a passive reflectarray antenna just consists on finding out the dimensions of the metallisations of each cell (which are used for phase control), using well-known optimization processes. However, in the case of reconfigurable reflectarrays based on liquid crystals, an additional step must be taken into account, which consists of accurately calculating the control voltages to be applied to each cell to configure the required phase-shift distribution on the surface of the antenna. Similarly, the structure to address the voltages at each cell and the control circuitry must be also considered. Therefore, the voltage synthesis is even more important than the design of the cell geometries (dimensions), since the voltages are directly related to the phase-shift. Several voltage synthesis procedures have been proposed in the state of the art, which are based on the experimental characterization of the phase/voltage curve. However, this characterization can be only carried out at a single angle of incidence and at certain cell dimensions, so that the synthesized voltages are different from those needed, thus giving rise to phase errors of more than 70°. Thus, the electrical yields of the LCreflectarrays reported in the literature are limited in terms of bandwidth, scanning range or side lobes level. In this last part of the thesis, a new voltage synthesis procedure has been defined and developed, which allows the required voltage to be calculated at each cell using simulations that take into account the particular dimensions of the cells, their angles of incidence, the frequency, and the AC biasing signal (frequency and waveform). The strategy is based on the modelling of each one of the permittivity states of the liquid crystal as an anisotropic substrate with longitudinal inhomogeneity (1D), or in certain cases, as an equivalent homogeneous tensor. The accuracy of both electromagnetic models is also discussed. The phase errors made by using the proposed voltage synthesis are better than 7º. In order to obtain an efficient tool to analyse and design the reflectarray, an electromagnetic analysis tool based on the Method of Moments in the spectral domain (SD-MoM) has also written and developed for anisotropic stratified media, which is used at each iteration of the voltage synthesis procedure. The voltage synthesis is also designed to minimize the effect of amplitude ripple on the radiation pattern, which is typical of reflectarrays made up of cells exhibiting high losses and represents a further advance in achieving a better antenna performance. To calculate the radiation patterns used in the synthesis procedure, an element-by-element analysis is assumed, which considers the local periodicity approach. Under this consideration, the use of a novel method is proposed, which avoids the limitation that the local periodicity imposes on the excitation. Once the appropriate strategy to calculate the voltages to be applied at each cell is developed, and once it is designed and manufactured both the structure to address the voltages to the antenna and the control circuits, two complete LC-based reflectarray antennas that operate at 100 GHz have been designed, manufactured and tested using the previously presented cells. The first prototype consists of a single offset reflectarray with beam scanning capabilities on one plane (elevation and azimuth). Although several LC-reflectarray antennas that provide 2-D scanning capabilities are also designed, and certain strategies to achieve the 2-D addressing of the voltage are proposed, the manufactured prototype addresses the voltages in one dimension in order to reduce the number of controls and manufacturing errors, and thereby validating the design tool. For an average aperture size (with a number of rows and columns of between 30 and 50 elements, which means a reflectarray with more than 900 cells), the single offset configuration provides an antenna gain of between 20 and 30 dBi and a large scanning range. The prototype tested at 100 GHz exhibits an electronically scanned beam in an angular range of 55º and 8% of bandwidth, in which the side lobe level (SLL) remains better than -13 dB. The maximum gain is 19.4 dBi. The electrical performance of the antenna is clearly an improvement on those achieved by other authors in the state of the art. The second prototype corresponds to a dual reflector antenna with a liquid crystal-based reflectarray used as a sub-reflector for beam scanning in one plane (azimuth or elevation). The main objective is to obtain a higher gain than that provided by the single offset configuration, but using a more compact architecture. In this case, a maximum gain of 35 dBi is achieved, although at the expense of reducing the scanning range to 12°, which is inherent in this type of structure. As a general statement, the voltage synthesis and the design procedure of the cells, jointly make up a complete, accurate and efficient design tool of reconfigurable reflectarray antennas based on liquid crystals. The tool has been validated by testing the previously mentioned prototypes at 100 GHz, which achieve something never reached before for this type of antenna: a competitive electrical performance, and an excellent prediction of the results. The design procedure is general and therefore can be used at any frequency for which the liquid crystal exhibits dielectric anisotropy. The two prototypes designed, manufactured and tested in this thesis are also some of the first antennas that currently operate at frequencies above 100 GHz. In fact, the dual reflector antenna is the first electronically scanned dual reflector antenna at frequencies above 60 GHz (the operation frequency is 100 GHz) with a gain greater than 25 dBi, being in turn the first dual-reflector antenna with a real reconfigurable sub-reflectarray. Finally, some improvements that should be still investigated to make these antennas commercially competitive are proposed.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica:  Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool).  Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral.  Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx.  Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema.  Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En la actualidad, el crecimiento de la población urbana, el incremento de la demanda energética junto al desarrollo tecnológico impulsado en los últimos veinte años han originado un estudio y replanteamiento de los sistemas constructivos empleados. Como consecuencia se han establecido nuevos marcos normativos, marcando nuevos objetivos de confort y de demanda energética. En España, el Código Técnico de la Edificación (aprobado en el Real Decreto 314/2006 de 17 de Marzo) es el marco normativo que establece las exigencias que se deben cumplir al proyectar construir, usar, mantener y conservar los edificios, incluidas sus instalaciones, con el fin de asegurar la calidad, seguridad y salud del usuario, respetando en todo momento su entorno. Para asegurar el cumplimiento de las exigencias del Código Técnico de la Edificación (CTE), se han elaborado diferentes Documentos Básicos (DB). Entre ellos están los documentos básicos DB HR-Protección frente al ruido y el DB HS-Salubridad. En el DB HS 3 Calidad del aire interior, se establecen las condiciones que deben de adoptarse para que los recintos de los edificios se puedan ventilar adecuadamente, eliminando los contaminantes que se produzcan de forma habitual durante un uso normal de los edificios, de forma que se aporte un caudal suficiente de aire exterior y se garantice la extracción y expulsión del aire viciado por los contaminantes. En el apartado 3.1, Condiciones generales de los sistemas de ventilación, se indica que las viviendas deben disponer de un sistema general de ventilación donde el aire debe circular desde los locales secos a los húmedos. Para ello los comedores, los dormitorios y las salas de estar deben de disponer de aberturas de admisión, pudiéndose resolver esta cuestión técnica con diversas soluciones. El DB HR Protección frente al ruido del CTE, establece unos valores del aislamiento acústico a ruido aéreo, entre un recinto protegido y el exterior, en función del uso del edificio y del nivel sonoro continuo equivalente día, Ld de la zona donde se ubique el edificio. El hacer compatibles el cumplimiento de las exigencias de los dos Documentos Básicos anteriormente citados, origina algunas dificultades en los proyectos de edificación actuales. Los proyectistas tienen que recurrir en la mayoría de los casos a nuevos sistemas constructivos o duplicaciones de soluciones existentes, evitando la manipulación de los elementos de regulación de entrada de aire en las viviendas. El objetivo fundamental de la Tesis presentada es el estudio de los efectos que producen la colocación de sistemas de aireación permanente en el aislamiento acústico a ruido aéreo de las ventanas compactas. Se comprueba la influencia de cada uno de los componentes de la ventana compacta: perfiles, unidades de vidrio, sistema de apertura, cajón de persiana, persiana, aireadores, etc. en el aislamiento a ruido aéreo del sistema completo. Los ensayos acústicos se han realizado mediante dos métodos: conforme a la norma UNE-EN ISO 10140-2:2011 Medición en laboratorio del aislamiento acústico al ruido aéreo de los elementos de construcción y mediante intensimetría acústica acorde a la norma UNE-EN ISO 15186-1:2004 Medición del aislamiento acústico en los edificios y de los elementos de construcción utilizando intensidad sonora. Los resultados obtenidos podrán ser de gran utilidad para todos los profesionales que intervienen en el proceso edificatorio: arquitectos, ingenieros, instaladores, promotores, fabricantes de productos, etc., tanto en la obra nueva como en la rehabilitación. En un futuro, podrían incorporarse a los Catálogos y Documentos de Aplicación del CTE, así como a los nuevos programas informáticos de diseño y aislamiento acústico. Con el conocimiento adquirido y su aplicación, se contribuirá a la mejora de la calidad de una edificación más sostenible y eficiente. Se incrementará la productividad y la competitividad de los fabricantes de materiales y sistemas constructivos, aumentando el grado de satisfacción del usuario final con el consiguiente aumento de la calidad de vida de los ciudadanos. También se ampliará el conocimiento técnico de este tipo de sistemas y la compatibilidad entre las distintas exigencias marcadas por la normativa. ABSTRACT At present, the urban population growth, the increase of energy demand and the technological development in the last twenty years have led to a rethinking of the used building systems. As a result, new regulatory frameworks have been established, setting new goals of comfort and energy demand. In Spain, the Building Code, Código Técnico de la Edificación (CTE) (RD 314/2006 of March 17th) is the regulatory framework that establishes the requirements to be met by projecting, building, using, maintaining and preserving buildings, including its facilities in order to ensure the quality, safety and health of the user, always respecting the environment. To ensure compliance with the requirements of the CTE, different technical requirements Documentos básicos (DB) have been developed. Among them, are the DB-HR-Protection against noise and DB-HS-Health. In the DB-HS- part3, Indoor Air Quality, are set the conditions needed to be taken into consideration so that the building enclosures can be adequately ventilated, eliminating pollutants that occur regularly during normal use of the buildings, so that a sufficient airflow of outdoor is supplied and a removal and extraction of stale air pollutants is guaranteed. In section 3.1, General Terms of ventilation systems, is indicated that dwellings must have a general ventilation system where air can circulate from dry to wet enclosures. For this, dining rooms, bedrooms and living rooms should have air intake, being able to resolve this technical issue with various solutions. The DB-HR Protection against noise, provides sound insulation values of airborne sound transmission between a protected room and the outside, depending on the use of the building and the equivalent continuous sound level day, Ld, in the area where the building is located. Satisfying the requirements of the two requirements mentioned above causes some difficulties in current building project. Designers have to rely in most cases, to new construction elements or duplicate existing solutions, avoiding the manipulation of the air intakes elements. The main objective of this Thesis is the study of the effects of permanent intakes systems in the acoustic insulation against airborne noise transmission in compact windows. The influence of each of the components of the compact window is determined: frames, glass units, opening systems, shutter box, trickle vents, etc. in the airborne sound insulation of the entire system. The acoustic survey were performed using two methods: UNE-EN ISO 10140-2: 2011 Laboratory measurements of sound insulation of building elements and UNE-EN ISO 15186-1:2004 Measurement of sound insulation in buildings and of building elements using sound intensity. The obtained results may be useful for all professionals involved in the building process: architects, engineers, installers, developers, manufacturers, etc. in the new construction developments and in rehabilitation. In the future, it could be added to building catalogues and applications of the Spanish Building Code, as well as to the new design and sound insulation software. With the acquired knowledge and its application, there will be a contribution to improve the quality of a more sustainable and efficient construction. Productivity and competitiveness of manufacturers of building materials and components will improve, increasing the degree of satisfaction of the final user with a consequent increase in the quality of life of citizens. Technical knowledge of such systems and compatibility between the various requirements set by the legislation will also expand.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La medición del volumen de hormigón puesto en obra con la mayor precisión posible es de la mayor importancia cuando este se coloca sin utilizar encofrados que restrinjan su movimiento, como puede ocurrir durante la ejecución de pilotes in situ por el método de barrena continua con inyección de hormigón a través de la misma (Pilotes CFA) o en la ejecución del sostenimiento de túneles mediante el método de proyección de hormigón. En ambos casos se utilizan bombas alternativas para transportar el hormigón, y en ambos casos un control de calidad adecuado requeriría efectuar una correlación entre la posición del útil de colocación de hormigón (extremo inyector de la barrena para los pilotes CFA, tobera o boquilla en las máquinas de proyectar hormigón) y el volumen de hormigón colocado. La medición continua volumen -normalmente obtenido integrando el caudal- no ha sido sin embargo resuelta de forma satisfactoria. La práctica habitual de contar emboladas, multiplicarlas por el volumen de cada una y por la eficiencia de la bomba, es propensa a error, y propuestas innovadoras como la de R. D. Browne y P. B. Bamforth para la determinación en línea de la eficiencia no se han implementado en la práctica. El trabajo que se presenta en esta Tesis Doctoral pretende aportar nueva luz sobre el problema de la estimación en línea del volumen bombeado, cuando se utilizan bombas alternativas para la puesta en obra del mismo, con independencia del tipo de mezcla que se emplee. El estudio intenta abarcar todo el proceso de bombeo desde que la mezcla suministrada entra en la tolva de la máquina hasta que la misma llega al final del circuito de transporte. El trabajo se inicia con una exposición del problema y un estudio crítico del estado del arte, seguido por la presentación de la instalación experimental con la que se efectuó un importante número de ensayos de bombeo, en los que se obtuvieron registros continuos y discontinuos de las variables que intervienen en el proceso y de los resultados del mismo (volumen bombeado). Se realiza a continuación un primer análisis de los datos obtenidos, que incluye el del comportamiento de las mezclas en el bombeo y su evolución en el tiempo, la forma en que los parámetros de mezcla y operación afectan a la forma de los pulsos de presión y una comparación entre los volúmenes medidos y los estimados por el método utilizado en la actualidad y por el propuesto por Browne y Bamforth, que pone de manifiesto los errores a que estos pueden conducir. Posteriormente, se realiza un conjunto de análisis que permite establecer un modelo del proceso de bombeo tanto en régimen estacionario como transitorio, que a su vez permite calcular numéricamente la evolución en el tiempo de la presión en cualquier punto de una tubería de transporte de este material para una instalación, mezcla y condiciones de operación dadas. Este modelo depende de un conjunto de 9 parámetros, que en su mayoría, o bien son fijos, o son medibles, o son calculables en forma continua, siendo el resto, entre ellos la eficiencia volumétrica de la bomba, medibles de forma discontinua. En la práctica, si se instala sobre una bomba la instrumentación adecuada, solo uno de los parámetros del modelo puede considerarse como incógnita: la eficiencia volumétrica de la bomba. Sobre esta base, por último, se propone un método para la estimación en línea de la eficiencia volumétrica, basado en un ajuste paramétrico utilizando el modelo del proceso, que permite estimar el volumen bombeado con una precisión del orden del 1%. Como resultado adicional, pero con entidad propia, se propone un método para el control en línea de la bombeabilidad del hormigón, basado en datos obtenidos monitorizando el proceso de bombeo.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Las nuevas tecnologías de medición han supuesto una revolución para la investigación del Patrimonio, permitiendo estudios de la arquitectura histórica hasta ahora inabordables que llegan a cuestionar tesis tradicionalmente admitidas. La presente comunicación se inscribe en este contexto. La medición realizada con estación total, nos ha permitido llevar a cabo un profundo análisis constructivo de las bóvedas sexpartitas de la catedral de Sigüenza y del Monasterio de Santa María de Huerta. Lambert, entre otros investigadores, nos habla de numerosas analogías entre ambas obras e incluso llega a afirmar la presencia de un mismo maestro. Sin embargo, el análisis llevado a cabo nos ha permitido determinar ciertas características de su construcción que ponen en duda esta teoría.