306 resultados para Procesado de señales


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con el objetivo de consolidar los conocimientos en Sistemas de Telecomunicación, se pretende diseñar una red para la distribución de servicios avanzados, como televisión, internet de banda ancha y telefonía, mediante el uso de la tecnología FTTH. La red será totalmente pasiva, óptica, y de gran ancho de banda, Tipo PON (Passive Optical Network), de manera que el haz de luz del emisor se distribuye hacia múltiples fibras siguiendo diferentes direcciones, o las confina en el sentido opuesto usando técnicas WDM y TDMA. En primer lugar, es preciso realizar un estudio teórico sobre las características de la fibra óptica, junto con las propiedades de los elementos activos y pasivos que interactúan con ella, para poder comprender la tecnología en la que se basa y así ofrecer una solución final acorde a las necesidades que se presenten. Tras un vistazo general a la tecnología de fibra óptica, se procede a estudiar las características y topologías de las redes de acceso basadas en la misma, junto con los requisitos de cara al diseño de la redes y a la gestión de proyectos. Se definirán los objetivos de la red, ya que la complejidad de la red depende de factores como la extensión y cobertura de la misma, o el ancho de banda. Posteriormente se irá diseñando la red en una arquitectura descendente hasta destinar una única fibra óptica para cada hogar dentro de la cobertura de la red. Se detallarán todas las especificaciones necesarias para definir la red, (potencias, modulaciones y tipos de fibra) así como el instrumental y demás medios necesarios para operar con la misma. Aunque el diseño de una red FTTH contempla muchos más aspectos de los estudiados en el presente proyecto, se tomó como objetivo el diseño y planificación correspondientes a una sección de un área de escasa población donde la instalación se tomó como viable, obviando así pequeños detalles y centrándose en el despliegue de fibra óptica. Se pretende así ofrecer una solución de infraestructura doméstica de telecomunicaciones, apta para las futuras necesidades que implican la creciente demanda de servicios como internet de banda ancha o almacenamiento y procesado de aplicaciones en nube. La fibra óptica tiene mucho que ofrecer a las telecomunicaciones, y cada vez es más frecuente encontrar redes de fibra óptica como parte de un servicio de telecomunicaciones, tanto como para particulares como empresas. ABSTRACT. Aiming to strengthen knowledge in Telecommunications Systems, is intended to design a network for advanced services broadcasting, including digital TV, broadband internet and telephony, by using FTTH technology. This network will be entirely passive optic, and high bandwidth, PON type (Passive Optical Network) so that the transmitter beam is broadcasting to multiple optical fibers, branching out in different ways or joining them in the opposite. First, it is necessary to perform a theoretical study on the characteristics of the optical fiber, along with the properties of the active and passive elements that interact with it, to understand the technology that is based and offer a final solution according needs that arise. After an overview of the optical fiber technology, we proceed to study the characteristics and topologies access networks based on that, together with the requirements to face the network design and project management. System objectives will be determined, since the complexity of the network depends on factors such as the size and scope of it, or bandwidth. Later, the network will be designing in downstream architecture to deliver a single optical fiber to each household within the network area. All necessary specifications to define the network (power, modulation and fiber types) will be determined, as instruments and other means to operate it. Although FTTH network design includes many more aspects of those studied in this project, it was taken as objective the network design and planning corresponding to a section of a sparsely populated area where the facility was taken as feasible thus obviating small details and focus on the deployment of optical fiber. This is intended to provide a solution of household telecommunications infrastructure suitable for future needs involving the growing demand for services such as broadband internet or processing storage and cloud applications. The optical fiber has much to offer to telecommunications, and it is increasingly common to find fiber optic networks as part of a telecommunications service, both to individuals and businesses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis aborda el estudio de los distintos regímenes de neutro de las instalaciones de baja tensión, comúnmente llamados sistemas de puesta a tierra, desde un doble punto de vista, con el objetivo final de establecer un estándar justificado para un posterior desarrollo normativo, y de diseño que facilite la operación y funcionamiento de la instalación eléctrica y de comunicaciones en los sistemas hospitalarios. En una primera parte de la tesis se detallará que aunque hay muchos estudios teórico-prácticos sobre la elección del régimen de neutro en base a criterios operativos y puramente eléctricos, criterios como seguridad frente a accidentes eléctricos, o en términos de disponibilidad, mantenimiento o fiabilidad, esas recomendaciones no se han trasladado de manera directa a la legislación española salvo en el caso de Salas de Intervención donde se obliga a un sistema IT. Por eso se justificará como una primera técnica correctora de un inadecuado funcionamiento electromagnético en Hospitales el establecer una propuesta de marco normativo donde se fijen los tipos de puesta a tierra en función del uso y tipología del edificio desde un punto de vista eléctrico Por otra parte, la influencia de los distintos regímenes de neutro en la transmisión de señales (compatibilidad magnética) no ha sido estudiada en toda su profundidad, no existiendo ni marco normativo obligado ni estudios en profundidad sobre estas afecciones. Por tanto y en una segunda parte de la tesis se propondrá como medida correctora para mejorar el funcionamiento electromagnético de un hospital qué el régimen de neutro TN-S es más respetuoso con el funcionamiento de los equipos de electromedicina que alberga en su interior, estableciendo así mismo una propuesta de norma que regule este diseño. En definitiva se justifica que es posible generar por diseño inicial de la red eléctrica, mediante un régimen de neutro TN-S, un contexto electromagnético óptimo para el funcionamiento del sistema hospitalario que no se logra con otras opciones contempladas en la normativa española. ABSTRACT This thesis deals with the study of various ground grid systems of low voltage installations, commonly called grounding systems, from two points of view, with the ultimate goal of establishing a standard justified from a policy perspective and design to facilitate the operation and functioning of the electrical system and hospital communications systems. In the first part of the thesis will be detailed that although there are many theoretical and practical studies on the choice of the neutral system based on operational criteria and purely electric, criteria such as safety against electrical accidents, or in terms of availability, maintenance and reliability, these recommendations have not been transferred directly to the Spanish legislation except in Intervention Rooms where a IT system is required. So be justified as a first corrective technique improper operation electromagnetic Hospitals proposal to establish a regulatory framework where ground types depending on the use and type of building are set from an electrical point of view . Moreover, the influence of the different regimes neutral signaling (magnetic compatibility) has not been studied in any depth, there being neither forced nor depth studies on these conditions regulatory framework. Thus in a second part of the thesis will be justified as a corrective measure to improve the electromagnetic performance of a hospital which the neutral TN-S is more respectful of the performance of medical electrical equipment housed in its interior, thus establishing same a proposed rule governing this design. Ultimately it is possible to generate justified by initial design of the grid, using a neutral system TN-S, electromagnetic optimal context for the operation of the hospital system is not achieved with other legal options in Spain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La globalización, en las últimas décadas, ha tenido una amplia repercusión e influencia sobre la evolución de los procesos que intervienen en la gestión y la ordenación urbano-territorial. Esta influencia ha sido especialmente destacable en los procesos de conformación de las Ciudades Globales (CG). No obstante, dentro de los procesos actuales, y de los ya iniciados décadas atrás, se encuentran discordancias tanto con respecto a los modelos de gestión urbanoterritoriales como con relación a los procesos de conformación de las CG. Esto es debido a que cada territorio o CG no ha seguido un proceso homogéneo; sino que, a través del modelo empresarial de la “Planificación Estratégica” (PE) cada proceso ha sido adaptado para poder atender y potenciar las características más singulares de cada territorio, y de esta forma, poder alcanzar las ambiciosas posiciones de liderazgo. Por este motivo, el éxito de la PE se ha basado en simplificar la complejidad de los modelos y agentes que participan en los procesos de conformación de los territorios y ciudades globales. En esta investigación se propone analizar el valor de la PE como proceso de gestión y ordenación urbano-territorial; al igual que se pretende esclarecer tanto los modelos como los elementos de los que se compone. Para, poder así, identificar las relaciones que se producen entre los modelos y elementos principales de los que se compone una PE. Por motivos relacionados con la necesaria acotación de toda investigación, y mediante el apoyo de tanto el tutor de esta investigación como de expertos externos consultados, se ha acordado analizar los aspectos más característicos del proceso estratégico, como son: los territoriales, los económicos y los de gobernanza. Esta investigación se ha llevado a cabo a través del uso del método estudio de casos, mediante un proceso de recogida de información compuesto por dos estudios de campo, Singapur y Dubái, con similitudes tanto en el proceso como en los resultados. También se han realizado consultas a expertos multidisciplinares, cuya información y aportaciones se han articulado y procesado mediante la utilización del sistema de análisis de realidades complejas, presentado en el marco conceptual. Los resultados del estudio de los casos de Singapur y de Dubái muestran como las acciones urbano-territoriales que se han llevado a cabo en ambas ciudades y en sus territorios circundantes son consecuencia del uso de la planificación estratégica en beneficio de un mejor posicionamiento dentro del contexto global. De esta forma, mediante el análisis de las asimetrías y de las relaciones existentes entre el proceso, los casos de estudio y el contexto global, se identifica y se esclarece los términos relacionados con las ciudades globales referentes, consolidadas y emergentes. A su vez, a lo largo del marco conceptual se correlaciona y esclarece los procesos territoriales, económicos y de gobernanza, identificando las responsabilidades entre las instituciones, los organismos, los agentes y los actores (tanto públicos como privados) que inician y gestionan tanto el plan estratégico como los procesos derivados de él. Para finalizar, el análisis cruzado de los resultados demuestra la relación existente entre la planificación estratégica, la ordenación urbano-territorial, la gestión económica y la gobernanza. Pudiéndose identifican las asimetrías producidas durante la implantación de un plan estratégico, de forma que, tras un análisis del sistema de realidades complejas, estas asimetrías puedan ser solventadas. RESUMO Nas últimas décadas, a globalização tem tido um grande impacto sobre a evolução dos processos de gestão e planejamento urbano-territorial. Essa influência foi particularmente notável nos processos de formação das cidades globais (CG). No entanto, comparando os processos atuais e aqueles iniciados há décadas, as discrepâncias são encontradas tanto no que diz respeito aos modelos de uso do solo urbano, como em relação aos processos de formação e gestão das CG. Isso ocorre porque cada território ou CG não tem seguido um processo uniforme; mas, por meio do modelo de negócios de "Planejamento Estratégico" (PE) cada processo foi adaptado para servir e melhorar as características mais singulares de cada território para alcançar posições de liderança global. Portanto, o sucesso do PE é baseado na simplificação da complexidade dos modelos e atores envolvidos nos processos de formação dos territórios e das cidades globais. Esta pesquisa tem como objetivo analisar o valor do PE como um processo de gestão territorial e urbana; como também esclarecer os modelos e elementos do PE estudados. Para, então, poder identificar as relações que ocorrem entre os modelos e os principais elementos integrantes de um PE. Como recorte de pesquisa, após consultas com o tutor da pesquisa e com outros pesquisadores especialistas, decidiu-se analisar os aspectos mais característicos do processo estratégico, sendo eles: os territoriais, os econômicos e os de governabilidade. Esta pesquisa ’e um estudo de casos. Para realizá-lo, foram escolhidos dois estudos de campo (Dubai e Cingapura) e além de consultas com especialistas multidisciplinares, cujas informações e colaborações foram analisadas por um sistema de analise de realidades complexas, explicado na parte conceitual dessa tese. Os resultados do estudo dos casos de Dubai e Cingapura mostra como as ações urbanoterritoriais que foram realizadas em ambas cidades e em seus territórios circundantes são resultado do uso do planejamento estratégico em prol de uma melhor localização no contexto global. Assim, através da análise das assimetrias e da relação entre o processo, os estudos de caso e o contexto global, identifica-se e esclarece os termos relacionados com as cidades globais referentes, consolidadas e emergentes. Também, no arcabouço conceitual correlacionase e esclarecem-se os processos econômicos, territoriais e de governabilidade, identificando as responsabilidades das instituições, agências, agentes e atores (públicos e privados), que iniciam e gerenciam tanto o plano estratégico, como os processos derivados. A análise cruzada dos resultados demonstra a relação entre o planejamento estratégico, o planejamento urbano-territorial, a gestão econômica e a governabilidade. A pesquisa é capaz de identificar as assimetrias produzidas durante a implementação de um plano estratégico, para que depois da análise do sistema de realidades complexas, essas assimetrias possam ser resolvidas. ABSTRACT Globalization, in recent decades, has had a wide impact and influence on the evolution of the processes involved in the urban planning management. This influence has been particularly notable in the formation processes for the Global Cities (GC). However, within the current processes, even in those started decades ago, discrepancies are found between the urbanterritorial models and their relation to the processes of formation for the CG. This is because each territory, or CG, has not followed a uniform process; although, each process has been adapted through the business model of the "Strategic Planning" (SP) to serve and enhance the most unique characteristics of each urban territory, until reaching the ambitious global leadership positions. Therefore, the success of SP is based on simplifying the complexity of the models and actors involved in the processes of formation of the GCs and territories. This research aims to analyze the value of SP as a process for the urban and territorial management; intended to clarify both models and elements of which it is composed. And, for so, identify the relationships that occur between them. For reasons related to the required limits of all research, and through the support of this research by both the tutor and the consulted outside experts, has agreed to analyze the most characteristic aspects of the strategic process, which are: territory, economy and governance. This research was conducted through the use of the case study methodology; by a process of information collection of two field studies, Singapore and Dubai, with similarities in both the process and the results; and through consultation with a variety of multidisciplinary experts. Whose information and input has been articulated and processed by the use of a system prepared for the complex analysis of realities presented in the research’s conceptual framework. Thus, analyzing the asymmetries and relationship between the results of the study cases of Singapore and Dubai, have shown how the urban-territorial actions, which have been carried out in both cities and in their surrounding territories, are the result of the use of the strategic planning process for the benefit of a better position with respect to the global context. Meanwhile, along the conceptual framework correlates and clarifies the territorial, economic and governance processes, identifying responsibilities between the institutions, agencies, agents and actors (public and private) that initiate and manage both strategic planning and processes derived from it. Finally, the cross-analysis of the results shows the relationship between strategic planning, urban and territorial planning, economic management and governance. Being able to identify and eliminate the asymmetries produced during the implementation of a strategic planning for the formation of a Global City.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como apoyo al Subsistema ECM tradicional de los sistemas de Guerra Electrónica, surge el Equipo de Seguimiento en Elevación cuyo fin es la búsqueda de la amenaza en elevación. Ante la necesidad de un mayor número de líneas entre los bloques internos de este Equipo de Seguimiento, se hace necesario el diseño de una Tarjeta de Interfaz y Control. La tarjeta se ocupará de realizar el control de datos y flujo de señales de módulos RF que componen el Equipo, haciendo de interfaz entre las Tarjetas Procesadoras y Digitalizadoras, así como entre la Tarjeta de Proceso y el Bloque de Recepción. Una vez que se haya realizado el análisis de la necesidad de controlar estas señales, estudiado las especificaciones y los requisitos funcionales del Sistema, se procederá a implementar el diseño hardware y desarrollo firmware de la Tarjeta de Interfaz y Control de un Equipo de Seguimiento en Elevación para un Subsistema ECM, que constituye el objetivo de este PFC. ABSTRACT. In order to find a threat on elevation, and as a support on the basic ECM subsystems of E-war systems, the Elevation Tracking Equipment appears. To the need of a bigger number of lines between inside blocks of this Tracking Equipment, the design of an Interface and Control Board is needed. This board will deal with the data control and with the flow of RF modules signals that set up the Equipment, and will also work as an interface between the Processing and Digitalizing Board, as well as between the Process Board and the Reception Block. Once the signal control necessity analysis has been made, and once the specifications and functional System requirements have been studied, the hardware design and the firmware development will be ran as a target of PFC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El poder disponer de la instrumentación y los equipos electrónicos resulta vital en el diseño de circuitos analógicos. Permiten realizar las pruebas necesarias y el estudio para el buen funcionamiento de estos circuitos. Los equipos se pueden diferenciar en instrumentos de excitación, los que proporcionan las señales al circuito, y en instrumentos de medida, los que miden las señales generadas por el circuito. Estos equipos sirven de gran ayuda pero a su vez tienen un precio elevado lo que impide en muchos casos disponer de ellos. Por esta principal desventaja, se hace necesario conseguir un dispositivo de bajo coste que sustituya de alguna manera a los equipos reales. Si el instrumento es de medida, este sistema de bajo coste puede ser implementado mediante un equipo hardware encargado de adquirir los datos y una aplicación ejecutándose en un ordenador donde analizarlos y presentarlos en la pantalla. En el caso de que el instrumento sea de excitación, el único cometido del sistema hardware es el de proporcionar las señales cuya configuración ha enviado el ordenador. En un equipo real, es el propio equipo el que debe realizar todas esas acciones: adquisición, procesamiento y presentación de los datos. Además, la dificultad de realizar modificaciones o ampliaciones de las funcionalidades en un instrumento tradicional con respecto a una aplicación de queda patente. Debido a que un instrumento tradicional es un sistema cerrado y uno cuya configuración o procesamiento de datos es hecho por una aplicación, algunas de las modificaciones serían realizables modificando simplemente el software del programa de control, por lo que el coste de las modificaciones sería menor. En este proyecto se pretende implementar un sistema hardware que tenga las características y realice las funciones del equipamiento real que se pueda encontrar en un laboratorio de electrónica. También el desarrollo de una aplicación encargada del control y el análisis de las señales adquiridas, cuya interfaz gráfica se asemeje a la de los equipos reales para facilitar su uso. ABSTRACT. The instrumentation and electronic equipment are vital for the design of analogue circuits. They enable to perform the necessary testing and study for the proper functioning of these circuits. The devices can be classified into the following categories: excitation instruments, which transmit the signals to the circuit, and measuring instruments, those in charge of measuring the signals produced by the circuit. This equipment is considerably helpful, however, its high price often makes it hardly accessible. For this reason, low price equipment is needed in order to replace real devices. If the instrument is measuring, this low cost system can be implemented by hardware equipment to acquire the data and running on a computer where analyzing and present on the screen application. In case of an excitation the instrument, the only task of the hardware system is to provide signals which sent the computer configuration. In a real instrument, is the instrument itself that must perform all these actions: acquisition, processing and presentation of data. Moreover, the difficulty of making changes or additions to the features in traditional devices with respect to an application running on a computer is evident. This is due to the fact that a traditional instrument is a closed system and its configuration or data processing is made by an application. Therefore, certain changes can be made just by modifying the control program software. Consequently, the cost of these modifications is lower. This project aims to implement a hardware system with the same features and functions of any real device, available in an electronics laboratory. Besides, it aims to develop an application for the monitoring and analysis of acquired signals. This application is provided with a graphic interface resembling those of real devices in order to facilitate its use.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Grupo de Diseño Electrónico y Microelectrónico de la Universidad Politécnica de Madrid -GDEM- se dedica, entre otras cosas, al estudio y mejora del consumo en sistemas empotrados. Es en este lugar y sobre este tema donde el proyecto a exponer ha tomado forma y desarrollo. Según un artículo de la revista online Revista de Electrónica Embebida, un sistema empotrado o embebido es aquel “sistema controlado por un microprocesador y que gracias a la programación que incorpora o que se le debe incorporar, realiza una función específica para la que ha sido diseñado, integrando en su interior la mayoría de los elementos necesarios para realizar dicho función”. El porqué de estudiar sobre este tema responde a que, cada vez, hay mayor presencia de sistemas empotrados en nuestra vida cotidiana. Esto es debido a que se está tendiendo a dotar de “inteligencia” a todo lo que puedan hacer nuestra vida un poco más fácil. Nos podemos encontrar dichos sistemas en fábricas, oficinas de atención a los ciudadanos, sistemas de seguridad de hogar, relojes, móviles, lavadoras, hornos, aspiradores y un largo etcétera en cualquier aparato que nos podamos imaginar. A pesar de sus grandes ventajas, aún hay grandes inconvenientes. El mayor problema que supone a día de hoy es la autonomía del mismo sistema, ya que hablamos de aparatos que muchas veces están alimentados por baterías -para ayudar a su portabilidad–. Por esto, se está intentando dotar a dichos sistemas de una capacidad de ahorro de energía y toma de decisiones que podrían ayudar a duplicar la autonomía de dicha batería. Un ejemplo claro son los Smartphones de hoy en día, unos aparatos casi indispensables que pueden tener una autonomía de un día. Esto es poco práctico para el usuario en caso de viajes, trabajo u otras situaciones en las que se le dé mucho uso y no pueda tener acceso a una red eléctrica. Es por esto que surge la necesidad de investigar, sin necesidad de mejorar el hardware del sistema, una manera de mejorar esta situación. Este proyecto trabajará en esa línea creando un sistema automático de medida el cual generará las corrientes que servirán como entrada para verificar el sistema de adquisición que junto con la tarjeta Beagle Board permitirá la toma de decisiones en relación con el consumo de energía. Para realizar este sistema, nos ayudaremos de diferentes herramientas que podremos encontrar en el laboratorio del GDEM, como la fuente de alimentación Agilent y la Beagle Board –como principales herramientas de trabajo- . El objetivo principal será la simulación de unas señales que, después de pasar un proceso de conversión y tratado, harán la función de representación del consumo de cada una de las partes que pueden formar un sistema empotrado genérico. Por lo tanto, podemos decir que el sistema hará la funcionalidad de un banco de pruebas que ayudará a simular dicho consumo para que el microprocesador del sistema pueda llegar a tomar alguna decisión. ABSTRACT. The Electronic and Microelectronic Design Group of Universidad Politécnica de Madrid -GDEM- is in charge, between other issues, of improving the embedded system’s consumption. It is in this place and about this subject where the exposed project has taken shape and development. According to an article from de online magazine Revista de Electronica Embebida, an embedded system is “the one controlled by a microprocessor and, thanks to the programing that it includes, it carries out a specific function what it has been designed for, being integrated in it the most necessary elements for realizing the already said function”. The because of studying this subject, answers that each time there is more presence of the embedded system in our daily life. This is due to the tendency of providing “intelligence” to all what can make our lives easier. We can find this kind of systems in factories, offices, security systems, watchers, mobile phones, washing machines, ovens, hoovers and, definitely, in all kind of machines what we can think of. Despite its large vantages, there are still some inconveniences. Nowadays, the most important problem is the autonomy of the system itself when machines that have to be supplied by batteries –making easier the portability-. Therefore, this project is going after a save capacity of energy for the system as well as being able to take decisions in order to duplicate batteries’ autonomy. Smartphones are a clear example. They are a very successful product but the autonomy is just one day. This is not practical for users, at all, if they have to travel, to work or to do any activity that involves a huge use of the phone without a socket nearby. That is why the need of investigating a way to improve this situation. This project is working on this line, creating an automatic system that will generate the currents for verifying the acquisition system that, with the beagle board, will help taking decisions regarding the energy’s consumption. To carry out this system, we need different tools that we can find in the laboratory of the group previously mentioned, like power supply Agilent and the Beagle Board – as main working tools –. The main goal is the simulation of some signals that, after a conversion process, will represent de consumption of each of the parts in the embedded generic system. Therefore, the system will be a testing ground that simulate the consumption, once sent to the processor, to be processed and so the microprocessor system might take some decision.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El gran esfuerzo realizado durante la última década con el fin de integrar los diferentes materiales superconductores en el campo de los sistemas eléctricos y en otras aplicaciones tecnológicas ha dado lugar a un campo de investigación amplio y prometedor. El comportamiento eléctrico de los Superconductores de Alta Temperatura (SAT) crítica (masivo y cintas) depende de diferentes parámetros desde su fabricación hasta la aplicación final con imanes o cables. Sin embargo, las aplicaciones prácticas de estos materiales están fuertemente vinculadas con su comportamiento mecánico tanto a temperatura ambiente (manipulación durante fabricación o instalación) como a temperaturas criogénicas (condiciones de servicio). En esta tesis se ha estudiado el comportamiento mecánico de materiales masivos y cintas de alta temperatura crítica a 300 y 77 K (utilizando nitrógeno líquido). Se han obtenido la resistencia en flexión, la tenacidad de fractura y la resistencia a tracción a la temperatura de servicio y a 300 K. Adicionalmente, se ha medido la dureza mediante el ensayo Vickers y nanoindentación. El módulo Young se midió mediante tres métodos diferentes: 1) nanoindentación, 2) ensayos de flexión en tres puntos y 3) resonancia vibracional mediante grindosonic. Para cada condición de ensayo, se han analizado detalladamente las superficies de fractura y los micromecanismos de fallo. Las propiedades mecánicas de los materiales se han comparado con el fin de entender la influencia de las técnicas de procesado y de las características microestructurales de los monocristales en su comportamiento mecánico. Se ha estudiado el comportamiento electromecánico de cintas comerciales superconductoras de YBCO mediante ensayos de tracción y fatiga a 77 y 300 K. El campo completo de deformaciones en la superficie del material se ha obtenido utilizando Correlación Digital de Imágenes (DIC, por sus siglas en inglés) a 300 K. Además, se realizaron ensayos de fragmentación in situ dentro de un microscopio electrónico con el fin de estudiar la fractura de la capa superconductora y determinar la resistencia a cortante de la intercara entre el substrato y la capa cerámica. Se ha conseguido ver el proceso de la fragmentación aplicando tensión axial y finalmente, se han implementado simulaciones mediante elementos finitos para reproducir la delaminación y el fenómeno de la fragmentación. Por último, se han preparado uniones soldadas entre las capas de cobre de dos cintas superconductoras. Se ha medido la resistencia eléctrica de las uniones con el fin de evaluar el metal de soldadura y el proceso. Asimismo, se ha llevado a cabo la caracterización mecánica de las uniones mediante ensayos "single lap shear" a 300 y 77 K. El efecto del campo magnético se ha estudiado aplicando campo externo hasta 1 T perpendicular o paralelo a la cinta-unión a la temperatura de servicio (77 K). Finalmente, la distribución de tensiones en cada una de las capas de la cinta se estudió mediante simulaciones de elementos finitos, teniendo en cuenta las capas de la cinta mecánicamente más representativas (Cu-Hastelloy-Cu) que influyen en su comportamiento mecánico. The strong effort that has been made in the last years to integrate the different superconducting materials in the field of electrical power systems and other technological applications led to a wide and promising research field. The electrical behavior of High Temperature Superconducting (HTS) materials (bulk and coated conductors) depends on different parameters since their processing until their final application as magnets or cables. However, practical applications of such materials are strongly related with their mechanical performance at room temperature (handling) as well as at cryogenic temperatures (service conditions). In this thesis, the mechanical behavior of HTS bulk and coated conductors was investigated at 300 and 77 K (by immersion in liquid nitrogen). The flexural strength, the fracture toughness and the tensile strength were obtained at service temperature as well as at 300 K. Furthermore, their hardness was determined by Vickers measurements and nanoindentation and the Young's modulus was measured by three different techniques: 1) nanoindentation, 2) three-point bending tests and 3) vibrational resonance with a grindosonic device. The fracture and deformation micromechanics have been also carefully analyzed for each testing condition. The comparison between the studied materials has been performed in order to understand the influence of the main sintering methods and the microstructural characteristics of the single grains on the macroscopic mechanical behavior. The electromechanical behavior of commercial YBCO coated conductors was studied. The mechanical behavior of the tapes was studied under tensile and fatigue tests at 77 and 300 K. The complete strain field on the surface of the sample was obtained by applying Digital Image Correlation (DIC) at 300 K. Addionally, in situ fragmentation tests inside a Scanning Electron Microscope (SEM) were carried out in order to study the fragmentation of the superconducting layer and determine the interfacial shear strength between substrate and ceramic layer. The fragmentation process upon loading of the YBCO layer has been observed and finally, Finite Element Simulations were employed to reproduce delamination and fragmentation phenomena. Finally, joints between the stabilizing Cu sides of two coated conductors have been prepared. The electrical resistivity of the joints was measured for the purpose of qualifying the soldering material and evaluating the soldering process. Additionally, mechanical characterization under single lap shear tests at 300 and 77 K has been carried out. The effect of the applied magnetic field has been studied by applying external magnetic field up to 1 T perpendicular and parallel to the tape-joint at service temperature (77 K). Finally, finite element simulations were employed to study the distribution of the stresses in earch layer, taking into account the three mechanically relevant layers of the coated conductor (Cu-Hastelloy-Cu) that affect its mechanical behavior

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las técnicas de speckle tienen un gran interés científico e ingenieril, ya que son métodos de ejecución rápida y no destructiva, con base en el análisis de las fluctuaciones de intensidad de la radiación producida cuando la luz coherente de un haz láser es esparcida por un material dado. En este caso se produce un patrón aleatorio de interferencia y difracción donde la suma de las componentes desfasadas dará lugar a máximos y mínimos de intensidad en distintos puntos del espacio. Éste, pese a tratarse de un ruido nocivo en multitud de áreas tales como la transmisión de señales o la holografía, tiene importantes propiedades físicas que lo caracterizan y lo hacen útil como medio para analizar sistemas reales de muy diversa índole. En el presente estudio, se ha llevado a cabo un análisis polarimétrico de la radiación aleatoria esparcida por una serie de muestras metálicas y dieléctricas con el objetivo de establecer una base comparativa que nos permita poder distinguir unas de otras. Para este fin se han comparado los parámetros de polarización de Stokes, el grado de polarización de la luz, las distribuciones de intensidad y el tamaño medio del speckle registrado en los distintos patrones de intensidad. Además, se analizará la dependencia de la rugosidad en el grado de polarización de la luz para los distintos medios sometidos a estudio. Abstract Speckle techniques have a great scientific and engineering interest as they are methods of rapid and non-destructive execution, based on the analysis of the fluctuations of intensity of the radiation produced when coherent light of a laser beam is scattered by a material given. In this case, a random pattern of interference and diffraction occurs where the sum of phase shifted components will result in maximum or minimum of intensity at different points in space. This, despite being a harmful noise in many areas such as signal transmission or holography, has important physical properties that characterize it and make it useful as a means to analyze real systems of various kinds. In the present study, we have conducted a polarimetric analysis of the random radiation scattered by a series of metal and dielectric samples in order to establish a comparative basis to allow us to distinguish one from another. To this end we have compared, the stokes polarization parameters, the degree of polarization (DOP), the intensity distributions and the average size of the speckle registered in the different intensity patterns. Furthermore, dependence of roughness in the DOP of light for the different means under study will be analyzed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En un entorno competitivo como el de la producción ganadera, el objetivo primordial debe ser mejorar la eficiencia de los sistemas productivos, para lo que es fundamental la correcta gestión de los datos (recogida, procesado, análisis y distribución de la información) que se generan cada día en las explotaciones ganaderas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El comportamiento inusual del ganado constituye su respuesta a las posibles “agresiones” del entorno próximo. Para entender por qué las vacas se comportan de cierta manera, será preciso recoger todas las señales, indicios y pistas emitidos por los animales para intentar comprender su conducta y obrar en consecuencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La calidad del hormigón prefabricado se determina mediante ensayos de rotura a compresión en probetas transcurridos los 28 días de curado, según establece la EHE-08. Sin embargo, en la plantas de prefabricados es necesario además saber cuándo el hormigón está listo para ser procesado (destensado, cortado, trasladado), por lo que es necesario hacer ensayos de resistencia a la compresión entre las 48 y 72 horas, este tiempo se determina a partir de la experiencia previa adquirida y depende de las condiciones de cada planta. Si las probetas no han alcanzado el valor establecido, normalmente debido a un cambio en las condiciones climatológicas o en los materiales utilizados como el tipo de cemento o agregados, la solución adoptada suele ser dejar curar el material más horas en la pista para que alcance la resistencia necesaria para ser procesado. Si sigue sin alcanzarla, lo cual sucede muy ocasionalmente, se intenta analizar cuál ha sido el motivo, pudiéndose tirar toda la producción de ese día si se comprueba que ha sido un fallo en la fabricación de la línea, y no un fallo de la probeta. Por tanto, esta metodología de control de calidad, basada en técnicas destructivas, supone dos tipos de problemas, costes y representatividad. Los métodos no destructivos que más se han aplicado para caracterizar el proceso de curado del hormigón son los ultrasónicos y la medida de la temperatura como se recoge en la bibliografía consultada. Hay diferentes modelos que permiten establecer una relación entre la temperatura y el tiempo de curado para estimar la resistencia a compresión del material, y entre la velocidad de propagación ultrasónica y la resistencia. Aunque estas relaciones no son generales, se han obtenido muy buenos resultados, ejemplo de ello es el modelo basado en la temperatura, Maturity Method, que forma parte de la norma de la ASTM C 1074 y en el mercado hay disponibles equipos comerciales (maturity meters) para medir el curado del hormigón. Además, es posible diseñar sistemas de medida de estos dos parámetros económicos y robustos; por lo cual es viable la realización de una metodología para el control de calidad del curado que pueda ser implantado en las plantas de producción de prefabricado. En este trabajo se ha desarrollado una metodología que permite estimar la resistencia a la compresión del hormigón durante el curado, la cual consta de un procedimiento para el control de calidad del prefabricado y un sistema inalámbrico de sensores para la medida de la temperatura y la velocidad ultrasónica. El procedimiento para el control de calidad permite realizar una predicción de la resistencia a compresión a partir de un modelo basado en la temperatura de curado y otros dos basados en la velocidad, método de tiempo equivalente y método lineal. El sistema inalámbrico de sensores desarrollado, WilTempUS, integra en el mismo dispositivo sensores de temperatura, humedad relativa y ultrasonidos. La validación experimental se ha realizado mediante monitorizaciones en probetas y en las líneas de prefabricados. Los resultados obtenidos con los modelos de estimación y el sistema de medida desarrollado muestran que es posible predecir la resistencia en prefabricados de hormigón en planta con errores comparables a los aceptables por norma en los ensayos de resistencia a compresión en probetas. ABSTRACT Precast concrete quality is determined by compression tests breakage on specimens after 28 days of curing, as established EHE-08. However, in the precast plants is also necessary to know when the concrete is ready to be processed (slack, cut, moved), so it is necessary to test the compressive strength between 48 and 72 hours. This time is determined from prior experience and depends on the conditions of each plant. If the samples have not reached the set value, usually due to changes in the weather conditions or in the materials used as for example the type of cement or aggregates, the solution usually adopted is to cure the material on track during more time to reach the required strength for processing. If the material still does not reach this strength, which happens very occasionally, the reason of this behavior is analyzed , being able to throw the entire production of that day if there was a failure in the manufacturing line, not a failure of the specimen. Therefore, this method of quality control, using destructive techniques, involves two kinds of problems, costs and representativeness. The most used non-destructive methods to characterize the curing process of concrete are those based on ultrasonic and temperature measurement as stated in the literature. There are different models to establish a relationship between temperature and the curing time to estimate the compressive strength of the material, and between the ultrasonic propagation velocity and the compressive strength. Although these relationships are not general, they have been very successful, for example the Maturity Method is based on the temperature measurements. This method is part of the standards established in ASTM C 1074 and there are commercial equipments available (maturity meters) in the market to measure the concrete curing. Furthermore, it is possible to design inexpensive and robust systems to measure ultrasounds and temperature. Therefore is feasible to determine a method for quality control of curing to be implanted in the precast production plants. In this work, it has been developed a methodology which allows to estimate the compressive strength of concrete during its curing process. This methodology consists of a procedure for quality control of the precast concrete and a wireless sensor network to measure the temperature and ultrasonic velocity. The procedure for quality control allows to predict the compressive strength using a model based on the curing temperature and two other models based on ultrasonic velocity, the equivalent time method and the lineal one. The wireless sensor network, WilTempUS, integrates is the same device temperature, relative humidity and ultrasonic sensors. The experimental validation has been carried out in cubic specimens and in the production plants. The results obtained with the estimation models and the measurement system developed in this thesis show that it is possible to predict the strength in precast concrete plants with errors within the limits of the standards for testing compressive strength specimens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La creciente demandada de información por parte del abonado hace necesaria la inclusión de nuevos servicios como la transmisión da datos de alta y baja velocidad, señales dedeo, etc. La única solución que promete viabilidad es la que puede desarrollarse con Fibra Óptica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMEN Su objetivo esencial: Regular el proceso de la edificación, está basado en 3 grandes pilares: 1.- Completar la configuración legal de los agentes que intervienen en el mismo, fijando sus obligaciones para así establecer las responsabilidades. 2.- Fomentar la calidad de los edificios. 3.- Fijar las garantías a los usuarios frente a los posibles daños. Estos tres fundamentos están intensamente relacionados, ya que, las obligaciones y responsabilidades de los agentes son la base de la constitución de las garantías a los usuarios, definidas mediante los requisitos básicos que deben satisfacer los edificios. Partiendo del análisis cualitativo y cuantitativo del grado de cumplimiento del objetivo de la nueva Ley, elaborado a través del estudio de sus tres pilares fundamentales, proponemos medidas tendentes a la plena entrada en vigor de la misma. Para ello se deberá desarrollar el Real Decreto previsto en la Disposición Adicional 2ª, una vez conseguido el grado de madurez de los sectores de la edificación y del seguro. En todo este proceso de estudio hemos podido apreciar que la objetiva identificación de los daños y en especial los que afectan la estabilidad del edificio, constituye una herramienta fundamental para la correcta atribución de responsabilidades a los agentes, basada en la aplicación de los tres grados de responsabilidad “ex lege” por daños materiales y sus plazos de prescripción surgidos del nuevo régimen impuesto por el art. 17 LOE Para avalar esta propuesta hemos analizado: 1.- El entorno económico, general y pormenorizado al sector de la edificación, en Europa y España durante el período comprendido entre los años 1990 y 2013, años previos y posteriores a la entrada en vigor de la Ley, dada la influencia de los ciclos de actividad producidos en la regulación del sector, las responsabilidades atribuidas a los agentes, el fomento de la calidad y las garantías ofrecidas a los adquirentes. 2.- Las diversas legislaciones sobre responsabilidades y garantías de los agentes de la edificación en los países de nuestro entorno económico. 3.- La gestación de la LOE, incidiendo en la evolución de los últimos borradores y su tramitación parlamentaria. 4.- El desarrollo doctrinal de la Transición desde el régimen de responsabilidades, fijado por el art. 1591 de Código Civil, y su Jurisprudencia, hacia el nuevo régimen de responsabilidades establecido por el art. 17 LOE. En esta tarea además de apreciar la asimilación, por parte de los Jueces y Magistrados, de los principios doctrinales de la LOE, hemos observado la labor de los peritos, de cuya experta identificación de las causas de los daños depende la justa y eficaz atribución de responsabilidades. 5 -. El grado de eficacia de la LOE a la vista de la estadística siniestral, de la que ya hay datos consolidados, tras la cancelación de casi 15.000 expedientes de reclamación a Arquitectos. 6 -. También hemos estudiado el grado de cumplimiento con el usuario y propietario de las garantías previstas en el art. 19 de la Ley y en la D.A. 1ª, los efectos reales alcanzados y las tareas pendientes por delante. Analizando la atribución de responsabilidades a los agentes de la edificación, dentro del primer pilar fundamental de la LOE, hemos estudiado las actuaciones de los peritos expertos y su incidencia en este objetivo, previa selección de casos de gran interés y dificultad. Fruto de ello se han formulado propuestas tendentes a la especialización de este colectivo, evitando conductas “irregulares” que tanto daño provocan a los agentes reclamados como a los propietarios afectados. Este daño es evidente pudiendo ocasionar condenas injustas, enriquecimientos ilícitos o bien falsas expectativas de satisfacción de daños mal dictaminados y costosas e ineficaces reparaciones. De cara a la consecución del pilar de la calidad de la edificación, mediante los requisitos básicos planteados por la LOE y desarrollados por el Código Técnico de la Edificación (Real Decreto 314/2006, de 17 de marzo), hemos procesado datos de expedientes de reclamaciones por daños que afectan a edificios ejecutados bajo el nuevo régimen LOE. Con esta base se han analizado las causas generadoras de las diversas lesiones y su frecuencia para que de este análisis puedan establecerse pautas de actuación para su prevención. Finalmente, tras demostrar que las garantías obligatorias impuestas por la LOE sólo abarcan un pequeño porcentaje de los posibles daños a la edificación, insistimos en la necesidad de la plena eficacia de la Ley mediante la aprobación de todas las garantías previstas y para todo tipo de edificaciones. En suma, se ha diseñado la tesis como una matriz abierta en la que podremos continuar incorporando datos de la evolución de la doctrina, la jurisprudencia y la estadística de los daños en la edificación. ABSTRACT The approval of Law 38/1999 on November 5, 1999, (Official Gazette BOE 266/1999 of 11.6.1999, p. 38925), was the culmination of a long period of over 20 years of gestation for which deep agreements were needed between all stakeholders affected. Although several parliamentary groups denounced its incomplete approval, regarding mandatory guarantees to the purchaser, its enactment caused general satisfaction among most of the the building agents. This assessment remains after fourteen years since its partial enactment. Its essential purpose, “to regulate the building process”, is based on 3 pillars: 1.- To complete the legal configuration of the agents involved in it, setting their obligations in order to establish their responsibilities. 2.- To promote the buildings quality. 3.- To specify users´guarantees against possible buildings damage. These three issues are strongly related, since the obligations and responsibilities of the actors are the basis of the users’guarantees constitution, defined by the basic performance required by buildings. Based on the qualitative and quantitative analysis of the fulfillment of the new law’s objectives, made by monitoring the three pillars, we propose measures to the full enactment of this Directive, by the development of the Royal Decree, provided in its Second Additional Provision, once maturity in the sectors of the building and insurance is achieved. Throughout this process of study we have seen that the skill identification of damage, particularly those affecting the stability of the building, is an essential tool for the proper allocation of responsibilities of the new regime installed by the art. 17 LOE, based on the application of the three degrees of responsibility "ex lege" for property damage and limitation periods. To support this proposal, we have analyzed: 1.- The evolution of the building sector in Europe and Spain during the years before and after the enactment of the Law, due to the influence of cycles of activity produced in industry regulation, the responsibilities attributed to agents, promotion of the quality and the assurances given to acquirers. 2.- The scope of various laws on liability and building agents warranties in the countries of our economic environment. 3.- The long period of LOE generation, focusing on the developments in recent drafts and parliamentary procedure. 4.- The doctrinal development in the Transition from the regime of responsibilities, set by art. 1591 of the Civil Code, and its Jurisprudence, to the new liability regime established by art. 17 LOE. In this task, while we have noted assimilation by the Judges and Magistrates of the doctrinal principles of the LOE, we have also analyzed the work of experts, whose skilled identification of the damage causes helps the fair and efficient allocation of responsibilities. 5 - The effectiveness of the LOE based on knowledge of the siniestral statistics, which are already consolidated data, after the cancellation of nearly 15,000 claims to Architects. 6.- We have also studied the degree of compliance with the user and owner guarantees, established in art. 19 and the D.A. 1th of the LOE, exposing the real effects achieved and the pending tasks ahead. Analyzing the allocation of the building agents´ responsibilities, within the first cornerstone of the LOE, we have studied the expert witnesses actions and their impact on this duty, selecting cases of great interest and difficulty in this aim. The result of this enterprise has been to propose the specialization of this group, avoiding "irregular" behaviors that create as much damage as the agents claimed to affected owners. This damage is evident and can cause wrong convictions, illicit enrichment, false expectations and inefficient and costly damage repairs. In order to achieve the pillar of building quality through the basic requirements set by the LOE and developed by the Technical Building Code (Royal Decree 314/ 2006 of 17 March), we have analyzed records of damage claims involving buildings executed under the new regime LOE. On this basis we have analyzed the root causes of various damages and their frequency, from these data it will be easy to propose lines of action for prevention. Finally, after demonstrating that mandatory warranties imposed by LOE cover only a small percentage of the potential building damage, we emphasize the need for the full effectiveness of the Law by the obligation all the guarantees provided in the art. 19 LOE, and for all types of buildings. In conclusion, this thesis is designed as an open matrix in which we will continue including data on the evolution of the doctrine, jurisprudence and the statistics of the damage to the building.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La medicina y la ingeniería del siglo XXI han dado como fruto numerosos avances para la sociedad aunque en la mayoría de los casos los tratamientos suelen ser costosos e invasivos. La educación que recibe la sociedad sobre la salud es escasa, ya que sólo vamos al médico cuando realmente estamos enfermos. Este trabajo presenta nuestra apuesta por las terapias complementarias, para el desarrollo de una metodología terapéutica no invasiva y con un costo muy bajo. La finalidad de esta Tesis, que se enmarca en un equipo multidisciplinar, fruto de la estrecha colaboración en el que participan psicopedagogos, ingenieros y médicos, es perfilar una metodología que luego pueda ser aplicable a patologías neurológicas. Aquí, dejamos sentadas las bases. Faltarán nuevos investigadores que continúen este camino para tener una base de datos lo suficientemente extensa de registros de sujetos que hayan sido sometidos a terapia binaural, para poder sacar unas conclusiones sólidas. La aportación de esta Tesis deja cubierta la aplicación, selección, procesado de señal y desarrollo de algoritmos, test cognitivos indicados para el caso específico que nos ocupa, cálculo de incertidumbre del sistema utilizado para la aplicación del estímulo y desarrollo de un test psicoacústico específico. EL empleo del sonido en medicina como es la musicoterapia o sonoterapia ha experimentado una gran difusión en los últimos años, más de 100.000 nuevas citas bibliográficas han aparecido con respecto al año anterior. Sin embargo, son escasísimas las que hacen referencia a las características físico acústicas del sonido empleado, tan sólo hemos encontrado una par de ellas que correlacionan las características físicas del sonido con el tipo de respuesta terapéutica. No encontramos citas bibliográficas específicas que planteen un modelo experimental científico capaz de reproducir las mismas respuestas ante los mismos parámetros y estímulos. En esta Tesis proponemos el uso de estimulación sonora binaural, que consiste en la utilización de dos tonos puros idénticos pero ligeramente diferentes en frecuencia que se presentan de manera separada cada uno en un oído, como consecuencia, la persona que recibe la estimulación percibe un tercer tono, llamado tono binaural, formado por la diferencia de frecuencia de ambos variando su amplitud. Existen estudios que sugieren que dichas frecuencias binaurales pueden modificar los patrones eléctricos de la actividad cerebral y los niveles de arousal, conociéndose en la literatura bajo el nombre de “entrainment”. Tras la revisión bibliográfica del estado del arte, podemos concluir que es necesario el desarrollo de estudios doble ciego bien diseñados, con el objetivo de establecer una base sólida sobre los efectos de este tipo de estimulación, ya que la mayoría de los beneficios documentados se refieren a muestras muy pequeñas y con poco rigor científico, siendo los resultados positivos obtenidos debidos al efecto placebo. La tecnología binaural es barata siendo cualquier avance en esta dirección de interés público. El objetivo concreto de la investigación es estudiar el potencial de las ondas binaurales en un área en particular: tareas que requieren atención y concentración. Se busca obtener cualquier cambio en las ondas cerebrales que se puedan correlar con la mejoras. A la vista de los resultados de estas investigaciones se intentará aplicar esta metodología en neuropatologías que presenten alguna deficiencia en el área de atención como es el Trastorno de espectro Autista. En esta Tesis presentamos los resultados de dos estudios independientes, el primero para sentar las bases del método (tiempos, diseño de estimulaciones, procesado) en una muestra de 78 adultos sanos, el segundo a partir de los resultados obtenidos en el primero, afinando la metodología y para un grupo de 20 niños entre 8 y 12 años, los resultados del segundo estudio sirven para justificar su aplicación en niños con TEA que presenten déficit de atención. ABSTRACT Medicine and engineering in the 21st century have resulted in advances for society but in most cases the treatments are often costly and invasive. The health education society receive is scarce, since only go to the doctor when we are really sick. With this work I present my commitment to complementary therapies, my little grain of sand in the development of a noninvasive therapeutic approach and very low cost, well and can be used in a preventive manner resulting in a society with less sick. The purpose of this thesis is to outline a methodology that can then be applied to neurological diseases, here we lay the groundwork. New researchers are needed to continue this path for a sufficiently extensive records database of subjects who have undergone binaural therapy, and so to draw firm conclusions. The contribution of this thesis includes: the application, selection, signal processing and algorithm development, indicated cognitive tests for the specific case at hand, calculation of system uncertainty of the system and development of a specific psychoacoustic test. The use of sound in medicine, such as music therapy or sound therapy has experienced a great diffusion in recent years, more than 100,000 new citations have appeared over the previous year but very few are those referring to acoustic physical characteristics of sound employee, we have only found a couple of them that physical sound characteristics are correlated with the therapeutic response. We found no specific citations posing a scientific experimental model capable of reproducing the same answers to the same parameters and stimuli. In this thesis we propose the use of binaural sound stimulation which involves the use of two identical but slightly different in frequency pure tones presented separately each in one ear, as a result the subject perceives a third tone, called binaural tone, formed by the difference in frequency with amplitude variations Studies suggest that these binaural frequencies can modify the electrical patterns of brain activity and arousal levels, being known in the literature under the name of “entrainment”. After the literature review of the state of the art, we conclude, it is necessary to develop well-designed double-blind studies, in order to establish a solid foundation on the effects of such stimulation, since most of the documented benefits relate to very small samples and unscientific may be obtained positive results due to the placebo effect. The binaural technology is cheap being any progress in this direction in the public interest. The specific objective of the research is to study the potential of binaural waves in a particular area: tasks requiring attention and concentration also we want to get any change in brain waves that can correlate with improvements. In view of the results of this research we seek to apply this methodology in neuropathology presenting any deficiency in the area of attention such as Autism Spectrum Disorder. In this thesis we present the results of two independent studies, the first to lay the foundation of the method (times, stimulation design, processing) in a sample of 78 healthy adults, the second from the results obtained in the first, refine the methodology for a group of 20 children between 8 and 12 years, the results of the second study used to justify its use in children with ASD that present attention deficit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis se centra en el estudio y desarrollo de algoritmos de guerra electrónica {electronic warfare, EW) y radar para su implementación en sistemas de tiempo real. La llegada de los sistemas de radio, radar y navegación al terreno militar llevó al desarrollo de tecnologías para combatirlos. Así, el objetivo de los sistemas de guerra electrónica es el control del espectro electomagnético. Una de la funciones de la guerra electrónica es la inteligencia de señales {signals intelligence, SIGINT), cuya labor es detectar, almacenar, analizar, clasificar y localizar la procedencia de todo tipo de señales presentes en el espectro. El subsistema de inteligencia de señales dedicado a las señales radar es la inteligencia electrónica {electronic intelligence, ELINT). Un sistema de tiempo real es aquel cuyo factor de mérito depende tanto del resultado proporcionado como del tiempo en que se da dicho resultado. Los sistemas radar y de guerra electrónica tienen que proporcionar información lo más rápido posible y de forma continua, por lo que pueden encuadrarse dentro de los sistemas de tiempo real. La introducción de restricciones de tiempo real implica un proceso de realimentación entre el diseño del algoritmo y su implementación en plataformas “hardware”. Las restricciones de tiempo real son dos: latencia y área de la implementación. En esta tesis, todos los algoritmos presentados se han implementado en plataformas del tipo field programmable gate array (FPGA), ya que presentan un buen compromiso entre velocidad, coste total, consumo y reconfigurabilidad. La primera parte de la tesis está centrada en el estudio de diferentes subsistemas de un equipo ELINT: detección de señales mediante un detector canalizado, extracción de los parámetros de pulsos radar, clasificación de modulaciones y localization pasiva. La transformada discreta de Fourier {discrete Fourier transform, DFT) es un detector y estimador de frecuencia quasi-óptimo para señales de banda estrecha en presencia de ruido blanco. El desarrollo de algoritmos eficientes para el cálculo de la DFT, conocidos como fast Fourier transform (FFT), han situado a la FFT como el algoritmo más utilizado para la detección de señales de banda estrecha con requisitos de tiempo real. Así, se ha diseñado e implementado un algoritmo de detección y análisis espectral para su implementación en tiempo real. Los parámetros más característicos de un pulso radar son su tiempo de llegada y anchura de pulso. Se ha diseñado e implementado un algoritmo capaz de extraer dichos parámetros. Este algoritmo se puede utilizar con varios propósitos: realizar un reconocimiento genérico del radar que transmite dicha señal, localizar la posición de dicho radar o bien puede utilizarse como la parte de preprocesado de un clasificador automático de modulaciones. La clasificación automática de modulaciones es extremadamente complicada en entornos no cooperativos. Un clasificador automático de modulaciones se divide en dos partes: preprocesado y el algoritmo de clasificación. Los algoritmos de clasificación basados en parámetros representativos calculan diferentes estadísticos de la señal de entrada y la clasifican procesando dichos estadísticos. Los algoritmos de localization pueden dividirse en dos tipos: triangulación y sistemas cuadráticos. En los algoritmos basados en triangulación, la posición se estima mediante la intersección de las rectas proporcionadas por la dirección de llegada de la señal. En cambio, en los sistemas cuadráticos, la posición se estima mediante la intersección de superficies con igual diferencia en el tiempo de llegada (time difference of arrival, TDOA) o diferencia en la frecuencia de llegada (frequency difference of arrival, FDOA). Aunque sólo se ha implementado la estimación del TDOA y FDOA mediante la diferencia de tiempos de llegada y diferencia de frecuencias, se presentan estudios exhaustivos sobre los diferentes algoritmos para la estimación del TDOA, FDOA y localización pasiva mediante TDOA-FDOA. La segunda parte de la tesis está dedicada al diseño e implementación filtros discretos de respuesta finita (finite impulse response, FIR) para dos aplicaciones radar: phased array de banda ancha mediante filtros retardadores (true-time delay, TTD) y la mejora del alcance de un radar sin modificar el “hardware” existente para que la solución sea de bajo coste. La operación de un phased array de banda ancha mediante desfasadores no es factible ya que el retardo temporal no puede aproximarse mediante un desfase. La solución adoptada e implementada consiste en sustituir los desfasadores por filtros digitales con retardo programable. El máximo alcance de un radar depende de la relación señal a ruido promedio en el receptor. La relación señal a ruido depende a su vez de la energía de señal transmitida, potencia multiplicado por la anchura de pulso. Cualquier cambio hardware que se realice conlleva un alto coste. La solución que se propone es utilizar una técnica de compresión de pulsos, consistente en introducir una modulación interna a la señal, desacoplando alcance y resolución. ABSTRACT This thesis is focused on the study and development of electronic warfare (EW) and radar algorithms for real-time implementation. The arrival of radar, radio and navigation systems to the military sphere led to the development of technologies to fight them. Therefore, the objective of EW systems is the control of the electromagnetic spectrum. Signals Intelligence (SIGINT) is one of the EW functions, whose mission is to detect, collect, analyze, classify and locate all kind of electromagnetic emissions. Electronic intelligence (ELINT) is the SIGINT subsystem that is devoted to radar signals. A real-time system is the one whose correctness depends not only on the provided result but also on the time in which this result is obtained. Radar and EW systems must provide information as fast as possible on a continuous basis and they can be defined as real-time systems. The introduction of real-time constraints implies a feedback process between the design of the algorithms and their hardware implementation. Moreover, a real-time constraint consists of two parameters: Latency and area of the implementation. All the algorithms in this thesis have been implemented on field programmable gate array (FPGAs) platforms, presenting a trade-off among performance, cost, power consumption and reconfigurability. The first part of the thesis is related to the study of different key subsystems of an ELINT equipment: Signal detection with channelized receivers, pulse parameter extraction, modulation classification for radar signals and passive location algorithms. The discrete Fourier transform (DFT) is a nearly optimal detector and frequency estimator for narrow-band signals buried in white noise. The introduction of fast algorithms to calculate the DFT, known as FFT, reduces the complexity and the processing time of the DFT computation. These properties have placed the FFT as one the most conventional methods for narrow-band signal detection for real-time applications. An algorithm for real-time spectral analysis for user-defined bandwidth, instantaneous dynamic range and resolution is presented. The most characteristic parameters of a pulsed signal are its time of arrival (TOA) and the pulse width (PW). The estimation of these basic parameters is a fundamental task in an ELINT equipment. A basic pulse parameter extractor (PPE) that is able to estimate all these parameters is designed and implemented. The PPE may be useful to perform a generic radar recognition process, perform an emitter location technique and can be used as the preprocessing part of an automatic modulation classifier (AMC). Modulation classification is a difficult task in a non-cooperative environment. An AMC consists of two parts: Signal preprocessing and the classification algorithm itself. Featurebased algorithms obtain different characteristics or features of the input signals. Once these features are extracted, the classification is carried out by processing these features. A feature based-AMC for pulsed radar signals with real-time requirements is studied, designed and implemented. Emitter passive location techniques can be divided into two classes: Triangulation systems, in which the emitter location is estimated with the intersection of the different lines of bearing created from the estimated directions of arrival, and quadratic position-fixing systems, in which the position is estimated through the intersection of iso-time difference of arrival (TDOA) or iso-frequency difference of arrival (FDOA) quadratic surfaces. Although TDOA and FDOA are only implemented with time of arrival and frequency differences, different algorithms for TDOA, FDOA and position estimation are studied and analyzed. The second part is dedicated to FIR filter design and implementation for two different radar applications: Wideband phased arrays with true-time delay (TTD) filters and the range improvement of an operative radar with no hardware changes to minimize costs. Wideband operation of phased arrays is unfeasible because time delays cannot be approximated by phase shifts. The presented solution is based on the substitution of the phase shifters by FIR discrete delay filters. The maximum range of a radar depends on the averaged signal to noise ratio (SNR) at the receiver. Among other factors, the SNR depends on the transmitted signal energy that is power times pulse width. Any possible hardware change implies high costs. The proposed solution lies in the use of a signal processing technique known as pulse compression, which consists of introducing an internal modulation within the pulse width, decoupling range and resolution.