270 resultados para Antenas planares


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The use of multimodal neuroimaging techniques has been helpful in the investigation of epileptogenic zone in patients with refractory epilepsies. This work aims to describe an ictal event during EEG-fMRI performed simultaneously in a 39-year-old man with refractory epilepsy. The EEG data were recorded at a sampling rate of 5 kHz, using a BrainAmp (BrainProducts, München, Germany) amplifier, with 64 MR (magnetic resonance) compatible Ag/AgCl electrodes. MR images were acquired using a 3T scanner in 3 sequences of 6 minutes of echo-planar images (EPIs), with TR = 2s, being the last sequence stopped after the ictal event. The EEG was corrected for gradient and pulse artifacts using the Brain Vision Analyzer2 software (BrainProducts), and the functional images were realigned, slice-timing corrected, normalized and smoothed. The start of the ictal changes was used for the evaluation of the BOLD response in MR images, using a t-test with a minimum cluster of 5 voxels, p <0.005 (T>2.5). The patient had a partial complex seizure, as noted by neurologist. The fMRI data showed positive BOLD responses (activation) in dysplastic areas, but showed the most significant activation outside the lesion, in areas compatible with secondary spread of the epileptic focus, probably caused by motor reaction also observed during the seizure. As a conclusion, we note that the technique of EEG-fMRI can detect the epileptogenic zone in patients with refractory epilepsy, but areas of dissemination of primary epileptogenic focus may show significant activation, introducing additional difficulties to the interpretation of the results

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wireless communications is a feature that has become indispensable for many people in the whole world. Through this feature, communication process can become much more efficient, allowing people to access information much more quickly wherever they are. The constant evolution of communication technologies allows the development of new unthinkable applications and services. This new range of possibilities brings greater mobility and efficiency for final users and also helps service providers and carriers to improve the quality of services offered by them. This study presents the principles of wireless communication and the Wi-Fi technology as well as its most modern applications, covering from the basics of computer networks to the procedures of planning a wireless network, concepts of radio frequency, antennas, patterns, regulatory agencies, network equipment, protocols and network monitoring

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Currently the mobile services represent an essential tool in daily life of the population. However, while offering greater convenience to its users, there is growing concern about the harmful effects to human health, derived from daily exposure of the public to electromagnetic fields from radio base stations (RBS), since even today, there is no study proving that longterm exposure to low-level fields are not harmful to health. In Presidente Prudente has not been a study reporting values of measurements of electromagnetic fields from base stations installed in the city. Based on these data, this study aimed to assess the levels of electromagnetic exposure in the city of Presidente Prudente regarding recommended by international bodies, as well as propose measures that can reduce public exposure to electromagnetic fields. For measuring values of electromagnetic fields, we used appliance Electromagnetic Field Meter Portable Digital - DRE-050, the Instrutherm, following the methodology suggested and adapted from the Adilza Condessa Dode’study. In total, 49 points were mapped corresponding to the areas at risk of exposure to electromagnetic fields generated by the substations of power grid, transmission towers and telecommunication towers located in the city of Presidente Prudente (SP)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Biosusceptometry AC (BAC) is a research tool that has been extensively explored by the group Biomagnetism IBB-UNESP for monitoring of the gastrointestinal tract, its response to a known drug or in vivo performance of solid dosage forms. During this period the BAC, which has the characteristics of high sensitivity and low cost, has been developed primarily for recording signals contraction of activity and traffic human gastrointestinal tract. With the possibility of producing images with this instrumentation, it was possible to evaluate different situations in vitro and in vivo for physiological studies and pharmaceuticals. Considering the good performance of this system to produce planar images, the first aim of the BAC system tomography (TBAC) was to evaluate the system performance of BAC to produce tomographic images of phantoms ferromagnetic for a single channel system. All these applications were only possible because of their sensitivity to materials of high magnetic suscepitibility as ferrite, which allow to produce an electrical signal proportional to the variation of the magnetic flux generated by the presence of magnetic marker next to a first-order gradiometer. Measuring this variation at various points was possible to generate planar images that recently came to be produced in systems with multiple detectors, said multi-channels. From planar images, also producing tomographic images of simulators BAC bars in a system of 13 channels using only the center channel, with good results when applied to simple objects as one and two bars. When testing the resolution of the system with more elaborate forms the quality and resolution of images reconstructed is not satisfactory, which would be solved by increasing the spatial sampling rate and hence the acquisition time. The present system works with an acquisition time of about five hours. Whereas this system will be applied for in vivo experiments, the acquisition time became a ...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As abelhas Apis mellifera africanizadas são consideradas importantes agentes polinizadores que estão freqüentemente expostos à ação tóxica de inseticidas aplicados em cultivos. O imidaclopride é um inseticida sistêmico do grupo dos neonicotinóides e atua como agonista da acetilcolina nas sinapses do sistema nervoso central. Em abelhas foi verificado, através do método de resposta de extensão da probóscide (REP), que doses subletais de imidaclopride provocam deficiência no aprendizado olfatório e prejudicam a memória. A proteína Fos, expressa em neurônios, tem sua transcrição alterada por diversos estímulos como estresse, lesões, exposição a toxinas ou a predadores. Dessa forma, este trabalho teve por objetivo avaliar os efeitos neurotóxicos do inseticida imidaclopride, em operárias de Apis mellifera africanizadas, através da análise da expressão de Fos. Abelhas recém-emergidas e campeiras foram tratadas com 10, 20, 40 e 80 ng/abelha de imidaclopride e seus cérebros dissecados 15 minutos, 30 minutos, 1 hora e 4 horas após a ingestão do composto. Houve uma marcação positiva para Fos nos ocelos e na região dos olhos, principalmente na lâmina e na retina. Tal resultado era esperado, uma vez que o as abelhas foram expostas a luminosidade, durante a realização dos ensaios. Os lobos antenais são constituídos por prolongamentos de células sensoriais das antenas e pelos neurônios motores e os corpos pedunculados são tidos como os centros de processamento dos estímulos sensoriais recebidos pelos olhos e pelas antenas, assim, esperava-se que houvesse marcação positiva nestas regiões. Porém isto não foi observado no presente trabalho. Analisando-se os valores quantitativos da expressão da proteína Fos percebeu-se que não houve um padrão de ...(Resumo completo, clicar acesso eletrônico abaixo)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper expounds on the major phases or generations of the evolutionary process of wireless mobile communication, emphasizing their characteristics and changes over time. The main benefit of this process is the rate of data transfer remembering capacity spectral and methods of harnessing and improving its efficiency. The current network today is 4G and the technologies developed over the following requirements of the ITU are: Long Term Evolution Advanced (LTE-Advanced) and WirelessMAN-Advanced as part of the WiMAX IEEE 802.16m also described in this graduate work

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pós-graduação em Física - IFT

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Ziel der vorliegenden Arbeit waren die Synthese und Untersuchung von Modellverbindungen zur Sauerstoffaktivierung auf der Basis neuer Ligandensysteme des 1,3,4-Thiadiazols unter Ausarbeitung einer Synthesestrategie zur Derivatisierung der heteroaromatischen 1,3,4-Thiadiazol-Liganden, deren Koordinationsverhalten in Abhängigkeit ihres 2,5-Substitutionsmusters untersucht wurde, sowie die fortführende Bearbeitung bereits bekannter Ligandensysteme zur Erzeugung von homo- und heterovalenten Übergangsmetallkomplexverbindungen.rnDie unter der Verwendung der modifizierten Liganden TPDE, H1TPDP und H1BPMP resultierenden dinuklearen Komplexverbindungen zeigen unterschiedlich starke antiferromagnetische Wechselwirkungen in Abhängigkeit der vorhandenen Brückenliganden. In der Verbindung [Fe6O2(OH)(L´)2(OOCMe3)9(OEt)2] trat eine Fragmentierung des Liganden H1TPDP auf. Das cisoide Ligandensubstitutionsmuster der entstandenen sechskernigen Verbindung ist verantwortlich für die interessanten magnetischen Eigenschaften des Komplexes. rnNeue Perspektiven zur Erzeugung von Modellverbindungen zur Sauerstoffaktivierung wurden mit dem Mono-Chelatliganden H1ETHP und den Bis-Chelatliganden HL2H, H2L2H und H2BATP aufgezeigt. Die Umsetzung von H1ETHP mit verschiedenen Übergangsmetallsalzen resultierte für die Metalle Cr(III), Fe(III), Co(III) und Ni(II) in mononuklearen Verbindungen des Typs [M(ETHP)2]X (X = ClO4, FeCl4, OMe, Cl, Br) sowie in zwei tetranuklearen Verbindungen mit Mn(II) und Cu(II). [Mn4(ETHP)6] besitzt ein propellerförmiges, planares [Mn4O6]2+-System mit einen Spingrundzustand von S = 5. In allen Verbindungen von H1ETHP konnte eine mono-κN-Koordination des 1,3,4-Thiadiazol-Rückgrates über eines seiner beiden endozyklischen Stickstoffdonoratome beobachtet werden. rnAus Umsetzungen der Bis-Chelatliganden wurden fast ausschließlich polynukleare Übergangsmetallkomplexe erhalten. Insbesondere der Ligand H2L2H zeigt eine ausgeprägte Tendenz zur Ausbildung trinuklearer, linearer Komplexe, welche auf Grund ihrer ungeraden Anzahl von Übergangsmetallionen einen Spingrundzustand S ≠ 0 aufweisen.rn Die mit dem Liganden HL2H erhaltenen Verbindungen unterstreichen die hohe Flexibilität dieser Systeme hinsichtlich der Erzeugung polynuklearer und heterovalenter Komplexverbindungen. So konnten in Abhängigkeit vom verwendeten Übergangsmetallsalz trinukleare, pentanukleare, aber auch hepta- und oktanukleare Verbindungen synthetisiert werden. Insbesondere die Komplexe des Mangans und des Cobalts zeigen ein heterovalentes [MnIIMnIII4]- bzw. [CoII2CoIII3]-Motiv, was sich in Spingrundzuständen von S ≠ 0 äußert. Der diamagnetische, achtkernige Fe8-Cluster besitzt eine pseudo C3-symmetrische Anordnung der Metall-Zentren, während für die heptanukleare Cu7-Kette durch ihre stark unterschiedlichen Kupfer-Koordinationsgeometrien interessante magnetische Austauschwechselwirkungen beobachtet werden konnten. Der dreikernige µ3-oxo-verbrückte Komplex des Liganden H2BATP zeigt als interessante strukturelle Eigenschaft ein ein µ3-Verbrückungsmuster des eingesetzten Sulfat-Anions. rnIn allen Komplexen der Bis-Chelatliganden HL2H, H2L2H und H2BATP konnte ein µ2-κN,κN-Koordiantionsmodus des 1,3,4-Thiadiazols und somit eine Abhängigkeit der Verbrückung vom Ligandensubstitutionsmuster beobachtet werden.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit widmet sich der Untersuchung der photophysikalischen Prozesse, die in Mischungen von Elektronendonoren mit Elektronenakzeptoren zur Anwendung in organischen Solarzellen auftreten. Als Elektronendonoren werden das Copolymer PBDTTT-C, das aus Benzodithiophen- und Thienothiophene-Einheiten besteht, und das kleine Molekül p-DTS(FBTTh2)2, welches Silizium-überbrücktes Dithiophen, sowie fluoriertes Benzothiadiazol und Dithiophen beinhaltet, verwendet. Als Elektronenakzeptor finden ein planares 3,4:9,10-Perylentetracarbonsäurediimid-(PDI)-Derivat und verschiedene Fullerenderivate Anwendung. PDI-Derivate gelten als vielversprechende Alternativen zu Fullerenen aufgrund der durch chemische Synthese abstimmbaren strukturellen, optischen und elektronischen Eigenschaften. Das gewichtigste Argument für PDI-Derivate ist deren Absorption im sichtbaren Bereich des Sonnenspektrums was den Photostrom verbessern kann. Fulleren-basierte Mischungen übertreffen jedoch für gewöhnlich die Effizienz von Donor-PDI-Mischungen.rnUm den Nachteil der PDI-basierten Mischungen im Vergleich zu den entsprechenden Fulleren-basierten Mischungen zu identifizieren, werden die verschiedenen Donor-Akzeptor-Kombinationen auf ihre optischen, elektronischen und strukturellen Eigenschaften untersucht. Zeitaufgelöste Spektroskopie, vor allem transiente Absorptionsspektroskopie (TA), wird zur Analyse der Ladungsgeneration angewendet und der Vergleich der Donor-PDI Mischfilme mit den Donor-Fulleren Mischfilmen zeigt, dass die Bildung von Ladungstransferzuständen einen der Hauptverlustkanäle darstellt.rnWeiterhin werden Mischungen aus PBDTTT-C und [6,6]-Phenyl-C61-buttersäuremethylesther (PC61BM) mittels TA-Spektroskopie auf einer Zeitskala von ps bis µs untersucht und es kann gezeigt werden, dass der Triplettzustand des Polymers über die nicht-geminale Rekombination freier Ladungen auf einer sub-ns Zeitskala bevölkert wird. Hochentwickelte Methoden zur Datenanalyse, wie multivariate curve resolution (MCR), werden angewendet um überlagernde Datensignale zu trennen. Zusätzlich kann die Regeneration von Ladungsträgern durch Triplett-Triplett-Annihilation auf einer ns-µs Zeitskala gezeigt werden. Darüber hinaus wird der Einfluss des Lösungsmitteladditivs 1,8-Diiodooctan (DIO) auf die Leistungsfähigkeit von p-DTS(FBTTh2)2:PDI Solarzellen untersucht. Die Erkenntnisse von morphologischen und photophysikalischen Experimenten werden kombiniert, um die strukturellen Eigenschaften und die Photophysik mit den relevanten Kenngrößen des Bauteils in Verbindung zu setzen. Zeitaufgelöste Photolumineszenzmessungen (time-resolved photoluminescence, TRPL) zeigen, dass der Einsatz von DIO zu einer geringeren Reduzierung der Photolumineszenz führt, was auf eine größere Phasentrennung zurückgeführt werden kann. Außerdem kann mittels TA Spektroskopie gezeigt werden, dass die Verwendung von DIO zu einer verbesserten Kristallinität der aktiven Schicht führt und die Generation freier Ladungen fördert. Zur genauen Analyse des Signalzerfalls wird ein Modell angewendet, das den gleichzeitigen Zerfall gebundener CT-Zustände und freier Ladungen berücksichtigt und optimierte Donor-Akzeptor-Mischungen zeigen einen größeren Anteil an nicht-geminaler Rekombination freier Ladungsträger.rnIn einer weiteren Fallstudie wird der Einfluss des Fullerenderivats, namentlich IC60BA und PC71BM, auf die Leistungsfähigkeit und Photophysik der Solarzellen untersucht. Eine Kombination aus einer Untersuchung der Struktur des Dünnfilms sowie zeitaufgelöster Spektroskopie ergibt, dass Mischungen, die ICBA als Elektronenakzeptor verwenden, eine schlechtere Trennung von Ladungstransferzuständen zeigen und unter einer stärkeren geminalen Rekombination im Vergleich zu PCBM-basierten Mischungen leiden. Dies kann auf die kleinere Triebkraft zur Ladungstrennung sowie auf die höhere Unordnung der ICBA-basierten Mischungen, die die Ladungstrennung hemmen, zurückgeführt werden. Außerdem wird der Einfluss reiner Fullerendomänen auf die Funktionsfähigkeit organischer Solarzellen, die aus Mischungen des Thienothienophen-basierenden Polymers pBTTT-C14 und PC61BM bestehen, untersucht. Aus diesem Grund wird die Photophysik von Filmen mit einem Donor-Akzeptor-Mischungsverhältnis von 1:1 sowie 1:4 verglichen. Während 1:1-Mischungen lediglich eine co-kristalline Phase, in der Fullerene zwischen den Seitenketten von pBTTT interkalieren, zeigen, resultiert der Überschuss an Fulleren in den 1:4-Proben in der Ausbildung reiner Fullerendomänen zusätzlich zu der co kristallinen Phase. Transiente Absorptionsspektroskopie verdeutlicht, dass Ladungstransferzustände in 1:1-Mischungen hauptsächlich über geminale Rekombination zerfallen, während in 1:4 Mischungen ein beträchtlicher Anteil an Ladungen ihre wechselseitige Coulombanziehung überwinden und freie Ladungsträger bilden kann, die schließlich nicht-geminal rekombinieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wireless communication is the transfer of information from one place to another without using wires. From the earliest times, humans have felt the need to develop techniques of remote communication. From this need arose the smoke signals, communication by sun reflection in mirrors and so on. But today the telecommunications electronic devices such as telephone, television, radio or computer. Radio and television are used for one-way communication. Telephone and computer are used for two-way communication. In wireless networks there is almost unlimited mobility, we can access the network almost anywhere or anytime. In wired networks we have the restriction of using the services in fixed area services. The demand of the wireless is increasing very fast; everybody wants broadband services anywhere anytime. WiMAX (Worldwide Interoperability for Microwave Access) is a broadband wireless technology based on IEEE 802.16-2004 and IEEE 802.16e-2005 that appears to solve this demand. WIMAX is a system that allows wireless data transmission in areas of up to 48 km of radius. It is designed as a wireless alternative to ADSL and a way to connect nodes in wireless metropolitan areas network. Unlike wireless systems that are limited in most cases, about 100 meter, providing greater coverage and more bandwidth. WIMAX promises to achieve high data transmission rates over large areas with a great amount of users. This alternative to the networks of broadband access common as DSL o Wi-Fi, can give broadband access to places quickly to rural areas and developing areas around the world. This paper is a study of WIMAX technology and market situation. First, the paper is responsible for explaining the technical aspects of WIMAX. For this gives an overview of WIMAX standards, physical layer, MAC layer and WiMAX, Technology and Market Beijing University of Post and Telecommunications 2 WIMAX network architecture. Second, the paper address the issue of market in which provides an overview of development and deployment of WIMAX to end the future development trend of WIMAX is addressed. RESUMEN: Por comunicaciones inalámbricas se entiende la transferencia de información desde un lugar a otro sin la necesidad de un soporte físico como es por ejemplo el cable. Por lo que remontándose a los principios de la existencia del ser humano, nos damos cuenta de que el ser humano siempre ha sentido la necesidad de desarrollar técnicas para lograr comunicarse a distancia con sus semejantes. De dicha necesidad, surgieron técnicas tan ancestrales como puede ser la comunicación mediante señales de humo o por reflexión de los rayos solares en espejos entre otras. La curiosidad del ser humano y la necesidad de comunicarse a distancia fue la que llevó a Alexander Graham Bell a inventar el teléfono en 1876. La aparición de un dispositivo que permitía comunicarse a distancia permitiendo escuchar la voz de aquella persona con la que se quería hablar, supuso una revolución no solo en el panorama tecnológico, si no también en el panorama social. Pues a parte de permitir comunicaciones a larga distancia, solventó el problema de la comunicación en “tiempo real”. A raíz de este invento, la tecnología en materia de comunicación ha ido avanzando significativamente, más concretamente en lo referido a las comunicaciones inalámbricas. En 1973 se realizó la primera llamada desde un terminal móvil aunque no fue hasta 1983 cuando se empezó a comercializar dicho terminal, lo que supuso un cambio de hábitos y costumbres para la sociedad. Desde la aparición del primer móvil el crecimiento del mercado ha sido exponencial, lo que ha repercutido en una demanda impensable de nuevas aplicaciones integradas en dichos dispositivos móviles que satisfagan las necesidades que día a día autogenera la sociedad. Tras conseguir realizar llamadas a larga distancia de forma inalámbrica, el siguiente paso fue la creación de los SMS (Short Message System) lo que supuso una nueva revolución además de abaratar costes al usuario a la hora de comunicarse. Pero el gran reto para la industria de las comunicaciones móviles surgió con la aparición de internet. Todo el mundo sentía la necesidad de poder conectarse a esa gran base de datos que es internet en cualquier parte y en cualquier momento. Las primeras conexiones a internet desde dispositivos móviles se realizaron a través de la tecnología WAP (Wireless Application Protocol) hasta la aparición de la tecnología GPRS que permitía la conexión mediante protocolo TCP/IP. A partir de estas conexiones han surgido otras tecnologías, como EDGE, HSDPA, etc., que permitían y permiten la conexión a internet desde dispositivos móviles. Hoy en día la demanda de servicios de red inalámbrica crece de forma rápida y exponencial, todo el mundo quiere servicios de banda ancha en cualquier lugar y en cualquier momento. En este documento se analiza la tecnología WiMAX ( Worldwide Interoperability for Microwave Access) que es una tecnología de banda ancha basada en el estándar IEEE 802.16 creada para brindar servicios a la demanda emergente en la banda ancha desde un punto de vista tecnológico, donde se da una visión de la parte técnica de la tecnología; y desde el punto de vista del mercado, donde se analiza el despliegue y desarrollo de la tecnología desde el punto de vista de negocio. WiMAX es una tecnología que permite la transmisión inalámbrica de datos en áreas de hasta 48Km de radio y que está diseñada como alternativa inalámbrica para ADSL y para conectar nodos de red inalámbrica en áreas metropolitanas. A diferencia de los sistemas inalámbricos existentes que están limitados en su mayoría a unos cientos de metros, WiMAX ofrece una mayor cobertura y un mayor ancho de banda que permita dar soporte a nuevas aplicaciones, además de alcanzar altas tasas de transmisión de datos en grandes áreas con una gran cantidad de usuarios. Se trata de una alternativa a las redes de acceso de banda ancha como DSL o Wi-Fi, que puede dar acceso de banda ancha a lugares tales como zonas rurales o zonas en vías de desarrollo por todo el mundo con rapidez. Existen dos tecnologías de WiMAX, WiMAX fijo (basado en el estándar IEEE 802.16d-2004) y WiMAX móvil (basado en el estándar IEEE 802.16e-2005). La tecnología fija está diseñada para comunicaciones punto a multipunto, mientras que la fija lo está para comunicaciones multipunto a multipunto. WiMAX móvil se basa en la tecnología OFDM que ofrece ventajas en términos de latencia, eficiencia en el uso del espectro y soporte avanzado para antenas. La modulación OFDM es muy robusta frente al multitrayecto, que es muy habitual en los canales de radiodifusión, frente al desvanecimiento debido a las condiciones meteorológicas y frente a las interferencias de RF. Una vez creada la tecnología WiMAX, poseedora de las características idóneas para solventar la demanda del mercado, ha de darse el siguiente paso, hay que convencer a la industria de las telecomunicaciones de que dicha tecnología realmente es la solución para que apoyen su implantación en el mercado de la banda ancha para las redes inalámbricas. Es aquí donde entra en juego el estudio del mercado que se realiza en este documento. WiMAX se enfrenta a un mercado exigente en el que a parte de tener que dar soporte a la demanda técnica, ha de ofrecer una rentabilidad económica a la industria de las comunicaciones móviles y más concretamente a las operadoras móviles que son quienes dentro del sector de las telecomunicaciones finalmente han de confiar en la tecnología para dar soporte a sus usuarios ya que estos al fin y al cabo lo único que quieren es que su dispositivo móvil satisfaga sus necesidades independientemente de la tecnología que utilicen para tener acceso a la red inalámbrica de banda ancha. Quizás el mayor problema al que se ha enfrentado WiMAX haya sido la situación económica en la que se encuentra el mundo. WiMAX a comenzado su andadura en uno de los peores momentos, pero aun así se presenta como una tecnología capaz de ayudar al mundo a salir hacia delante en estos tiempos tan duros. Finalmente se analiza uno de los debates existentes hoy en día en el sector de las comunicaciones móviles, WiMAX vs. LTE. Como se puede observar en el documento realmente una tecnología no saldrá victoriosa frente a la otra, si no que ambas tecnologías podrán coexistir y trabajar de forma conjunta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract The proliferation of wireless sensor networks and the variety of envisioned applications associated with them has motivated the development of distributed algorithms for collaborative processing over networked systems. One of the applications that has attracted the attention of the researchers is that of target localization where the nodes of the network try to estimate the position of an unknown target that lies within its coverage area. Particularly challenging is the problem of estimating the target’s position when we use received signal strength indicator (RSSI) due to the nonlinear relationship between the measured signal and the true position of the target. Many of the existing approaches suffer either from high computational complexity (e.g., particle filters) or lack of accuracy. Further, many of the proposed solutions are centralized which make their application to a sensor network questionable. Depending on the application at hand and, from a practical perspective it could be convenient to find a balance between localization accuracy and complexity. Into this direction we approach the maximum likelihood location estimation problem by solving a suboptimal (and more tractable) problem. One of the main advantages of the proposed scheme is that it allows for a decentralized implementation using distributed processing tools (e.g., consensus and convex optimization) and therefore, it is very suitable to be implemented in real sensor networks. If further accuracy is needed an additional refinement step could be performed around the found solution. Under the assumption of independent noise among the nodes such local search can be done in a fully distributed way using a distributed version of the Gauss-Newton method based on consensus. Regardless of the underlying application or function of the sensor network it is al¬ways necessary to have a mechanism for data reporting. While some approaches use a special kind of nodes (called sink nodes) for data harvesting and forwarding to the outside world, there are however some scenarios where such an approach is impractical or even impossible to deploy. Further, such sink nodes become a bottleneck in terms of traffic flow and power consumption. To overcome these issues instead of using sink nodes for data reporting one could use collaborative beamforming techniques to forward directly the generated data to a base station or gateway to the outside world. In a dis-tributed environment like a sensor network nodes cooperate in order to form a virtual antenna array that can exploit the benefits of multi-antenna communications. In col-laborative beamforming nodes synchronize their phases in order to add constructively at the receiver. Some of the inconveniences associated with collaborative beamforming techniques is that there is no control over the radiation pattern since it is treated as a random quantity. This may cause interference to other coexisting systems and fast bat-tery depletion at the nodes. Since energy-efficiency is a major design issue we consider the development of a distributed collaborative beamforming scheme that maximizes the network lifetime while meeting some quality of service (QoS) requirement at the re¬ceiver side. Using local information about battery status and channel conditions we find distributed algorithms that converge to the optimal centralized beamformer. While in the first part we consider only battery depletion due to communications beamforming, we extend the model to account for more realistic scenarios by the introduction of an additional random energy consumption. It is shown how the new problem generalizes the original one and under which conditions it is easily solvable. By formulating the problem under the energy-efficiency perspective the network’s lifetime is significantly improved. Resumen La proliferación de las redes inalámbricas de sensores junto con la gran variedad de posi¬bles aplicaciones relacionadas, han motivado el desarrollo de herramientas y algoritmos necesarios para el procesado cooperativo en sistemas distribuidos. Una de las aplicaciones que suscitado mayor interés entre la comunidad científica es la de localization, donde el conjunto de nodos de la red intenta estimar la posición de un blanco localizado dentro de su área de cobertura. El problema de la localization es especialmente desafiante cuando se usan niveles de energía de la seal recibida (RSSI por sus siglas en inglés) como medida para la localization. El principal inconveniente reside en el hecho que el nivel de señal recibida no sigue una relación lineal con la posición del blanco. Muchas de las soluciones actuales al problema de localization usando RSSI se basan en complejos esquemas centralizados como filtros de partículas, mientas que en otras se basan en esquemas mucho más simples pero con menor precisión. Además, en muchos casos las estrategias son centralizadas lo que resulta poco prácticos para su implementación en redes de sensores. Desde un punto de vista práctico y de implementation, es conveniente, para ciertos escenarios y aplicaciones, el desarrollo de alternativas que ofrezcan un compromiso entre complejidad y precisión. En esta línea, en lugar de abordar directamente el problema de la estimación de la posición del blanco bajo el criterio de máxima verosimilitud, proponemos usar una formulación subóptima del problema más manejable analíticamente y que ofrece la ventaja de permitir en¬contrar la solución al problema de localization de una forma totalmente distribuida, convirtiéndola así en una solución atractiva dentro del contexto de redes inalámbricas de sensores. Para ello, se usan herramientas de procesado distribuido como los algorit¬mos de consenso y de optimización convexa en sistemas distribuidos. Para aplicaciones donde se requiera de un mayor grado de precisión se propone una estrategia que con¬siste en la optimización local de la función de verosimilitud entorno a la estimación inicialmente obtenida. Esta optimización se puede realizar de forma descentralizada usando una versión basada en consenso del método de Gauss-Newton siempre y cuando asumamos independencia de los ruidos de medida en los diferentes nodos. Independientemente de la aplicación subyacente de la red de sensores, es necesario tener un mecanismo que permita recopilar los datos provenientes de la red de sensores. Una forma de hacerlo es mediante el uso de uno o varios nodos especiales, llamados nodos “sumidero”, (sink en inglés) que actúen como centros recolectores de información y que estarán equipados con hardware adicional que les permita la interacción con el exterior de la red. La principal desventaja de esta estrategia es que dichos nodos se convierten en cuellos de botella en cuanto a tráfico y capacidad de cálculo. Como alter¬nativa se pueden usar técnicas cooperativas de conformación de haz (beamforming en inglés) de manera que el conjunto de la red puede verse como un único sistema virtual de múltiples antenas y, por tanto, que exploten los beneficios que ofrecen las comu¬nicaciones con múltiples antenas. Para ello, los distintos nodos de la red sincronizan sus transmisiones de manera que se produce una interferencia constructiva en el recep¬tor. No obstante, las actuales técnicas se basan en resultados promedios y asintóticos, cuando el número de nodos es muy grande. Para una configuración específica se pierde el control sobre el diagrama de radiación causando posibles interferencias sobre sis¬temas coexistentes o gastando más potencia de la requerida. La eficiencia energética es una cuestión capital en las redes inalámbricas de sensores ya que los nodos están equipados con baterías. Es por tanto muy importante preservar la batería evitando cambios innecesarios y el consecuente aumento de costes. Bajo estas consideraciones, se propone un esquema de conformación de haz que maximice el tiempo de vida útil de la red, entendiendo como tal el máximo tiempo que la red puede estar operativa garantizando unos requisitos de calidad de servicio (QoS por sus siglas en inglés) que permitan una decodificación fiable de la señal recibida en la estación base. Se proponen además algoritmos distribuidos que convergen a la solución centralizada. Inicialmente se considera que la única causa de consumo energético se debe a las comunicaciones con la estación base. Este modelo de consumo energético es modificado para tener en cuenta otras formas de consumo de energía derivadas de procesos inherentes al funcionamiento de la red como la adquisición y procesado de datos, las comunicaciones locales entre nodos, etc. Dicho consumo adicional de energía se modela como una variable aleatoria en cada nodo. Se cambia por tanto, a un escenario probabilístico que generaliza el caso determinista y se proporcionan condiciones bajo las cuales el problema se puede resolver de forma eficiente. Se demuestra que el tiempo de vida de la red mejora de forma significativa usando el criterio propuesto de eficiencia energética.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One important task in the design of an antenna is to carry out an analysis to find out the characteristics of the antenna that best fulfills the specifications fixed by the application. After that, a prototype is manufactured and the next stage in design process is to check if the radiation pattern differs from the designed one. Besides the radiation pattern, other radiation parameters like directivity, gain, impedance, beamwidth, efficiency, polarization, etc. must be also evaluated. For this purpose, accurate antenna measurement techniques are needed in order to know exactly the actual electromagnetic behavior of the antenna under test. Due to this fact, most of the measurements are performed in anechoic chambers, which are closed areas, normally shielded, covered by electromagnetic absorbing material, that simulate free space propagation conditions, due to the absorption of the radiation absorbing material. Moreover, these facilities can be employed independently of the weather conditions and allow measurements free from interferences. Despite all the advantages of the anechoic chambers, the results obtained both from far-field measurements and near-field measurements are inevitably affected by errors. Thus, the main objective of this Thesis is to propose algorithms to improve the quality of the results obtained in antenna measurements by using post-processing techniques and without requiring additional measurements. First, a deep revision work of the state of the art has been made in order to give a general vision of the possibilities to characterize or to reduce the effects of errors in antenna measurements. Later, new methods to reduce the unwanted effects of four of the most commons errors in antenna measurements are described and theoretical and numerically validated. The basis of all them is the same, to perform a transformation from the measurement surface to another domain where there is enough information to easily remove the contribution of the errors. The four errors analyzed are noise, reflections, truncation errors and leakage and the tools used to suppress them are mainly source reconstruction techniques, spatial and modal filtering and iterative algorithms to extrapolate functions. Therefore, the main idea of all the methods is to modify the classical near-field-to-far-field transformations by including additional steps with which errors can be greatly suppressed. Moreover, the proposed methods are not computationally complex and, because they are applied in post-processing, additional measurements are not required. The noise is the most widely studied error in this Thesis, proposing a total of three alternatives to filter out an important noise contribution before obtaining the far-field pattern. The first one is based on a modal filtering. The second alternative uses a source reconstruction technique to obtain the extreme near-field where it is possible to apply a spatial filtering. The last one is to back-propagate the measured field to a surface with the same geometry than the measurement surface but closer to the AUT and then to apply also a spatial filtering. All the alternatives are analyzed in the three most common near-field systems, including comprehensive noise statistical analyses in order to deduce the signal-to-noise ratio improvement achieved in each case. The method to suppress reflections in antenna measurements is also based on a source reconstruction technique and the main idea is to reconstruct the field over a surface larger than the antenna aperture in order to be able to identify and later suppress the virtual sources related to the reflective waves. The truncation error presents in the results obtained from planar, cylindrical and partial spherical near-field measurements is the third error analyzed in this Thesis. The method to reduce this error is based on an iterative algorithm to extrapolate the reliable region of the far-field pattern from the knowledge of the field distribution on the AUT plane. The proper termination point of this iterative algorithm as well as other critical aspects of the method are also studied. The last part of this work is dedicated to the detection and suppression of the two most common leakage sources in antenna measurements. A first method tries to estimate the leakage bias constant added by the receiver’s quadrature detector to every near-field data and then suppress its effect on the far-field pattern. The second method can be divided into two parts; the first one to find the position of the faulty component that radiates or receives unwanted radiation, making easier its identification within the measurement environment and its later substitution; and the second part of this method is able to computationally remove the leakage effect without requiring the substitution of the faulty component. Resumen Una tarea importante en el diseño de una antena es llevar a cabo un análisis para averiguar las características de la antena que mejor cumple las especificaciones fijadas por la aplicación. Después de esto, se fabrica un prototipo de la antena y el siguiente paso en el proceso de diseño es comprobar si el patrón de radiación difiere del diseñado. Además del patrón de radiación, otros parámetros de radiación como la directividad, la ganancia, impedancia, ancho de haz, eficiencia, polarización, etc. deben ser también evaluados. Para lograr este propósito, se necesitan técnicas de medida de antenas muy precisas con el fin de saber exactamente el comportamiento electromagnético real de la antena bajo prueba. Debido a esto, la mayoría de las medidas se realizan en cámaras anecoicas, que son áreas cerradas, normalmente revestidas, cubiertas con material absorbente electromagnético. Además, estas instalaciones se pueden emplear independientemente de las condiciones climatológicas y permiten realizar medidas libres de interferencias. A pesar de todas las ventajas de las cámaras anecoicas, los resultados obtenidos tanto en medidas en campo lejano como en medidas en campo próximo están inevitablemente afectados por errores. Así, el principal objetivo de esta Tesis es proponer algoritmos para mejorar la calidad de los resultados obtenidos en medida de antenas mediante el uso de técnicas de post-procesado. Primeramente, se ha realizado un profundo trabajo de revisión del estado del arte con el fin de dar una visión general de las posibilidades para caracterizar o reducir los efectos de errores en medida de antenas. Después, se han descrito y validado tanto teórica como numéricamente nuevos métodos para reducir el efecto indeseado de cuatro de los errores más comunes en medida de antenas. La base de todos ellos es la misma, realizar una transformación de la superficie de medida a otro dominio donde hay suficiente información para eliminar fácilmente la contribución de los errores. Los cuatro errores analizados son ruido, reflexiones, errores de truncamiento y leakage y las herramientas usadas para suprimirlos son principalmente técnicas de reconstrucción de fuentes, filtrado espacial y modal y algoritmos iterativos para extrapolar funciones. Por lo tanto, la principal idea de todos los métodos es modificar las transformaciones clásicas de campo cercano a campo lejano incluyendo pasos adicionales con los que los errores pueden ser enormemente suprimidos. Además, los métodos propuestos no son computacionalmente complejos y dado que se aplican en post-procesado, no se necesitan medidas adicionales. El ruido es el error más ampliamente estudiado en esta Tesis, proponiéndose un total de tres alternativas para filtrar una importante contribución de ruido antes de obtener el patrón de campo lejano. La primera está basada en un filtrado modal. La segunda alternativa usa una técnica de reconstrucción de fuentes para obtener el campo sobre el plano de la antena donde es posible aplicar un filtrado espacial. La última es propagar el campo medido a una superficie con la misma geometría que la superficie de medida pero más próxima a la antena y luego aplicar también un filtrado espacial. Todas las alternativas han sido analizadas en los sistemas de campo próximos más comunes, incluyendo detallados análisis estadísticos del ruido con el fin de deducir la mejora de la relación señal a ruido lograda en cada caso. El método para suprimir reflexiones en medida de antenas está también basado en una técnica de reconstrucción de fuentes y la principal idea es reconstruir el campo sobre una superficie mayor que la apertura de la antena con el fin de ser capaces de identificar y después suprimir fuentes virtuales relacionadas con las ondas reflejadas. El error de truncamiento que aparece en los resultados obtenidos a partir de medidas en un plano, cilindro o en la porción de una esfera es el tercer error analizado en esta Tesis. El método para reducir este error está basado en un algoritmo iterativo para extrapolar la región fiable del patrón de campo lejano a partir de información de la distribución del campo sobre el plano de la antena. Además, se ha estudiado el punto apropiado de terminación de este algoritmo iterativo así como otros aspectos críticos del método. La última parte de este trabajo está dedicado a la detección y supresión de dos de las fuentes de leakage más comunes en medida de antenas. El primer método intenta realizar una estimación de la constante de fuga del leakage añadido por el detector en cuadratura del receptor a todos los datos en campo próximo y después suprimir su efecto en el patrón de campo lejano. El segundo método se puede dividir en dos partes; la primera de ellas para encontrar la posición de elementos defectuosos que radian o reciben radiación indeseada, haciendo más fácil su identificación dentro del entorno de medida y su posterior substitución. La segunda parte del método es capaz de eliminar computacionalmente el efector del leakage sin necesidad de la substitución del elemento defectuoso.