239 resultados para Antenas reconfiguráveis
Resumo:
O projeto de sistemas de comunicações móveis requer o conhecimento do ambiente em que será implementado. Para tanto, busca-se a exatidão na predição de propagação do sinal através do uso de modelos de predição. O presente trabalho propõe um modelo empírico para a estimativa da intensidade de sinal recebida em ambientes indoor, e que apresentam mais de uma fonte transmissora, utilizando Sistema de Antenas Distribuídas (DAS). O método apresenta uma generalização para o caso de múltiplas fontes, também chamado multifontes, e como caso particular com apenas uma fonte. A modelagem é feita através do uso de radiais partindo de cada transmissor, com o intuito de considerar a variabilidade do sinal em ambientes indoor. Estas várias perturbações no sinal, que causam desvanecimento rápido são caracterizadas através das distribuições estatísticas de desvanecimento. As mais utilizadas como a de Rayleigh, Rice e Nakagami são apresentadas para caracterização do canal, além dessas são calculadas as distribuições recentemente desenvolvidas, de Kappa-mi e Eta-mi. Para a validação do modelo realizaram-se campanhas de medições em um shopping center, que possui um DAS, com o teste em dois ambientes distintos, um supermercado e uma praça de alimentação. As simulações são realizadas no software MATLAB® e o desempenho dos resultados avaliados através do cálculo dos erros absoluto, desvio padrão e erro rms.
Resumo:
Esta dissertação tem como objetivo o desenvolvimento de um modelo matemático capaz de ajustar dados obtidos através de campanhas de medição por meio de um protótipo de um cenário da tecnologia WiMAX. As campanhas de medição foram feitas na Universidade Federal do Pará. Foram utilizadas antenas WiMAX, sendo uma como servidor, localizada em cima do prédio do Laboratório de Planejamento de Redes de Alto Desempenho (LPRAD), e a outra, receptora, que ficou em cima de um móvel para que os pontos fossem coletados. O método de ajuste utilizado foi o dos Mínimos Quadrados Lineares. Por meio dos dados coletados, aplica-se o método e estuda seu comportamento, verificando o quanto a otimização foi eficiente nos casos apresentados. A utilização da tecnologia em questão como acesso à Internet em alguns programas como o NAVEGAPARÁ, a busca de melhoramentos ou criação de modelos de propagação e a análise cross-layer das métricas utilizadas no trabalho, como a influência da relação sinal-ruído na perda de quadros, são fatores motivadores para a pesquisa desta dissertação.
Resumo:
O Brasil está realizando testes para selecionar o padrão de transmissão digital a ser adotado. Sistemas como Digital Radio Mondiale (DRM) e Rádio de Alta Definição (HD Radio), desenvolvido apenas para frequências abaixo de 30 MHz permitem a operação com largura de banda compatível com a utilizada no país, abrindo a possibilidade de coexistência de radiodifusão analógica e digital. Para qualquer sistema a ser adotado são necessários estudos que permitem uma melhor gestão do espectro eletromagnético, que exige conhecimento real do alcance do sinal. A propagação de ondas eletromagnéticas na faixa de ondas médias (MW) é caracterizada pela dependência do campo em relação aos parâmetros elétricos do solo. Para contribuir para o planejamento e adaptação do Plano Básico de Radiodifusão em Onda Média – PMWB, a inclusão de novas estações que operam principalmente em simulcast-canal, torna-se necessário desenvolver ferramentas que permitem a avaliação das características do solo onde não fornece dados precisos, permitindo uma revisão de modelos teóricos para prever a adoção, contribuindo para a implantação do rádio digital em nosso país. Este trabalho apresenta os resultados dos ensaios de campo realizados pela ANATEL (Agência Nacional de Telecomunicações) e Radiobrás para analisar um sistema de DRM (Digital Radio Mondiale) na faixa de ondas médias. Foi gerada uma potência de 50kW, com antenas omni-direcionais operando na frequência de 980kHz e utilizando um veículo de medição para recepção fixa e móvel. Várias vias radiais foram percorridas a partir do transmissor localizado em uma área urbana e rural nos entorno da capital do Brasil, Brasília. A partir desses dados é proposto um modelo para avaliação das características elétricas do solo correspondente ao campo elétrico, através da aplicação do método de Equações Parabólicas e comprovação da eficácia do modelo proposto.
Resumo:
O gênero Bondariella Hustache & Bondar, 1942 foi revisado no presente trabalho com atualização dos nomes de estruturas taxonômicos e inclusão de caracteres para a diagnose do gênero como rostro, escrobo, escapo antenal, inserção antenal, intervalos elitrais e terminália masculina, ventritos e tergitos. Duas novas espécies são acrescentadas para o gênero. São fornecidos no trabalho redescrições das espécies conhecidas, descrições das espécies novas, ilustrações dos lectótipos e paralectótipos, das antenas, ventritos, tergitos e terminália masculina. Também são incluídas informações das plantas-hospedeiras, mostrando associação das espécies de Bondariella com espécies de palmeiras dos gêneros Syagrus Mart. e Euterpe Mart.
Resumo:
A presente pesquisa trata o projeto e análise de uma antena monopolo planar com geometria modificada visando sua utilização para recepção do sinal de TV digital operante no Brasil na faixa de 470 MHz a 806 MHz. Faixa essa contida no espectro de UHF – Ultra High Frequency (300 MHz a 3 GHz). Para desenvolvimento desse trabalho foi tomado como referência à antena denominada “The Hi Monopole”. Que originalmente foi apresentada para operar em sistemas UWB (Ultra Wide Band) em 3,1 a 10,6 GHz. Para o desenvolvimento do trabalho proposto, diferentes técnicas de adequação da antena podem ser utilizadas para operação em banda larga, tais como: modificação na estrutura da antena, carregamento resistivo, chaveamento, utilização de elementos parasitas e estruturas de casamento. O projeto de antenas banda larga pode ser realizado a partir de três abordagens diferentes: domínio do tempo, domínio da frequência e método de expansão por singularidades. O método no domínio da frequência foi empregado neste trabalho para o projeto da antena proposta, algumas das técnicas supracitadas foram analisadas almejando o aumento da largura de banda, sendo confeccionado um protótipo da antena para validar os conceitos empregados. A antena foi então projetada para a faixa de 470 MHz a 890 MHz. O protótipo construído para essa mesma faixa apresentou bons resultados, o que valida à técnica empregada. Aspectos positivos e negativos do uso desta técnica são discutidos ao longo do trabalho. O programa computacional comercial CST® MICROWAVE STUDIO, baseado na Técnica da Integração Finita (FIT), foi usado para simulações no domínio da frequência.
Resumo:
Este simulador é formado pela junção de técnicas de Realidade Virtual com modelos de propagação, desenvolvidos através dos estudos de rádio enlace, que descrevem a perda que o sinal transmitido sofre ao longo do percurso no ambiente. O simulador possui dois módulos. O primeiro permite a criação do ambiente virtual com o posicionamento, sobre um terreno, de prédios, árvores, carros, antenas e outras primitivas que permitem a construção de um ambiente tridimensional customizável. O segundo módulo permite a configuração dos parâmetros relacionados a propagação de sinal de antenas como a potência, a frequência, o ganho, etc., e também selecionar o modelo de propagação para a execução da simulação. Dentro deste segundo módulo, existe um submódulo responsável pelo estudo do planejamento da área de cobertura composta pelas antenas, em outras palavras, este submódulo simula a distância que cada antena no cenário consegue atingir e gera a respectiva área de cobertura. Para demonstrar a eficiência do simulador foram criados dois ambientes virtuais para testes. Um cenário representando um ambiente urbano onde empregou-se um modelo de propagação clássico, Okumura-Hata para cidades pequenas e médias, e um ambiente tridimensional arborizado utilizando um modelo especifico para simulação de propagação para regiões densamente arborizadas, desenvolvido na Universidade Federal do Pará chamado de Lyra-Castro-UFPA.
Resumo:
Este trabalho consistiu em avaliar a viabilidade do método GPR (Ground Penetrating Radar) na localização de tubulações de aço, cimento-amianto, PVC e ferro fundido, de diversos diâmetros, utilizadas pela Companhia de Saneamento do Pará (COSANPA), no abastecimento de água à população da região urbana do município de Belém-Pará. Para o alcance deste objetivo foram realizados 14 perfis em 6 locais, distintos da área urbana de Belém, com o intuito de identificar 13 alvos, utilizando-se antenas de 200 MHz e 400 MHz, geralmente usadas neste tipo de levantamento. Os radargramas obtidos com o GPR permitiram identificar quase todos os alvos pesquisados. Apenas 3 dos 13 alvos, não foram plenamente identificados, ficando de fora, apenas os alvos de PVC, de pequena bitola (50 mm e 75 mm). Após o estudo concluímos que o método GPR é muito eficaz neste tipo de aplicação e que sua utilização tem grande valia na localização das redes de abastecimento de água. O que deve facilitar enormemente as obras de expansão da rede, assim como a sua manutenção.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Wireless communications is a feature that has become indispensable for many people in the whole world. Through this feature, communication process can become much more efficient, allowing people to access information much more quickly wherever they are. The constant evolution of communication technologies allows the development of new unthinkable applications and services. This new range of possibilities brings greater mobility and efficiency for final users and also helps service providers and carriers to improve the quality of services offered by them. This study presents the principles of wireless communication and the Wi-Fi technology as well as its most modern applications, covering from the basics of computer networks to the procedures of planning a wireless network, concepts of radio frequency, antennas, patterns, regulatory agencies, network equipment, protocols and network monitoring
Resumo:
Currently the mobile services represent an essential tool in daily life of the population. However, while offering greater convenience to its users, there is growing concern about the harmful effects to human health, derived from daily exposure of the public to electromagnetic fields from radio base stations (RBS), since even today, there is no study proving that longterm exposure to low-level fields are not harmful to health. In Presidente Prudente has not been a study reporting values of measurements of electromagnetic fields from base stations installed in the city. Based on these data, this study aimed to assess the levels of electromagnetic exposure in the city of Presidente Prudente regarding recommended by international bodies, as well as propose measures that can reduce public exposure to electromagnetic fields. For measuring values of electromagnetic fields, we used appliance Electromagnetic Field Meter Portable Digital - DRE-050, the Instrutherm, following the methodology suggested and adapted from the Adilza Condessa Dode’study. In total, 49 points were mapped corresponding to the areas at risk of exposure to electromagnetic fields generated by the substations of power grid, transmission towers and telecommunication towers located in the city of Presidente Prudente (SP)
Resumo:
As abelhas Apis mellifera africanizadas são consideradas importantes agentes polinizadores que estão freqüentemente expostos à ação tóxica de inseticidas aplicados em cultivos. O imidaclopride é um inseticida sistêmico do grupo dos neonicotinóides e atua como agonista da acetilcolina nas sinapses do sistema nervoso central. Em abelhas foi verificado, através do método de resposta de extensão da probóscide (REP), que doses subletais de imidaclopride provocam deficiência no aprendizado olfatório e prejudicam a memória. A proteína Fos, expressa em neurônios, tem sua transcrição alterada por diversos estímulos como estresse, lesões, exposição a toxinas ou a predadores. Dessa forma, este trabalho teve por objetivo avaliar os efeitos neurotóxicos do inseticida imidaclopride, em operárias de Apis mellifera africanizadas, através da análise da expressão de Fos. Abelhas recém-emergidas e campeiras foram tratadas com 10, 20, 40 e 80 ng/abelha de imidaclopride e seus cérebros dissecados 15 minutos, 30 minutos, 1 hora e 4 horas após a ingestão do composto. Houve uma marcação positiva para Fos nos ocelos e na região dos olhos, principalmente na lâmina e na retina. Tal resultado era esperado, uma vez que o as abelhas foram expostas a luminosidade, durante a realização dos ensaios. Os lobos antenais são constituídos por prolongamentos de células sensoriais das antenas e pelos neurônios motores e os corpos pedunculados são tidos como os centros de processamento dos estímulos sensoriais recebidos pelos olhos e pelas antenas, assim, esperava-se que houvesse marcação positiva nestas regiões. Porém isto não foi observado no presente trabalho. Analisando-se os valores quantitativos da expressão da proteína Fos percebeu-se que não houve um padrão de ...(Resumo completo, clicar acesso eletrônico abaixo)
Resumo:
In this paper expounds on the major phases or generations of the evolutionary process of wireless mobile communication, emphasizing their characteristics and changes over time. The main benefit of this process is the rate of data transfer remembering capacity spectral and methods of harnessing and improving its efficiency. The current network today is 4G and the technologies developed over the following requirements of the ITU are: Long Term Evolution Advanced (LTE-Advanced) and WirelessMAN-Advanced as part of the WiMAX IEEE 802.16m also described in this graduate work
Resumo:
Wireless communication is the transfer of information from one place to another without using wires. From the earliest times, humans have felt the need to develop techniques of remote communication. From this need arose the smoke signals, communication by sun reflection in mirrors and so on. But today the telecommunications electronic devices such as telephone, television, radio or computer. Radio and television are used for one-way communication. Telephone and computer are used for two-way communication. In wireless networks there is almost unlimited mobility, we can access the network almost anywhere or anytime. In wired networks we have the restriction of using the services in fixed area services. The demand of the wireless is increasing very fast; everybody wants broadband services anywhere anytime. WiMAX (Worldwide Interoperability for Microwave Access) is a broadband wireless technology based on IEEE 802.16-2004 and IEEE 802.16e-2005 that appears to solve this demand. WIMAX is a system that allows wireless data transmission in areas of up to 48 km of radius. It is designed as a wireless alternative to ADSL and a way to connect nodes in wireless metropolitan areas network. Unlike wireless systems that are limited in most cases, about 100 meter, providing greater coverage and more bandwidth. WIMAX promises to achieve high data transmission rates over large areas with a great amount of users. This alternative to the networks of broadband access common as DSL o Wi-Fi, can give broadband access to places quickly to rural areas and developing areas around the world. This paper is a study of WIMAX technology and market situation. First, the paper is responsible for explaining the technical aspects of WIMAX. For this gives an overview of WIMAX standards, physical layer, MAC layer and WiMAX, Technology and Market Beijing University of Post and Telecommunications 2 WIMAX network architecture. Second, the paper address the issue of market in which provides an overview of development and deployment of WIMAX to end the future development trend of WIMAX is addressed. RESUMEN: Por comunicaciones inalámbricas se entiende la transferencia de información desde un lugar a otro sin la necesidad de un soporte físico como es por ejemplo el cable. Por lo que remontándose a los principios de la existencia del ser humano, nos damos cuenta de que el ser humano siempre ha sentido la necesidad de desarrollar técnicas para lograr comunicarse a distancia con sus semejantes. De dicha necesidad, surgieron técnicas tan ancestrales como puede ser la comunicación mediante señales de humo o por reflexión de los rayos solares en espejos entre otras. La curiosidad del ser humano y la necesidad de comunicarse a distancia fue la que llevó a Alexander Graham Bell a inventar el teléfono en 1876. La aparición de un dispositivo que permitía comunicarse a distancia permitiendo escuchar la voz de aquella persona con la que se quería hablar, supuso una revolución no solo en el panorama tecnológico, si no también en el panorama social. Pues a parte de permitir comunicaciones a larga distancia, solventó el problema de la comunicación en “tiempo real”. A raíz de este invento, la tecnología en materia de comunicación ha ido avanzando significativamente, más concretamente en lo referido a las comunicaciones inalámbricas. En 1973 se realizó la primera llamada desde un terminal móvil aunque no fue hasta 1983 cuando se empezó a comercializar dicho terminal, lo que supuso un cambio de hábitos y costumbres para la sociedad. Desde la aparición del primer móvil el crecimiento del mercado ha sido exponencial, lo que ha repercutido en una demanda impensable de nuevas aplicaciones integradas en dichos dispositivos móviles que satisfagan las necesidades que día a día autogenera la sociedad. Tras conseguir realizar llamadas a larga distancia de forma inalámbrica, el siguiente paso fue la creación de los SMS (Short Message System) lo que supuso una nueva revolución además de abaratar costes al usuario a la hora de comunicarse. Pero el gran reto para la industria de las comunicaciones móviles surgió con la aparición de internet. Todo el mundo sentía la necesidad de poder conectarse a esa gran base de datos que es internet en cualquier parte y en cualquier momento. Las primeras conexiones a internet desde dispositivos móviles se realizaron a través de la tecnología WAP (Wireless Application Protocol) hasta la aparición de la tecnología GPRS que permitía la conexión mediante protocolo TCP/IP. A partir de estas conexiones han surgido otras tecnologías, como EDGE, HSDPA, etc., que permitían y permiten la conexión a internet desde dispositivos móviles. Hoy en día la demanda de servicios de red inalámbrica crece de forma rápida y exponencial, todo el mundo quiere servicios de banda ancha en cualquier lugar y en cualquier momento. En este documento se analiza la tecnología WiMAX ( Worldwide Interoperability for Microwave Access) que es una tecnología de banda ancha basada en el estándar IEEE 802.16 creada para brindar servicios a la demanda emergente en la banda ancha desde un punto de vista tecnológico, donde se da una visión de la parte técnica de la tecnología; y desde el punto de vista del mercado, donde se analiza el despliegue y desarrollo de la tecnología desde el punto de vista de negocio. WiMAX es una tecnología que permite la transmisión inalámbrica de datos en áreas de hasta 48Km de radio y que está diseñada como alternativa inalámbrica para ADSL y para conectar nodos de red inalámbrica en áreas metropolitanas. A diferencia de los sistemas inalámbricos existentes que están limitados en su mayoría a unos cientos de metros, WiMAX ofrece una mayor cobertura y un mayor ancho de banda que permita dar soporte a nuevas aplicaciones, además de alcanzar altas tasas de transmisión de datos en grandes áreas con una gran cantidad de usuarios. Se trata de una alternativa a las redes de acceso de banda ancha como DSL o Wi-Fi, que puede dar acceso de banda ancha a lugares tales como zonas rurales o zonas en vías de desarrollo por todo el mundo con rapidez. Existen dos tecnologías de WiMAX, WiMAX fijo (basado en el estándar IEEE 802.16d-2004) y WiMAX móvil (basado en el estándar IEEE 802.16e-2005). La tecnología fija está diseñada para comunicaciones punto a multipunto, mientras que la fija lo está para comunicaciones multipunto a multipunto. WiMAX móvil se basa en la tecnología OFDM que ofrece ventajas en términos de latencia, eficiencia en el uso del espectro y soporte avanzado para antenas. La modulación OFDM es muy robusta frente al multitrayecto, que es muy habitual en los canales de radiodifusión, frente al desvanecimiento debido a las condiciones meteorológicas y frente a las interferencias de RF. Una vez creada la tecnología WiMAX, poseedora de las características idóneas para solventar la demanda del mercado, ha de darse el siguiente paso, hay que convencer a la industria de las telecomunicaciones de que dicha tecnología realmente es la solución para que apoyen su implantación en el mercado de la banda ancha para las redes inalámbricas. Es aquí donde entra en juego el estudio del mercado que se realiza en este documento. WiMAX se enfrenta a un mercado exigente en el que a parte de tener que dar soporte a la demanda técnica, ha de ofrecer una rentabilidad económica a la industria de las comunicaciones móviles y más concretamente a las operadoras móviles que son quienes dentro del sector de las telecomunicaciones finalmente han de confiar en la tecnología para dar soporte a sus usuarios ya que estos al fin y al cabo lo único que quieren es que su dispositivo móvil satisfaga sus necesidades independientemente de la tecnología que utilicen para tener acceso a la red inalámbrica de banda ancha. Quizás el mayor problema al que se ha enfrentado WiMAX haya sido la situación económica en la que se encuentra el mundo. WiMAX a comenzado su andadura en uno de los peores momentos, pero aun así se presenta como una tecnología capaz de ayudar al mundo a salir hacia delante en estos tiempos tan duros. Finalmente se analiza uno de los debates existentes hoy en día en el sector de las comunicaciones móviles, WiMAX vs. LTE. Como se puede observar en el documento realmente una tecnología no saldrá victoriosa frente a la otra, si no que ambas tecnologías podrán coexistir y trabajar de forma conjunta.
Resumo:
Abstract The proliferation of wireless sensor networks and the variety of envisioned applications associated with them has motivated the development of distributed algorithms for collaborative processing over networked systems. One of the applications that has attracted the attention of the researchers is that of target localization where the nodes of the network try to estimate the position of an unknown target that lies within its coverage area. Particularly challenging is the problem of estimating the target’s position when we use received signal strength indicator (RSSI) due to the nonlinear relationship between the measured signal and the true position of the target. Many of the existing approaches suffer either from high computational complexity (e.g., particle filters) or lack of accuracy. Further, many of the proposed solutions are centralized which make their application to a sensor network questionable. Depending on the application at hand and, from a practical perspective it could be convenient to find a balance between localization accuracy and complexity. Into this direction we approach the maximum likelihood location estimation problem by solving a suboptimal (and more tractable) problem. One of the main advantages of the proposed scheme is that it allows for a decentralized implementation using distributed processing tools (e.g., consensus and convex optimization) and therefore, it is very suitable to be implemented in real sensor networks. If further accuracy is needed an additional refinement step could be performed around the found solution. Under the assumption of independent noise among the nodes such local search can be done in a fully distributed way using a distributed version of the Gauss-Newton method based on consensus. Regardless of the underlying application or function of the sensor network it is al¬ways necessary to have a mechanism for data reporting. While some approaches use a special kind of nodes (called sink nodes) for data harvesting and forwarding to the outside world, there are however some scenarios where such an approach is impractical or even impossible to deploy. Further, such sink nodes become a bottleneck in terms of traffic flow and power consumption. To overcome these issues instead of using sink nodes for data reporting one could use collaborative beamforming techniques to forward directly the generated data to a base station or gateway to the outside world. In a dis-tributed environment like a sensor network nodes cooperate in order to form a virtual antenna array that can exploit the benefits of multi-antenna communications. In col-laborative beamforming nodes synchronize their phases in order to add constructively at the receiver. Some of the inconveniences associated with collaborative beamforming techniques is that there is no control over the radiation pattern since it is treated as a random quantity. This may cause interference to other coexisting systems and fast bat-tery depletion at the nodes. Since energy-efficiency is a major design issue we consider the development of a distributed collaborative beamforming scheme that maximizes the network lifetime while meeting some quality of service (QoS) requirement at the re¬ceiver side. Using local information about battery status and channel conditions we find distributed algorithms that converge to the optimal centralized beamformer. While in the first part we consider only battery depletion due to communications beamforming, we extend the model to account for more realistic scenarios by the introduction of an additional random energy consumption. It is shown how the new problem generalizes the original one and under which conditions it is easily solvable. By formulating the problem under the energy-efficiency perspective the network’s lifetime is significantly improved. Resumen La proliferación de las redes inalámbricas de sensores junto con la gran variedad de posi¬bles aplicaciones relacionadas, han motivado el desarrollo de herramientas y algoritmos necesarios para el procesado cooperativo en sistemas distribuidos. Una de las aplicaciones que suscitado mayor interés entre la comunidad científica es la de localization, donde el conjunto de nodos de la red intenta estimar la posición de un blanco localizado dentro de su área de cobertura. El problema de la localization es especialmente desafiante cuando se usan niveles de energía de la seal recibida (RSSI por sus siglas en inglés) como medida para la localization. El principal inconveniente reside en el hecho que el nivel de señal recibida no sigue una relación lineal con la posición del blanco. Muchas de las soluciones actuales al problema de localization usando RSSI se basan en complejos esquemas centralizados como filtros de partículas, mientas que en otras se basan en esquemas mucho más simples pero con menor precisión. Además, en muchos casos las estrategias son centralizadas lo que resulta poco prácticos para su implementación en redes de sensores. Desde un punto de vista práctico y de implementation, es conveniente, para ciertos escenarios y aplicaciones, el desarrollo de alternativas que ofrezcan un compromiso entre complejidad y precisión. En esta línea, en lugar de abordar directamente el problema de la estimación de la posición del blanco bajo el criterio de máxima verosimilitud, proponemos usar una formulación subóptima del problema más manejable analíticamente y que ofrece la ventaja de permitir en¬contrar la solución al problema de localization de una forma totalmente distribuida, convirtiéndola así en una solución atractiva dentro del contexto de redes inalámbricas de sensores. Para ello, se usan herramientas de procesado distribuido como los algorit¬mos de consenso y de optimización convexa en sistemas distribuidos. Para aplicaciones donde se requiera de un mayor grado de precisión se propone una estrategia que con¬siste en la optimización local de la función de verosimilitud entorno a la estimación inicialmente obtenida. Esta optimización se puede realizar de forma descentralizada usando una versión basada en consenso del método de Gauss-Newton siempre y cuando asumamos independencia de los ruidos de medida en los diferentes nodos. Independientemente de la aplicación subyacente de la red de sensores, es necesario tener un mecanismo que permita recopilar los datos provenientes de la red de sensores. Una forma de hacerlo es mediante el uso de uno o varios nodos especiales, llamados nodos “sumidero”, (sink en inglés) que actúen como centros recolectores de información y que estarán equipados con hardware adicional que les permita la interacción con el exterior de la red. La principal desventaja de esta estrategia es que dichos nodos se convierten en cuellos de botella en cuanto a tráfico y capacidad de cálculo. Como alter¬nativa se pueden usar técnicas cooperativas de conformación de haz (beamforming en inglés) de manera que el conjunto de la red puede verse como un único sistema virtual de múltiples antenas y, por tanto, que exploten los beneficios que ofrecen las comu¬nicaciones con múltiples antenas. Para ello, los distintos nodos de la red sincronizan sus transmisiones de manera que se produce una interferencia constructiva en el recep¬tor. No obstante, las actuales técnicas se basan en resultados promedios y asintóticos, cuando el número de nodos es muy grande. Para una configuración específica se pierde el control sobre el diagrama de radiación causando posibles interferencias sobre sis¬temas coexistentes o gastando más potencia de la requerida. La eficiencia energética es una cuestión capital en las redes inalámbricas de sensores ya que los nodos están equipados con baterías. Es por tanto muy importante preservar la batería evitando cambios innecesarios y el consecuente aumento de costes. Bajo estas consideraciones, se propone un esquema de conformación de haz que maximice el tiempo de vida útil de la red, entendiendo como tal el máximo tiempo que la red puede estar operativa garantizando unos requisitos de calidad de servicio (QoS por sus siglas en inglés) que permitan una decodificación fiable de la señal recibida en la estación base. Se proponen además algoritmos distribuidos que convergen a la solución centralizada. Inicialmente se considera que la única causa de consumo energético se debe a las comunicaciones con la estación base. Este modelo de consumo energético es modificado para tener en cuenta otras formas de consumo de energía derivadas de procesos inherentes al funcionamiento de la red como la adquisición y procesado de datos, las comunicaciones locales entre nodos, etc. Dicho consumo adicional de energía se modela como una variable aleatoria en cada nodo. Se cambia por tanto, a un escenario probabilístico que generaliza el caso determinista y se proporcionan condiciones bajo las cuales el problema se puede resolver de forma eficiente. Se demuestra que el tiempo de vida de la red mejora de forma significativa usando el criterio propuesto de eficiencia energética.