992 resultados para Tecnologia LTE
Resumo:
O telefone celular teve uma grande evolução nos últimos anos, o que antes era utilizado exclusivamente para transmissão de voz, hoje tem características avançadíssimas incluindo várias evoluções tecnológicas. Dentro deste aspecto, a inovação que o LTE (Long Term Evolution) vem demonstrando em suas características realmente se destacam em relação as tecnologias que a antecederam e representa grande evolução se comparada com as outras. Foi desenvolvida no âmbito do projeto 3GPP e (3rd Generation Partners Project) promovido pelo Instituto Europeu de Normalização na área de Telecomunicações ETSI (European Telecommunications Standard Institute). As operadoras que demonstram interesse em disponibilizar esta tecnologia buscam introduzir a flexibilidade do LTE para ir ao encontro dos objetivos de suas redes existentes, espectro e negócios para banda larga móvel e serviços multimídia. O LTE promete taxas de download de 326,4Mbps, taxas de upload de 86,4Mbps, RTT ( ROUND TRIP TIME ) menos de 10 mile segundos e raio das células podendo atingir até 100km. O sistema 4G (LTE) é um sistema integrado completamente baseado em IP, que é resultado de tecnologias conectadas por fios e sem fios disponibilizando um custo acessível, atendendo as exigências de uma rede de comunicação (Wireless), serviços de transferência de mensagens multimídias, conversa com vídeo, televisão móvel de alta definição, serviços mínimos como voz e dados entre outras vantagens. Desta forma, este estudo tem por objetivo analisar quais são as oportunidades e os desafios no mercado de telefonia móvel de Telecomunicações ao implantar o sistema de tecnologia LTE demonstrando o benefício dos fabricantes e operadoras no sentido econômico e tecnológico.
Resumo:
This work treats of an implementation OFDMA baseband processor in hardware for LTE Downlink. The LTE or Long Term Evolution consist the last stage of development of the technology called 3G (Mobile System Third Generation) which offers an increasing in data rate and more efficiency and flexibility in transmission with application of advanced antennas and multiple carriers techniques. This technology applies in your physical layer the OFDMA technical (Orthogonal Frequency Division Multiple Access) for generation of signals and mapping of physical resources in downlink and has as base theoretical to OFDM multiple carriers technique (Orthogonal Frequency Division Multiplexing). With recent completion of LTE specifications, different hardware solutions have been developed, mainly, to the level symbol processing where the implementation of OFDMA processor in base band is commonly considered, because it is also considered a basic architecture of others important applications. For implementation of processor, the reconfigurable hardware offered by devices as FPGA are considered which shares not only to meet the high requirements of flexibility and adaptability of LTE as well as offers possibility of an implementation quick and efficient. The implementation of processor in reconfigurable hardware meets the specifications of LTE physical layer as well as have the flexibility necessary for to meet others standards and application which use OFDMA processor as basic architecture for your systems. The results obtained through of simulation and verification functional system approval the functionality and flexibility of processor implemented
Resumo:
This paper presents a study based on bibliographic research on LTE technology, chosen for the fourth generation of mobile phones, and the current status of implementation of 4G network in Brazil. The change in user behavior, which now uses data over the voice services, requires transmission networks to be increasingly robust and fast to enable the viewing of videos and use of other platforms that require internet connection. The retrospective of the development of mobile technologies, from 1G up to 4G that is currently used, shows the long road until it came to appliances and how the phone is used nowadays. Finally, the popularity of smartphones and hence the growing number of people with access to 4G networks, demanded new researchs for the development of future generations technologies in order to achieve the demand for speed enabling significant changes in user experience
Resumo:
This paper presents a study based on bibliographic research on LTE technology, chosen for the fourth generation of mobile phones, and the current status of implementation of 4G network in Brazil. The change in user behavior, which now uses data over the voice services, requires transmission networks to be increasingly robust and fast to enable the viewing of videos and use of other platforms that require internet connection. The retrospective of the development of mobile technologies, from 1G up to 4G that is currently used, shows the long road until it came to appliances and how the phone is used nowadays. Finally, the popularity of smartphones and hence the growing number of people with access to 4G networks, demanded new researchs for the development of future generations technologies in order to achieve the demand for speed enabling significant changes in user experience
Resumo:
O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Electrónica e Telecomunicações
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações
Resumo:
A crescente demanda por capacidade vem levando os padrões de comunicação sem-fio a prover suporte para a coexistência de macro e pico células. O backhaul, conexão entre a rede de acesso e o núcleo da rede, é de grande interesse neste contexto devido aos diversos desafios técnicos e financeiros envolvidos ao tentar satisfazer o crescente tráfego dos usuários. Fibra óptica e micro-ondas com linha de visada são as opções mais amplamente adotadas para o backhaul de macro-células. Contudo, em muitas situações de interesse prático, estas não são factíveis devido aos altos custos e logística envolvidos. Este trabalho avalia o backhaul de pico-células, focando primeiramente na utilização de cobre como backhaul. O simulador OPNET foi utilizado para avaliar os requerimentos de backhaul para redes móveis em cenários específicos considerando garantir qualidade de serviço para os diversos tipos de tráfego envolvidos. Assumindo demandas de tráfego para LTE e LTE-Advanced, as tecnologias VDSL2 e G.fast são avaliadas e os resultados mostram que mesmo com uma grande demanda de aplicações de vídeo de alta definição, estas tecnologias podem acomodar o tráfego no backhaul de pico-células. VDSL2 é capaz de prover as taxas requeridas para cenários de pico-células LTE, mas não é capaz de acomodar tráfego LTE-Advanced típico. Por outro lado, considerando as taxas atingidas com a tecnologia G.fast, o tráfego backhaul para pico-células LTE-Advanced pode ainda ser entregue com garantias de qualidade de serviço. Neste trabalho também é proposta uma solução para simulação de cenários contendo redes de acesso heterogêneas considerando backhaul LTE sem linha de visada. São demonstrados também os resultados de simulações no OPNET com o backhaul LTE proposto para validar a solução proposta como capaz de caracterizar o tráfego de ambas as tecnologias WiFi e LTE na rede de acesso de acordo com o tipo de serviço.
Resumo:
O volume de tráfego de dados em redes celulares está crescendo exponencialmente. A explosão do uso de dispositivos e aplicações móveis nos últimos anos, tem levado a uma sobrecarga da infraestrutura da rede responsável pelo escoamento desse tráfego, afetando tanto o desempenho da rede quanto a experiência do usuário. Um dos elementos-chave nas redes LTE (Long Term Evolution) é a possibilidade de implantação de múltiplas femtocells para a melhoria de cobertura e taxa de dados. No entanto, as sobreposições arbitrárias na cobertura dessas células tornam a gestão do mecanismo de handover complexo e desafiador. Nesse sentido, esta dissertação propõe uma metodologia para o estudo do impacto do handover em redes LTE com femtocells. A partir de uma abordagem de simulação discreta, os efeitos da implantação de femtocells foram avaliados. Objetivou-se com isso, mensurar os impactos e a correlação do uso de femtocell nos parâmetros de QoS (Quality of Service) e indicadores de desempenho de handover.
Resumo:
Este trabalho tem como objetivo analisar o impacto da interferência mútua entre os sistemas de Televisão Digital (DTV) e Long Term Evolution (LTE) em canal adjacente na faixa dos 700 MHz. Durante a análise, são determinadas mínimas distâncias de separação e bandas de guarda adequadas para garantir a coexistência dos sistemas nesta faixa de frequências. O impacto da interferência é avaliado em um cenário onde a Televisão digital e o LTE operam nos canais 51 e 52 respetivamente. Para obtenção dos resultados, este trabalho foi feito através de simulações de Monte Carlo. Quatro classes de Televisão Digital foram consideradas durante as simulações: classe Especial, classe A, classe B e classe C. Os resultados mostram que, as classes Especial, A e B causam interferência no LTE e que o impacto desta interferência depende da banda de guarda e também da distância de separação entre os dois sistemas. Além disso, os resultados mostram também que o aumento da largura de banda do sistema LTE só tem maior impacto se o LTE for o sistema interferido. Entretanto, os resultados mostraram que é possível a coexistência dos sistemas LTE e TVD nesta faixa desde que distâncias de isolamento e bandas de guarda adequadas sejam respeitadas.
Resumo:
In this paper expounds on the major phases or generations of the evolutionary process of wireless mobile communication, emphasizing their characteristics and changes over time. The main benefit of this process is the rate of data transfer remembering capacity spectral and methods of harnessing and improving its efficiency. The current network today is 4G and the technologies developed over the following requirements of the ITU are: Long Term Evolution Advanced (LTE-Advanced) and WirelessMAN-Advanced as part of the WiMAX IEEE 802.16m also described in this graduate work
Resumo:
Frequency-domain scheduling and rate adaptation have helped next generation orthogonal frequency division multiple access (OFDMA) based wireless cellular systems such as Long Term Evolution (LTE) achieve significantly higher spectral efficiencies. To overcome the severe uplink feedback bandwidth constraints, LTE uses several techniques to reduce the feedback required by a frequency-domain scheduler about the channel state information of all subcarriers of all users. In this paper, we analyze the throughput achieved by the User Selected Subband feedback scheme of LTE. In it, a user feeds back only the indices of the best M subbands and a single 4-bit estimate of the average rate achievable over all selected M subbands. In addition, we compare the performance with the subband-level feedback scheme of LTE, and highlight the role of the scheduler by comparing the performances of the unfair greedy scheduler and the proportional fair (PF) scheduler. Our analysis sheds several insights into the working of the feedback reduction techniques used in LTE.
Resumo:
The Effective Exponential SNR Mapping (EESM) is an indispensable tool for analyzing and simulating next generation orthogonal frequency division multiplexing (OFDM) based wireless systems. It converts the different gains of multiple subchannels, over which a codeword is transmitted, into a single effective flat-fading gain with the same codeword error rate. It facilitates link adaptation by helping each user to compute an accurate channel quality indicator (CQI), which is fed back to the base station to enable downlink rate adaptation and scheduling. However, the highly non-linear nature of EESM makes a performance analysis of adaptation and scheduling difficult; even the probability distribution of EESM is not known in closed-form. This paper shows that EESM can be accurately modeled as a lognormal random variable when the subchannel gains are Rayleigh distributed. The model is also valid when the subchannel gains are correlated in frequency or space. With some simplifying assumptions, the paper then develops a novel analysis of the performance of LTE's two CQI feedback schemes that use EESM to generate CQI. The comprehensive model and analysis quantify the joint effect of several critical components such as scheduler, multiple antenna mode, CQI feedback scheme, and EESM-based feedback averaging on the overall system throughput.
Resumo:
Frequency-domain scheduling and rate adaptation enable next-generation orthogonal frequency-division multiple access (OFDMA) cellular systems such as Long-Term Evolution (LTE) to achieve significantly higher spectral efficiencies. LTE uses a pragmatic combination of several techniques to reduce the channel-state feedback that is required by a frequency-domain scheduler. In the subband-level feedback and user-selected subband feedback schemes specified in LTE, the user reduces feedback by reporting only the channel quality that is averaged over groups of resource blocks called subbands. This approach leads to an occasional incorrect determination of rate by the scheduler for some resource blocks. In this paper, we develop closed-form expressions for the throughput achieved by the feedback schemes of LTE. The analysis quantifies the joint effects of three critical components on the overall system throughput-scheduler, multiple-antenna mode, and the feedback scheme-and brings out its dependence on system parameters such as the number of resource blocks per subband and the rate adaptation thresholds. The effect of the coarse subband-level frequency granularity of feedback is captured. The analysis provides an independent theoretical reference and a quick system parameter optimization tool to an LTE system designer and theoretically helps in understanding the behavior of OFDMA feedback reduction techniques when operated under practical system constraints.
Resumo:
Frequency-domain scheduling and rate adaptation enable next generation wireless cellular systems such as Long Term Evolution (LTE) to achieve significantly higher downlink throughput. LTE assigns subcarriers in chunks, called physical resource blocks (PRBs), to users to reduce control signaling overhead. To reduce the enormous feedback overhead, the channel quality indicator (CQI) report that is used to feed back channel state information is averaged over a subband, which, in turn, is a group of multiple PRBs. In this paper, we develop closed-form expressions for the throughput achieved by the subband-level CQI feedback mechanism of LTE. We show that the coarse frequency resolution of the CQI incurs a significant loss in throughput and limits the multi-user gains achievable by the system. We then show that the performance can be improved by means of an offset mechanism that effectively makes the users more conservative in reporting their CQI.