975 resultados para Arquitetura acústica - Simulação por computador
Resumo:
A identificação e descrição dos caracteres litológicos de uma formação são indispensáveis à avaliação de formações complexas. Com este objetivo, tem sido sistematicamente usada a combinação de ferramentas nucleares em poços não-revestidos. Os perfis resultantes podem ser considerados como a interação entre duas fases distintas: • Fase de transporte da radiação desde a fonte até um ou mais detectores, através da formação. • Fase de detecção, que consiste na coleção da radiação, sua transformação em pulsos de corrente e, finalmente, na distribuição espectral destes pulsos. Visto que a presença do detector não afeta fortemente o resultado do transporte da radiação, cada fase pode ser simulada independentemente uma da outra, o que permite introduzir um novo tipo de modelamento que desacopla as duas fases. Neste trabalho, a resposta final é simulada combinando soluções numéricas do transporte com uma biblioteca de funções resposta do detector, para diferentes energias incidentes e para cada arranjo específico de fontes e detectores. O transporte da radiação é calculado através do algoritmo de elementos finitos (FEM), na forma de fluxo escalar 2½-D, proveniente da solução numérica da aproximação de difusão para multigrupos da equação de transporte de Boltzmann, no espaço de fase, dita aproximação P1, onde a variável direção é expandida em termos dos polinômios ortogonais de Legendre. Isto determina a redução da dimensionalidade do problema, tornando-o mais compatível com o algoritmo FEM, onde o fluxo dependa exclusivamente da variável espacial e das propriedades físicas da formação. A função resposta do detector NaI(Tl) é obtida independentemente pelo método Monte Carlo (MC) em que a reconstrução da vida de uma partícula dentro do cristal cintilador é feita simulando, interação por interação, a posição, direção e energia das diferentes partículas, com a ajuda de números aleatórios aos quais estão associados leis de probabilidades adequadas. Os possíveis tipos de interação (Rayleigh, Efeito fotoelétrico, Compton e Produção de pares) são determinados similarmente. Completa-se a simulação quando as funções resposta do detector são convolvidas com o fluxo escalar, produzindo como resposta final, o espectro de altura de pulso do sistema modelado. Neste espectro serão selecionados conjuntos de canais denominados janelas de detecção. As taxas de contagens em cada janela apresentam dependências diferenciadas sobre a densidade eletrônica e a fitologia. Isto permite utilizar a combinação dessas janelas na determinação da densidade e do fator de absorção fotoelétrico das formações. De acordo com a metodologia desenvolvida, os perfis, tanto em modelos de camadas espessas quanto finas, puderam ser simulados. O desempenho do método foi testado em formações complexas, principalmente naquelas em que a presença de minerais de argila, feldspato e mica, produziram efeitos consideráveis capazes de perturbar a resposta final das ferramentas. Os resultados mostraram que as formações com densidade entre 1.8 e 4.0 g/cm3 e fatores de absorção fotoelétrico no intervalo de 1.5 a 5 barns/e-, tiveram seus caracteres físicos e litológicos perfeitamente identificados. As concentrações de Potássio, Urânio e Tório, puderam ser obtidas com a introdução de um novo sistema de calibração, capaz de corrigir os efeitos devidos à influência de altas variâncias e de correlações negativas, observadas principalmente no cálculo das concentrações em massa de Urânio e Potássio. Na simulação da resposta da sonda CNL, utilizando o algoritmo de regressão polinomial de Tittle, foi verificado que, devido à resolução vertical limitada por ela apresentada, as camadas com espessuras inferiores ao espaçamento fonte - detector mais distante tiveram os valores de porosidade aparente medidos erroneamente. Isto deve-se ao fato do algoritmo de Tittle aplicar-se exclusivamente a camadas espessas. Em virtude desse erro, foi desenvolvido um método que leva em conta um fator de contribuição determinado pela área relativa de cada camada dentro da zona de máxima informação. Assim, a porosidade de cada ponto em subsuperfície pôde ser determinada convolvendo estes fatores com os índices de porosidade locais, porém supondo cada camada suficientemente espessa a fim de adequar-se ao algoritmo de Tittle. Por fim, as limitações adicionais impostas pela presença de minerais perturbadores, foram resolvidas supondo a formação como que composta por um mineral base totalmente saturada com água, sendo os componentes restantes considerados perturbações sobre este caso base. Estes resultados permitem calcular perfis sintéticos de poço, que poderão ser utilizados em esquemas de inversão com o objetivo de obter uma avaliação quantitativa mais detalhada de formações complexas.
Resumo:
A correlação estratigráfica busca a determinação da continuidade lateral das rochas, ou a equivalência espacial entre unidades litológicas em subsuperfície, a partir de informações geológico-geofísicas oriundas de poços tubulares, que atravessam estas rochas. Normalmente, mas não exclusivamente, a correlação estratigráfica é realizada a partir das propriedades físicas registradas nos perfis geofísicos de poço. Neste caso, busca-se a equivalência litológica a partir da equivalência entre as propriedades físicas, medidas nos vários poços de um campo petrolífero. A técnica da correlação estratigráfica com perfis geofísicos de poço não é uma atividade trivial e sim, sujeita a inúmeras possibilidades de uma errônea interpretação da disposição geométrica ou da continuidade lateral das rochas em subsuperfície, em função da variabilidade geológica e da ambigüidade das respostas das ferramentas. Logo, é recomendável a utilização de um grande número de perfis de um mesmo poço, para uma melhor interpretação. A correlação estratigráfica é fundamental para o engenheiro de reservatório ou o geólogo, pois a partir da mesma, é possível a definição de estratégias de explotação de um campo petrolífero e a interpretação das continuidades hidráulicas dos reservatórios, bem como auxílio para a construção do modelo geológico para os reservatórios, a partir da interpretação do comportamento estrutural das diversas camadas em subsuperfície. Este trabalho apresenta um método de automação das atividades manuais envolvidas na correlação estratigráfica, com a utilização de vários perfis geofísicos de poço, através de uma arquitetura de rede neural artificial multicamadas, treinada com o algoritmo de retropropagação do erro. A correlação estratigráfica, obtida a partir da rede neural artificial, possibilita o transporte da informação geológica do datum de correlação ao longo do campo, possibilitando ao intérprete, uma visão espacial do comportamento do reservatório e a simulação dos possíveis paleoambientes. Com a metodologia aqui apresentada foi possível a construção automática de um bloco diagrama, mostrando a disposição espacial de uma camada argilosa, utilizando-se os perfis de Raio Gama (RG), Volume de Argila (Vsh), Densidade (ρb) e de Porosidade Neutrônica (φn) selecionados em cinco poços da região do Lago Maracaibo, na Venezuela.
Resumo:
Os maiores problemas de contaminação de aquíferos e solos são atribuídos aos hidrocarbonetos monoaromáticos, que são os constituintes mais solúveis e mais móveis da fração de algumas substâncias, como por exemplo, da gasolina. Para a remoção destes contaminantes, a adsorção por carvão ativado é o método mais utilizado, pois o carvão apresenta uma habilidade significativa para adsorver componentes orgânicos de baixo peso molecular, como o benzeno, o tolueno e o p-xileno. Neste trabalho, verificou-se a adsorção dos mesmos sobre carvão ativado via simulação computacional. Como base, utilizou-se o modelo postulado de carvão preparado por Bourke et al. (2007). Várias etapas foram concluídas desde os modelos das estruturas do carvão e dos poluentes até as simulações de dinâmica molecular. Para a análise conformacional da estrutura do carvão, foi utilizado o método semi-empírico PM3 e para o processo de dinâmica, o campo de força AMBER FF99SB. A estrutura passou por um aquecimento, à pressão constante, até alcançar uma temperatura final de 298K (25ºC), sendo suas informações coletadas a cada 50ps. Posteriormente, a estrutura foi submetida a equilíbrio de sistema, à temperatura constante de 298K (25ºC), por 500ps para então suas informações serem analisadas. Por fim, o sistema foi então submetido à dinâmica molecular durante 15 ns. Após análise dos resultados, constatou-se que os grupos éter, lactona e carbonila (cetona) presentes na estrutura de carvão ativado conferem caráter ácido à mesma e devido a isto e à sua consequente carga superficial negativa, a adsorção tornou-se viável uma vez que os poluentes apresentavam carga superficial positiva, o que corrobora o entendimento que já se tem a respeito desse tipo de fenômeno.
Resumo:
Nos grandes centros urbanos pode-se constatar que o nível de ruído é tão elevado que ameaça a integridade psicológica e física dos habitantes. Entretanto, observa-se que muito do ruído no ambiente hospitalar origina-se de dentro do hospital, tendo como uma das principais fontes geradoras de ruído nas unidades os equipamentos e a conversação entre a equipe hospitalar. A perda auditiva induzida pelo ruído (PAIR) é uma das consequências que o ruído elevado pode acarretar à saúde, entre outros danos. Assim, o ambiente hospitalar que deveria ser sereno e silencioso transforma-se em um espaço ruidoso e estressante, aumentando a ansiedade e a percepção dolorosa do paciente, reduzindo o sono e estendendo a convalescença. Objetivo: Avaliar as condições acústicas dos principais ambientes nas unidades de urgência e emergência no município de Belém, Estado do Pará, Brasil. Verificar a adequação às normas sanitárias e técnicas vigentes, com a simulação de um ambiente piloto validado com a utilização do software ODEON e apresentar soluções virtuais de condicionamento acústico. Material e Métodos: foi utilizado o equipamento Medidor de Nível Sonoro com certificado de calibração da Rede Brasileira de Calibração (RBC) para aferição dos NPS nos períodos diurno e noturno, de acordo com o estabelecido pela NBR 10.151 (2000), além da observação e identificação das fontes de ruído dos ambientes. Resultados: Os valores obtidos durante as aferições dos NPS nos ambientes do Hospital A foram de 58 dB(A) a 70 dB(A) e do Hospital B foram de 62 dB(A) a 70 dB(A). O ambiente piloto foi selecionado de acordo com os resultados e com o tempo de permanência da equipe de saúde e dos pacientes. Conclusão: foi desenvolvido o modelo computacional validado do ambiente piloto, gerando um modelo proposto com intervenções arquitetônicas visando o conforto acústico da equipe de saúde e dos pacientes. Os ambientes pesquisados não apresentaram níveis de ruído superiores a 85 dB(A), comprovando que não há risco ocupacional para as equipes de saúde. Entretanto, níveis de ruídos elevados, por mais que não causem PAIR nos trabalhadores, são responsáveis por estimular ou até mesmo por desencadear diversos sintomas que prejudicam a capacidade laborativa da equipe de saúde, além de aumentar a convalescença e prejudicar a recuperação dos pacientes.
Resumo:
A interferência eletromagnética causada pela linha de energia elétrica afeta negativamente os sinais de instrumentos eletrônicos, especialmente aqueles com baixos níveis de amplitude. Este tipo de interferência é conhecida como interferência de modo comum. Existem muitos métodos e arquiteturas utilizadas para minimizar a influência deste fenômeno de interferência em instrumentos eletrônicos, o mais comum dos quais é a utilização de filtros rejeita banda. Este trabalho apresenta: a análise, desenvolvimento, protótipo e teste de uma nova arquitetura de filtro com característica reconfigurável para instrumentos biomédicos e medição de dados de fluxo em fluido de alta complexidade, com objetivo de reduzir a interferência de modo comum e preservar as componentes do sinal útil na mesma faixa de frequência do ruído, utilizando a técnica de equilíbrio dinâmico de impedância. Além disso, este trabalho pode ser usado em qualquer sistema de medição que também sofra interferência na frequência da linha de alimentação (50/60 Hz, no Brasil e na França, 60 Hz nos Estados Unidos da América). Os blocos de circuitos foram modelados matematicamente e a função de transferência global do circuito fechado foi gerada. Em seguida, o projeto foi descrito e simulado na língua VHDL_AMS e também em um software de simulação eletrônica, usando blocos de componentes discretos, com e sem realimentação. Após análise teórica dos resultados da simulação, um circuito protótipo foi construído e testado usando como entrada um sinal obtido a partir de eletrodos de ECG e Eletrodos Eletroresistivos. Os resultados experimentais do circuito condizem com os da simulação: uma redução de ruído de 98,7% foi obtida em simulações utilizando um sinal sinusoidal, e uma redução de 92% foi realizada utilizando eletrodos de ECG em testes experimentais. Os mesmos testes em eletrodos Eletroresistivos, obtendo o maior valor de 80,3% de redução (durante análise de 3 casos). Em ambos os casos, o sinal útil foi preservado. O método e a sua arquitetura pode ser aplicado para atenuar as interferências que ocorrem na mesma banda de frequência das componentes do sinal útil, preservando ao mesmo tempo estes sinais.
Resumo:
A crescente demanda por capacidade vem levando os padrões de comunicação sem-fio a prover suporte para a coexistência de macro e pico células. O backhaul, conexão entre a rede de acesso e o núcleo da rede, é de grande interesse neste contexto devido aos diversos desafios técnicos e financeiros envolvidos ao tentar satisfazer o crescente tráfego dos usuários. Fibra óptica e micro-ondas com linha de visada são as opções mais amplamente adotadas para o backhaul de macro-células. Contudo, em muitas situações de interesse prático, estas não são factíveis devido aos altos custos e logística envolvidos. Este trabalho avalia o backhaul de pico-células, focando primeiramente na utilização de cobre como backhaul. O simulador OPNET foi utilizado para avaliar os requerimentos de backhaul para redes móveis em cenários específicos considerando garantir qualidade de serviço para os diversos tipos de tráfego envolvidos. Assumindo demandas de tráfego para LTE e LTE-Advanced, as tecnologias VDSL2 e G.fast são avaliadas e os resultados mostram que mesmo com uma grande demanda de aplicações de vídeo de alta definição, estas tecnologias podem acomodar o tráfego no backhaul de pico-células. VDSL2 é capaz de prover as taxas requeridas para cenários de pico-células LTE, mas não é capaz de acomodar tráfego LTE-Advanced típico. Por outro lado, considerando as taxas atingidas com a tecnologia G.fast, o tráfego backhaul para pico-células LTE-Advanced pode ainda ser entregue com garantias de qualidade de serviço. Neste trabalho também é proposta uma solução para simulação de cenários contendo redes de acesso heterogêneas considerando backhaul LTE sem linha de visada. São demonstrados também os resultados de simulações no OPNET com o backhaul LTE proposto para validar a solução proposta como capaz de caracterizar o tráfego de ambas as tecnologias WiFi e LTE na rede de acesso de acordo com o tipo de serviço.
Resumo:
O volume de tráfego de dados em redes celulares está crescendo exponencialmente. A explosão do uso de dispositivos e aplicações móveis nos últimos anos, tem levado a uma sobrecarga da infraestrutura da rede responsável pelo escoamento desse tráfego, afetando tanto o desempenho da rede quanto a experiência do usuário. Um dos elementos-chave nas redes LTE (Long Term Evolution) é a possibilidade de implantação de múltiplas femtocells para a melhoria de cobertura e taxa de dados. No entanto, as sobreposições arbitrárias na cobertura dessas células tornam a gestão do mecanismo de handover complexo e desafiador. Nesse sentido, esta dissertação propõe uma metodologia para o estudo do impacto do handover em redes LTE com femtocells. A partir de uma abordagem de simulação discreta, os efeitos da implantação de femtocells foram avaliados. Objetivou-se com isso, mensurar os impactos e a correlação do uso de femtocell nos parâmetros de QoS (Quality of Service) e indicadores de desempenho de handover.
Identificação automática das primeiras quebras em traços sísmicos por meio de uma rede neural direta
Resumo:
Apesar do avanço tecnológico ocorrido na prospecção sísmica, com a rotina dos levantamentos 2D e 3D, e o significativo aumento na quantidade de dados, a identificação dos tempos de chegada da onda sísmica direta (primeira quebra), que se propaga diretamente do ponto de tiro até a posição dos arranjos de geofones, permanece ainda dependente da avaliação visual do intérprete sísmico. O objetivo desta dissertação, insere-se no processamento sísmico com o intuito de buscar um método eficiente, tal que possibilite a simulação computacional do comportamento visual do intérprete sísmico, através da automação dos processos de tomada de decisão envolvidos na identificação das primeiras quebras em um traço sísmico. Visando, em última análise, preservar o conhecimento intuitivo do intérprete para os casos complexos, nos quais o seu conhecimento será, efetivamente, melhor aproveitado. Recentes descobertas na tecnologia neurocomputacional produziram técnicas que possibilitam a simulação dos aspectos qualitativos envolvidos nos processos visuais de identificação ou interpretação sísmica, com qualidade e aceitabilidade dos resultados. As redes neurais artificiais são uma implementação da tecnologia neurocomputacional e foram, inicialmente, desenvolvidas por neurobiologistas como modelos computacionais do sistema nervoso humano. Elas diferem das técnicas computacionais convencionais pela sua habilidade em adaptar-se ou aprender através de uma repetitiva exposição a exemplos, pela sua tolerância à falta de alguns dos componentes dos dados e pela sua robustez no tratamento com dados contaminados por ruído. O método aqui apresentado baseia-se na aplicação da técnica das redes neurais artificiais para a identificação das primeiras quebras nos traços sísmicos, a partir do estabelecimento de uma conveniente arquitetura para a rede neural artificial do tipo direta, treinada com o algoritmo da retro-propagação do erro. A rede neural artificial é entendida aqui como uma simulação computacional do processo intuitivo de tomada de decisão realizado pelo intérprete sísmico para a identificação das primeiras quebras nos traços sísmicos. A aplicabilidade, eficiência e limitações desta abordagem serão avaliadas em dados sintéticos obtidos a partir da teoria do raio.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
O presente trabalho consiste no desenvolvimento de uma interface gráfica para pré e pós-processamentos de dados elétricos e eletromagnéticos em geofísica utilizando-a na transformação da EGSLIB – Electrical Geophysics Software Library, a qual é constituída por um acervo de programas FORTRAN para DOS, em um software integrado e que possua uma eficiente interface gráfica com o usuário. O resultado deste esforço foi a surgimento de um produto que foi denominado EGS 2000 – Electrical Geophysics Suite - 2000 version. Construído em ambiente DELPHI da Borland, através de um processo de desenvolvimento que, além de orientado a objetos, foi centrado em uma arquitetura que permitiu um alto grau de aproveitamento de programas FORTRAN já desenvolvidos e testados. Tal produto, constitui-se em uma poderosa ferramenta de auxílio à modelagem e interpretação de dados geofísicos totalmente executável no sistema operacional MS-Windows. Com isso, alcançou-se uma forma economicamente viável para dar uma destinação prática aos resultados teóricos obtidos nas universidades e institutos de pesquisa. Os exemplos apresentados, mostram-nos que, auxiliadas por computador, modelagens e interpretações de dados geofísicos alcançam um nível de produtividade e versatilidade jamais obtidos pelas ferramentas de outrora, uma vez que diversos modelos podem ser armazenados e recuperados e seus resultados comparados com dados observados sistematicamente colecionados, conferindo ao processo um alto grau de confiabilidade e rapidez.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
A modelagem acústica fornece dados úteis para avaliação de metodologias de processamento e imageamento sísmico, em modelos com estrutura geológica complexa. Esquemas de diferenças finitas (DF) e elementos finitos (EF) foram implementados e avaliados em modelos homogêneos e heterogêneos. O algoritmo de diferenças finitas foi estendido para o caso 2,5-D em modelos com densidade variável. Foi apresentada a modelagem de alvos geológicos de interesse exploratório existentes na Bacia Paleozóica do Solimões na Amazônia. Reflexões múltiplas de longo período produzidas entre a superfície livre e a discordância Cretáceo-Paleozóica, a baixa resolução da onda sísmica nas proximidades do reservatório e as fracas reflexões na interface entre as rochas reservatório e as rochas selantes são as principais características dos dados sintéticos obtidos, os quais representam um grande desafio ao imageamento sísmico.
Resumo:
A presente pesquisa tem como tema o estudo perceptual da prosódia como elemento de segmentação de narrativas orais espontâneas e visa confirmar, ou não, se a prosódia facilita ao ouvinte leigo e inexperiente perceber a estrutura do texto narrativo. Este estudo investiga se a diferença de tom é um elemento prosódico relevante. A dissertação tem como corpus quatro narrativas espontâneas, as quais fazem parte do corpus analisado por Oliveira Jr.(2000), autor do projeto que inspirou esta pesquisa. Para saber se os participantes são capazes de delimitar a estrutura narrativa, baseando-se apenas no aspecto perceptual, conduziu-se um teste de percepção com 112 voluntários, recrutados na Universidade Federal do Pará e na Universidade Federal de Alagoas. Coube aos participantes a tarefa de indicar os pontos em que o falante teve a intenção de finalizar uma unidade comunicativa nas narrativas. A interpretação sobre unidade comunicativa foi subjetiva. Apresentou-se cada narrativa em quatro condições diferentes, a saber: (i) transcrição sem marca de pontuação e sem paragrafação; (ii) transcrição da narrativa acompanhada de áudio ; (iii) narrativa somente em áudio e (iv) áudio filtrado da narrativa, resultando numa versão deslexicalizada (fala ininteligível), mas com preservação da estrutura prosódica do discurso. Nas duas primeiras condições, a segmentação foi no texto transcrito, com barras transversais (/); nas demais, utilizou-se um programa de computador chamado ELAN. A análise dos dados obtidos baseou-se em tabelas, gráficos, análise estatística (teste do Qui-Quadrado), análise acústica (utilização do Programa PRAAT). Os resultados sinalizam que a prosódia ajuda o ouvinte leigo a perceber a estrutura básica do discurso narrativo. Com relação ao peso do Pitch Reset para auxiliar os ouvintes na demarcação de fronteiras, pode-se dizer que o teste estatístico do Qui-Quadrado encontrou evidências que lhe atribui essa função. Assim, neste contexto, ratifica-se o relevante papel da prosódia para o reconhecimento da estrutura de narrativas orais espontâneas e identifica-se o reflexo do peso da diferença de tom na percepção dos participantes.
Resumo:
As tecnologias wireless vêm evoluindo de forma rápida nas últimas décadas, pois são uma eficiente alternativa para transmissão de informações, sejam dados, voz, vídeos e demais serviços de rede. O conhecimento do processo de propagação dessas informações em diferentes ambientes é um fator de grande importância para o planejamento e o desenvolvimento de sistemas de comunicações sem fio. Devido ao rápido avanço e popularização dessas redes, os serviços oferecidos tornaram-se mais complexos e com isso, necessitam de requisitos de qualidades para que sejam ofertados ao usuário final de forma satisfatória. Devido a isso, torna-se necessário aos projetistas desses sistemas, uma metodologia que ofereça uma melhor avaliação do ambiente indoor. Essa avaliação é feita através da análise da área de cobertura e do comportamento das métricas de serviços multimídia em qualquer posição do ambiente que está recebendo o serviço. O trabalho desenvolvido nessa dissertação objetiva avaliar uma metodologia para a predição de métricas de qualidade de experiência. Para isso, foram realizadas campanhas de medições de transmissões de vídeo em uma rede sem fio e foram avaliados alguns parâmetros da rede (jitter de pacotes/frames, perda de pacotes/frames) e alguns parâmetros de qualidade de experiência (PSNR, SSIM e VQM). Os resultados apresentaram boa concordância com os modelos da literatura e com as medições.
Resumo:
O objetivo deste trabalho é comparar aspectos relacionados ao uso de Multiplexação por Subportadora (SCM) em um sistema de transmissão de Rádio Digital sobre Fibra (DRoF) aplicado à Arquitetura de Acesso a Rádio Centralizado (C-RAN). Para isso, foram criados dois cenários que fazem uso da tecnologia DRoF, onde no primeiro, três subportadoras são transmitidas em um comprimento de onda e, para o segundo cenário, três comprimentos de onda são transmitidos, onde cada um possui uma única subportadora. Para ambas configurações é visado alimentar unidades de rádio remoto (RRH) localizadas na torre de transmissão. São analisados aspectos de desempenho da recepção, alcance das redes e complexidade do sistema para cada um dos cenários propostos. Além disso, são mostrados passo a passo como os sistemas foram construídos utilizando o software de simulação VPITransmissionMaker. Foram considerados para cada subportadora uma taxa de 250 Mbps, modulação 16-QAM, centrados na frequência de 5GHz. Os resultados obtidos demonstram que, para SCM-DRoF, uma Taxa de Erro de Bit (BER) de 10-6 é mantida constante para enlaces de até 20 km. No segundo modelo, sem uso de SCM, um desempenho similar foi verificado, contudo com alcance de até 40 km. Dado o contexto da aplicação, os fatores desempenho e distância levam a crer que ambos cenários de transmissão podem ser utilizadas para C-RAN. Contudo, levando em consideração o custo e a complexidade no domínio óptico, o sistema utilizando SCM, comparativamente, possui mais vantagens. Conclui-se então que o uso de SCM apresenta-se como uma forte opção para aplicações no contexto das novas tecnologias de redes de acesso móvel.