38 resultados para Sensores - Ultrassons
Resumo:
Nesta dissertação foi desenvolvido um estudo sobre o comportamento de uma estrutura em concreto armado submetida a elevadas variações térmicas. A estrutura analisada consiste na parede externa de um forno de cozimento de anodo utilizado na produção de Alumínio, e está submetida a variações térmicas de cerca de 125C devido à própria operação do forno. As motivações principais para o estudo foram a ocorrência de grandes deformações e o surgimento de fissuras na estrutura, o que poderia provocar a inutilização do forno. O objetivo do trabalho foi a investigação das causas destas patologias, assim como o estabelecimento de propostas para reforço da estrutura. Para isso, foram realizados estudos experimentais e computacionais do comportamento da estrutura. Inicialmente, a estrutura foi monitorada utilizando-se transdutores de deslocamento e sensores de temperatura (termopares), conectados a um sistema de aquisição de dados para obtenção e armazenamento automática das amostras ao longo do tempo. Em seguida, foram desenvolvidos modelos computacionais em Elementos Finitos com auxilio do programa computacional Algor, para determinação da distribuição de temperatura e as correspondentes tensões e deformações de origem térmica na estrutura. Nestes estudos, foram realizadas análises estacionárias e transientes de condução de calor, seguidas de análises de tensões de origem térmica. Como conclusão do estudo, tem-se que a metodologia proposta para a solução do problema foi bastante satisfatória, solucionando o problema de forma precisa, porém econômica.
Resumo:
O ambiente eletromagnético que envolve o planeta Terra tem papel fundamental na preservação e desenvolvimento de todos os seres vivos, e talvez seja uma das últimas fronteiras do conhecimento humano a ser dominada completamente antes de nos aventurarmos ao espaço exterior na busca de novas oportunidades. Esse ambiente, apesar de vir sendo estudado a um longo tempo, só agora esta sendo desbravado e melhor conhecido, tendo como ponto fundamental de apoio o uso de sensores apropriados, que possam detectar e quantificar esses efeitos elétricos, e que sirvam de base para a geração de teorias para explicação dos fenômenos subjacentes, entre os quais os sensores de eletricidade atmosférica. Este trabalho faz uma analise ampla dos sistemas sensores de eletricidade atmosférica em uso nos dias atuais, avaliando seus modelos de funcionamentos, suas limitações e sua inteligência, concluindo por sintetizar especificações básicas para desenvolvimento de melhores sensores e definição de padrões métricos de tipos de variáveis a serem medidas para atendimentos das atuais e futuras demandas nesse campo do conhecimento. Adicionalmente, os processos envolvidos na calibração desses sensores serão abordados, com a revisão de modelos computacionais utilizados, baseado no método dos momentos (MoM) e outros, para avaliação de campos eletromagnéticos emitidos remotamente por padrões de cargas e correntes elétricas, que sirvam de apoio e base para essas calibrações.
Resumo:
Apresenta-se nesta dissertação a proposta de um algoritmo supervisionado de classificação de imagens de sensoreamento remoto, composto de três etapas: remoção ou suavização de nuvens, segmentação e classificação.O método de remoção de nuvens usa filtragem homomórfica para tratar as obstruções causadas pela presença de nuvens suaves e o método Inpainting para remover ou suavizar a preseça de sombras e nuvens densas. Para as etapas de segmentação e classificação é proposto um método baseado na energia AC dos coeficientes da Transformada Cosseno Discreta (DCT). O modo de classificação adotado é do tipo supervisionado. Para avaliar o algioritmo foi usado um banco de 14 imagens captadas por vários sensores, das quais 12 possuem algum tipo de obstrução. Para avaliar a etapa de remoção ou suavização de nuvens e sombras são usados a razão sinal-ruído de pico (PSNR) e o coeficiente Kappa. Nessa fase, vários filtros passa-altas foram comparados para a escolha do mais eficiente. A segmentação das imagens é avaliada pelo método da coincidência entre bordas (EBC) e a classificação é avaliada pela medida da entropia relativa e do erro médio quadrático (MSE). Tão importante quanto as métricas, as imagens resultantes são apresentadas de forma a permitir a avaliação subjetiva por comparação visual. Os resultados mostram a eficiência do algoritmo proposto, principalmente quando comparado ao software Spring, distribuído pelo Instituto Nacional de Pesquisas Espaciais (INPE).
Resumo:
As indústrias têm buscado constantemente reduzir gastos operacionais, visando o aumento do lucro e da competitividade. Para alcançar essa meta, são necessários, dentre outros fatores, o projeto e a implantação de novas ferramentas que permitam o acesso às informações relevantes do processo de forma precisa, eficiente e barata. Os sensores virtuais têm sido aplicados cada vez mais nas indústrias. Por ser flexível, ele pode ser adaptado a qualquer tipo de medição, promovendo uma redução de custos operacionais sem comprometer, e em alguns casos até melhorar, a qualidade da informação gerada. Como estão totalmente baseados em software, não estão sujeitos a danos físicos como os sensores reais, além de permitirem uma melhor adaptação a ambientes hostis e de difícil acesso. A razão do sucesso destes tipos de sensores é a utilização de técnicas de inteligência computacional, as quais têm sido usadas na modelagem de vários processos não lineares altamente complexos. Este trabalho tem como objetivo estimar a qualidade da alumina fluoretada proveniente de uma Planta de Tratamento de Gases (PTG), a qual é resultado da adsorção de gases poluentes em alumina virgem, via sensor virtual. O modelo que emula o comportamento de um sensor de qualidade de alumina foi criado através da técnica de inteligência computacional conhecida como Rede Neural Artificial. As motivações deste trabalho consistem em: realizar simulações virtuais, sem comprometer o funcionamento da PTG; tomar decisões mais precisas e não baseada somente na experiência do operador; diagnosticar potenciais problemas, antes que esses interfiram na qualidade da alumina fluoretada; manter o funcionamento do forno de redução de alumínio dentro da normalidade, pois a produção de alumina de baixa qualidade afeta a reação de quebra da molécula que contém este metal. Os benefícios que este projeto trará consistem em: aumentar a eficiência da PTG, produzindo alumina fluoretada de alta qualidade e emitindo menos gases poluentes na atmosfera, além de aumentar o tempo de vida útil do forno de redução.
Resumo:
Este trabalho utilizou os dados de precipitação do período de janeiro de 2000 a setembro de 2007 da torre micrometeorológica localizada na Estação Científica Ferreira Pena (ECFP) em Caxiuanã e foram comparados com o algoritmo 3B42 que combina dados de satélites no canal de microoondas para ajustar aqueles do canal infravermelho. Adicionalmente foi feita uma análise da distribuição temporal e espacial da precipitação na Amazônia Oriental utilizando os dados de cinco algoritmos estimadores de precipitação: O Geostationary Environmental SalellitePrecipitation lndex (GPI); o 3B42; 3A12 e 3A25 que são os algoritmos provenientes dos sensores de microondas e do radar meteorológico à bordo do satélite Tropical Rainfall MeasuringMission (TRMM); e o Global Precipitation Climatology Center (GPCC) de janeiro de 1998 a dezembro de 2007. A comparação entre o algoritmo 3B42 com os dados do pluviógrafo da torre mostrou que o estimador 3B42 superestima a precipitação em relação aos dados da torre para todo o período de estudo. Os períodos mais chuvosos foram os trimestres de março-abril-maio (MAM) e dezembro-janeiro-feveireiro (DJF) e os períodos menos chuvosos foram setembro-outubro-novembro (SON) e junho-julho-agosto (JJA). Esta sazonalidade da precipitação se apresenta principalmente devido à influência da Zona de Convergência Intertropical (ZCIT), que contribui de maneira apreciável para a modulação da estação chuvosa na região. A comparação trimestral entre o algoritmo 3B42 e pluviógrafo da torre, mostra que o algoritmo 3B42 superestimou (subestimou) a precipitação em relação ao pluviógrafo em MAM e JJA (DJF e SON); e DJF é o trimestre que apresenta as estimativas de precipitação com valores mais aproximados a precipitação medida na torre micrometeorológica de Caxiuanã. Na média mensal o 3B42 subestima a precipitação de outubro a janeiro e superestima em relação as dados medidos na torre, de março a agosto. O algoritmo3B42 superestimou (subestimou) a precipitação noturna (matutina e vespertina) do ciclo diurno em relação ao pluviógrafo da torre, nas vizinhanças de Caxiuanã. No entanto ambos estimadores mostraram que em média o horário de maior precipitação é por volta das 1800hora local (HL). Além disso, as análises do ciclo diurno médio sazonal indicam que em DJF nos horários de 0900 HL, 1500 HL e 1800HL têm os valores de precipitação estimada pelo algoritmo3B42 mais aproximados aos valores da precipitação medida pontualmente em Caxiuanã. Os meses de novembro a fevereiro têm um máximo principal de precipitação no período vespertino, tanto na torre como no algoritmo 3B42. No período de maio à julho o horário os máximos diurnos de precipitação passam do período da tarde para os da noite e madrugada,modificando o ciclo diurno em comparação aos demais meses. A comparação entre os cinco algoritmos na Amazônia Oriental mostrou diferentes comportamentos entre os estimadores. O algoritmo GPI subestimou s precipitação em relação aos demais algoritmos na região costeira do Amapá e Guiana Francesa e superestimou na região central da Amazônia. Tanto o algoritmo 3A12 quanto o 3A25 apresentaram menor precipitação que os demais algoritmos. O algoritmo 3842, por ser uma combinação de várias estimativas baseadas no canal de microondas e infravermelho, apresenta padrões semelhantes a Figueroa e Nobre (1990). No entanto, o GPCC mostra menos detalhes na distribuição espacial de precipitação nos lugares onde não há pluviômetros como, por exemplo, no Noroeste do Pará. As diferenças entre os algoritmos aqui considerados podem estar relacionados com as características de cada algoritmo e/ou a metodologia empregada. As comparações pontuais de precipitação de um pluviômetro com a média numa área com dados provenientes de satélites podem ser a explicação para as diferenças entre os estimadores nos trimestres ou ciclo diurno. No entanto não se descartam que essas diferenças sejam devidas à diferente natureza da precipitação entre as subregiões, assim como a existência de diferentes sistemas que modulam o ciclo diurno da precipitação na Amazônia Oriental.
Resumo:
Este trabalho apresenta uma bancada para testes em geradores elétricos, utilizados em aerogeradores de pequeno porte. O sistema é composto basicamente por um motor de indução trifásico, que simula um rotor eólico, acoplado mecanicamente ao gerador elétrico submetido ao ensaio; um inversor de frequência, usado para variação da velocidade do motor; transdutores de grandezas elétricas, que efetuam a medição dos parâmetros de interesse (tensões e correntes instantâneas) na saída do gerador; um sensor de velocidade angular, para medição da rotação que é fornecida ao eixo do motor; um microcomputador, para monitoração e armazenamento dos parâmetros medidos, e controle do inversor de frequência, por meio de um programa computacional desenvolvido; e uma placa de aquisição de dados, que serve como interface entre os transdutores/sensores e o microcomputador. A velocidade angular fornecida ao gerador em ensaio pode ser variada conforme valores fornecidos de velocidades de vento, as quais são associadas a valores correspondentes de rotação, a fim de simular o comportamento de um rotor eólico. Dessa forma, é possível traçar a curva de potência (potência versus velocidade de vento) do gerador ensaiado e analisar seu desempenho. Apresenta-se também neste trabalho os resultados de medições realizadas na bancada, referentes aos ensaios de um gerador comercial de pequena potência (1 kW) e de outro desenvolvido em projeto de pesquisa, ambos do tipo de imã permanente com fluxo axial.
Resumo:
Esta dissertação consiste no projeto e implementação parcial de um sistema integrado de monitoramento da ave Harpia (Harpia harpyja), espécie encontrada na Amazônia, Cerrado e Mata Atlântica. O sistema de monitoramento é estruturado em três etapas: coleta, armazenamento e transmissão de dados. A primeira etapa consiste na coleta de dados a partir de sensores, podendo detectar a presença de pássaros no ninho, também o sistema conta com o auxílio de uma câmera responsável pela captura de vídeo e áudio. A segunda etapa destina-se ao pré-processamento e armazenamento de todas as informações coletadas. A terceira etapa é responsável pela transmissão dos dados através de satélite, utilizando o Sistema Brasileiro de Coleta de Dados Ambientais (SBCDA). Além disso, foi realizado o desenvolvimento de um protótipo utilizado para o monitoramento. Técnicas de sistemas embarcados são expostas para o leitor e o processo de detecção desta espécie é avaliado.
Resumo:
Neste trabalho são apresentados o desenvolvimento e a implementação de estratégias de controle digital para regulação automática de tensão e para o amortecimento de oscilações eletromecânicas em um sistema de potência em escala reduzida de 10kVA, localizado no Laboratório de Controle de Sistemas de Potência (LACSPOT), da Universidade Federal do Pará (UFPA). O projeto dos dois controladores é baseado na técnica de alocação polinomial de polos. Para o projeto do Regulador Automático de Tensão (RAT) foi adotado um modelo simplificado, de primeira ordem, da máquina síncrona, cujos parâmetros foram levantados experimentalmente. Para o controlador amortecedor, por sua vez, também chamado de Estabilizador de Sistemas de Potência (ESP), foi utilizado um modelo discreto, do tipo auto regressivo com entrada exógena (ARX). Este modelo foi estimado por meio de técnicas de identificação paramétrica, considerando para tal, o conjunto motor-gerador interligado a um sistema de maior porte (concessionária de energia elétrica). As leis de controle foram embarcadas em um microcontrolador de alto desempenho e, para a medição dos sinais utilizados nos controladores, foi desenvolvida uma instrumentação eletrônica baseada em amplificadores operacionais para o condicionamento dos sinais dos sensores. O sinal de controle é baseado na técnica de modulação por largura de pulso (PWM) e comanda o valor médio da tensão de um conversor CC-CC, o qual é utilizado como circuito de excitação que energiza o enrolamento de campo do gerador. Além disso, o acionamento elétrico das máquinas que compõem o grupo gerador de 10kVA foi projetado e automatizado somando segurança aos operadores e ao componentes deste sistema de geração. Os resultados experimentais demonstraram o bom desempenho obtido pela estratégia proposta.
Resumo:
Este trabalho representa um estudo de dispersão da componente vertical da onda de superfície de Rayleigh com trajetórias na plataforma Sulamericana. Os registros utilizados são provenientes das estações localizadas no território Brasileiro; sendo a do Rio de Janeiro (RDJ), a de Brasília (BDF), a de Caicó (CAI) e a de Belém (BEB), pois estas são as únicas estações sismológicas no Brasil que têm sensores de período longo e que servem para o estudo de dispersão no intervalo de 4 a 50 segundos, aqui realizados. Os terremotos utilizados estão localizados ao longo da parte leste da cadeia Andina e dentro da plataforma Sulamericana com trajetórias tipicamente continental. Foram selecionados 34 eventos com a utilização dos seguintes critérios práticos: a localização, a magnitude mb e a profundidade, ocorridos durante o período de Janeiro de 1978 até Junho de 1987. O estudo de dispersão aqui abordado significa a determinação da velocidade de grupo e das amplitudes espectrais correspondentes aos harmônicos fundamental e primeiro superior. Normalmente os harmônicos de ordem segunda ou maior são raramente disponíveis na observação. Dois tipos de medidas foram feitas: (i) velocidade de grupo vs. período e (ii) amplitude vs. período. Os estudos de dispersão são fundamentais para determinação da estrutura da crosta e manto superior que estão diretamente relacionados com os fenômenos geológicos. Neste trabalho, regionalização é definida como a identificação das diferentes formas de curvas de dispersão, que estão relacionadas com as trajetórias epicentro-estação ao longo da plataforma Sulamericana e que venham ter uma correlação geológica como está descrito no item 4.3 deste trabalho. A distribuição dos epicentros se faz desde o extremo sul da Argentina até o extremo norte da Venezuela, objetivando iniciar com este trabalho uma sistemática voltada aos estudos de regionalização da plataforma Sulamericana na nossa instituição. Neste trabalho foram observados três tipos distintos de curvas em 27 trajetórias e agrupadas por famílias 1,2 e 3 respectivamente, onde procurou-se correlacionar suas diferentes formas com a geologia regional da plataforma Sulamericana. A obtenção da curva de dispersão foi feita através da técnica do filtro múltiplo (Dziewonski et al, 1969). Este filtro tem a propriedade de separar os harmônicos através das suas velocidades de grupo para cada frequência selecionada, e também de recuperar as amplitudes características dos harmônicos (Herrmann, 1973). O desenvolvimento teórico do filtro bem como suas limitações e forma de uso são tratados por Dziewonski et al (1972). Como parte do trabalho há a implantação, adaptações e o desenvolvimento de parte do fluxograma do filtro múltiplo, bem como a estruturação da digitalização dos dados para o processamento e interpretação não-automática dos resultados do processamento.
Resumo:
The proliferation of multimedia content and the demand for new audio or video services have fostered the development of a new era based on multimedia information, which allowed the evolution of Wireless Multimedia Sensor Networks (WMSNs) and also Flying Ad-Hoc Networks (FANETs). In this way, live multimedia services require realtime video transmissions with a low frame loss rate, tolerable end-to-end delay, and jitter to support video dissemination with Quality of Experience (QoE) support. Hence, a key principle in a QoE-aware approach is the transmission of high priority frames (protect them) with a minimum packet loss ratio, as well as network overhead. Moreover, multimedia content must be transmitted from a given source to the destination via intermediate nodes with high reliability in a large scale scenario. The routing service must cope with dynamic topologies caused by node failure or mobility, as well as wireless channel changes, in order to continue to operate despite dynamic topologies during multimedia transmission. Finally, understanding user satisfaction on watching a video sequence is becoming a key requirement for delivery of multimedia content with QoE support. With this goal in mind, solutions involving multimedia transmissions must take into account the video characteristics to improve video quality delivery. The main research contributions of this thesis are driven by the research question how to provide multimedia distribution with high energy-efficiency, reliability, robustness, scalability, and QoE support over wireless ad hoc networks. The thesis addresses several problem domains with contributions on different layers of the communication stack. At the application layer, we introduce a QoE-aware packet redundancy mechanism to reduce the impact of the unreliable and lossy nature of wireless environment to disseminate live multimedia content. At the network layer, we introduce two routing protocols, namely video-aware Multi-hop and multi-path hierarchical routing protocol for Efficient VIdeo transmission for static WMSN scenarios (MEVI), and cross-layer link quality and geographical-aware beaconless OR protocol for multimedia FANET scenarios (XLinGO). Both protocols enable multimedia dissemination with energy-efficiency, reliability and QoE support. This is achieved by combining multiple cross-layer metrics for routing decision in order to establish reliable routes.
Resumo:
Os principais objetivos deste trabalho são propor um algoritmo eficiente e o mais automático possível para estimar o que está coberto por regiões de nuvens e sombras em imagens de satélite; e um índice de confiabilidade, que seja aplicado previamente à imagem, visando medir a viabilidade da estimação das regiões cobertas pelos componentes atmosféricos usando tal algoritmo. A motivação vem dos problemas causados por esses elementos, entre eles: dificultam a identificação de objetos de imagem, prejudicam o monitoramento urbano e ambiental, e desfavorecem etapas cruciais do processamento digital de imagens para extrair informações ao usuário, como segmentação e classificação. Através de uma abordagem híbrida, é proposto um método para decompor regiões usando um filtro passa-baixas não-linear de mediana, a fim de mapear as regiões de estrutura (homogêneas), como vegetação, e de textura (heterogêneas), como áreas urbanas, na imagem. Nessas áreas, foram aplicados os métodos de restauração Inpainting por suavização baseado em Transformada Cosseno Discreta (DCT), e Síntese de Textura baseada em modelos, respectivamente. É importante salientar que as técnicas foram modificadas para serem capazes de trabalhar com imagens de características peculiares que são obtidas por meio de sensores de satélite, como por exemplo, as grandes dimensões e a alta variação espectral. Já o índice de confiabilidade, tem como objetivo analisar a imagem que contém as interferências atmosféricas e daí estimar o quão confiável será a redefinição com base no percentual de cobertura de nuvens sobre as regiões de textura e estrutura. Tal índice é composto pela combinação do resultado de algoritmos supervisionados e não-supervisionados envolvendo 3 métricas: Exatidão Global Média (EGM), Medida De Similaridade Estrutural (SSIM) e Confiança Média Dos Pixels (CM). Finalmente, verificou-se a eficácia destas metodologias através de uma avaliação quantitativa (proporcionada pelo índice) e qualitativa (pelas imagens resultantes do processamento), mostrando ser possível a aplicação das técnicas para solucionar os problemas que motivaram a realização deste trabalho.
Resumo:
Este trabalho apresenta um estudo sobre transmissões de vídeo em sistemas sem fio. O objetivo da metodologia aplicada é comprovar a existência de uma relação direta entre a BER e a perda de qualidade (Perda de PSNR) nas transmissões de vídeo em sistemas OFDM (Orthogonal Frequency Division Multiplexing). Os resultados foram obtidos a partir de simulações, desenvolvidas no ambiente computacional Matlab®, e, aferições em cenários reais, realizadas no campus universitário e dentro do laboratório de estudos, em ambiente controlado. A partir da comparação entre dados simulados e aferidos, foi comprovada a relação entre BER e Perda de PSNR, resultando na formulação de um modelo empírico Cross-Layer com característica exponencial. A modelagem obteve erro RMS e desvio padrão próximos de 1,65 dB quando comparada com as simulações. Além disso, sua validação foi realizada a partir dos dados obtidos de cenários reais, que não foram usados para ajustar os parâmetros da equação obtida. O modelo obtido não necessita da especificação do tipo de canal ou codificação utilizada no FEC (Forward Error Correction), possibilitando uma futura integração com softwares de planejamento de redes, em versões comerciais ou open-sources.
Resumo:
As descargas atmosféricas representam um dos maiores fatores de riscos para o setor elétrico, especialmente na Amazônia, uma região do mundo identificada com altas densidades de ocorrências e picos de corrente de raios. Nesse contexto, a rede STARNET (Sferics Timing And Ranging NETwork), único sistema de detecção de descargas elétricas atmosféricas, terrestre, gratuito, e contínuo, cobrindo toda a região Amazônica, foi escolhido para a geração de padrões de descargas atmosféricas necessários a otimização dos sistemas de proteção das linhas de transmissão por meio de sistema de monitoramento de descargas atmosféricas. Contudo, o funcionamento intermitente, observado nos diagramas operacionais das várias estações da rede STARNET, afeta o desempenho global do sistema, em especial a eficiência de detecção. Por isso, foi desenvolvido um modelo de uniformização dos dados de descargas atmosféricas em função da configuração da rede (número e localização dos sensores em operação), no objetivo final de editar mapas de índice ceráunico e densidades de raios confiáveis. Existem regiões da Amazônia que sempre apresentam anomalias positivas de densidade de raios como as regiões de Belém e Manaus, bem como o estado do Tocantins que afeitam as linhas de transmissão. Depois, a incidência de raios nas linhas de transmissão na Amazônia foi estimada a partir da distribuição de pico de correntes registrada pela RDR-SIPAM e da densidade de raios corrigida da rede STARNET. A avaliação do desempenho da rede STARNET tendo como referencia à rede de detecção de raios do Sistema de Proteção da Amazônia (RDR-SIPAM) mostrou também uma forte dependência da eficiência de detecção da rede STARNET em função do pico de corrente das descargas atmosféricas.
Resumo:
Neste texto, busca-se demonstrar algumas das alterações ocorridas nos padrões de relações existentes entre sociedade e natureza ocorridas no século XX, nos vales dos rios Parauapebas, Itacaiúnas e em parte do vale rio Tocantins, no sudeste do estado do Pará, o que é feito realizando um resgate das descrições decorrentes do olhar de Coudreau (1889) e transcritas em "Voyage a Itaboca et a L'Itacayuna", publicado em 1897, no qual se descreve uma área quase que integralmente coberta pela floresta. Em seguida, realiza-se uma contraposição, recorrendo a outro olhar, o que é viabilizado pelos sensores do satélite Landsat 5, que imagiaram a área destes vales em 2001, explicitando conseqüências das transformações da sociedade e da pressão sobre recursos naturais mas, sobretudo, a drástica redução da floresta a 52% dos 63 mil km² analisados.
Resumo:
Metamateriais são meios artificiais estruturados para a obtenção de propriedades físicas não prontamente encontradas na natureza. Estes meios, em geral, são organizados periodicamente com uma célula unitária que possui dimensões menores que o comprimento de onda da radiação eletromagnética incidente. Esta característica permite que estes meios possam ser tratados como materiais homogêneos e, por conseguinte, descritos em termos de parâmetros constitutivos efetivos. Este trabalho realiza a modelagem analítica e numérica de um metamaterial nanoestruturado com inclusões metálicas. É desenvolvido um formalismo fundamentado no modelo de Maxwell-Garnett para descrever o índice de refração efetivo do metamaterial levando em conta a forma geométrica das nanopartículas e a natureza dos modos locais excitados. É evidenciado que estes modos correspodem a excitações plasmônicas superfíciais. Por meio da caracterização do metamaterial no domínio óptico, é investigado o potencial de tais meios para o desenvolvimento de sensores de índice de refração mais compactos e com valores de sensibilidade superiores aos encontrados em sistemas baseados unicamente em fibras ópticas.