928 resultados para Retransmissão Automática Híbrida
Resumo:
A análise de ocorrências no sistema de energia elétrica é de fundamento mportância para uma operação segura, e para manter a qualidade da energia elétrica lornecida aos consumidores. As concessionárias do setor de energia elétrica usam equipamentos, chamados registradores de perturbação (RP's), para monitora diagnosticar problemas nos sistemas elétrico e de proteção. As formas de onda normalmente analisadas nos centros de operação das concessionárias, são aquelas geradas por eventos que quase sempre causam a aocrtul je linhas devido a operação dos relés comandados pelos dispositivos de proteção .Contudo, uma grande quantidade de registros armazenados que podem conte informações importantes sobre o comportamento e desempenho do sistema elétricl jeixa de ser analisada. O objetivo desse trabalho é usar os dados disponíveis nos centros de ontrole, operação das concessionárias de energia elétrica obtidos pelos RP's, para classificar e quantificar de forma automática sinais que caracterizem problemas de qualidade da energia, quanto a variações de tensão de curta duração: afundamentos, elevações e interrupções. O método proposto usa a transformada wavelet para obter um vetor característico para as tensões das fases A, B e C, e uma rede neural probabilística para classificação. Os sinais classificados como apresentando variações de curta duração são quantilicados quanto a duração e amplitude, usando-se as propriedades da análise nultiresolução da decomposição do sinal. Esses parâmetros, então, irão formar uma Jase de dados onde procedimentos de análise estatística podem ser usados para gerar relatórios com as características da qualidade da energia. Os resultados obtidos com a metodologia proposta para um sistema real são também apresentados.
Resumo:
A etiquetagem morfossintática é uma tarefa básica requerida por muitas aplicações de processamento de linguagem natural, tais como análise gramatical e tradução automática, e por aplicações de processamento de fala, por exemplo, síntese de fala. Essa tarefa consiste em etiquetar palavras em uma sentença com as suas categorias gramaticais. Apesar dessas aplicações requererem etiquetadores que demandem maior precisão, os etiquetadores do estado da arte ainda alcançam acurácia de 96 a 97%. Nesta tese, são investigados recursos de corpus e de software para o desenvolvimento de um etiquetador com acurácia superior à do estado da arte para o português brasileiro. Centrada em uma solução híbrida que combina etiquetagem probabilística com etiquetagem baseada em regras, a proposta de tese se concentra em um estudo exploratório sobre o método de etiquetagem, o tamanho, a qualidade, o conjunto de etiquetas e o gênero dos corpora de treinamento e teste, além de avaliar a desambiguização de palavras novas ou desconhecidas presentes nos textos a serem etiquetados. Quatro corpora foram usados nos experimentos: CETENFolha, Bosque CF 7.4, Mac-Morpho e Selva Científica. O modelo de etiquetagem proposto partiu do uso do método de aprendizado baseado em transformação(TBL) ao qual foram adicionadas três estratégias, combinadas em uma arquitetura que integra as saídas (textos etiquetados) de duas ferramentas de uso livre, o TreeTagger e o -TBL, com os módulos adicionados ao modelo. No modelo de etiquetador treinado com o corpus Mac-Morpho, de gênero jornalístico, foram obtidas taxas de acurácia de 98,05% na etiquetagem de textos do Mac-Morpho e 98,27% em textos do Bosque CF 7.4, ambos de gênero jornalístico. Avaliou-se também o desempenho do modelo de etiquetador híbrido proposto na etiquetagem de textos do corpus Selva Científica, de gênero científico. Foram identificadas necessidades de ajustes no etiquetador e nos corpora e, como resultado, foram alcançadas taxas de acurácia de 98,07% no Selva Científica, 98,06% no conjunto de teste do Mac-Morpho e 98,30% em textos do Bosque CF 7.4. Esses resultados são significativos, pois as taxas de acurácia alcançadas são superiores às do estado da arte, validando o modelo proposto em busca de um etiquetador morfossintático mais confiável.
Resumo:
Esta tese apresenta duas contribuições distintas na área de sistemas de comunicações sem fi o. Primeiro, é apresentada uma formulação analítica para a análise de desempenho de sistemas utilizando multiplexação multibanda por divisão ortogonal na frequência (MB-OFDM, do inglês Multi-Band Orthogonal Frequency-Division Multiplexing ) com um ltro notch para mitigar a interferência em banda estreita causada por outros sistemas que operam dentro da faixa de frequências alocada para sistemas UWB. Em seguida, um novo front end para classificação automática de modulações com o uso de aprendizado discriminativo é proposto. Esse front end pode ser utilizado por qualquer classi cador discriminativo e consiste em ordenar magnitude e fase do símbolos recebidos. Os resultados obtidos pelo classi cador proposto mostraram-se competitivos com outros algoritmos já existentes na literatura.
Resumo:
Neste trabalho é apresentado um modelo de redes neurais que será utilizado como ferramenta para uso no planejamento energético e na construção de cenários energéticos através da identificação e agrupamento de pixels representativos de classes de água, vegetação e antropização no entorno do reservatório de Tucuruí, Estado do Pará (bacia do rio Tocantins). Para o estudo, foram utilizadas fotografias aéreas ortorretificadas e um recorte da imagem do satélite Landsat, ambos obtidos em agosto de 2001 e classificados utilizando a métrica da mínima distância no software Matlab 7.3.0 (Matrix Laboratory - software de matemática aplicada) e no Arcview 3.2a (programa de Sistemas de Informações Geográficas). Para classificação da área no Matlab, foram utilizadas redes neurais competitivas, mais especificamente as redes de Kohonen que são caracterizadas por realizar um mapeamento de um espaço de dimensão n (número de entradas) para um espaço de dimensão m (número de saídas). Os resultados obtidos no classificador utilizando rede neural e no classificador do Arcview foram semelhantes, mas houve uma divergência no que diz respeito à imagem de alta e média resolução que pode ser justificada pelo fato de que a imagem de alta resolução espacial ocasiona muita variação espectral em algumas feições, gerando dificuldades nas classificações. Esse classificador automático é uma ferramenta importante para identificar oportunidades e potenciais a serem desenvolvidos na construção de cenários energéticos programados. Os resultados deste trabalho confirmam que a imagem de média resolução ainda é a mais indicada para resolver a maioria dos problemas que envolvem identificação de cobertura do solo para utilização em planejamento energético.
Resumo:
Várias das técnicas tradicionais de Mineração de Dados têm sido aplicadas com êxito e outras esbarram em limitações, tanto no desempenho como na qualidade do conhecimento gerado. Pesquisas recentes têm demonstrado que as técnicas na área de IA, tais como Algoritmo Genético (AG) e Lógica Difusa (LD), podem ser utilizadas com sucesso. Nesta pesquisa o interesse é revisar algumas abordagens que utilizam AG em combinação com LD de forma híbrida para realizar busca em espaços grandes e complexos. Este trabalho apresenta o Algoritmo Genético (AG), utilizando Lógica Difusa, para a codificação, avaliação e reprodução dos cromossomos, buscando classificar dados através de regras extraídas de maneira automática com a evolução dos cromossomos. A Lógica Difusa é utilizada para deixar as regras mais claras e próximas da linguagem humana, utilizando representações lingüísticas para identificar dados contínuos.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Este trabalho consiste na solução híbrida da Equação de Advecção-dispersão de solutos unidimensional em meios porosos homogêneos ou heterogêneos, para um único componente, com coeficientes de retardo, dispersão, velocidade média, decaimento e produção dependentes da distância percorrida pelo soluto. Serão estudados os casos de dispersão-advecção em que o retardamento, dispersão, velocidade do fluxo, decaimento e produção variem de forma linear enquanto a dispersividade assuma os modelos linear, parabólico ou exponencial. Para a solução da equação foi aplicada a Técnica da Transformada Integral Generalizada. Os resultados obtidos nesta dissertação demonstram boa concordância entre os problemas-exemplo e suas soluções numéricas ou analíticas contidas na literatura e apontam uma melhor adequação no uso de modelos parabólico no estudo da advecção-dispersão em curto intervalo de tempo, enquanto que o modelo linear converge mais rapidamente em tempos prolongados de simulação. A convergência da série mostrou-se ter dependência direta quanto ao comprimento do domínio, ao modelo de dispersão e da dispersividade adotada, convergindo com até 60 termos, podendo chegar a NT = 170, para os casos heterogêneos, utilizando o modelo de dispersão exponencial, respeitando o critério adotado de 10-4.
Resumo:
Neste trabalho desenvolveu-se uma solução para o clássico problema da determinação automática de litologias. Construiu-se um banco de dados utilizando-se a técnica de análise discriminante aplicada sobre trechos testemunhados de poços perfilados de um campo situado em lâmina d'água profunda localizado na bacia de Campos. A técnica de análise de agrupamento, utilizada por um grande número de pesquisadores, foi testada para o mesmo conjunto de dados porém não forneceu resultados satisfatórios em comparação com os obtidos com a análise discriminante. Os dados de perfis, após sofrerem correções ambientais, são colocados em profundidade com os dados de testemunhagem e determina-se uma função discriminante que classifica as respostas dos perfis de acordo com as litofácies descritas nos testemunhos. Dessa forma obtém-se um banco de dados, a partir do qual se faz a discriminação de litologias em poços, testemunhados ou não, da mesma área. O banco de dados assim construído permite sua atualização através da incorporação de trechos testemunhados de novos poços. Mostra-se a necessidade de agrupar as litologias em quatro litofácies principais para este campo de maneira a padronizar os resultados, diminuir as indeterminações e melhorar a apresentação final. Como produto final obtém-se uma curva discriminada de eletrofácies que reproduz, com algum grau de certeza, as litofácies que reproduzem as litologias esperadas em subsuperfície. Como exemplo de aplicação deste método, utilizou-se as curvas discriminadas para correlacionar três poços, utilizando para isto um algoritmo de correlação automática.
Resumo:
Duas das mais importantes atividades da interpretação de perfis para avaliação de reservatórios de hidrocarbonetos são o zoneamento do perfil (log zonation) e o cálculo da porosidade efetiva das rochas atravessadas pelo poço. O zoneamento é a interpretação visual do perfil para identificação das camadas reservatório e, consequentemente, dos seus limites verticais, ou seja, é a separação formal do perfil em rochas reservatório e rochas selante. Todo procedimento de zoneamento é realizado de forma manual, valendo-se do conhecimento geológico-geofísico e da experiência do intérprete, na avaliação visual dos padrões (características da curva do perfil representativa de um evento geológico) correspondentes a cada tipo litológico específico. O cálculo da porosidade efetiva combina tanto uma atividade visual, na identificação dos pontos representativos de uma particular rocha reservatório no perfil, como a escolha adequada da equação petrofísica que relaciona as propriedades físicas mensuradas da rocha com sua porosidade. A partir do conhecimento da porosidade, será estabelecido o volume eventualmente ocupado por hidrocarboneto. Esta atividade, essencial para a qualificação de reservatórios, requer muito do conhecimento e da experiência do intérprete de perfil para a efetiva avaliação da porosidade efetiva, ou seja, a porosidade da rocha reservatório, isenta do efeito da argila sobre a medida das propriedades físicas da mesma. Uma forma eficiente de automatizar estes procedimentos e auxiliar o geofísico de poço nestas atividades, que particularmente demandam grande dispêndio de tempo, é apresentado nesta dissertação, na forma de um novo perfil, derivado dos perfis tradicionais de porosidade, que apresenta diretamente o zoneamento. Pode-se destacar neste novo perfil as profundidades do topo e da base das rochas reservatório e das rochas selante, escalonado na forma de porosidade efetiva, denominado perfil de porosidade efetiva zoneado. A obtenção do perfil de porosidade efetiva zoneado é baseado no projeto e execução de várias arquiteturas de rede neural artificial, do tipo direta, com treinamento não supervisionado e contendo uma camada de neurônios artificiais, do tipo competitivo. Estas arquiteturas são projetadas de modo a simular o comportamento do intérprete de perfil, quando da utilização do gráfico densidade-neutrônico, para as situações de aplicabilidade do modelo arenito-folhelho. A aplicabilidade e limitações desta metodologia são avaliadas diretamente sobre dados reais, oriundos da bacia do Lago Maracaibo (Venezuela).
Resumo:
Os principais objetivos deste trabalho são propor um algoritmo eficiente e o mais automático possível para estimar o que está coberto por regiões de nuvens e sombras em imagens de satélite; e um índice de confiabilidade, que seja aplicado previamente à imagem, visando medir a viabilidade da estimação das regiões cobertas pelos componentes atmosféricos usando tal algoritmo. A motivação vem dos problemas causados por esses elementos, entre eles: dificultam a identificação de objetos de imagem, prejudicam o monitoramento urbano e ambiental, e desfavorecem etapas cruciais do processamento digital de imagens para extrair informações ao usuário, como segmentação e classificação. Através de uma abordagem híbrida, é proposto um método para decompor regiões usando um filtro passa-baixas não-linear de mediana, a fim de mapear as regiões de estrutura (homogêneas), como vegetação, e de textura (heterogêneas), como áreas urbanas, na imagem. Nessas áreas, foram aplicados os métodos de restauração Inpainting por suavização baseado em Transformada Cosseno Discreta (DCT), e Síntese de Textura baseada em modelos, respectivamente. É importante salientar que as técnicas foram modificadas para serem capazes de trabalhar com imagens de características peculiares que são obtidas por meio de sensores de satélite, como por exemplo, as grandes dimensões e a alta variação espectral. Já o índice de confiabilidade, tem como objetivo analisar a imagem que contém as interferências atmosféricas e daí estimar o quão confiável será a redefinição com base no percentual de cobertura de nuvens sobre as regiões de textura e estrutura. Tal índice é composto pela combinação do resultado de algoritmos supervisionados e não-supervisionados envolvendo 3 métricas: Exatidão Global Média (EGM), Medida De Similaridade Estrutural (SSIM) e Confiança Média Dos Pixels (CM). Finalmente, verificou-se a eficácia destas metodologias através de uma avaliação quantitativa (proporcionada pelo índice) e qualitativa (pelas imagens resultantes do processamento), mostrando ser possível a aplicação das técnicas para solucionar os problemas que motivaram a realização deste trabalho.
Identificação automática das primeiras quebras em traços sísmicos por meio de uma rede neural direta
Resumo:
Apesar do avanço tecnológico ocorrido na prospecção sísmica, com a rotina dos levantamentos 2D e 3D, e o significativo aumento na quantidade de dados, a identificação dos tempos de chegada da onda sísmica direta (primeira quebra), que se propaga diretamente do ponto de tiro até a posição dos arranjos de geofones, permanece ainda dependente da avaliação visual do intérprete sísmico. O objetivo desta dissertação, insere-se no processamento sísmico com o intuito de buscar um método eficiente, tal que possibilite a simulação computacional do comportamento visual do intérprete sísmico, através da automação dos processos de tomada de decisão envolvidos na identificação das primeiras quebras em um traço sísmico. Visando, em última análise, preservar o conhecimento intuitivo do intérprete para os casos complexos, nos quais o seu conhecimento será, efetivamente, melhor aproveitado. Recentes descobertas na tecnologia neurocomputacional produziram técnicas que possibilitam a simulação dos aspectos qualitativos envolvidos nos processos visuais de identificação ou interpretação sísmica, com qualidade e aceitabilidade dos resultados. As redes neurais artificiais são uma implementação da tecnologia neurocomputacional e foram, inicialmente, desenvolvidas por neurobiologistas como modelos computacionais do sistema nervoso humano. Elas diferem das técnicas computacionais convencionais pela sua habilidade em adaptar-se ou aprender através de uma repetitiva exposição a exemplos, pela sua tolerância à falta de alguns dos componentes dos dados e pela sua robustez no tratamento com dados contaminados por ruído. O método aqui apresentado baseia-se na aplicação da técnica das redes neurais artificiais para a identificação das primeiras quebras nos traços sísmicos, a partir do estabelecimento de uma conveniente arquitetura para a rede neural artificial do tipo direta, treinada com o algoritmo da retro-propagação do erro. A rede neural artificial é entendida aqui como uma simulação computacional do processo intuitivo de tomada de decisão realizado pelo intérprete sísmico para a identificação das primeiras quebras nos traços sísmicos. A aplicabilidade, eficiência e limitações desta abordagem serão avaliadas em dados sintéticos obtidos a partir da teoria do raio.
Resumo:
ABSTRACT: We present here a methodology for the rapid interpretation of aeromagnetic data in three dimensions. An estimation of the x, y and z coordinates of prismatic elements is obtained through the application of "Euler's Homogeneous equation" to the data. In this application, it is necessary to have only the total magnetic field and its derivatives. These components can be measured or calculated from the total field data. In the use of Euler's Homogeneous equation, the structural index, the coordinates of the corners of the prism and the depth to the top of the prism are unknown vectors. Inversion of the data by classical least-squares methods renders the problem ill-conditioned. However, the inverse problem can be stabilized by the introduction of both a priori information within the parameter vector together with a weighting matrix. The algorithm was tested with synthetic and real data in a low magnetic latitude region and the results were satisfactory. The applicability of the theorem and its ambiguity caused by the lack of information about the direction of total magnetization, inherent in all automatic methods, is also discussed. As an application, an area within the Solimões basin was chosen to test the method. Since 1977, the Solimões basin has become a center of exploration activity, motivated by the first discovery of gas bearing sandstones within the Monte Alegre formation. Since then, seismic investigations and drilling have been carried on in the region. A knowledge of basement structures is of great importance in the location of oil traps and understanding the tectonic history of this region. Through the application of this method a preliminary estimate of the areal distribution and depth of interbasement and sedimentary magnetic sources was obtained.
Resumo:
As tecnologias wireless vêm evoluindo de forma rápida nas últimas décadas, pois são uma eficiente alternativa para transmissão de informações, sejam dados, voz, vídeos e demais serviços de rede. O conhecimento do processo de propagação dessas informações em diferentes ambientes é um fator de grande importância para o planejamento e o desenvolvimento de sistemas de comunicações sem fio. Devido ao rápido avanço e popularização dessas redes, os serviços oferecidos tornaram-se mais complexos e com isso, necessitam de requisitos de qualidades para que sejam ofertados ao usuário final de forma satisfatória. Devido a isso, torna-se necessário aos projetistas desses sistemas, uma metodologia que ofereça uma melhor avaliação do ambiente indoor. Essa avaliação é feita através da análise da área de cobertura e do comportamento das métricas de serviços multimídia em qualquer posição do ambiente que está recebendo o serviço. O trabalho desenvolvido nessa dissertação objetiva avaliar uma metodologia para a predição de métricas de qualidade de experiência. Para isso, foram realizadas campanhas de medições de transmissões de vídeo em uma rede sem fio e foram avaliados alguns parâmetros da rede (jitter de pacotes/frames, perda de pacotes/frames) e alguns parâmetros de qualidade de experiência (PSNR, SSIM e VQM). Os resultados apresentaram boa concordância com os modelos da literatura e com as medições.
Resumo:
O uso da comunicação de voz e dados através de dispositivos móveis vem aumentando significativamente nos últimos anos. Tal expansão traz algumas dificuldades inerentes, tais como: ampliação constante de capacidade das redes e eficiência energética. Neste contexto, vem se consolidando o conceito de Green networks, que se concentra no esforço para economia de energia e redução de CO2. Neste sentido, este trabalho propõe validar um modelo de uma política baseado em processo markoviano de decisão, visando a otimizar o consumo de energia, QoS e QoE, na alocação de usuários em redes macrocell e femtocell. Para isso o modelo foi inserido no simulador NS-2, aliando a solução analítica markoviana à flexibilidade característica da simulação discreta. A partir dos resultados apresentados na simulação, a política obteve uma economia significativa no consumo energético, melhorando a eficiência energética em até 4%, além de melhorar a qualidade de serviço em relação às redes macrocell e femtocell, demonstrando-se eficaz, de modo a alterar diretamente as métricas de QoS e de QoE.
Resumo:
O presente artigo pretende contribuir para a discussão sobre o processo de organização escolar a partir dos conceitos de ciclos, progressão continuada e aprovação automática. Para tanto, utilizou-se o resgate histórico, a análise dos documentos oficiais, bem como da literatura pertinente à temática para contextualização da origem dessas propostas e das concepções de avaliação subjacentes a elas. O texto procura esclarecer a questão dos ciclos, da progressão continuada e promoção/aprovação automática, buscando analisar de que modo essas idéias carregam, potencialmente, a possibilidade de os profissionais da educação rediscutirem a organização escolar e, implicitamente, as marcas das políticas educacionais que as propõe.