49 resultados para Balanceamento de dados
em Universidade Federal do Pará
Resumo:
Este trabalho apresenta um método para encontrar um conjunto de pontos de operação, os quais são ótimos de Pareto com diversidade, para linhas digitais de assinante (DSL - digital subscriber line). Em diversos trabalhos encontrados na literatura, têm sido propostos algoritmos para otimização da transmissão de dados em linhas DSL, que fornecem como resultado apenas um ponto de operação para os modems. Esses trabalhos utilizam, em geral, algoritmos de balanceamento de espectro para resolver um problema de alocação de potência, o que difere da abordagem apresentada neste trabalho. O método proposto, chamado de diverseSB , utiliza um processo híbrido composto de um algoritmo evolucionário multiobjetivo (MOEA - multi-objective evolutionary algorithm), mais precisamente, um algoritmo genético com ordenamento por não-dominância (NSGA-II - Non-Dominated Sorting Genetic Algorithm II), e usando ainda, um algoritmo de balanceamento de espectro. Os resultados obtidos por simulações mostram que, para uma dada diversidade, o custo computacional para determinar os pontos de operação com diversidade usando o algoritmo diverseSB proposto é muito menor que métodos de busca de “força bruta”. No método proposto, o NSGA-II executa chamadas ao algoritmo de balanceamento de espectro adotado, por isso, diversos testes envolvendo o mesmo número de chamadas ao algoritmo foram realizadas com o método diverseSB proposto e o método de busca por força bruta, onde os resultados obtidos pelo método diverseSB proposto foram bem superiores do que os resultados do método de busca por força bruta. Por exemplo, o método de força bruta realizando 1600 chamadas ao algoritmo de balanceamento de espectro, obtém um conjunto de pontos de operação com diversidade semelhante ao do método diverseSB proposto com 535 chamadas.
Resumo:
A interferência eletromagnética causada pela linha de energia elétrica afeta negativamente os sinais de instrumentos eletrônicos, especialmente aqueles com baixos níveis de amplitude. Este tipo de interferência é conhecida como interferência de modo comum. Existem muitos métodos e arquiteturas utilizadas para minimizar a influência deste fenômeno de interferência em instrumentos eletrônicos, o mais comum dos quais é a utilização de filtros rejeita banda. Este trabalho apresenta: a análise, desenvolvimento, protótipo e teste de uma nova arquitetura de filtro com característica reconfigurável para instrumentos biomédicos e medição de dados de fluxo em fluido de alta complexidade, com objetivo de reduzir a interferência de modo comum e preservar as componentes do sinal útil na mesma faixa de frequência do ruído, utilizando a técnica de equilíbrio dinâmico de impedância. Além disso, este trabalho pode ser usado em qualquer sistema de medição que também sofra interferência na frequência da linha de alimentação (50/60 Hz, no Brasil e na França, 60 Hz nos Estados Unidos da América). Os blocos de circuitos foram modelados matematicamente e a função de transferência global do circuito fechado foi gerada. Em seguida, o projeto foi descrito e simulado na língua VHDL_AMS e também em um software de simulação eletrônica, usando blocos de componentes discretos, com e sem realimentação. Após análise teórica dos resultados da simulação, um circuito protótipo foi construído e testado usando como entrada um sinal obtido a partir de eletrodos de ECG e Eletrodos Eletroresistivos. Os resultados experimentais do circuito condizem com os da simulação: uma redução de ruído de 98,7% foi obtida em simulações utilizando um sinal sinusoidal, e uma redução de 92% foi realizada utilizando eletrodos de ECG em testes experimentais. Os mesmos testes em eletrodos Eletroresistivos, obtendo o maior valor de 80,3% de redução (durante análise de 3 casos). Em ambos os casos, o sinal útil foi preservado. O método e a sua arquitetura pode ser aplicado para atenuar as interferências que ocorrem na mesma banda de frequência das componentes do sinal útil, preservando ao mesmo tempo estes sinais.
Resumo:
A natureza rígida de redes de multiplexação por divisão de comprimentos de onda (WDM) provoca exploração ineficiente de capacidade espectral. Dessa forma, redes flexíveis são um possível avanço para a tecnologia óptica por viabilizarem melhor aproveitamento dos recursos espectrais disponíveis. Com o intuito de aferir a possível aplicabilidade de redes flexíveis, este trabalho propõe uma estratégia de avaliação de desempenho baseada em simulações e comparações entre resultados obtidos. Para tanto, várias simulações a tempo discreto foram implementadas em dois simuladores desenvolvidos em Matlab a fim de analisar diferentes políticas de alocação de espectro (First-Fit, Smallest-Fit, Exact-Fit e Random-Fit) em três algoritmos de roteamento por caminhos ópticos não híbridos: o roteamento por fragmentação externa (FA), por caminhos mais curtos com máxima eficiência de reuso espectral (SPSR) e por balanceamento de cargas (BLSA). Duas topologias de rede foram utilizadas: um pequeno subconjunto de 6 nós da Cost239 e uma topologia aleatória de 7 nós. Admitindo-se que efeitos de camada física não foram configurados como restrições, foram realizadas comparações entre as diversas técnicas estudadas, objetivando-se apontar, baseado nas especificidades dos cenários propostos, qual o método mais adequado de alocação espectral em termos de frequência de bloqueio entre as quatro políticas de alocação de espectro consideradas.
Resumo:
Esta tese apresenta duas contribuições para a interpretação geofísica, voltadas ao Método Magnetotelúrico. A primeira trata de uma nova abordagem para a interpretação MT, denominada MÉTODO DESCRITIVO-GEOLÓGICO (DesG), em alusão à incorporação explícita de informação a priori de correlação fácil com a descrição geológica tradicional. O intérprete define por meio de elementos geométricos (pontos e linhas) o arcabouço de feições geológicas bem como fornece valores de resistividade aos corpos geológicos presumidos. O método estima a distribuição de resistividade subsuperficial em termos de fontes anômalas próximas aos elementos geométricos, ajustando as respostas produzidas por estes corpos às medidas de campo. A solução obtida fornece então informações que podem auxiliar na modificação de algumas informações a priori imprecisas, permitindo que sucessivas inversões sejam realizadas até que a solução ajuste os dados e faça sentido geológico. Entre as características relevantes do método destacam-se: (i) os corpos podem apresentar resistividade maior ou menor do que a resistividade do meio encaixante, (ii) vários meios encaixantes contendo ou não corpos anômalos podem ser cortados pelo perfil e (iii) o contraste de resistividade entre corpo e encaixante pode ser abrupto ou gradativo. A aplicação do método a dados sintéticos evidencia, entre outras vantagens, a sua potencialidade para estimar o mergulho de falhas com inclinação variável, que merece especial interesse em Tectônica, e delinear soleiras de diabásio em bacias sedimentares, um sério problema para a prospecção de petróleo. O método permite ainda a interpretação conjunta das causas do efeito estático e das fontes de interesse. A aplicação a dados reais é ilustrada tomando-se como exemplo dados do COPROD2, cuja inversão produziu soluções compatíveis com o conhecimento geológico sobre a área. A segunda contribuição refere-se a desenho de experimento geofísico. Por meio de indicadores diversos, em especial a matriz densidade de informação, é mostrado que a resolução teórica dos dados pode ser estudada, que guia o planejamento da prospecção. A otimização do levantamento permite determinar os períodos e as posições das estações de medida mais adequados ao delineamento mais preciso de corpos cujas localizações são conhecidas aproximadamente.
Resumo:
Apresenta a avaliação da qualidade da Base de Dados de Informações Jornalísticas sobre a Amazônia: Ciência,Tecnologia e Meio Ambiente – BDIJAm. O estudo integra o Projeto Temáticas Amazônicas: Dossiês Comentados e Qualidade da Informação sobre Ciência, Tecnologia e Meio Ambiente, do Museu Paraense Emílio Goeldi. Foram aplicados questionários aos usuários para identificação dos pontos positivos e possíveis lacunas do serviço. Como principais resultados foram apontadas a relevância dos temas da Base e a necessidade de se desenvolver ações que visem aperfeiçoar a estrutura de recuperação da informação. Conclui que toda base de dados deve ser continuamente aperfeiçoada e os usuários consideram a BDIJam um instrumento de suma importância para a sociedade como recurso de preservação da memória social da Amazônia.
Resumo:
Investiga a qualidade da informação e dos serviços da Base de Dados de Informações Jornalísticas sobre a Amazônia: ciência, tecnologia e meio ambiente - BDIJAm, sistematizada pelo Museu Paraense Emílio Goeldi – MPEG e pela Universidade Federal do Pará – UFPA, cujo resultado apontará caminhos para o maior benefício, por parte dos usuários, no que diz respeito ao uso, estrutura e funcionamento da BDIJAm com vistas ao melhor aproveitamento de seu conteúdo e de seus serviços. Trata da experiência no Projeto de Pesquisa Ciência e Comunidade: Comunicação e Educação para Preservação Ambiental e Cultural na Amazônia Oriental Brasileira, que originou o Sub-Projeto Temáticas Amazônicas: Dossiês Comentados e Qualidade da Informação sobre Ciência Tecnologia e Meio Ambiente. A BDIJAm representa um passo significativo para a democratização de informações estratégicas sobre a Amazônia e representa ainda a conservação e divulgação do acervo de jornais. Com parte do acervo já digitalizado, disponibiliza cerca de 20 mil registros, dos anos de 1992 a 2006 via web, sobre informações estratégicas da Amazônia, conservação e divulgação do acervo jornalístico (hemeroteca) do Museu Paraense Emílio Goeldi, além de constituir um importante recurso pedagógico não só para a formação dos professores, como também para utilização do seu acervo em sala de aula. A BDIJAm representa um passo significativo da democratização da informação sobre a Amazônia.
Resumo:
Atualmente, é grande a preocupação com relação aos distúrbios que afetam a qualidade da energia elétrica, em especial os afundamentos de tensão, devido aos prejuízos associados aos usuários. Isto decorre da crescente presença de cargas sensíveis a estes distúrbios, principalmente nos processos industriais. Para se avaliar corretamente o problema, é fundamental dispor de estimativas confiáveis do número e das características dos afundamentos de tensão que podem afetar determinada carga ou processo. Dentro deste contexto, este trabalho propõe a implementação de uma metodologia de estimação dos afundamentos de tensão. Esta metodologia calcula a amplitude, duração e freqüência de ocorrência do fenômeno, tendo como base um estudo estatístico estocástico. Neste estudo a posição da falta ao longo das linhas é sorteada, a fim de melhor emular a aleatoriedade da ocorrência das faltas no sistema. Para avaliar a aplicabilidade da metodologia implementada, realizaram-se estudos de casos utilizando um sistema elétrico real pertencente a uma concessionária da região norte (CELPA). A análise permite afirmar que a metodologia implementada pode ser eficazmente utilizada para auxiliar engenheiros no planejamento de sistemas elétricos e no diagnóstico de problemas ocasionados por afundamentos de tensão.
Resumo:
As informações topográficas existentes para o território brasileiro, na escala 1:100.000, cobrem apenas 75,39% da área nacional, restando ainda imensos vazios cartográficos, principalmente na região Amazônica. Essas informações eram oriundas de métodos de restituição aerofotogramétricas, aplicados em fotos aéreas das décadas de 60 a 80. Devido à grande complexidade dos métodos empregados e a outros problemas de ordem técnico-financeira, grande parte das cartas plani-altimétricas está desatualizada, fato que compromete a utilização das mesmas. Atualmente, as informações topográficas são largamente extraídas a partir de modelos digitais de elevação, como por exemplo, as imagens do Shuttle Radar Topography Mission (SRTM). Neste trabalho, o modelo de elevação do SRTM foi analisado com base no Padrão de Exatidão Cartográfica (PEC) altimétrico, na atualização altimétrica da carta Plani-altimétrica Salinópolis do ano de 1982. A análise do PEC altimétrico do SRTM referente à região de Salinópolis, revelou que o mesmo pode ser utilizado na escala 1:50.000 classe C e escala 1:100.000 classe A. Já que as imagens SRTM são compatíveis com a escala e classe da carta Salinópolis, utilizou-se a versão original do SRTM (90 metros resolução espacial) para atualização altimétrica da carta Salinópolis e imagens TM Landsat-5, como base planimétrica, seguindo os parâmetros adotados pelo Instituto Brasileiro de Geografia e Estatística. Com a atualização da carta constatou-se várias diferenças, principalmente em relação à planimetria. A atualização das cartas é de grande importância, principalmente em regiões costeiras, devido à dinâmica e intensidade dos diferentes processos naturais e antrópicos atuantes, além disso, esta metodologia pode servir de base para a atualização de outras cartas e até mesmo a geração de novas cartas em locais de vazios cartográficos, resolvendo assim a questão da falta de informação topográfica em determinadas escalas. Palavras-chave: SRTM, atualização cartográfica, carta plani-altimétrica, Amazônia.
Resumo:
As concessionárias de energia, para garantir que sua rede seja confiável, necessitam realizar um procedimento para estudo e análise baseado em funções de entrega de energia nos pontos de consumo. Este estudo, geralmente chamado de planejamento de sistemas de distribuição de energia elétrica, é essencial para garantir que variações na demanda de energia não afetem o desempenho do sistema, que deverá se manter operando de maneira técnica e economicamente viável. Nestes estudos, geralmente são analisados, demanda, tipologia de curva de carga, fator de carga e outros aspectos das cargas existentes. Considerando então a importância da determinação das tipologias de curvas de cargas para as concessionárias de energia em seu processo de planejamento, a Companhia de Eletricidade do Amapá (CEA) realizou uma campanha de medidas de curvas de carga de transformadores de distribuição para obtenção das tipologias de curvas de carga que caracterizam seus consumidores. Neste trabalho apresentam-se os resultados satisfatórios obtidos a partir da utilização de Mineração de Dados baseada em Inteligência Computacional (Mapas Auto-Organizáveis de Kohonen) para seleção das curvas típicas e determinação das tipologias de curvas de carga de consumidores residenciais e industriais da cidade de Macapá, localizada no estado do Amapá. O mapa auto-organizável de Kohonen é um tipo de Rede Neural Artificial que combina operações de projeção e agrupamento, permitindo a realização de análise exploratória de dados, com o objetivo de produzir descrições sumarizadas de grandes conjuntos de dados.
Resumo:
O atual modelo do setor elétrico brasileiro permite igualdade de condições a todos os agentes e reduz o papel do Estado no setor. Esse modelo obriga as empresas do setor a melhorarem cada vez mais a qualidade de seu produto e, como requisito para este objetivo, devem fazer uso mais efetivo da enorme quantidade de dados operacionais que são armazenados em bancos de dados, provenientes da operação dos seus sistemas elétricos e que tem nas Usinas Hidrelétricas (UHE) a sua principal fonte de geração de energia. Uma das principais ferramentas para gerenciamento dessas usinas são os sistemas de Supervisão, Controle e Aquisição de Dados (Supervisory Control And Data Acquisition - SCADA). Assim, a imensa quantidade de dados acumulados nos bancos de dados pelos sistemas SCADA, muito provavelmente contendo informações relevantes, deve ser tratada para descobrir relações e padrões e assim ajudar na compreensão de muitos aspectos operacionais importantes e avaliar o desempenho dos sistemas elétricos de potência. O processo de Descoberta de Conhecimento em Banco de Dados (Knowledge Discovery in Database - KDD) é o processo de identificar, em grandes conjuntos de dados, padrões que sejam válidos, novos, úteis e compreensíveis, para melhorar o entendimento de um problema ou um procedimento de tomada de decisão. A Mineração de Dados (ou Data Mining) é o passo dentro do KDD que permite extrair informações úteis em grandes bases de dados. Neste cenário, o presente trabalho se propõe a realizar experimentos de mineração de dados nos dados gerados por sistemas SCADA em UHE, a fim de produzir informações relevantes para auxiliar no planejamento, operação, manutenção e segurança das hidrelétricas e na implantação da cultura da mineração de dados aplicada a estas usinas.
Resumo:
Várias das técnicas tradicionais de Mineração de Dados têm sido aplicadas com êxito e outras esbarram em limitações, tanto no desempenho como na qualidade do conhecimento gerado. Pesquisas recentes têm demonstrado que as técnicas na área de IA, tais como Algoritmo Genético (AG) e Lógica Difusa (LD), podem ser utilizadas com sucesso. Nesta pesquisa o interesse é revisar algumas abordagens que utilizam AG em combinação com LD de forma híbrida para realizar busca em espaços grandes e complexos. Este trabalho apresenta o Algoritmo Genético (AG), utilizando Lógica Difusa, para a codificação, avaliação e reprodução dos cromossomos, buscando classificar dados através de regras extraídas de maneira automática com a evolução dos cromossomos. A Lógica Difusa é utilizada para deixar as regras mais claras e próximas da linguagem humana, utilizando representações lingüísticas para identificar dados contínuos.
Resumo:
O complexo de espécies M. brevicaudata possui distribuição reconhecida para o Norte da América do sul e compreende três espécies descritas ‐ M. brevicaudata, M. glirina, e M. palliolata ‐ e duas não descritas, reconhecidas em estudos prévios. A delimitação de espécies baseada somente em caracteres morfológicos é complicada, de forma que diversos táxons nominais já foram associados ao grupo e diversos arranjos taxonômicos foram propostos. Os poucos estudos baseados em dados moleculares que incluíram espécimes do complexo brevicaudata revelaram altas taxas de divergência genética. Este trabalho buscou elucidar a sistemática do complexo de espécies M. brevicaudata através do estudo dos padrões de variação morfológica e genética. Para tal, desenvolvemos análises filogenéticas baseadas em dois genes mitocondriais: citocromo b e 16 S rDNA. Adicionalmente, estudamos a morfologia externa e craniana dos espécimes, investigando a existência de congruência entre a variação genética e morfológica. As análises morfológicas foram, em geral, congruentes com as moleculares, as quais indicaram os mesmos clados em todas as análises filogenéticas. Foram formalmente reconhecidas nove espécies para o complexo. Monodelphis brevicaudata, M. palliolata e M. glirina são consideradas espécies válidas; M. touan é revalidado da sinonímia de M. brevicaudata e duas espécies novas são descritas e nomeadas; a espécie M. domestica provou ser intimamente relacionada a espécimes do grupo brevicaudata, sendo aqui considerada como integrante do referido grupo; duas espécies reconhecidas como distintas permanecem sem uma descrição formal; M. maraxina é sinonimizada com M. glirina. Foi observado dimorfismo sexual para as espécies estudadas, sendo que para as duas espécies estatisticamente testadas (teste T de student), M. glirina e M. sp. nov. “Trombetas”, os machos apresentaram crânios significativamente maiores que as fêmeas. Rios de grande porte parecem ter participado na diferenciação genética e estruturação filogeográfica das espécies. O padrão filogeográfico encontrado sugere ao menos dois centros de diversificação para o grupo, um no escudo das Guianas, envolvendo as espécies ao norte do rio Amazonas, e outro no escudo brasileiro, envolvendo M. glirina e M. domestica.
Resumo:
A presente dissertação avalia a margem de estabilidade de tensão da subestação de Rurópolis-PA 230 kV do sistema elétrico Tramoeste da Eletrobrás Eletronorte, utilizando medições locais de fasores de tensão e corrente obtidos através do concentrador de dados fasoriais ou (PDC, do inglês Phasor Data Concentrator) da Eletronorte. A avaliação é baseada na identificação dos parâmetros do equivalente Thevenin (tensão e impedância) “vistos” a montante da subestação em estudo. Os parâmetros do equivalente Thévenin são estimados a partir dos fasores de tensão e corrente medidos localmente, assim como a impedância da carga é calculada usando os mesmos fasores. A margem de estabilidade de tensão determina a distância dada entre os valores, em módulo, da impedância de Thévenin e da impedância da carga. Essa margem, para a subestação referida, foi avaliada em três casos. O primeiro caso avalia a margem considerando dois patamares de carga (leve e pesada); o segundo caso avalia a margem considerando dois níveis de geração na Usina de Tucuruí; e o terceiro caso avalia a margem frente a duas perturbações no Sistema Interligado Nacional (SIN), sendo uma perturbação mais próxima, eletricamente, e outra mais distante da subestação de Rurópolis 230 kV. Os resultados obtidos demonstram uma aplicação promissora das análises propostas para serem usadas em tempo real em sistemas de potência, beneficiando aplicações de ações corretivas.
Resumo:
A pesquisa apresentada nesta dissertação descreve a elaboração de um protocolo de roteamento para aplicações de Redes de Sensores Sem Fio (RSSF) em cidade inteligentes com forte restrição de energia e alta densidade de nodos. Através do estudo dos principais objetivos da comunicação de dados e do levantamento do estado-da-arte sobre os protocolos de roteamento e tecnologias para RSSF, a proposta contempla requisitos como: vazão de dados, confiabilidade de entrega e eficiência energética. A pesquisa apresenta em detalhes o protocolo AODV (Ad hoc On Demand Distance Vector), bem como sua relevância no contexto de RSSF devido a sua popularidade entre as plataformas de dispositivos comercializados. Além disso, são apresentados protocolos derivados do AODV, e a ausência de uma proposta robusta capaz de contemplar os requisitos levantados. O protocolo REL (Routing by Energy and Link Quality) é o resultado da pesquisa levantada e a proposta de solução para roteamento plano sob demanda baseado em eficiência energética e qualidade de enlace para prover um roteamento escalável, capaz de realizar balanceamento de carga e prolongar o tempo de vida da rede. O protocolo REL foi avaliado através de simulação e tesbed, a fim de garantir validação da proposta em ambiente real de escala reduzida e simulado de alta densidade. Os resultados mostraram que o protocolo REL apresenta considerável melhoria de entrega de dados através da escolha de enlaces confiáveis de transmissão e menos suscetíveis a erro, além de moderado consumo de energia capaz de prolongar o tempo de vida da rede, evitando a saturação prematura de nodos.
Resumo:
As Redes de Sensores Sem Fio possuem capacidades limitadas de processamento, armazenamento, comunicação (largura de banda) e fonte de energia, além de possuírem características e requisitos básicos de uma RSSF como: necessidade de se auto-organizar, comunicação com difusão de curto alcance e roteamento com múltiplos saltos. Neste trabalho é proposto uma ferramenta que otimize o posicionamento e os pacotes entregues através do uso de Algoritmo Genético (AG). Para solucionar o problema de roteamento que melhore o consumo de energia e maximize a agregação de dados é proposto a utilização de lógica fuzzy no protocolo de roteamento Ad hoc Ondemand Distance Vector (AODV). Esta customização é intitulada AODV – Fuzzy for Wireless Sensor Networks (AODV-FWSN). Os resultados mostram que a solução proposta é eficiente e consegue prolongar a vida útil da RSSF e melhorar a taxa de entrega de dados quando comparado com soluções similares.