5 resultados para Large Data

em Universidade Federal do Pará


Relevância:

60.00% 60.00%

Publicador:

Resumo:

As concessionárias de energia, para garantir que sua rede seja confiável, necessitam realizar um procedimento para estudo e análise baseado em funções de entrega de energia nos pontos de consumo. Este estudo, geralmente chamado de planejamento de sistemas de distribuição de energia elétrica, é essencial para garantir que variações na demanda de energia não afetem o desempenho do sistema, que deverá se manter operando de maneira técnica e economicamente viável. Nestes estudos, geralmente são analisados, demanda, tipologia de curva de carga, fator de carga e outros aspectos das cargas existentes. Considerando então a importância da determinação das tipologias de curvas de cargas para as concessionárias de energia em seu processo de planejamento, a Companhia de Eletricidade do Amapá (CEA) realizou uma campanha de medidas de curvas de carga de transformadores de distribuição para obtenção das tipologias de curvas de carga que caracterizam seus consumidores. Neste trabalho apresentam-se os resultados satisfatórios obtidos a partir da utilização de Mineração de Dados baseada em Inteligência Computacional (Mapas Auto-Organizáveis de Kohonen) para seleção das curvas típicas e determinação das tipologias de curvas de carga de consumidores residenciais e industriais da cidade de Macapá, localizada no estado do Amapá. O mapa auto-organizável de Kohonen é um tipo de Rede Neural Artificial que combina operações de projeção e agrupamento, permitindo a realização de análise exploratória de dados, com o objetivo de produzir descrições sumarizadas de grandes conjuntos de dados.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O atual modelo do setor elétrico brasileiro permite igualdade de condições a todos os agentes e reduz o papel do Estado no setor. Esse modelo obriga as empresas do setor a melhorarem cada vez mais a qualidade de seu produto e, como requisito para este objetivo, devem fazer uso mais efetivo da enorme quantidade de dados operacionais que são armazenados em bancos de dados, provenientes da operação dos seus sistemas elétricos e que tem nas Usinas Hidrelétricas (UHE) a sua principal fonte de geração de energia. Uma das principais ferramentas para gerenciamento dessas usinas são os sistemas de Supervisão, Controle e Aquisição de Dados (Supervisory Control And Data Acquisition - SCADA). Assim, a imensa quantidade de dados acumulados nos bancos de dados pelos sistemas SCADA, muito provavelmente contendo informações relevantes, deve ser tratada para descobrir relações e padrões e assim ajudar na compreensão de muitos aspectos operacionais importantes e avaliar o desempenho dos sistemas elétricos de potência. O processo de Descoberta de Conhecimento em Banco de Dados (Knowledge Discovery in Database - KDD) é o processo de identificar, em grandes conjuntos de dados, padrões que sejam válidos, novos, úteis e compreensíveis, para melhorar o entendimento de um problema ou um procedimento de tomada de decisão. A Mineração de Dados (ou Data Mining) é o passo dentro do KDD que permite extrair informações úteis em grandes bases de dados. Neste cenário, o presente trabalho se propõe a realizar experimentos de mineração de dados nos dados gerados por sistemas SCADA em UHE, a fim de produzir informações relevantes para auxiliar no planejamento, operação, manutenção e segurança das hidrelétricas e na implantação da cultura da mineração de dados aplicada a estas usinas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A permeabilidade e a porosidade são duas das mais importantes propriedades petrofísicas para a qualificação dos reservatórios de óleo e gás. A porosidade está relacionada à capacidade de armazenamento de fluidos e a permeabilidade, com a capacidade de produção destes fluidos. Suas medidas são, normalmente, realizadas em laboratório, através de testemunhos da rocha. Esses processos têm custos elevados e nem todos os poços são testemunhados. As estimativas da permeabilidade e da porosidade são de fundamental importância para os engenheiros de reservatório e geofísicos, uma vez que seus valores podem definir a completação ou não de um poço petrolífero. O perfil de porosidade e sua relação com o perfil de densidade, é bem conhecida na geofísica de poço. No entanto, existem poucas relações quantitativas e/ou qualitativas entre a porosidade e a permeabilidade, como por exemplo as relações de Kozeny. Sendo assim, este trabalho busca o estabelecimento do perfil de permeabilidade e do perfil de porosidade, a partir de informações do perfil de densidade. Para tanto, buscamos a relação entre a propriedade física da rocha (densidade) e as propriedades petrofísicas: permeabilidade e porosidade, utilizando como metodologia à técnica de redes neurais artificiais, como a rede neural artificial com função de base radial. A obtenção da permeabilidade e da porosidade a partir da rede neural artificial, que possui como entrada a informação da densidade possibilita um menor custo para a aquisição dessas importantes informações petrofísicas, permite ao intérprete de perfis de poço optar ou não pela exploração de uma unidade estudada, além de uma visão mais completa do reservatório. Os procedimentos para a estimativa da permeabilidade e da porosidade estão direcionados para uma única formação, mas os intérpretes de perfis poderão aplicar a diretriz apresentada no programa de rede neural artificial com função de base radial, utilizando a estimativa dessas propriedades petrofísicas para outras formações, inclusive de outros campos petrolíferos. Portanto, recomenda-se a utilização de um conjunto de dados completo, com quantidade de dados suficientes de um mesmo poço, a fim de viabilizar corretamente a melhor interpretação.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Consoante a importância da atividade empresarial para o desenrolar das migrações de retorno, sobretudo no que se refere a mitigação dos riscos e problemas tipicamente vivenciados pelos protagonistas de tais deslocamentos, esta tese objetivou compreender e explicar o processo de formação das estratégias empreendedoras adotadas por dekasseguis retornados no estado do Pará. Para tanto, desenvolveu-se um estudo de caso eminentemente qualitativo, utilizando-se um conjunto amplo de dados, com destaque para as narrativas obtidas através de entrevistas semiestruturadas, procedidas não somente com indivíduos que criaram negócios após regressarem do Japão, mas também com gestores de organizações envolvidas com o movimento dekassegui em um sentido mais amplo. Os achados obtidos permitiram elaborar um modelo de análise bastante amplo e de caráter multiescalar, que promove um entendimento mais denso sobre as trajetórias migratórias e as iniciativas empresariais observadas, capaz de captar uma série de elementos que se confluem no processo de criação e desenvolvimento das estratégias em vista. Através dele, foi possível defender a tese que: as estratégias empresariais adotadas pelos dekasseguis retornados foram formadas por combinações entre oportunidades e restrições de caráter econômico, sociocultural e político/institucional existentes em cada etapa de seus trajetos migratórios, bem como, pelo contexto espacial e temporal em que suas escolhas e ações ocorreram. O que reforça, por sua vez, a necessidade de se utilizar abordagens sociológicas e métodos complementares no estudo desses fenômenos. Além, é claro, de proporcionar um conjunto de considerações e recomendações interessantes aos estudiosos do tema e os praticantes do campo: aspirantes a dekasseguis, dekasseguis retornados que já tenham iniciado seus próprios negócios, líderes de associações nikkeys, gestores de órgãos federais e estaduais, entre outros.