910 resultados para Sistemas Gerenciadores de Banco de Dados
Resumo:
O objetivo deste trabalho é conhecer e compreender melhor os imprevistos no fornecimento de energia elétrica, quando ocorrem as variações de tensão de curta duração (VTCD). O banco de dados necessário para os diagnósticos das faltas foi obtido através de simulações de um modelo de alimentador radial através do software PSCAD/EMTDC. Este trabalho utiliza um Phase-Locked Loop (PLL) com o intuito de detectar VTCDs e realizar a estimativa automática da frequência, do ângulo de fase e da amplitude das tensões e correntes da rede elétrica. Nesta pesquisa, desenvolveram-se duas redes neurais artificiais: uma para identificar e outra para localizar as VTCDs ocorridas no sistema de distribuição de energia elétrica. A técnica aqui proposta aplica-se a alimentadores trifásicos com cargas desequilibradas, que podem possuir ramais laterais trifásicos, bifásicos e monofásicos. No desenvolvimento da mesma, considera-se que há disponibilidade de medições de tensões e correntes no nó inicial do alimentador e também em alguns pontos esparsos ao longo do alimentador de distribuição. Os desempenhos das arquiteturas das redes neurais foram satisfatórios e demonstram a viabilidade das RNAs na obtenção das generalizações que habilitam o sistema para realizar a classificação de curtos-circuitos.
Resumo:
A energia solar fotovoltaica é uma alternativa de energia limpa que está se tornando uma importante opção para se utilizar eletricidade em regiões desprovidas de energia elétrica. Um estudo das condições energéticas da região através de consulta às concessionárias de energia elétrica (Eletricidade de Moçambique - EDM no caso de Moçambique) e do Ministério de Energia do Governo, são fontes importantes de dados para se conhecer o cenário energético de cada região. Outra fonte de dados importante para se estimar o potencial de geração de energia solar fotovoltaico sãoos indices de irradiação da região. Estes podemser obtidos através do órgão meteorológico da região (INAM no caso de Moçambique) que forneceesses dados para as principais cidades através de suas estações meteorológicas espalhadas na região. Laboratórios de pesquisa internacionais sãooutra importante fonte de dados solarimétricos, pois utilizam satélites capazes de cobrir todo globo terrestre e os dados obtidos são publicados e permitem, a partir das coordenadas do local, identificar a irradiação solar em diversos locais do mundo. Os dados desses laboratórios podem ser comparados com dados de órgãos oficiais da região. Utilizando o banco de dados solarimétricospode-se calcular o potencial fotovoltaico de geração de energia de cada localização e também definir qual região seria mais propícia a utilização de energiasolar fotovoltaica conectada à rede.
Resumo:
Atualmente existem diferentes ferramentas computacionais para auxílio nos estudos de coordenação da proteção, que permitem traçar as curvas dos relés, de acordo com os parâmetros escolhidos pelos projetistas. Entretanto, o processo de escolha das curvas consideradas aceitáveis, com um elevado número de possibilidades e variáveis envolvidas, além de complexo, requer simplificações e iterações do tipo tentativa e erro. Neste processo, são fatores fundamentais tanto a experiência e o conhecimento do especialista, quanto um árduo trabalho, sendo que a coordenação da proteção é qualificada pela IEEE Std. 242 como sendo mais uma arte do que uma ciência. Este trabalho apresenta o desenvolvimento de um algoritmo genético e de um algoritmo inspirado em otimização por colônia de formigas, para automatizar e otimizar a coordenação da função de sobrecorrente de fase de relés digitais microprocessados (IEDs), em subestações industriais. Seis estudos de caso, obtidos a partir de um modelo de banco de dados, baseado em um sistema elétrico industrial real, são avaliados. Os algoritmos desenvolvidos geraram, em todos os estudos de caso, curvas coordenadas, atendendo a todas as restrições previamente estabelecidas e as diferenças temporais de atuação dos relés, no valor de corrente de curto circuito trifásica, apresentaram-se muito próximas do estabelecido como ótimo. As ferramentas desenvolvidas demonstraram potencialidade quando aplicadas nos estudos de coordenação da proteção, tendo resultados positivos na melhoria da segurança das instalações, das pessoas, da continuidade do processo e do impedimento de emissões prejudiciais ao meio ambiente.
Resumo:
Na década de 80, o surgimento de programas de computadores mais amigáveis para usuários e produtores de informação e a evolução tecnológica fizeram com que as instituições, públicas e privadas, se aperfeiçoassem em estudos sobre sistemas de produção cartográfica apoiados por computador, visando a implementação de Sistemas de Informação Geográfica (SIG). A pouca simultaneidade de forças entre órgãos interessados, resultou em uma grande quantidade de arquivos digitais com a necessidade de padronização. Em 2007, a Comissão Nacional de Cartografia (CONCAR) homologou a Estrutura de Dados Geoespaciais Vetoriais (EDGV) a fim de minimizar o problema da falta de padronização de bases cartográficas. A presente dissertação tem como foco elaborar uma metodologia de trabalho para o processo de conversão de bases cartográficas digitais existentes no padrão da Mapoteca Topográfica Digital (MTD), do Instituto Brasileiro de Geografia e Estatística (IBGE), para o padrão da EDGV, bem como suas potencialidades e limitações para integração e padronização de bases cartográficas digitais. Será feita uma aplicação da metodologia utilizando a carta topográfica de Saquarema, na escala de 1:50.000, vetorizada na Coordenação de Cartografia (CCAR) do IBGE e disponível na Internet. Como a EDGV foi elaborada segundo técnicas de modelagem orientada a objetos, foi necessário um mapeamento para banco de dados relacional, já que este ainda é utilizado pela maioria dos usuários e produtores de informação geográfica. Um dos objetivos específicos é elaborar um esquema de banco de dados, ou seja, um banco de dados vazio contendo todas as classes de objetos, atributos e seus respectivos domínios existentes na EDGV para que possa ser utilizado no processo de produção cartográfica do IBGE. Este esquema conterá todas as descrições dos objetos e de seus respectivos atributos, além de já permitir que o usuário selecione o domínio de um determinado atributo em uma lista pré definida, evitando que ocorra erro no preenchimento dados. Esta metodologia de trabalho será de grande importância para o processo de conversão das bases cartográficas existentes no IBGE e, com isso, gerar e disponibilizar bases cartográficas no padrão da EDGV.
Resumo:
A agencia de informação Embrapa disponibiliza na internet informação qualificada e organizada e, muitas vezes, também aquelas geradas pela própria Embrapa. As soluções de software esposta neste trabalho são dirigidas ao gerenciamento dessas informações, que são armazenadas em base de dados centralizada e atualizada via internet por aplicativos deste sistema. O objetivo de apresentar essas soluções é contribuir para o desenvolvimento de sistemas com orientação metodológica similar. Este sistema teve como principal identificação de requisitos as falhas existentes na primeira versão do mesmo, que foi orientada exclusivamente para manipulação de dados formatados em XML. A nova versão traz uma arquitetura baseada nas orientações Java 2 Enterprise Editon (J2EE): modelo em camadas (orientação Model View Controler-MVC), uso de containers e sistema gerenciador de banco de dados. O resultado é um sistema mais robusto em seu todo, além das melhorias de manutenabilidade. Termos para indexação:J2EE, XML, PDOM, Model view controller- MVC, Oracle.
Resumo:
Este documento consiste no estudo, análise e identificação de uma solução voltada para a recuperação de dados no Sistema Gerenciador de Banco de Dados (SGBD) PostgreSQL. A solução em recuperação de dados, aqui apresentada, foi testada e direcionada para o sistema operacional Linux Ubuntu, porém a mesma é compatível com outras distribuições, bem como passível de ser implementada e executada em outros sistemas operacionais, nos quais funcionam o SGBD PostgreSQL, resguardadas as suas respectivas peculiaridades, ou, basicamente, a nomenclatura e o formato dos comandos empregados relativos ao sistema operacional adotado.
Resumo:
Os solos ácidos predominam em quase todas as regiões do Brasil, ocupando menores proporções nas regiões do semi-árido localizadas no Nordeste do país (OLMOS; CAMARGO,1976). Em condições de elevada acidez e altos teores de alumínio, a correção do solo se faz necessária, visto que a maioria das culturas comerciais não tolera essas condições. Portanto o uso de corretivos passou a ser rotina em várias regiões agrícolas, tornando-se, talvez, a prática mais importante para alcançar elevadas produtividades (PRADO, 2003). Para Poulisse (2003), nas próximas décadas, os principais fatores de transformação da produção agrícola estarão relacionados às mudanças nos hábitos alimentares e introdução de novas tecnologias agrícolas. Associada a esta transformação, surge a necessidade de exploração racional dos recursos naturais. Dessa nova concepção, surge um novo paradigma, que enfatiza os fatores bióticos da produção, como o uso eficiente de adubos e corretivos, a adaptação das plantas às limitações do solo, o aumento da atividade biológica e a otimização da ciclagem de nutrientes (SANCHEZ, 1997). Para que o uso de insumos agrícolas seja otimizado e esteja em harmonia com a sustentabilidade ambiental é pertinente o conhecimento da distribuição espacial dos nutrientes no solo. Com esse conhecimento é possível planejar e gerir a distribuição desses insumos inibindo o avanço da degradação dos solos e permitindo que produtores menos favorecidos tenham sua produtividade incrementada. Para fornecer subsídios técnicos e científicos a essa abordagem, é importante o desenvolvimento de novas metodologias e utilização de novas ferramentas de análise e manipulação das informações. Neste contexto, insere-se o uso de geotecnologias no mapeamento agrícola que permite, por exemplo, a identificação de áreas com maior ou menor demanda por cálcio e magnésio, o que resulta em benefícios econômicos e ambientais. Um dos aspectos mais importantes do uso das geotecnologias é o potencial de um Sistema de Informação Geográfica (SIG) em facilitar a produção de novas informações a partir de um banco de dados geográficos. Porém, o grande desafio da produção de novas informações em um SIG é a qualidade e a disponibilidade dos dados que caracterizam a base de dados a ser utilizada. Este trabalho insere-se no projeto "Potencial de uso agrícola da Magnesita Calcinada", uma cooperação técnico-financeira entre Embrapa Solos e a empresa MAGNESITA S/A, cujo objetivo geral é desenvolver tecnologias que orientem a aplicação do óxido de magnésio como fonte de Mg para a correção e, principalmente, para a adubação de solos. Dentre as atividades previstas no projeto está o mapeamento digital de solos do Brasil, com ênfase no Sudoeste Goiano, por ser uma região de destaque no cenário do agronegócio nacional. O presente trabalho insere-se nesse contexto, com o objetivo de desenvolver tecnologias de mapeamento digital para apoio à tomada de decisão sobre as possíveis demandas do óxido de magnésio como fonte de Mg para a agropecuária brasileira.
Resumo:
Este trabalho investiga a aplicação de métodos e técnicas de correlação de alarmes na detecção e diagnóstico de falhas em sistemas supervisionados por computador. Atualmente, alguns centros de supervisão ainda não se utilizam destas técnicas para o tratamento das informações recebidas de suas redes de supervisão, ficando para os operadores a responsabilidade de identificar estas correlações. Com o crescente volume de informações recebidas pelos centros de supervisão, devido ao aumento da heterogeneidade e do número de equipamentos supervisionados, torna a identificação manual da correlação dos alarmes lenta e pouco precisa. Objetivando melhorar a qualidade do serviços prestados pelos centros de supervisões, este trabalho propõe o uso de uma rede Bayesiana como método de correlação de alarmes e uma técnica de limitação de escopo para atingir uma melhor performance na propagação desta correlação. Através dos conceitos desenvolvidos neste trabalho, foi implementado um protótipo de correlação de alarmes para um sistema de supervisão existente no mercado, neste protótipo modela-se a rede Bayesiana em um banco de dados relacional e, como resultado desta implementação apresenta-se a interface desenvolvida para a supervisão.
Resumo:
A computação de tempo real é uma das áreas mais desafiadoras e de maior demanda tecnológica da atualidade. Está diretamente ligada a aplicações que envolvem índices críticos de confiabilidade e segurança. Estas características, inerentes a esta área da computação, vêm contribuindo para o aumento da complexidade dos sistemas tempo real e seu conseqüente desenvolvimento. Isto fez com que mecanismos para facilitar especificação, delimitação e solução de problemas passem a ser itens importantes para tais aplicações. Este trabalho propõe mecanismos para atuarem no desenvolvimento de sistemas de tempo real, com o objetivo de serem empregados como ferramenta de apoio no problema da verificação de presença de inconsistências, que podem vir a ocorrer nos vários modelos gerados partir da notação da linguagem de modelagem gráfica para sistemas de tempo real - UML-RT(Unified Modeling Language for Real Time). Estes mecanismos foram projetados através da construção de um metamodelo dos conceitos presentes nos diagramas de classe, de objetos, de seqüência, de colaboração e de estados. Para construir o metamodelo, utiliza-se a notação do diagrama de classes da UML (Unified Modeling Language). Contudo, por intermédio das representações gráficas do diagrama de classes não é possível descrever toda a semântica presente em tais diagramas. Assim, regras descritas em linguagem de modelagem OCL (Object Constraint Language) são utilizadas como um formalismo adicional ao metamodelo. Com estas descrições em OCL será possível a diminuição das possíveis ambigüidades e inconsistências, além de complementar as limitações impostas pelo caráter gráfico da UML. O metamodelo projetado é mapeado para um modelo Entidade&Relacionamento. A partir deste modelo, são gerados os scripts DDL (Data Definition Language) que serão usados na criação do dicionário de dados, no banco de dados Oracle. As descrições semânticas escritas através de regras em OCL são mapeadas para triggers, que disparam no momento em que o dicionário de dados é manipulado. O MET Editor do SiMOO-RT é a ferramenta diagramática que faz o povoamento dos dados no dicionário de dados. SiMOO-RT é uma ferramenta orientada a objetos para a modelagem, simulação e geração automática de código para sistemas de tempo real.
Resumo:
Organizar racionalmente as informações e sistematizá-las tem sido essencial para o sucesso de diversas empresas. Quando estudamos as instituições destinadas à segurança pública percebemos que o uso de tecnologia e de sistemas de informação são comuns nos exemplos bem sucedidos de combate às práticas criminosas. O Programa Delegacia Legal, inaugurado no Estado do Rio de Janeiro em 1999, acompanha essa tendência e tem como um dos seus pilares a importância ao tratamento da informação. Os policiais que fazem os registros das ocorrências nas delegacias utilizando-se do Sistema de informação (SCO) têm então um papel fundamental porque através desses registros são investigadas as infrações, assim como é alimentado um banco de dados mais completo para ser aliado na elaboração de estatísticas e na aplicação de ações estratégicas. Considerando que esse tipo de registro, utilizando sistemas de informação, alterou a rotina institucional, o presente estudo verifica se existe ou não resistência ao uso do Sistema – SCO, fazendo uma abordagem sobre o sistema de informação, o Programa Delegacia Legal, a cultura organizacional e a opinião dos policiais.
Resumo:
Trata do uso dos dados pessoais integrado aos serviços digitais (e-services), criando um ambiente único para gerenciamento e uso destes, denominado de solução de base de dados pessoal. Além de descrever e caracterizar o ambiente e os componentes desta nova solução, são discutidas ações e desenvolvimentos requeridos para os seus principais habilitadores: humanos, tecnológicos e empresariais
Resumo:
Apresenta as bases conceituais e as técnicas propostas por alguns métodos de análise e projeto orientados por objeto. Avalia a aplicabilidade e a eficácia destes métodos, no desenvolvimento de sistemas de informações, através de um estudo de caso. Inicialmente, são avaliados os métodos propostos por Peter Coad-Edward Yordon é Grady Booch. Em seguidaI são desenvolvidos métodos combinados, integrando conceitos básicos da orientação por objetos, com métodos estruturados convencionais. Finalmente, é apresentado um estudo de caso, baseado no projeto de um sistema de informações gerenciais, desenvolvido junto a uma instituição financeira
Resumo:
Analisa a indústria de informações comerciais, dando maior ênfase ao segmento de bancos de dados. Baseia-se principalmente em dados dos mercados norte-americano e europeu. Apresenta o correto uso das informações gerenciais como estratégia empresarial duradoura, apoiada na exploração das inovações tecnológicas, conhecidas como tecnologias de informação (TI). Discute ainda a transferência de poder dos ofertantes e distribuidores da informação para os usuários, fazendo com que as necessidades e desejos destes últimos prevaleçam e se imponham
Resumo:
Trata-se de uma pesquisa de campo que abrange 21 empresas, onde se procurou identificar estruturas de dados comuns nos modelos de dados das mesmas. A base teórica para o trabalho são os conceitos de abstração existentes na literatura de Projeto de Banco de Dados, agregação (é-parte-de) e generalização (é-um). Foram identificadas aplicações destes conceitos, mas a pesquisa também mostra que ainda há poucas ferramentas disponíveis para implementação dos mesmos e pouca familiaridade dos técnicos com os conceitos
Resumo:
A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.