954 resultados para Banco de dados temporais


Relevância:

90.00% 90.00%

Publicador:

Resumo:

No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Novidades e diferenças da versão 1.2. Requisitos de software. Implantando o armazém de dados da floticultura. Importando o aquivo com o esquema de banco de dados.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Data warehouse / Data Mart. Arquiteturas. O processo ETT (Extração, Transformação e carga de dados).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Infra-estrutura de Software necessária. Implantando o armazém de dados da fruticultura: criando e configurando usuários e atribuição; importando o arquivo exportado com o esquema do Armazém de Dados da Fruticultura; renovando os sumários do Armazém de Dados da Fruticultura.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Instruções de instalação e configuração. Análise de dados do comércio exterior: o tutorial. Iniciando o discoverer e estabelecendo conexão com o servidor. Abrindo um caderno de trabalho. Escolhendo um valor do item de página. Escolhendo outra folha de trabalho de um caderno. Visualizando diferentes níveis de detalhamento. Selecionando parâmetros. Renovando uma folha de trabalho. Alterando o eixo de uma dimensão. Classificando valores. Exportando ou enviando dados de um caderno de trabalho. Fechando um caderno de trabalho. Visualizando gráficos. Ramificando um gráfico. Alterando cores e padrões de um gráfico. Copiando um gráfico para outro documento.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A agencia de informação Embrapa disponibiliza na internet informação qualificada e organizada e, muitas vezes, também aquelas geradas pela própria Embrapa. As soluções de software esposta neste trabalho são dirigidas ao gerenciamento dessas informações, que são armazenadas em base de dados centralizada e atualizada via internet por aplicativos deste sistema. O objetivo de apresentar essas soluções é contribuir para o desenvolvimento de sistemas com orientação metodológica similar. Este sistema teve como principal identificação de requisitos as falhas existentes na primeira versão do mesmo, que foi orientada exclusivamente para manipulação de dados formatados em XML. A nova versão traz uma arquitetura baseada nas orientações Java 2 Enterprise Editon (J2EE): modelo em camadas (orientação Model View Controler-MVC), uso de containers e sistema gerenciador de banco de dados. O resultado é um sistema mais robusto em seu todo, além das melhorias de manutenabilidade. Termos para indexação:J2EE, XML, PDOM, Model view controller- MVC, Oracle.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este documento consiste no estudo, análise e identificação de uma solução voltada para a recuperação de dados no Sistema Gerenciador de Banco de Dados (SGBD) PostgreSQL. A solução em recuperação de dados, aqui apresentada, foi testada e direcionada para o sistema operacional Linux Ubuntu, porém a mesma é compatível com outras distribuições, bem como passível de ser implementada e executada em outros sistemas operacionais, nos quais funcionam o SGBD PostgreSQL, resguardadas as suas respectivas peculiaridades, ou, basicamente, a nomenclatura e o formato dos comandos empregados relativos ao sistema operacional adotado.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Dissertação apresentada ao Programa de Mestrado em Administração da Universidade Municipal de São Caetano do Sul - USCS

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O Modelo Temporal de Versões (TVM Vesions Model) foi proposto com base na união de um modelo de versões com informações temporais. Esse modelo permite o armazenamento de alternativas de projeto, o armazenamento da história dos dados em evolução, bem cmoo a reconstrução do estado da base em qualquer data passada, sem o uso de operações complexas de backup e recovery. Para realizar consultas nesse modelo foi definida uma linguagem de consulta, a TVQL (Temporal Versioned Query Language). Além das consultas básicas realizadas pela linguagem padrão AQL, a TVQL permite novas consultas que retornam valores específicos das características de tempo e versões, estabelecendo um comportamento o mais homogêneo possível para elementos normais e temporais vesionados. O objetivo principal deste trabalho e possibilitar a realização de consultas TVQL em um banco de dados convencional. Nesse contexto, o mapeamento da TVQL é implementando através da tradução de todas as propriedades e funções definidas na TVQL para SQL. Para que isso seja possível é necessário queos dados também estejam nesse banco de dados. Então, faz-se necessário o mapeamento das classes da hierarquia do TVM, bem como das classes da aplciação, para o banco de dados. Adicionalmente, é implementado um protótipo de uma interface de consultas realizadas em TVQL, para testar o funcionamento tanto da TVL como do seu mapeamento.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O objetivo principal desse trabalho é apresentar uma alternativa para a união de um modelo de versões e dados temporais. O resultado, o Modelo Temporal de Versões – TVM (Temporal Versions Model), é capaz de armazenar as versões do objeto e, para cada versão, o histórico dos valores das propriedades e dos relacionamentos dinâmicos. Esse modelo difere de outros modelos de dados temporais por apresentar duas diferentes ordens de tempo, ramificado para o objeto e linear para cada versão. O usuário pode também especificar, durante a modelagem, classes normais sem tempo e versionamento, o que permite a integração deste modelo com outros modelos existentes. A utilização de um modelo de dados temporal semanticamente rico não requer necessariamente a existência de um SGBD próprio para este modelo. A tendência é implementar o modelo sobre banco de dados convencionais, através do mapeamento das informações temporais para atributos explícitos. Como objetivo complementar, é apresenta do um ambiente para o suporte do TVM e de todas suas características. Especificamente, são detalhados o mapeamento da hierarquia base do modelo para um banco de dados objeto-relacional e sua implementação em um banco de dados comercial. Desse ambiente, foi implementado um protótipo da ferramenta para o auxílio na especificação de classes da aplicação.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Os efeitos provocados por radiações são conhecidos na literatura por meio dos estudos em usinas nucleares e em testes bélicos. Entretanto, os efeitos da radiação natural vêm despertando a atenção das autoridades da saúde, dentre as quais se destaca a Environmental Protection Agency (EPA) nos Estados Unidos e a National Radiological Protection Board (NRPB) no Reino Unido. Os efeitos epidemiológicos ocasionados por radiação de origem natural, mais especificamente a radiação emanada pelo gás radônio que fica acumulado em residências enclausuradas por muito tempo, tem sido alvo de intensas investigações. Nessa dissertação, foi realizada uma avaliação ambiental preliminar da radiação natural devida ao radônio como elemento epidemiológico no Escudo Sul-riograndense. Os dados utilizados para determinar o risco epidemiológico foram: neoplasias, radiação, geologia e população. O banco de dados dos casos de óbitos por neoplasias do estado foi obtido da Secretaria da Saúde, por meio do Núcleo de Informação em Saúde. A radiação natural devida ao radônio foi determinada a partir dos dados gamaespectrométricos obtidos de levantamento aerogeofísico da CPRM no Escudo Sul-riograndense, nos projetos Camaquã e Extremo Sudeste do Brasil realizados nos anos de 1973 e 1978, respectivamente. Os dados geológicos foram obtidos do Mapa Geológico do Estado de 1989. Os dados de população foram obtidos junto ao Instituto Brasileiro de Geografia e Estatística (IBGE). A integração de dados foi realizada usando a metodologia de matriz de sobreposição entre os dados de casos de óbitos por neoplasia e de gamaespectrometria. Os dados de população foram empregados para normalizar os dados de neoplasias, e o dado de geologia para correlacionar com a gamaespectrometria. Os resultados da integração são mapas classificados pelo grau de risco epidemiológico, nos quais é apresentada a relação entre os casos de neoplasias pela intensidade de radiação devida ao radônio. Nesse sentido, uma boa relação foi assinalada e são recomendados estudos adicionais sobre esse mesmo banco de dados.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A computação de tempo real é uma das áreas mais desafiadoras e de maior demanda tecnológica da atualidade. Está diretamente ligada a aplicações que envolvem índices críticos de confiabilidade e segurança. Estas características, inerentes a esta área da computação, vêm contribuindo para o aumento da complexidade dos sistemas tempo real e seu conseqüente desenvolvimento. Isto fez com que mecanismos para facilitar especificação, delimitação e solução de problemas passem a ser itens importantes para tais aplicações. Este trabalho propõe mecanismos para atuarem no desenvolvimento de sistemas de tempo real, com o objetivo de serem empregados como ferramenta de apoio no problema da verificação de presença de inconsistências, que podem vir a ocorrer nos vários modelos gerados partir da notação da linguagem de modelagem gráfica para sistemas de tempo real - UML-RT(Unified Modeling Language for Real Time). Estes mecanismos foram projetados através da construção de um metamodelo dos conceitos presentes nos diagramas de classe, de objetos, de seqüência, de colaboração e de estados. Para construir o metamodelo, utiliza-se a notação do diagrama de classes da UML (Unified Modeling Language). Contudo, por intermédio das representações gráficas do diagrama de classes não é possível descrever toda a semântica presente em tais diagramas. Assim, regras descritas em linguagem de modelagem OCL (Object Constraint Language) são utilizadas como um formalismo adicional ao metamodelo. Com estas descrições em OCL será possível a diminuição das possíveis ambigüidades e inconsistências, além de complementar as limitações impostas pelo caráter gráfico da UML. O metamodelo projetado é mapeado para um modelo Entidade&Relacionamento. A partir deste modelo, são gerados os scripts DDL (Data Definition Language) que serão usados na criação do dicionário de dados, no banco de dados Oracle. As descrições semânticas escritas através de regras em OCL são mapeadas para triggers, que disparam no momento em que o dicionário de dados é manipulado. O MET Editor do SiMOO-RT é a ferramenta diagramática que faz o povoamento dos dados no dicionário de dados. SiMOO-RT é uma ferramenta orientada a objetos para a modelagem, simulação e geração automática de código para sistemas de tempo real.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho apresenta uma extensão do padrão ODMG para o suporte ao versionamento de objetos e características temporais. Essa extensão, denominada TV_ODMG, é baseada no Modelo Temporal de Versões (TVM), que é um modelo de dados orientado a objetos desenvolvido para armazenar as versões do objeto e, para cada versão, o histórico dos valores dos atributos e dos relacionamentos dinâmicos. O TVM difere de outros modelos de dados temporais por apresentar duas diferentes ordens de tempo, ramificado para o objeto e linear para cada versão. O usuário pode também especificar, durante a modelagem, classes normais (sem tempo e versões), o que permite a integração desse modelo com outras modelagens existentes. Neste trabalho, os seguintes componentes da arquitetura do padrão ODMG foram estendidos: o Modelo de Objetos, a ODL (Object Definition Language) e a OQL (Object Query Language). Adicionalmente, foi desenvolvido um conjunto de regras para o mapeamento do TV_ODMG para o ODMG a fim de permitir o uso de qualquer ODBMS para suportar a extensão proposta.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Um esquema de banco de dados certamente sofrerá alguma alteração com o passar do tempo. Algumas das causas destas modificações são ocorrência de um aumento no domínio do sistema, erros ocorridos na fase de projeto, mudanças na realidade representada pelo sistema, ou a necessidade de melhoria no seu desempenho. O uso de bancos de dados temporais é uma alternativa para o armazenamento das informações da evolução, pois permite sua recuperação por meio do histórico de suas mudanças. O presente trabalho propõe um ambiente para implementar evolução de esquemas sobre um BDOO, utilizando o Modelo Temporal de Versões (TVM). Deste modo, características de versões e de tempo são utilizadas tanto no nível dos esquemas como nos dados armazenados. Estados são associados às versões de esquema para representar seus estágios de desenvolvimento durante a evolução. O gerenciamento das versões de esquema é realizado por intermédio de uma camada denominada meta-esquema. Em um outro nível, o gerenciamento das instâncias é realizado por meio de uma camada denominada metadados, inserida para cada versão de esquema definida. Por intermédio destes controles é possível analisar a evolução dos esquemas como um todo e, para cada esquema, as correspondentes versões de seus dados e sua evolução temporal. Algumas alternativas de consulta para um ambiente com estas características são analisadas. O trabalho apresenta, ainda, as características básicas de um protótipo implementado para verificar a viabilidade da proposta apresentada.