998 resultados para Dados satelitários


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Amazônia exibe uma variedade de cenários que se complementam. Parte desse ecossistema sofre anualmente severas alterações em seu ciclo hidrológico, fazendo com que vastos trechos de floresta sejam inundados. Esse fenômeno, entretanto, é extremamente importante para a manutenção de ciclos naturais. Neste contexto, compreender a dinâmica das áreas alagáveis amazônicas é importante para antecipar o efeito de ações não sustentáveis. Sob esta motivação, este trabalho estuda um modelo de escoamento em áreas alagáveis amazônicas, baseado nas equações de Navier-Stokes, além de ferramentas que possam ser aplicadas ao modelo, favorecendo uma nova abordagem do problema. Para a discretização das equações é utilizado o Método dos Volumes Finitos, sendo o Método do Gradiente Conjugado a técnica escolhida para resolver os sistemas lineares associados. Como técnica de resolução numérica das equações, empregou-se o Método Marker and Cell, procedimento explícito para solução das equações de Navier-Stokes. Por fim, as técnicas são aplicadas a simulações preliminares utilizando a estrutura de dados Autonomous Leaves Graph, que tem recursos adaptativos para manipulação da malha que representa o domínio do problema

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A detecção de clusters de doenças é um desafio para a saúde pública e principalmente para elucidação da ocorrência de surtos, visto que surtos epidemiológicos são usualmente definidos como aglomeração de casos. As revisões da literatura disponíveis sobre a indicação de qual técnica de análise espacial (TAE) é apropriada para essa tarega se limitam a indicar a escolha das técnicas considerando os tipos de dados, o tipo de cluster e a medida da doença. São raras as diretrizes que sugerem o uso de TAE em investigações de surtos . É um estudo metodológico exploratório, com avaliação de métodos em duas etapas: (i) uma revisão narrativa do objeto da pesquisa e (ii) descrição e revisão crítica da aplicação das técnicas selecionadas na revisão narrativa. As técnicas consideradas de maior importância para investigação de surtos forma revisadas e descritas, incluindo técnicas dos tipos global, loca e focal. treze técnicas foram submetidas à revisão crítica e 14 perguntas relevantes para investigação de surtos foram apreciadas. A análise da capacidade de responta das técnicas selecionadas baseou-se nas características das técnicas e natureza das perguntas da investigação de surtos, buscando-se a equivalência da responta dada pelas técnicas de análise espacial em relação à responta que se pretende alcançar na pergunta da investigação. As técnicas forma classificadas quanto a quantidade de informação que elas fornecem para que a perunca seja respondida, indicando assim, a sua capacidade de responder , ou de responsividade. concluiu-se que as TAE podem contribuir para a investigação de surtos, uma vez que são capazes de responder algumas das perguntas de uma investigação. Todas as catorze perguntas estudadas forma respondidas em algum nível pelas treze técnicas revisadas. Técnicas espaço-temporais e puramente espaciais locais respondem ao maior número de perguntas. Já as espaço-temporais apresentam maior nível de responsividade às perguntas. As técnicas com menor número de perguntas respondidas forma as puramente espaciais focais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho aborda o problema de identificação de danos em uma estrutura a partir de sua resposta impulsiva. No modelo adotado, a integridade estrutural é continuamente descrita por um parâmetro de coesão. Sendo assim, o Modelo de Elementos Finitos (MEF) é utilizado para discretizar tanto o campo de deslocamentos, quanto o campo de coesão. O problema de identificação de danos é, então, definido como um problema de otimização, cujo objetivo é minimizar, em relação a um vetor de parâmetros nodais de coesão, um funcional definido a partir da diferença entre a resposta impulsiva experimental e a correspondente resposta prevista por um MEF da estrutura. A identificação de danos estruturais baseadas no domínio do tempo apresenta como vantagens a aplicabilidade em sistemas lineares e/ou com elevados níveis de amortecimento, além de apresentar uma elevada sensibilidade à presença de pequenos danos. Estudos numéricos foram realizados considerando-se um modelo de viga de Euler-Bernoulli simplesmente apoiada. Para a determinação do posicionamento ótimo do sensor de deslocamento e do número de pontos da resposta impulsiva, a serem utilizados no processo de identificação de danos, foi considerado o Projeto Ótimo de Experimentos. A posição do sensor e o número de pontos foram determinados segundo o critério D-ótimo. Outros critérios complementares foram também analisados. Uma análise da sensibilidade foi realizada com o intuito de identificar as regiões da estrutura onde a resposta é mais sensível à presença de um dano em um estágio inicial. Para a resolução do problema inverso de identificação de danos foram considerados os métodos de otimização Evolução Diferencial e Levenberg-Marquardt. Simulações numéricas, considerando-se dados corrompidos com ruído aditivo, foram realizadas com o intuito de avaliar a potencialidade da metodologia de identificação de danos, assim como a influência da posição do sensor e do número de dados considerados no processo de identificação. Com os resultados obtidos, percebe-se que o Projeto Ótimo de Experimentos é de fundamental importância para a identificação de danos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve como objetivo principal implementar um algoritmo empírico para o monitoramento do processo de eutrofização da Baía de Guanabara (BG), Rio de Janeiro (RJ), utilizando dados de clorofila-a coletados in situ e imagens de satélite coletadas pelo sensor MERIS, a bordo do satélite ENVISAT, da Agência Espacial Européia (ESA). Para a elaboração do algoritmo foi utilizada uma série histórica de clorofila-a (Out/2002 a Jan/2012) fornecida pelo Laboratório de Biologia Marinha da UFRJ, que, acoplada aos dados radiométricos coletados pelo sensor MERIS em datas concomitantes com as coletas in situ de clorofila-a, permitiu a determinação das curvas de regressão que deram origem aos algorítmos. Diversas combinações de bandas foram utilizadas, com ênfase nos comprimentos de onda do verde, vermelho e infra-vermelho próximo. O algoritmo escolhido (R = 0,66 e MRE = 77,5%) fez uso dos comprimentos de onda entre o verde e o vermelho (665, 680, 560 e 620 nm) e apresentou resultado satisfatório, apesar das limitações devido à complexidade da área de estudo e problemas no algoritmo de correção atmosférica . Algorítmos típicos de água do Caso I (OC3 e OC4) também foram testados, assim como os algoritmos FLH e MCI, aconselhados para águas com concentrações elevadas de Chl-a, todos com resultados insatisfatório. Como observado por estudos pretéritos, a Baia de Guanabara possui alta variabilidade espacial e temporal de concentrações de clorofila-a, com as maiores concentrações no período úmido (meses: 01, 02, 03, 10, 11 12) e nas porções marginais (~ 100 mg.m-3), particularmente na borda Oeste da baia, e menores concentrações no período seco e no canal principal de circulação (~ 20 mg.m-3). O presente trabalho é pioneiro na construção e aplicação de algoritmos bio-óptico para a região da BG utilizando imagens MERIS. Apesar dos bons resultados, o presente algorítmo não deve ser considerado definitivo, e recomenda-se para trabalhos futuros testar os diferentes modelos de correção atmosférico para as imagens MERIS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresentamos um novo método de compressão, com perda controlada de dados, que tem a vantagem de ter uma taxa significativa de compressão sem introduzir nenhuma perda superior a um parâmetro escolhido pelo usuário. Esta abordagem é uma abordagem mista, pois usa técnicas de compactação de dados tanto com perda quanto sem perda. Isto quer dizer que conseguimos um método que alia as vantagens da alta compressão, sem introduzir distorções indesejáveis nos dados. Mostramos como a massa de dados utilizada nos nossos estudos é obtida e a sua importância na prospecção de depósitos de hidrocarbonetos. É apresentado um levantamento bibliográfico com técnicas de compressão aplicadas a dados sísmicos tipicamente utilizadas em aplicações comerciais. Por fim, apresentamos os resultados da compressão utilizando o método em conjuntos de dados sísmicos reais. Para 1% de erro, os arquivos de dados sísmicos compactados passaram a ter algo próximo a 25% de seus tamanhos originais, o que representa um fator de compressão de aproximadamente 4

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho foi feito com dados de campo da Bacia de Benguela, na costa sul de Angola. Nesta área aflora uma plataforma carbonática de idade albiana, análoga às formações produtoras de petróleo de mesma idade na Bacia de Campos. Duas unidades principais compõem a seção albiana na área: uma unidade inferior caracterizada por carbonatos de águas rasas com intercalações de conglomerados e arenitos na base, totalizando 300 m de espessura total, e uma unidade superior formada por sedimentos carbonáticos de águas mais profundas com espessura de 100 m. Esta seção se apresenta em dois domínios estruturais. O norte é caracterizado por uma plataforma de cerca de 5 km de largura, 35 km de comprimento na direção NE e que se encontra próxima ao embasamento. No domínio sul, essa plataforma se apresenta em fragmentos de menos de 10 km de comprimento por até 5 km de largura, alguns deles afastados do embasamento. Dado que há evaporitos sob essa plataforma, fez-se este trabalho com o objetivo de se avaliar a influência da tectônica salífera na estruturação das rochas albianas. A utilização de imagens de satélite de domínio público permitiu a extrapolação dos dados pontuais e a construção de perfis topográficos que possibilitaram a montagem das seções geológicas. Os dados de campo indicam que a estruturação na parte norte, onde há menos sal, é influenciada pelas estruturas locais do embasamento. Já na parte sul, onde a espessura de sal é maior, a deformação é descolada das estruturas do embasamento. Foi feita uma seção geológica em cada domínio e a restauração dessas duas seções mostrou que a unidade albiana na parte sul sofreu uma distensão de 1,25 (125%) e a de norte se distendeu em 1,05 (105%). Essa diferença foi causada por uma maior espessura original de sal na parte sul, que fez com que a cobertura albiana se distendesse mais em consequência da fluência do sal mergulho abaixo, em resposta ao basculamento da bacia em direção a offshore. A intensidade da deformação na parte sul foi tal que os blocos falhados perderam os contatos entre si, formando rafts. Este efeito foi reproduzido em modelos físicos, indicando que a variação na espessura original de sal tem grande influência na estruturação das rochas que o cobrem. As variações de espessura de sal são controladas por zonas de transferência do embasamento e estas mesmas estruturas controlam os limites dos blocos que sofrem soerguimento diferencial no Cenozoico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos depósitos cenozóicos da Bacia de Taubaté são encontrados depósitos de folhelhos betuminosos (oleígenos) pertencentes à Formação Tremembé, de idade oligocênica, que durante alguns anos na década de 50 foram investigados com relação ao seu aproveitamento econômico através da extração industrial do óleo nele contido. Entretanto, em face de aspectos tecnológicos e conjunturais da época, esse aproveitamento industrial foi considerado inviável do ponto de vista econômico. Nesta dissertação é proposta uma aplicação da perfilagem geofísica para a caracterização da faciologia dos folhelhos betuminosos da Formação Tremembé, tendo como objetivo principal a identificação das eletrofácies nos perfis elétricos, através de uma metodologia robusta e consistente. A identificação de eletrofácies é importante para ajudar na determinação da caracterização de uma reserva não convencional e na análise da viabilidade econômica. Neste estudo foram utilizados os perfis convencionais de poço: Raio gama, resitividade, potencial espontâneo e sônico. Os dados de perfis de poços foram integrados com os testemunhos e dados geoquímicos, mais precisamente os dados de COT, S, IH, S2 para uma caracterização realística das eletrofácies. Os dados foram obtidos a partir de três sondagens rotativas realizadas na Bacia de Taubaté, resultantes de testemunhagem contínua e perfilagem a cabo ao longo do intervalo de folhelhos da Formação Tremembé. A partir disto, obtém-se como resposta um modelo específico para cada litologia, onde cada pico corresponde a uma eletrofácies, permitindo o estabelecimento de alguns padrões ou assinaturas geofísicas para as principais fácies ocorrentes. Como resultado deste trabalho, foi possível correlacionar as eletrofácies entre os poços numa seção modelo, a partir de similaridade lateral das eletrofácies entre os marcos estratigráficos representado, foi possível observar a continuidade de duas sequências de folhelhos betuminoso com alto teores de COT, S, IH, S2, considerados os mais importantes do ponto de vista econômico e gerado um modelo faciológico 2D e 3D dessas camadas. Os resultados obtidos neste trabalho são bastante promissores, apontando para a possibilidade de aplicação desta técnica a outros poços da Bacia de Taubaté, fornecendo subsídios relevantes à determinação da evolução sedimentar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na década de 80, o surgimento de programas de computadores mais amigáveis para usuários e produtores de informação e a evolução tecnológica fizeram com que as instituições, públicas e privadas, se aperfeiçoassem em estudos sobre sistemas de produção cartográfica apoiados por computador, visando a implementação de Sistemas de Informação Geográfica (SIG). A pouca simultaneidade de forças entre órgãos interessados, resultou em uma grande quantidade de arquivos digitais com a necessidade de padronização. Em 2007, a Comissão Nacional de Cartografia (CONCAR) homologou a Estrutura de Dados Geoespaciais Vetoriais (EDGV) a fim de minimizar o problema da falta de padronização de bases cartográficas. A presente dissertação tem como foco elaborar uma metodologia de trabalho para o processo de conversão de bases cartográficas digitais existentes no padrão da Mapoteca Topográfica Digital (MTD), do Instituto Brasileiro de Geografia e Estatística (IBGE), para o padrão da EDGV, bem como suas potencialidades e limitações para integração e padronização de bases cartográficas digitais. Será feita uma aplicação da metodologia utilizando a carta topográfica de Saquarema, na escala de 1:50.000, vetorizada na Coordenação de Cartografia (CCAR) do IBGE e disponível na Internet. Como a EDGV foi elaborada segundo técnicas de modelagem orientada a objetos, foi necessário um mapeamento para banco de dados relacional, já que este ainda é utilizado pela maioria dos usuários e produtores de informação geográfica. Um dos objetivos específicos é elaborar um esquema de banco de dados, ou seja, um banco de dados vazio contendo todas as classes de objetos, atributos e seus respectivos domínios existentes na EDGV para que possa ser utilizado no processo de produção cartográfica do IBGE. Este esquema conterá todas as descrições dos objetos e de seus respectivos atributos, além de já permitir que o usuário selecione o domínio de um determinado atributo em uma lista pré definida, evitando que ocorra erro no preenchimento dados. Esta metodologia de trabalho será de grande importância para o processo de conversão das bases cartográficas existentes no IBGE e, com isso, gerar e disponibilizar bases cartográficas no padrão da EDGV.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estatística é uma ciência com seus conceitos e métodos de coleta, organização e analise de informações que fazem parte dos currículos escolares da educação básica, na prática dos professores de matemática, para que os alunos compreendam, analisem e formem opinião crítica em relação às questões econômicas e sociais. A presente pesquisa buscou refletir sobre as práticas pedagógicas do professor de matemática no ensino de estatística no ensino médio, tendo como base as orientações para o ensino de estatísticas nas propostas dos Parâmetros Curriculares do Ensino Médio, as contribuições da aprendizagem significativa no ensino de estatística, com o uso das tecnologias na educação, através da proposta de planos de trabalho que abordem os conteúdos do ensino de estatística e a utilização do software livreCalc. Em relação aos caminhos metodológicos foi realizada uma pesquisa bibliográfica, utilizando o método de abordagem dedutivo, através de documentação indireta tendo como fonte de pesquisa os trabalhos científicos com foco no ensino e na aprendizagem da Estatística e da Probabilidade na Educação Básica. O desenvolvimento desta pesquisa possibilitou evidenciar caminhos metodológicos a serem desenvolvidos por professores de matemática na educação básica que contribuam na interpretação de dados do cotidiano a partir de análise de tabelas, análise de gráficos, medidas de posição, medidas de dispersão e linhas de tendência, utilizando como ferramentas as Tecnologias da Informação e Comunicação tendo como fundamentação teórica as contribuições de David Ausubel o conceito de aprendizagem significativa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ao se realizar estudo em qualquer área do conhecimento, quanto mais dados se dispuser, maior a dificuldade de se extrair conhecimento útil deste banco de dados. A finalidade deste trabalho é apresentar algumas ferramentas ditas inteligentes, de extração de conhecimento destes grandes repositórios de dados. Apesar de ter várias conotações, neste trabalho, irá se entender extração de conhecimento dos repositórios de dados a ocorrência combinada de alguns dados com freqüência e confiabilidade que se consideram interessantes, ou seja, na medida e que determinado dado ou conjunto de dados aparece no repositório de dados, em freqüência considerada razoável, outro dado ou conjunto de dados irá aparecer. Executada sobre repositórios de dados referentes a informações georreferenciadas dos alunos da UERJ (Universidade do Estado do Rio de Janeiro), irá se analisar os resultados de duas ferramentas de extração de dados, bem como apresentar possibilidades de otimização computacional destas ferramentas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudo de comparação entre dois métodos de coleta de dados, através da aplicação de um software, para avaliação dos fatores de risco e danos no trabalho de enfermagem em hospital. Objetiva analisar o uso do software (eletrônico) em comparação com o uso do instrumento impresso. Trata-se de um estudo estatístico, descritivo com abordagem quantitativa, desenvolvido nas enfermarias dos Serviços de Internações Clínicas e Serviços de Internações Cirúrgicas de um Hospital Universitário, no estado do Rio de Janeiro. A população do estudo foram os trabalhadores de enfermagem das unidades. A amostra foi definida por meio de amostragem não-probabilística e alocação da amostra ocorreu de forma aleatória em dois grupos, denominados grupo impresso e grupo eletrônico, com 52 participantes cada. Previamente a coleta de dados foram implementadas estratégias de pesquisa denominada teaser, através da comunicação digital aos trabalhadores. Posteriormente, foi ofertado aos participantes do formato impresso o questionário impresso, e os participantes do formato eletrônico receberam um link de acesso a home page. Os dados foram analisados através da estatística descritiva simples. Após a aplicação do questionário nos dois formatos, obteve-se resposta de 47 trabalhadores do grupo impresso (90,3%), e 17 trabalhadores do grupo eletrônico (32,7%). A aplicação do questionário impresso revelou algumas vantagens como o número de pessoas atingidas pela pesquisa, maior interação pesquisador e participante, taxa de retorno mais alta, e quanto às desvantagens a demanda maior de tempo, erros de transcrição, formulação de banco de dados, possibilidades de resposta em branco e erros de preenchimento. No formato eletrônico as vantagens incluem a facilidade de tabulação e análise dos dados, impossibilidade de não resposta, metodologia limpa e rápida, e como desvantagens, o acesso à internet no período de coleta de dados, saber usar o computador e menor taxa de resposta. Ambos os grupos observaram que o questionário possui boas instruções e fácil compreensão, além de curto tempo para resposta. Os trabalhadores perceberam a existência dos riscos ocupacionais, principalmente os ergonômicos, biológicos e de acidentes. Os principais danos à saúde provocados ou agravos pelo trabalho percebidos pelos trabalhadores foram os problemas osteomusculares, estresse, transtornos do sono, mudanças de humor e alterações de comportamento e varizes. Pode-se afirmar que não ocorreram diferenças acentuadas de percentual ao comparar a percepção dos trabalhadores do grupo impresso e do grupo eletrônico frente aos riscos e danos à saúde. Conclui-se que os dois processos de coleta de dados tiveram boa aceitação, no entanto, deve ser indicada a aplicação do questionário eletrônico junto com a ferramenta de acesso, no caso o computador, tablet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho aqui apresentado teve como objetivo, avaliar o método de Eaton (1975) aplicado ao cálculo de pressão de poros das formações rochosas em subsuperfície, utilizando dados de perfis de poços no que diz respeito a porosidade, tais como, o Tempo de Transito da onda compressional, Resistividade, Densidade e Neutrão. Posteriormente foi avaliado o resultado alcançado por esta técnica e confrontado com o dado obtido pelo registro de pressão real da formação, adquirido pela ferramenta de perfilagem MDT. Distribuídos em 6 poços perfurados na porção sul da Bacia de Campos, o intervalo cronoestratigráfico estudado está compreendido no período geológico Terciário, e os registros de pressão real da formação foram adquiridos nos reservatórios turbidíticos da Formação Carapebus (Eoceno). Apesar de existir um mecanismo causador de anomalia de pressão na bacia (Desequilíbrio de Compactação Difícil migração dos fluidos ao longo do tempo geológico) devido ao forte aporte sedimentar sustentado pelo soerguimento da Serra do Mar no Eoceno, os resultados encontrados não apontaram qualquer tipo de alteração nas respostas dos perfis utilizados, onde a referência foi a assinatura do perfil sônico em um trend normal de compactação compreendido por rochas argilosas dentro do intervalo cronoestratigráfico estudado. O presente trabalho atesta que a boa calibração do trend de ompactação normal em rochas argilosas, juntamente com a similaridade entre o resultado obtido pelo cálculo da pressão de poros a partir do perfil sônico, e os valores reais registrados diretamente na formação, pela ferramenta de registro de pressões (MDT), comprovam a aplicabilidade do método de Eaton (1975) para o cálculo de geopressões a partir de um conjunto básico de perfis de poços tais como: Raios Gama, Resistividade, Velocidade Acústica, Densidade e Neutrão

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.