1000 resultados para Modelos bayesianos hierárquicos espaço-temporais


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nas últimas décadas, o estudo das séries temporais de contagem univariadas tem sido objecto de interesse crescente na literatura. Uma das classes de modelos mais populares é a dos modelos auto-regressivos e médias móveis de valor inteiro não-negativo, INARMA, obtida através da substituição da multiplicação por um operador aleatório, chamado thinning, nos modelos ARMA convencionais. Os modelos INAR para séries de contagem univariadas têm sido amplamente estudados na literatura no que diz respeito quer às suas propriedades probabilísticas quer à inferência estatística. Por outro lado, a classe alargada de modelos de médias móveis para séries de valor inteiro, INMA, em que as operações thinning em instantes diferentes são dependentes entre si, não tem sido objecto de tanta atenção. De facto os modelos INMA não são Markovianos pelo que a inferência estatística apresenta dificuldades adicionais. Actualmente o interesse na análise de séries temporais de contagem centra-se em modelos e métodos para séries multivariadas. Neste trabalho, consideram-se os modelos INMA bivariados propostos por Torres et al. (2012). Nesta classe alargada de modelos bivariados INMA, a estrutura de dependência entre as duas séries temporais é introduzia pela dependência entre os dois processos de chegada enquanto que a dependência em cada série é definida pela dependência de operações thinning em instantes diferentes. Consideram-se estimadores baseados em momentos: método dos momentos (MM), método dos momentos generalizados (GMM) e método dos momentos eficiente (EMM), assim como estimadores baseados na função geradora de probabilidades.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A previsão das concentrações de ozono troposférico é importante devido aos impactos deste poluente na saúde humana e na vegetação. Neste contexto, o objectivo principal deste trabalho é a previsão de ozono na região de Lisboa e Vale do Tejo, através de métodos estatísticos com base em dados horários do próprio dia, para cada estação. A previsão foi dividida entre avaliação instantânea (previsão baseada em dados momentâneos) recorrendo a árvores de regressão, e previsão horária para um período horário de previsão específico (13:00 -17:00 horas UTC) utilizando modelos de regressão linear. A Avaliação instantânea foi dividida entre análise espacial e análise meteorológica e de precursores. Foram utilizadas séries temporais de dados de 2000 a 2005. No caso da previsão horária utilizaram-se, na fase de validação, dados de 2006. Concluiu-se que, para a avaliação instantânea, a análise espacial apresenta melhores resultados do que a meteorológica. Os modelos de regressão elaborados, para a previsão horária apresentam bons resultados na fase de treino, mas os índices de performance demonstram resultados menos bons na fase de validação. No geral, estes podem ser considerados bons a explicar o comportamento do ozono, contudo menos rigorosos na previsão de excedências. Foi constatada a existência de uma tendência geral para um decréscimo do coeficiente de determinação e um aumento do erro padrão ao longo do período de previsão. Assim os coeficientes de determinação mais elevados e os erros padrão menores verificam-se às 13:00 e o contrário verifica-se às 17:00 horas UTC.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Logística Orientada por: Professora Doutora Patrícia Alexandra Gregório Ramos

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Logística

Relevância:

30.00% 30.00%

Publicador:

Resumo:

WWW is a huge, open, heterogeneous system, however its contents data is mainly human oriented. The Semantic Web needs to assure that data is readable and “understandable” to intelligent software agents, though the use of explicit and formal semantics. Ontologies constitute a privileged artifact for capturing the semantic of the WWW data. Temporal and spatial dimensions are transversal to the generality of knowledge domains and therefore are fundamental for the reasoning process of software agents. Representing temporal/spatial evolution of concepts and their relations in OWL (W3C standard for ontologies) it is not straightforward. Although proposed several strategies to tackle this problem but there is still no formal and standard approach. This work main goal consists of development of methods/tools to support the engineering of temporal and spatial aspects in intelligent systems through the use of OWL ontologies. An existing method for ontology engineering, Fonte was used as framework for the development of this work. As main contributions of this work Fonte was re-engineered in order to: i) support the spatial dimension; ii) work with OWL Ontologies; iii) and support the application of Ontology Design Patterns. Finally, the capabilities of the proposed approach were demonstrated by engineering time and space in a demo ontology about football.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Doutor em História da Arte Contemporânea,

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tese de Doutoramento em Ciências Musicais na especialidade de Ciências Musicais Históricas

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O principal objectivo deste trabalho assenta em desenvolver modelos de previsão de preços de commodities para assim comparar a capacidade preditiva da simulação de Monte Carlo com a das redes neuronais. A simulação de Monte Carlo é principalmente utilizada para avaliar as opções, já as redes neuronais são utilizadas para fazer previsões, classificações, clustering ou aproximação de funções. Os diversos modelos desenvolvidos foram aplicados na previsão do preço futuro do milho, petróleo, ouro e cobre. Sendo que os horizontes temporais testados neste trabalho foram 1 dia, 5 dias, 20 dias e 60 dias. Através da análise do erro absoluto médio percentual (MAPE) concluiu-se que no geral o modelo individual que apresentou um melhor desempenho preditivo foram as redes neuronais. Contudo, nas previsões a 1 e a 5 dias os resultados obtidos foram semelhantes para ambos os modelos. Para se tentar melhorar os resultados obtidos pelos modelos individuais foram aplicadas algumas técnicas de combinação de modelos. A combinação de modelos demonstrou no geral capacidade para melhorar os resultados dos modelos individuais, porém apenas para o horizonte a 60 dias é que os resultados melhoraram significativamente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tese de Doutoramento em Arquitectura / Cultura Arquitectónica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os métodos de alisamento exponencial são muito utilizados na modelação e previsão de séries temporais, devido à sua versatilidade e opção de modelos que integram. Na estatística computacional, a metodologia Bootstrap é muito aplicada em inferência estatística no âmbito de séries temporais. Este estudo teve como principal objectivo analisar o desempenho do método de Holt-Winters associado à metodologia Bootstrap, como um processo alternativo na modelação e previsão de séries temporais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação de mestrado em Engenharia de Sistemas

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação de mestrado integrado em Engenharia e Gestão de Sistemas de Informação

Relevância:

30.00% 30.00%

Publicador:

Resumo:

OBJETIVO: Analisar as tendências do risco de morte por doenças isquêmicas do coração e cerebrovasculares, nas regiões Norte, Nordeste, Centro-Oeste, Sudeste e Sul do Brasil, no período de 1981 a 2001. MÉTODOS: Dados de mortalidade por doenças isquêmicas do coração e cerebrovasculares nas cinco regiões brasileiras foram obtidos através do Ministério da Saúde. A fonte de dados foi o Sistema de Informações sobre Mortalidade (SIM), do Departamento de Análise da Informação de Saúde - Secretaria de Vigilância em Saúde do Ministério da Saúde. A população das regiões e estados teve por fonte o IBGE, censos 1991 e 2000, contagem populacional de 1996 e estimativas populacionais, disponibilizado pelo Datasus. Os dados do SIM foram relativos às seguintes causas de morte: doença cerebrovascular (Código Internacional de Doenças CID-9 430-438, CID-10 I60-I69) e a doença isquêmica do coração (CID-9 410-414, CID-10 I21-I25). O estudo estatístico utilizou-se para as análises inferenciais de modelos lineares generalizados ajustados. RESULTADOS: A tendência da mortalidade por doença cerebrovascular mostrou declínio nas regiões Sudeste, Sul e Centro-Oeste em todas as faixas etárias e sexo. Também a mortalidade por doença isquêmica do coração declinou nas regiões Sudeste e Sul, com estabilização do risco na região Centro-Oeste e aumento na região Nordeste. CONCLUSÃO: O risco de morte para as doenças circulatórias, cerebrovasculares e isquêmicas do coração diminuiu no Sul e no Sudeste, regiões mais desenvolvidas do país, e aumentou nas menos desenvolvidas, principalmente no Nordeste.