31 resultados para Erosão - Previsão

em RUN (Repositório da Universidade Nova de Lisboa) - FCT (Faculdade de Cienecias e Technologia), Universidade Nova de Lisboa (UNL), Portugal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Energias Renováveis – Conversão Eléctrica e Utilização Sustentáveis, pela Universidade Nova de Lisboa, Faculdade de Ciência e Tecnologia

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O principal objectivo deste trabalho assenta em desenvolver modelos de previsão de preços de commodities para assim comparar a capacidade preditiva da simulação de Monte Carlo com a das redes neuronais. A simulação de Monte Carlo é principalmente utilizada para avaliar as opções, já as redes neuronais são utilizadas para fazer previsões, classificações, clustering ou aproximação de funções. Os diversos modelos desenvolvidos foram aplicados na previsão do preço futuro do milho, petróleo, ouro e cobre. Sendo que os horizontes temporais testados neste trabalho foram 1 dia, 5 dias, 20 dias e 60 dias. Através da análise do erro absoluto médio percentual (MAPE) concluiu-se que no geral o modelo individual que apresentou um melhor desempenho preditivo foram as redes neuronais. Contudo, nas previsões a 1 e a 5 dias os resultados obtidos foram semelhantes para ambos os modelos. Para se tentar melhorar os resultados obtidos pelos modelos individuais foram aplicadas algumas técnicas de combinação de modelos. A combinação de modelos demonstrou no geral capacidade para melhorar os resultados dos modelos individuais, porém apenas para o horizonte a 60 dias é que os resultados melhoraram significativamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ao longo das últimas décadas, tem-se verificado uma crescente ocupação populacional e urbanística, em paralelo com a concentração de diversas actividades económicas, ao longo das zonas costeiras. Neste sentido, torna-se fulcral o desenvolvimento de políticas de gestão integrada destes ecossistemas naturais, dada a sua grande vulnerabilidade, no que respeita aos usos e ocupação do solo. Como resultado de acções naturais e do Homem (na sua grande maioria), a erosão estabelece-se como o principal problema que assola as zonas costeiras, em Portugal. Neste sentido, as Tecnologias de Informação Geográfica, em especial os Sistemas de Informação Geográfica, conferem-se como importantes ferramentas, tanto na monitorização do litoral, como no apoio aos processos de tomada de decisão. A presente dissertação detém, como principal objectivo, demonstrar as mais-valias dos SIG no estudo das zonas costeiras, especialmente na área da prevenção. Tendo como área de estudo a praia do Pedrógão, em Leiria, considerando o período temporal 1947 – 2014 (1947-1983; 1983-2003; 2003-2007; 2007-2012; 2012-2014), propõe-se: estabelecer uma base cartográfica que analise, espacialmente, o comportamento da linha da costa face à gradual erosão; quantificar as taxas de erosão/acreção e, por fim, proceder à delimitação de faixas de perigo, em paralelo com a análise dos resultados previamente conseguidos, assim como da topografia do local em análise. Para o troço costeiro seleccionado, é de constatar que existe, efectivamente, um recuo da linha da costa, especialmente na praia Sul (Praia dos Campistas), onde se regista o maior recuo médio anual (-17.72m, entre 2012-2014). Na praia Norte, as v taxas anuais variam entre os -0.64m (1947-1983) e os -15.07m (2012-2014), tendo apresentado valores de acreção, com excepção para o intervalo de tempo mais recente. É certo que as recargas de areia, iniciadas em 2011, procuram minimizar os impactos da erosão, o que pode condicionar os resultados obtidos. Por outro lado, no que respeita às faixas de perigo, é certo que, com o recuar da costa, há uma tendência da frente urbana aproximar-se do nível de “perigo muito elevado”. Nesse sentido, a grande maioria do edificado situa-se na faixa de perigo moderado (211 edifícios), constatando-se que outra grande parte (193 edifícios) não se encontre ameaçado. De um total de 413 edifícios, apenas 1 encontra-se em perigo elevado. Mantendo-se esta tendência de recuo da costa e tendo por base o trabalho de campo efectuado, estima-se que os valores apresentados venham a alterar-se, isto é, tanto a população local, como o edificado tendem a aproximar-se do perigo máximo/elevado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cada vez mais a preocupação ambiental tem ditado o rumo das abordagens escolhidas nas mais variadas áreas, quer pela redução de desperdícios, quer pelo aumento da eficiência dos mais diversos processos. Quando olhamos para os consumos energéticos a nível mundial os edifícios são responsáveis por uma grande fatia destes consumos fazendo deles um dos grande ponto de interesse para implementação de sistemas que visem diminuir os consumos, permitindo assim tentar alcançar um equilíbrio sustentável entre o meio ambiente e o nosso conforto. A variável humana tem-se mostrado cada vez mais importante no desenvolvimento de ferramentas que venham permitir alcançar este objetivo, quer por via de reduções nos consumos através da remoção dos fatores de desperdício de energia, quer pelo aumento de eficiência dos sistemas utilizados nas habitações, desde a iluminação à climatização. É então importante poder ter formas de conhecer qual o comportamento humano no edifício para que possam ser criadas abordagens cada vez mais eficientes e que possam contar com melhores variáveis de entrada aumentado assim, ainda mais o seu desempenho. Na presente dissertação será feito o estudo da validade do uso do dióxido de carbono como variável de inferência para o nível de ocupação das várias divisões de um edifício de habitação. Para tal implementou-se um sistema de análise dos valores de dióxido de carbono da habitação através de módulos sem fios colocados em locais estratégicos que fornecerão informação ao algoritmo para que possa ser criado um mapa de ocupação. O dióxido de carbono mostrou-se capaz de fornecer informação da ocupação no entanto apresentando uma incerteza moderada devido a fatores como os deslocamentos de ar na habitação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A representatividade do número de reinternamento hospitalares, no quadro dos custos hospitalares, deverá ser encarada como um indicador de qualidade nos serviços prestados e um objeto de estudo no que diz respeito à forma como estão a ser geridos esses serviços. Caracterizar os utentes com maior propensão a um reinternamento e identificar os fatores de risco que lhe estão associados torna-se, pois, pertinente, pois só assim, se poderá, no futuro, desenvolver uma atuação proativa com o objetivo primeiro de uma redução de custos sem colocar, no entanto, em causa a qualidade dos serviços que as entidades hospitalares prestam aos seus utentes. O objetivo deste estudo consiste em criar um modelo preditivo, com base em árvores de decisão, que auxilie a identificar os fatores de risco dos reinternamentos em 30 dias relativos ao Grupos de Diagnóstico Homogéneo (GDH) 127 - Insuficiência cardíaca e/ou choque, de forma a auxiliar as entidades prestadoras de cuidados de saúde a tomar decisões e atuar atempadamente sobre situações críticas. O estudo é suportado pela base de dados dos Grupos de Diagnóstico Homogéneos, a qual, possui informação sobre o utente e sobre o seu processo de internamento, nomeadamente, o diagnóstico principal, os diagnósticos secundários, os procedimentos realizados, a idade e sexo do utente e o destino após a alta. Pode concluir-se após estudo, que as taxas de reinternamentos têm vindo a aumentar nos últimos anos, que a população idosa insere-se no universo sujeito ao maior risco de reinternamento e que além do diagnóstico principal, a existência de comorbidades representa um papel importante no incremento do risco, nomeadamente, quando são diagnosticadas em simultâneo doenças renais, diabetes mellitus ou doenças isquémicas crónicas do coração (NCOP).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estrutura temporal das taxas de juro, também conhecida por yield curve ou curva de rendimentos define a relação entre as taxas de juros e o prazo de vencimento (ou maturidades) dos investimentos feitos. Assim, o desenvolvimento de modelos que possibilitem a obtenção de previsões precisas sobre a estrutura temporal das taxas de juro e que permitam estudar a dinâmica da evolução das taxas de juro é de crucial importância em diversas áreas de financiamento. Neste estudo investigou-se a performance de diferentes métodos de previsão para obter a estrutura temporal das taxas de juro da Zona Euro, considerando o período entre 2009 e 2015. Em termos mais específicos, foi analisada a capacidade preditiva do modelo de Nelson-Siegel & Svensson assumindo que os parâmetros resultantes da estimação da especificação paramétrica podem ser modelizados através de métodos de séries temporais univariados (modelos ARIMA, Random walk) e multivariados (modelos VAR) e Redes Neuronais Artificiais (RNA) individuais e conjuntas. Os resultados deste estudo mostram que (i) as RNA com a previsão dos parâmetros em simultâneo exibem os valores de erro mais baixos para as maturidades de curto e médio prazo (3 meses a 5 anos); (ii) As RNAs individuais são melhores para prever as taxas de juro nas maturidades compreendidas entre os 7 e os 10 anos, e que (iii) para as maturidades de longo e muito longo prazo (15 e 30 anos respetivamente) deverá ser escolhido o modelo VAR(1). Estes resultados são robustos e consistentes para todos os horizontes de previsão analisados (1,2 e 3 meses). Contudo, no período analisado nenhum dos modelos testados apresenta valores de erro inferiores aos obtidos com o modelo Random Walk.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de doutoramento em Engenharia do Ambiente, especialidade em Sistemas Sociais

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Mecânica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Doutor em História, especialidade Arqueologia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Doutor em Engenharia Química e Bioquímica, Especialidade em Engenharia Bioquímica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau Mestre em Engenharia Civil Perfil de Construção

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Programação Genética (PG) é uma técnica de Aprendizagem de Máquina (Machine Learning (ML)) aplicada em problemas de otimização onde pretende-se achar a melhor solução num conjunto de possíveis soluções. A PG faz parte do paradigma conhecido por Computação Evolucionária (CE) que tem como inspiração à teoria da evolução natural das espécies para orientar a pesquisa das soluções. Neste trabalho, é avaliada a performance da PG no problema de previsão de parâmetros farmacocinéticos utilizados no processo de desenvolvimento de fármacos. Este é um problema de otimização onde, dado um conjunto de descritores moleculares de fármacos e os valores correspondentes dos parâmetros farmacocinéticos ou de sua atividade molecular, utiliza-se a PG para construir uma função matemática que estima tais valores. Para tal, foram utilizados dados de fármacos com os valores conhecidos de alguns parâmetros farmacocinéticos. Para avaliar o desempenho da PG na resolução do problema em questão, foram implementados diferentes modelos de PG com diferentes funções de fitness e configurações. Os resultados obtidos pelos diferentes modelos foram comparados com os resultados atualmente publicados na literatura e os mesmos confirmam que a PG é uma técnica promissora do ponto de vista da precisão das soluções encontradas, da capacidade de generalização e da correlação entre os valores previstos e os valores reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: A vigilância epidemiológica dos agentes infeciosos é fundamental como atividade de controlo das doenças sexualmente transmissíveis. A gonorreia é uma das infeções sexualmente transmissíveis (IST) mais comum e é causada pela bactéria Neisseria gonorrhoeae. Os dados sobre os diferentes microrganismos causadores de IST são escassos em Portugal e a vigilância tradicional não é suficiente. Em muitos casos de infeção por N. gonorrhoeae, os pacientes são tratados empiricamente através de uma abordagem sindromática por vezes sem recurso a análises laboratoriais que confirmem a infeção e, além disso, existem os casos assintomáticos que contribuem para a contínua propagação da infeção por N. gonorrhoeae. A gonorreia é tratável e curável mas não está disponível uma vacina. Consequentemente, o controlo desta doença depende da identificação e tratamento de indivíduos infetados e dos seus contactos na rede de transmissão. Por outro lado, quando é efetuada cultura os resultados apresentam ocasionalmente falsos negativos, devido às características exigentes de crescimento da N. gonorrhoeae in vitro ou à automedicação prévia do doente. Objetivos: Avaliar a ocorrência de infeções por Neisseria gonorrhoeae entre utentes de uma consulta de venereologia, nos primeiros seis meses de 2011. Métodos: Estudo transversal. Amostragem consecutiva, cálculo do número de amostras pela fórmula de Wald para um nível de confiança de 95% e um erro de previsão de 3,3%. Foram analisadas 145 amostras de urina utilizando técnicas de amplificação de ácidos nucleicos com alvos diferentes. A identificação de Neisseria gonorrhoeae foi efetuada pela deteção de uma sequência do pseudogene porA de N. gonorrhoeae por técnica de reação em cadeia da polimerase (PCR) em tempo real e pela deteção de uma sequência do gene ccpB de N. gonorrhoeae por técnica de PCR. Critérios de exclusão: recusa em participar ou apresentar problemas para o entendimento do consentimento livre e informado. Resultados: Foi detetada Neisseria gonorrhoeae em 8 doentes – 5,5 % de prevalência global. A prevalência entre indivíduos com infeção sexualmente transmissível prévia (n = 35) foi significativamente mais elevada (p = 0,032). Neste grupo detetou-se N. gonorrhoeae em 4 doentes (11,43 %). Em doentes com queixas de exsudado uretral (n = 29), foi detetada N. gonorrhoeae em seis (20,69 %), demonstrando que a prevalência entre os indivíduos com este sintoma é, também, significativamente mais elevada (p = 0,001). A coinfecção com Clamydia trachomatis foi observada em 1,4 % dos casos (2/145). A percentagem de casos assintomáticos foi de 12,5 % (1/8). As técnicas de PCR utilizadas neste estudo demonstraram-se igualmente especificas para a deteção de N. gonorrhoeae e ambas mais sensíveis relativamente à cultura. Neste estudo as estirpes isoladas em cultura apresentaram resistência a penicilina em 25 % dos casos, 37,5 % a tetraciclinas e 12,5 % eram produtoras de β-lactamases. Conclusões: A prevalência determinada neste estudo encontra-se superior ao esperado. Os resultados deste estudo indicam a existência de um importante problema de saúde pública e a necessidade de considerar a implementação de rastreios em grupos específicos de população. Este estudo confirma que as técnicas de PCR com os alvos porA e ccpB são satisfatórias para a deteção de Neisseria gonorrhoeae em amostras de urina. Apesar da percentagem de estirpes resistentes a tetraciclinas e penicilina ser elevada não foram demonstradas resistências a fluoroquinolonas ou cefalosporinas nas estirpes estudadas.