953 resultados para Previsão


Relevância:

20.00% 20.00%

Publicador:

Resumo:

As empresas nacionais deparam-se com a necessidade de responder ao mercado com uma grande variedade de produtos, pequenas séries e prazos de entrega reduzidos. A competitividade das empresas num mercado global depende assim da sua eficiência, da sua flexibilidade, da qualidade dos seus produtos e de custos reduzidos. Para se atingirem estes objetivos é necessário desenvolverem-se estratégias e planos de ação que envolvem os equipamentos produtivos, incluindo: a criação de novos equipamentos complexos e mais fiáveis, alteração dos equipamentos existentes modernizando-os de forma a responderem às necessidades atuais e a aumentar a sua disponibilidade e produtividade; e implementação de políticas de manutenção mais assertiva e focada no objetivo de “zero avarias”, como é o caso da manutenção preditiva. Neste contexto, o objetivo principal deste trabalho consiste na previsão do instante temporal ótimo da manutenção de um equipamento industrial – um refinador da fábrica de Mangualde da empresa Sonae Industria, que se encontra em funcionamento contínuo 24 horas por dia, 365 dias por ano. Para o efeito são utilizadas medidas de sensores que monitorizam continuamente o estado do refinador. A principal operação de manutenção deste equipamento é a substituição de dois discos metálicos do seu principal componente – o desfibrador. Consequentemente, o sensor do refinador analisado com maior detalhe é o sensor que mede a distância entre os dois discos do desfibrador. Os modelos ARIMA consistem numa abordagem estatística avançada para previsão de séries temporais. Baseados na descrição da autocorrelação dos dados, estes modelos descrevem uma série temporal como função dos seus valores passados. Neste trabalho, a metodologia ARIMA é utilizada para determinar um modelo que efetua uma previsão dos valores futuros do sensor que mede a distância entre os dois discos do desfibrador, determinando-se assim o momento ótimo da sua substituição e evitando paragens forçadas de produção por ocorrência de uma falha por desgaste dos discos. Os resultados obtidos neste trabalho constituem uma contribuição científica importante para a área da manutenção preditiva e deteção de falhas em equipamentos industriais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O atual, e já contínuo, clima de instabilidade e crise financeira, assola diversos países. Fruto de todo este clima, também de insegurança e vulnerabilidade assistimos à insolvência de inúmeras empresas. Em 2014, 9.2291 empresas portuguesas encontram-se em processos de insolvência ou recuperação. Ao longo dos anos foram criados modelos de previsão de insolvências, entre eles, o mais importante, Z-Score de Edward Altman, que consistem na utilização de rácios financeiros para uma análise multivariada. Estes modelos revelaram-se uma importante ferramenta na análise do desempenho de uma empresa e no apoio à decisão do risco de crédito. Neste sentido, o papel da Auditoria é também fundamental, com o objetivo de credibilizar as demonstrações financeiras, pois o nosso estudo assenta na criação de um modelo para prever a insolvência através da dimensão económico-financeira, e, por consequência, as demonstrações financeiras são a base da nossa análise. O presente estudo pretende analisar o setor do calçado e identificar quais os rácios económicofinanceiros relevantes e a significância da variável Certificação Legal de Contas para a previsão de insolvência em empresas deste ramo, através de uma investigação qualitativa, de caráter exploratório e de técnica de análise de conteúdo. Selecionamos 60 empresas do setor, em que 33 são empresas solventes e 27 em estado de insolvência/ dissolução/ falência/ liquidação. As Demonstrações Financeiras das empresas solventes consideram como último ano, 2014. De seguida selecionamos 31 rácios, incluindo as variáveis Certificação Legal de Contas e a Solvência ou não da empresa em questão. Com base nestes dados, construiremos o modelo de previsão, através da ferramenta SPSS e responderemos às hipóteses formuladas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos últimos anos o consumo de energia elétrica produzida a partir de fontes renováveis tem aumentado significativamente. Este aumento deve-se ao impacto ambiental que recursos como o petróleo, gás, urânio, carvão, entre outros, têm no meio ambiente e que são notáveis no diaa- dia com as alterações climáticas e o aquecimento global. Por sua vez, estes recursos têm um ciclo de vida limitado e a dada altura tornar-se-ão escassos. A preocupação de uma melhoria contínua na redução dos impactos ambientais levou à criação de Normas para uma gestão mais eficiente e sustentável do consumo de energia nos edifícios. Parte da eletricidade vendida pelas empresas de comercialização é produzida através de fontes renováveis, e com a recente publicação do Decreto de Lei nº 153/2014 de 20 outubro de 2014 que regulamenta o autoconsumo, permitindo que também os consumidores possam produzir a sua própria energia nas suas residências para reduzir os custos com a compra de eletricidade. Neste contexto surgiram os edifícios inteligentes. Por edifícios inteligentes entende-se que são edifícios construídos com materiais que os tornam mais eficientes, possuem iluminação e equipamentos elétricos mais eficientes, e têm sistemas de produção de energia que permitem alimentar o próprio edifício, para um consumo mais sustentado. Os sistemas implementados nos edifícios inteligentes visam a monitorização e gestão da energia consumida e produzida para evitar desperdícios de consumo. O trabalho desenvolvido visa o estudo e a implementação de Redes Neuronais Artificiais (RNA) para prever os consumos de energia elétrica dos edifícios N e I do ISEP/GECAD, bem como a previsão da produção dos seus painéis fotovoltáicos. O estudo feito aos dados de consumo permitiu identificar perfis típicos de consumo ao longo de uma semana e de que forma são influenciados pelo contexto, nomeadamente, com os dias da semana versus fim-de-semana, e com as estações do ano, sendo analisados perfis de consumo de inverno e verão. A produção de energia através de painéis fotovoltaicos foi também analisada para perceber se a produção atual é suficiente para satisfazer as necessidades de consumo dos edifícios. Também foi analisada a possibilidade da produção satisfazer parcialmente as necessidades de consumos específicos, por exemplo, da iluminação dos edifícios, dos seus sistemas de ar condicionado ou dos equipamentos usados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste documento, são investigados vários métodos usados na inteligência artificial, com o objetivo de obter previsões precisas da evolução dos mercados financeiros. O uso de ferramentas lineares como os modelos AR, MA, ARMA e GARCH têm muitas limitações, pois torna-se muito difícil adaptá-los às não linearidades dos fenómenos que ocorrem nos mercados. Pelas razões anteriormente referidas, os algoritmos como as redes neuronais dinâmicas (TDNN, NARX e ESN), mostram uma maior capacidade de adaptação a estas não linearidades, pois não fazem qualquer pressuposto sobre as distribuições de probabilidade que caracterizam estes mercados. O facto destas redes neuronais serem dinâmicas, faz com que estas exibam um desempenho superior em relação às redes neuronais estáticas, ou outros algoritmos que não possuem qualquer tipo de memória. Apesar das vantagens reveladas pelas redes neuronais, estas são um sistema do tipo black box, o que torna muito difícil extrair informação dos pesos da rede. Isto significa que estes algoritmos devem ser usados com precaução, pois podem tornar-se instáveis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso de ligações adesivas aumentou significativamente nos últimos anos e é hoje em dia uma técnica de ligação dominante na indústria aeronáutica e automóvel. As ligações adesivas visam substituir os métodos tradicionais de fixação mecânicos na união de estruturas. A melhoria ao longo dos anos de vários modelos de previsão de dano, nomeadamente através do Método de Elementos Finitos (MEF), tem ajudado ao desenvolvimento desta técnica de ligação. Os Modelos de Dano coesivo (MDC), usados em conjunto com MEF, são uma ferramenta viável para a previsão de resistência de juntas adesivas. Os MDC combinam critérios da resistência dos materiais para a iniciação do dano e conceitos da mecânica da fratura para a propagação da fenda. Existem diversas formas de leis coesivas possíveis de aplicar em simulações por MDC, em função do comportamento expectável dos materiais que estão a ser simulados. Neste trabalho, estudou-se numericamente o efeito de diversas formas de leis coesivas na previsão no comportamento de juntas adesivas, nomeadamente nas curvas forçadeslocamento (P-) de ensaios Double-Cantilever Beam para caracterização à tração e ensaios End-Notched Flexure para caraterização ao corte. Também se estudou a influência dos parâmetros coesivos à tração e corte nas curvas P- dos referidos ensaios. Para o Araldite®AV138 à tração e ao corte, a lei triangular é a que melhor prevê o comportamento do adesivo. Para a previsão da resistência de ambos os adesivos Araldite® 2015 e SikaForce® 7752, a lei trapezoidal é a que melhor se adequa, confirmando assim que esta lei é a que melhor caracteriza o comportamento de dano de adesivos tipicamente dúcteis. O estudo dos parâmetros revelou influência distinta na previsão do comportamento das juntas, embora com bastantes semelhanças entre os diferentes tipos de adesivos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As juntas adesivas têm vindo a ser usadas em diversas áreas e contam com inúmeras aplicações práticas. Devido ao fácil e rápido fabrico, as juntas de sobreposição simples (JSS) são um tipo de configuração bastante comum. O aumento da resistência, a redução de peso e a resistência à corrosão são algumas das vantagens que este tipo de junta oferece relativamente aos processos de ligação tradicionais. Contudo, a concentração de tensões nas extremidades do comprimento da ligação é uma das principais desvantagens. Existem poucas técnicas de dimensionamento precisas para a diversidade de ligações que podem ser encontradas em situações reais, o que constitui um obstáculo à utilização de juntas adesivas em aplicações estruturais. O presente trabalho visa comparar diferentes métodos analíticos e numéricos na previsão da resistência de JSS com diferentes comprimentos de sobreposição (LO). O objectivo fundamental é avaliar qual o melhor método para prever a resistência das JSS. Foram produzidas juntas adesivas entre substratos de alumínio utilizando um adesivo époxido frágil (Araldite® AV138), um adesivo epóxido moderadamente dúctil (Araldite® 2015), e um adesivo poliuretano dúctil (SikaForce® 7888). Consideraram-se diferentes métodos analíticos e dois métodos numéricos: os Modelos de Dano Coesivo (MDC) e o Método de Elementos Finitos Extendido (MEFE), permitindo a análise comparativa. O estudo possibilitou uma percepção crítica das capacidades de cada método consoante as características do adesivo utilizado. Os métodos analíticos funcionam apenas relativamente bem em condições muito específicas. A análise por MDC com lei triangular revelou ser um método bastante preciso, com excepção de adesivos que sejam bastante dúcteis. Por outro lado, a análise por MEFE demonstrou ser uma técnica pouco adequada, especialmente para o crescimento de dano em modo misto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Energias Renováveis – Conversão Eléctrica e Utilização Sustentáveis, pela Universidade Nova de Lisboa, Faculdade de Ciência e Tecnologia

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O principal objectivo deste trabalho assenta em desenvolver modelos de previsão de preços de commodities para assim comparar a capacidade preditiva da simulação de Monte Carlo com a das redes neuronais. A simulação de Monte Carlo é principalmente utilizada para avaliar as opções, já as redes neuronais são utilizadas para fazer previsões, classificações, clustering ou aproximação de funções. Os diversos modelos desenvolvidos foram aplicados na previsão do preço futuro do milho, petróleo, ouro e cobre. Sendo que os horizontes temporais testados neste trabalho foram 1 dia, 5 dias, 20 dias e 60 dias. Através da análise do erro absoluto médio percentual (MAPE) concluiu-se que no geral o modelo individual que apresentou um melhor desempenho preditivo foram as redes neuronais. Contudo, nas previsões a 1 e a 5 dias os resultados obtidos foram semelhantes para ambos os modelos. Para se tentar melhorar os resultados obtidos pelos modelos individuais foram aplicadas algumas técnicas de combinação de modelos. A combinação de modelos demonstrou no geral capacidade para melhorar os resultados dos modelos individuais, porém apenas para o horizonte a 60 dias é que os resultados melhoraram significativamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cada vez mais a preocupação ambiental tem ditado o rumo das abordagens escolhidas nas mais variadas áreas, quer pela redução de desperdícios, quer pelo aumento da eficiência dos mais diversos processos. Quando olhamos para os consumos energéticos a nível mundial os edifícios são responsáveis por uma grande fatia destes consumos fazendo deles um dos grande ponto de interesse para implementação de sistemas que visem diminuir os consumos, permitindo assim tentar alcançar um equilíbrio sustentável entre o meio ambiente e o nosso conforto. A variável humana tem-se mostrado cada vez mais importante no desenvolvimento de ferramentas que venham permitir alcançar este objetivo, quer por via de reduções nos consumos através da remoção dos fatores de desperdício de energia, quer pelo aumento de eficiência dos sistemas utilizados nas habitações, desde a iluminação à climatização. É então importante poder ter formas de conhecer qual o comportamento humano no edifício para que possam ser criadas abordagens cada vez mais eficientes e que possam contar com melhores variáveis de entrada aumentado assim, ainda mais o seu desempenho. Na presente dissertação será feito o estudo da validade do uso do dióxido de carbono como variável de inferência para o nível de ocupação das várias divisões de um edifício de habitação. Para tal implementou-se um sistema de análise dos valores de dióxido de carbono da habitação através de módulos sem fios colocados em locais estratégicos que fornecerão informação ao algoritmo para que possa ser criado um mapa de ocupação. O dióxido de carbono mostrou-se capaz de fornecer informação da ocupação no entanto apresentando uma incerteza moderada devido a fatores como os deslocamentos de ar na habitação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A representatividade do número de reinternamento hospitalares, no quadro dos custos hospitalares, deverá ser encarada como um indicador de qualidade nos serviços prestados e um objeto de estudo no que diz respeito à forma como estão a ser geridos esses serviços. Caracterizar os utentes com maior propensão a um reinternamento e identificar os fatores de risco que lhe estão associados torna-se, pois, pertinente, pois só assim, se poderá, no futuro, desenvolver uma atuação proativa com o objetivo primeiro de uma redução de custos sem colocar, no entanto, em causa a qualidade dos serviços que as entidades hospitalares prestam aos seus utentes. O objetivo deste estudo consiste em criar um modelo preditivo, com base em árvores de decisão, que auxilie a identificar os fatores de risco dos reinternamentos em 30 dias relativos ao Grupos de Diagnóstico Homogéneo (GDH) 127 - Insuficiência cardíaca e/ou choque, de forma a auxiliar as entidades prestadoras de cuidados de saúde a tomar decisões e atuar atempadamente sobre situações críticas. O estudo é suportado pela base de dados dos Grupos de Diagnóstico Homogéneos, a qual, possui informação sobre o utente e sobre o seu processo de internamento, nomeadamente, o diagnóstico principal, os diagnósticos secundários, os procedimentos realizados, a idade e sexo do utente e o destino após a alta. Pode concluir-se após estudo, que as taxas de reinternamentos têm vindo a aumentar nos últimos anos, que a população idosa insere-se no universo sujeito ao maior risco de reinternamento e que além do diagnóstico principal, a existência de comorbidades representa um papel importante no incremento do risco, nomeadamente, quando são diagnosticadas em simultâneo doenças renais, diabetes mellitus ou doenças isquémicas crónicas do coração (NCOP).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estrutura temporal das taxas de juro, também conhecida por yield curve ou curva de rendimentos define a relação entre as taxas de juros e o prazo de vencimento (ou maturidades) dos investimentos feitos. Assim, o desenvolvimento de modelos que possibilitem a obtenção de previsões precisas sobre a estrutura temporal das taxas de juro e que permitam estudar a dinâmica da evolução das taxas de juro é de crucial importância em diversas áreas de financiamento. Neste estudo investigou-se a performance de diferentes métodos de previsão para obter a estrutura temporal das taxas de juro da Zona Euro, considerando o período entre 2009 e 2015. Em termos mais específicos, foi analisada a capacidade preditiva do modelo de Nelson-Siegel & Svensson assumindo que os parâmetros resultantes da estimação da especificação paramétrica podem ser modelizados através de métodos de séries temporais univariados (modelos ARIMA, Random walk) e multivariados (modelos VAR) e Redes Neuronais Artificiais (RNA) individuais e conjuntas. Os resultados deste estudo mostram que (i) as RNA com a previsão dos parâmetros em simultâneo exibem os valores de erro mais baixos para as maturidades de curto e médio prazo (3 meses a 5 anos); (ii) As RNAs individuais são melhores para prever as taxas de juro nas maturidades compreendidas entre os 7 e os 10 anos, e que (iii) para as maturidades de longo e muito longo prazo (15 e 30 anos respetivamente) deverá ser escolhido o modelo VAR(1). Estes resultados são robustos e consistentes para todos os horizontes de previsão analisados (1,2 e 3 meses). Contudo, no período analisado nenhum dos modelos testados apresenta valores de erro inferiores aos obtidos com o modelo Random Walk.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Geralmente, as populações, incluindo aí os setores produtivos, planejam suas atividades pelo conhecimento antecipado das variações tanto da temperatura quanto da precipitação pluvial baseados nos ciclos anuais e sazonais conhecidos. Os benefícios, confiabilidade e utilização das previsões climáticas têm sido objeto de análise e discussão na comunidade científica mundial. O desenvolvimento e aplicação dessas previsões para determinadas partes de áreas extensas, atende, de forma mais satisfatória, aos anseios dos setores produtivos e a sociedade como um todo. O objetivo principal desse trabalho foi identificar regiões dos oceanos Atlântico e Pacífico, cuja Temperatura da Superfície do Mar (TSM) possa ser utilizada como preditor potencial em modelos estatísticos de previsão climática de temperaturas máxima e mínima em regiões homogêneas do Estado do Rio Grande do Sul. Este estudo foi desenvolvido com dados de temperaturas máxima e mínima de 40 estações meteorológicas, do Instituto Nacional de Meteorologia e, da Fundação Estadual de Pesquisas Agropecuárias para o período de 1913 a 1998 e dados de TSM em pontos de grade para o período de 1950 a 1998 do National Center for Environmental Prediction. Num tratamento preliminar dos dados, as séries tiveram suas falhas preenchidas utilizando um método de preenchimento, aqui chamado, de “método das correlações”. Com as séries completas, aplicou-se métodos de agrupamento, determinando 4 regiões homogêneas de temperaturas máxima e mínima para o Estado. Foi feito um estudo climatológico dessas regiões e determinadas as relações das temperaturas médias máxima e mínima, de cada uma com TSM dos Oceanos na grade definida. As regiões determinadas representaram bem a fisiografia do Estado e as regiões preditoras apresentaram correlações significativas tanto com a temperatura máxima, quanto com a mínima. Os meses com maior número de preditores, tanto para as temperatura máxima quanto para mínima, foi agosto e o de menor, julho. Correlações diferentes para regiões homogêneas distintas, justificou a utilização da regionalização neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os primeiros estudos sobre previsão de falência foram elaborados por volta da década de 30. Entretanto, o assunto só ganhou impulso a partir da utilização de técnicas estatísticas, ao longo dos anos 60. No Brasil, os primeiros trabalhos sobre o assunto datam dos anos 70. A esse respeito, vale destacar que a técnica estatística empregada em grande parte destes estudos foi a análise discriminante linear multivariada. Na tentativa de contribuir para o tema, este trabalho se propõs a testar um modelo de previsão de concordatas de empresas de capital aberto, a partir da modelagem desenvolvida por Cox (1972). Esse modelo se diferencia daqueles estimados a partir de técnicas logit, probit e análise discriminante na medida em que fornece não apenas a probabilidade de que um determinado evento ocorra no futuro, mas também uma estimativa do tempo até sua ocorrência. A análise dos resultados demonstrou que é possível identificar, antecipadamente, o risco de concordata de uma empresa de capital aberto. Nesse sentido, acredita -se que o modelo de Cox possa ser utilizado como auxiliar na previsão de concordatas de companhias abertas operando na Bolsa de Valores de São Paulo – Bovespa.