912 resultados para Previsão Estatística
Resumo:
Dissertação para obtenção do Grau de Mestre em Energias Renováveis – Conversão Eléctrica e Utilização Sustentáveis, pela Universidade Nova de Lisboa, Faculdade de Ciência e Tecnologia
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
Tese apresentada para cumprimento dos requisitos necessários à obtenção do grau de Doutor em Ciências da Educação, Especialização de Tecnologia, Rede e Multimédia na Educação e Formação
Resumo:
Dissertação para obtenção do Grau de Doutor em Engenharia Química e Bioquímica, Especialidade em Engenharia Bioquímica
Resumo:
O principal objectivo deste trabalho assenta em desenvolver modelos de previsão de preços de commodities para assim comparar a capacidade preditiva da simulação de Monte Carlo com a das redes neuronais. A simulação de Monte Carlo é principalmente utilizada para avaliar as opções, já as redes neuronais são utilizadas para fazer previsões, classificações, clustering ou aproximação de funções. Os diversos modelos desenvolvidos foram aplicados na previsão do preço futuro do milho, petróleo, ouro e cobre. Sendo que os horizontes temporais testados neste trabalho foram 1 dia, 5 dias, 20 dias e 60 dias. Através da análise do erro absoluto médio percentual (MAPE) concluiu-se que no geral o modelo individual que apresentou um melhor desempenho preditivo foram as redes neuronais. Contudo, nas previsões a 1 e a 5 dias os resultados obtidos foram semelhantes para ambos os modelos. Para se tentar melhorar os resultados obtidos pelos modelos individuais foram aplicadas algumas técnicas de combinação de modelos. A combinação de modelos demonstrou no geral capacidade para melhorar os resultados dos modelos individuais, porém apenas para o horizonte a 60 dias é que os resultados melhoraram significativamente.
Resumo:
Cada vez mais a preocupação ambiental tem ditado o rumo das abordagens escolhidas nas mais variadas áreas, quer pela redução de desperdícios, quer pelo aumento da eficiência dos mais diversos processos. Quando olhamos para os consumos energéticos a nível mundial os edifícios são responsáveis por uma grande fatia destes consumos fazendo deles um dos grande ponto de interesse para implementação de sistemas que visem diminuir os consumos, permitindo assim tentar alcançar um equilíbrio sustentável entre o meio ambiente e o nosso conforto. A variável humana tem-se mostrado cada vez mais importante no desenvolvimento de ferramentas que venham permitir alcançar este objetivo, quer por via de reduções nos consumos através da remoção dos fatores de desperdício de energia, quer pelo aumento de eficiência dos sistemas utilizados nas habitações, desde a iluminação à climatização. É então importante poder ter formas de conhecer qual o comportamento humano no edifício para que possam ser criadas abordagens cada vez mais eficientes e que possam contar com melhores variáveis de entrada aumentado assim, ainda mais o seu desempenho. Na presente dissertação será feito o estudo da validade do uso do dióxido de carbono como variável de inferência para o nível de ocupação das várias divisões de um edifício de habitação. Para tal implementou-se um sistema de análise dos valores de dióxido de carbono da habitação através de módulos sem fios colocados em locais estratégicos que fornecerão informação ao algoritmo para que possa ser criado um mapa de ocupação. O dióxido de carbono mostrou-se capaz de fornecer informação da ocupação no entanto apresentando uma incerteza moderada devido a fatores como os deslocamentos de ar na habitação.
Resumo:
Atendendo à emergência da estatística, como área autónoma do conhecimento científico no século XIX, procuraremos avaliar a influência desta disciplina no surgimento da psiquiatria portuguesa, utilizando para isso a contribuição filosófica de Ian Hacking. Tentaremos discutir se os marcos considerados importantes por Ian Hacking ocorreram igualmente no seio da psiquiatria portuguesa. Este apuramento far-se-á tanto no que diz respeito à análise da bibliografia dos primeiros alienistas, como através da análise da documentação dos arquivos do Hospital de Rilhafoles, o primeiro asilo psiquiátrico do país. Reflectiremos sobre a existência de um eventual efeito de feedback que o pensamento estatístico possa ter operado sobre a produção científica e os relatórios daquela instituição, no sentido de influenciarem o desenvolvimento da psiquiatria portuguesa e a assistência aos alienados no país. Não sendo histórica, a teoria de Hacking situa-se dentro na mesma janela temporal escolhida para o período do nosso estudo e recai principalmente sobre o aparecimento da estatística em França, país que à data, era a mais determinante influência cultural para o nosso país. Assim, incidiremos a nossa investigação sobre a seguinte hipótese: ter-se-ão os alienistas portugueses da época, apetrechado em termos científicos, de referências estatísticas que, de acordo com o autor canadiano, já então eram usadas noutros países, sobretudo em França para, nomeadamente, aperfeiçoar os sistemas classificativos das doenças mentais que, então, davam os primeiros passos na psiquiatria europeia? Com este trabalho pretende-se, além de dar a conhecer e valorizar a importância dos dados estatísticos no funcionamento do Hospital de Rilhafoles que cessou funções em 2012, preencher uma lacuna na história da psiquiatria portuguesa do século XIX, apontando novas ferramentas o estudo da emergência de novas áreas disciplinares.
Resumo:
A representatividade do número de reinternamento hospitalares, no quadro dos custos hospitalares, deverá ser encarada como um indicador de qualidade nos serviços prestados e um objeto de estudo no que diz respeito à forma como estão a ser geridos esses serviços. Caracterizar os utentes com maior propensão a um reinternamento e identificar os fatores de risco que lhe estão associados torna-se, pois, pertinente, pois só assim, se poderá, no futuro, desenvolver uma atuação proativa com o objetivo primeiro de uma redução de custos sem colocar, no entanto, em causa a qualidade dos serviços que as entidades hospitalares prestam aos seus utentes. O objetivo deste estudo consiste em criar um modelo preditivo, com base em árvores de decisão, que auxilie a identificar os fatores de risco dos reinternamentos em 30 dias relativos ao Grupos de Diagnóstico Homogéneo (GDH) 127 - Insuficiência cardíaca e/ou choque, de forma a auxiliar as entidades prestadoras de cuidados de saúde a tomar decisões e atuar atempadamente sobre situações críticas. O estudo é suportado pela base de dados dos Grupos de Diagnóstico Homogéneos, a qual, possui informação sobre o utente e sobre o seu processo de internamento, nomeadamente, o diagnóstico principal, os diagnósticos secundários, os procedimentos realizados, a idade e sexo do utente e o destino após a alta. Pode concluir-se após estudo, que as taxas de reinternamentos têm vindo a aumentar nos últimos anos, que a população idosa insere-se no universo sujeito ao maior risco de reinternamento e que além do diagnóstico principal, a existência de comorbidades representa um papel importante no incremento do risco, nomeadamente, quando são diagnosticadas em simultâneo doenças renais, diabetes mellitus ou doenças isquémicas crónicas do coração (NCOP).
Resumo:
Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.
Resumo:
A estrutura temporal das taxas de juro, também conhecida por yield curve ou curva de rendimentos define a relação entre as taxas de juros e o prazo de vencimento (ou maturidades) dos investimentos feitos. Assim, o desenvolvimento de modelos que possibilitem a obtenção de previsões precisas sobre a estrutura temporal das taxas de juro e que permitam estudar a dinâmica da evolução das taxas de juro é de crucial importância em diversas áreas de financiamento. Neste estudo investigou-se a performance de diferentes métodos de previsão para obter a estrutura temporal das taxas de juro da Zona Euro, considerando o período entre 2009 e 2015. Em termos mais específicos, foi analisada a capacidade preditiva do modelo de Nelson-Siegel & Svensson assumindo que os parâmetros resultantes da estimação da especificação paramétrica podem ser modelizados através de métodos de séries temporais univariados (modelos ARIMA, Random walk) e multivariados (modelos VAR) e Redes Neuronais Artificiais (RNA) individuais e conjuntas. Os resultados deste estudo mostram que (i) as RNA com a previsão dos parâmetros em simultâneo exibem os valores de erro mais baixos para as maturidades de curto e médio prazo (3 meses a 5 anos); (ii) As RNAs individuais são melhores para prever as taxas de juro nas maturidades compreendidas entre os 7 e os 10 anos, e que (iii) para as maturidades de longo e muito longo prazo (15 e 30 anos respetivamente) deverá ser escolhido o modelo VAR(1). Estes resultados são robustos e consistentes para todos os horizontes de previsão analisados (1,2 e 3 meses). Contudo, no período analisado nenhum dos modelos testados apresenta valores de erro inferiores aos obtidos com o modelo Random Walk.
Resumo:
A estatística nos dias de hoje está incorporada de uma forma generalizada no currículo da matemática no ensino básico e secundário e em diferentes cursos do ensino superior.Este interesse, não é exclusivo da comunidade de educação matemática, mas sim da sociedade em geral, pois a sua apropriação permite contribuir para um melhor espirito crítico sobre a informação e logo um exercicio de melhor cidadania. Esta experiência realizou-se no âmbito da Unidade Curricular de Introdução à Estatística da licenciatura em Educação Básica da Escola Superior de Educação Paula Frassinetti , a qual contou com a participação de 74 estudantes inscritos na unidade curricular.Tendo como referência as diretrizes para o ensino superior impulsionadas por o processo de Bolonha que apontam para a centralidade do estudante no processo autónomo de aprendizagem ao longo da vida implementamos uma metodologia de b-learning alicerçada na plataforma moodle usando o fórum de forma a potenciar o pensamento crítico.Do ponto de vista pedagógico, utilizamos o modelo Community of Inquiry desenvolvido por Garrison, Anderson e Archer.Os posts que lançamos para a discussão, eram notícias dos meios de comunicação fazendo um pequeno comentário de forma a fomentar o sentido crítico face ao modo como a informação é apresentada e a aptidão para ler e interpretar tabelas e gráficos à luz das situações a que dizem respeito, com o objetivo de desenvolver skills interpretativos e a literacia estatística, desenvolver a capacidade para comunicar estatisticamente e desenvolver disposições estatísticas úteis.Neste trabalho, apresentamos uma análise qualitativa e quantitativa dos vários indicadores que caracterizam a formação de futuros professores da educação básica em estatística,recolhendo os dados das interações do fórum, monitorizados com o software SNAPP e a análise dos mesmos com o Netdraw e SPSS.E ainda, a interpretabilidade de diversos fatores, de acordo com a estrutura e conceção do instrumento a respeito de como o estudante perceciona a presença cognitiva relativamente à construção do significado e compreensão da matéria da unidade curricular.Concluímos que a maioria dos estudantes apesar de saber calcular medidas de localização e dispersão, tem dificuldade em apresentar argumentos em que as explicite, pois ainda não conseguiu interpretar, interiorizar as medidas, para que possa inseri-los e articulá-los numa argumentação.
Resumo:
Este trabalho tem como objetivo verificar o comportamento mecânico e físico de pozolanas artifíciais estabilizadas química e granulometricamente, curadas por dois processos de cura denominados de : autoclave(ATC), que utiliza temperaturas na faixa de 149 a 188°C e câmara à temperatura constante(CTC) que utiliza uma temperatura de ± 21°C. Também fez-se análises estatísticas com a finalidade de se determinar o efeito da energia de moldagem, temperatura e tempo de cura sobre os resultados dos ensaios, para cada processo de cura, além de se determinar modelos matemáticos para previsão de resultados de resistência através de regressões múltiplas e simples. As pozolanas artificiais empregadas foram as cinzas volante e pesada da Usina de Candiota, as quais foram estabilizadas com cal dolomítica hidratada e areia do Rio Guaíba. Os ensaios de resistência à compressão simples , absorção e perda de massa basearam-se nas normas da ABNT e DNER e para os estudos de análise estatística, fez-se anteriormente aos ensaios, dois planejamentos experimentais denominados de Split-Splot e Quadrado Latino, que foram utilizados nos processos de autoclavagem e câmara à temperatura constante, representativamente. Os Corpos-de-Prova curados na câmara à temperatura constante, até os 28 dias de cura, apresentaram resultados de resistências inferiores aqueles curados pelo processo de autoclave. Aos 60 dias de cura suas resistências ficaram na faixa dos valores de Corpos-de-Provas curados pela autoclave nas temperaturas de 149 a 188°C, excessão feita na mistura utilizando areia, onde em todos os períodos de cura estudados,os valores de resistência dos Corpos-de-Prova curados pelo câmara à temperatura constante foram inferiores. A proporção da quantidade de cal e cinza na mistura, bem como o valor da superfície específica da cinza influenciam nos resultados de ensaios, independentemente da variação dos fatores principais. Em termos de análise estatística verificou-se que a energia de moldagem e o tempo de cura são os fatores que apresentam os maiores efeitos sobre os resultados da resistência, para os processos de cura ATC e CTC, respectivamente.
Resumo:
Usando a técnica de Retroespalhamento Rutherford (RBS). no presente trabalho medimos a perda de energia e a flutuação estatística da perda de energia (straggling) como função da energia para íons de Li em alvos de silicio amorfo. Através do método dos marcadores. com amostras produzidas por implantação iônica e por epitaxia de feixe molecular,o poder de freamento foi medido em um intervalo de energia entre 250keV e 9MeV enquanto que o straggling foi determinado em um intervalo que foi de 450keV a 3MeV. Os resultados experimentais foram comparados com medidas prévias e com cálculos semi-empiricos realizados por Ziegler. Biersack e Littmark e por Konac et el., sendo encontrado um razoável acordo teórico-experimental. Foram também realizados cálculos baseados nos modelos teóricos de Aproximação por Convolução Perturbativa (PCA) e Aproximação por Convolução Unitária (UCA) propostos por Grande e Schiwielz O modelo PCA apresentou resultados aceitáveis para energias acima de 6MeV enquanto que os valores apresentados pelo divergem dos valores experimentais para energias abaixo de 2MeV. As medidas de straggling quando comparados com as predições da teoria de Bohr mostraram discrepâncias que foram entre 20% e 60%. Cálculos feitos com a aproximação para encontros binários (BEA) usando-se a secção de choque de Thompsom e a secção de choque proposta no trabalho de Vriens foram comparados com as medidas experimentais. Os resultados usando-se a secção de choque de Thompsom divergem por até 50%, enquanto que os valores calculados a secção de choque proposta por Vriens mostram uma concordância razoável para energias abaixo de 1MeV.
Resumo:
A cada ano, mais de 500.000 pessoas vêm a falecer em acidentes de trânsito no mundo. No Brasil, estima-se entre 30.000 e 50.000 mortos no mesmo período. A velocidade elevada é considerada como um dos principais fatores determinantes dos acidentes e da gravidade dos mesmos. O presente trabalho desenvolve uma análise da consistência geométrica de rodovias de pistas simples no Estado do Rio Grande do Sul, através da elaboração de modelos de previsão da velocidade operacional, em duas etapas distintas. Na primeira etapa, a partir da coleta de dados de velocidades pontuais e de elementos geométricos da rodovia, é elaborado um modelo que permite prever o comportamento do condutor, quanto à velocidade que emprega em seu veículo segundo diferentes condicionantes geométricas. Na segunda etapa, o modelo proposto é aplicado sobre diferentes segmentos viários de rodovias de pista simples do Estado do Rio Grande do Sul, para obtenção das velocidades operacionais previstas e os resultados comparados entre si e com as velocidades de projeto e a velocidade regulamentada. A análise dos resultados para obtenção do modelo conclui como única variável significativa para a elaboração do mesmo, entre as diversas analisadas, o raio planimétrico. Já a análise da consistência geométrica das rodovias, através da aplicação do modelo proposto, indicou que estas apresentam projetos geométricos classificados como bons quanto a sua fluidez, mas classificados como fracos quanto ao dimensionamento dos elementos geométricos de segurança (superelevação, superlargura e distâncias de visibilidade) em decorrência de diferenças superiores a 20 km/h entre a velocidade operacional e a velocidade de projeto. Por fim, observa que as rodovias projetadascom velocidadediretriz de 60 km/h ou inferior são as que apresentam os piores resultados na análise da consistência geométrica e que o condutor brasileiro (observado na elaboração do modelo) não pode ser considerado um velocista, mas sim, um condutor mais "ousado", em situações adversas, se comparado a condutores de outros países, em especial, dos Estados Unidos.
Resumo:
Em fontes de nêutrons por spallation para pesquisa de materiais, o comprimento de onda dos nêutrons é geralmente determinado pelos tempos de percurso (TOF) dos nêutrons desde a fonte até o detector. A precisão atingível é limitada pelo fato de o tempo de emissão do pulso característico do sistema alvo/moderador ser diferente de zero (a situação ideal fictícia seria a emissão se ocorresse na forma de um impulso). “Moderadores acoplados” (elementos usados para produzir feixes de alta intensidade com nêutrons de baixa energia) apresentam um decaimento de intensidade em função do tempo muito longo, ao longo de todo o espectro usado nos experimentos. Por este motivo, “moderadores desacoplados”, os quais produzem feixes com intensidade mais reduzida, são freqüentemente usados para instrumentos que requerem alta resolução. Neste trabalho, propusemos e analisamos uma nova técnica de filtragem dinâmica de feixes de nêutrons polarizados de baixa energia para experimentos que utilizam TOF na determinação do comprimento de onda. O dispositivo consiste de um sistema ótico polarizador/analisador e um inversor de spin seletivo em energia, o qual funciona por ressonância espacial do spin. Variando a condição de ressonância em sincronia com a estrutura temporal do pulso de nêutrons (através do controle de campos magnéticos), o filtro pode ajustar a resolução de energia (ou de comprimento de onda) de pulsos de banda larga em tais experimentos, separando os nêutrons com a correta relação “TOF/comprimento de onda” dos demais Um método para o cálculo de desempenho do sistema foi apresentado em um Trabalho Individual (TI) (PARIZZI et al., 2002 - i), do qual se fará aqui uma breve revisão além de amplo uso na otimização dos parâmetros a serem ajustados para o projeto do filtro. Os resultados finais mostram que ganhos consideráveis em resolução podem ser obtidos com a aplicação desta técnica em experimentos de reflectometria por tempo de percurso, sem que para tal seja necessário comprometer a intensidade do feixe usado pelo mesmo instrumento quando operado em um modo de baixa resolução, dando ao usuário do instrumento a opção de escolher a relação ótima entre intensidade e resolução para seu experimento. Como parte da conclusão desta dissertação, é apresentada uma proposta de parâmetros para a construção deste tipo de filtro e previsão de desempenho da configuração proposta, baseada no software de modelamento desenvolvido.