968 resultados para Séries chronologiques
Resumo:
Este trabalho busca avaliar a existência de cointegração das ações do mercado brasileiro e a forma de utilização da estratégia de arbitragem estatística pelos gestores. Para isso, utilizou-se preços de ações brasileiras em diferentes frequências e janelas e aplicou-se a metodologia de Johansen e Cavaliere, cuja hipótese nula refere-se a não cointegração dos pares. Os resultados mostram que há poucas relações de cointegração entre as séries analisadas, o que ratifica a necessidade de cautela na forma de implantação da técnica na construção de carteiras.
Resumo:
A dissertação tem como objetivo analisar e discutir o conceito de saúde presente nos livros didáticos de 13 a 43 séries componentes das três coleções mais compradas pela Fundação de Assistência ao Estudante doMinistério da Educação e do Desporto (MEC), dentro do Programa Nacional do Livro Didático - 1991, para o Estado do Rio de Janeiro.
Resumo:
A formação de professores para as quatro primeiras séries do 1o Grau, realizada em cursos a nível de 2o grau, apresenta graves distorções, não atingindo os objetivos propostos pela política educacional do País. Os princípios da ciência contemporânea podem e devem ser mobilizados para a solução desse problema. O estudo das estruturas cognitivas de senvolvido por Jean Piaget e seus colaboradores nos mostra que elas são conquistadas num processo operatório de açao sobre os objetos, sendo as operações formais somente possíveis de serem conquistadas a partir da adolescência, após o domínio das operações concretas. Paralelamente, a clientela das escolas estaduais vem apresentando graves limitações no desenvolvimento da linguagem falada e escrita, o que reverte progressivamente em novas dificuldades à medida que os alunos não conseguem decodificar a linguagem do professor. Procurando minorar tais dificuldades propõe-se a reformulação do currículo de For mação de Professores da la. a 4a. séries do 1o grau para as escolas de 2o grau da rede oficial do Estado do Rio de Janeiro . A metodologia que fundamenta a nova proposta curricular é desenvolvida experimentalmente numa das escolas da rede, no município do Rio de Janeiro. Analisam-se as relações teoria-prática a partir dos resultados do primeiro ano do experimento.
Resumo:
A presente dissertação oferece o relato de um programa desenvolvido para crianças de idades entre sete e dez anos, às quais foi oferecida a oportunidade de aprender Física através de atividades experimentais do tipo mão-na-massa (hands-on) como parte de um ensino baseado em pesquisa (inquiry-based). Este programa foi desenvolvido na Escola Panamericana de Porto Alegre, além de ter incluído, em 2003, uma série de oficinas de Física com uma turma de quarta série do Colégio Bom Conselho, também de Porto Alegre. O referencial teórico que dá suporte a esse trabalho é o Construtivismo, com destaque aos estágios de desenvolvimento de Piaget, a importância da interação social de Vygotsky e os Campos Conceituais de Vergnaud. Os resultados colhidos ao longo desse período de quatro anos mostram, além do entusiasmo da maioria das crianças, um claro desenvolvimento em suas capacidades de observar fenômenos, propor teorias baseadas em suas observações e analisar criticamente essas teorias à luz de novas situações e novos dados observados. Também tem sido observada uma atitude continuamente mais independente por parte dessas crianças, que passaram a tomar a iniciativa de desenvolver projetos de pesquisa, construir modelos e propor testes experimentais às suas próprias teorias. Também são discutidas opções para o desenvolvimento de programas semelhantes em outras escolas.
Resumo:
As variáveis econômicas são frequentemente governadas por processos dinâmicos e não-lineares que podem gerar relações de dependência de longo prazo e padrões cíclicos não-periódicos com mudanças abruptas de tendências. Para o caso dos preços agrícolas este comportamento não é diferente e as peculiaridades destes mercados podem gerar séries temporais fracionalmente integradas, cujas singularidades não seriam adequadamente capturadas pelos tradicionais modelos analíticos fundamentados na hipótese dos mercados eficientes e de passeio aleatório. Sendo assim, o presente estudo buscou investigar a presença de estruturas fractais no mercado à vista de algumas das principais commodities agrícolas brasileiras: café, boi gordo, açúcar, milho, soja e bezerro. Foram empregadas técnicas tradicionais e específicas para a análise de séries temporais fractais como a análise de R/S e a aplicação de modelos das famílias ARFIMA e FIGARCH. Os resultados indicaram que, com exceção do bezerro, o componente de drift destas séries não apresentou comportamento fractal, ao contrário do observado para o componente da volatilidade, que apresentou aspecto de estrutura fractal para todas as commodities analisadas.
Resumo:
Esta dissertação expõe reflexões sobre o ensino da Matemática e tem como referencial teórico básico a Epistemologia Genética. O objetivo do trabalho é elucidar os conhecimentos sobre a operação de divisão que as crianças pesquisadas trouxeram para a escola antes de entrarem em contato com o algoritmo convencional. Para a coleta de dados, foram entrevistados estudantes de seis, sete e oito anos, pertencentes a classes multisseriadas de duas escolas do município de Teutônia, RS. Os estudantes foram divididos em dois grupos (G1 e G2). A entrevista inicial foi realizada com os dois grupos. As intervenções didáticas, denominadas, no seu conjunto, “unidade instrutiva”, foram realizadas apenas com o grupo G2, após a entrevista inicial, e tinham como objetivo contribuir para a compreensão do conceito de divisão a partir do esquema da correspondência. A unidade instrutiva elucidou a importância das intervenções didáticas apoiadas no estudo sobre a construção lógico-matemática bem como na compreensão do processo de ensinar e aprender. Considerando que crianças de primeira e segunda série de classes multisseriadas foram capazes de resolver problemas de divisão através do registro espontâneo, conclui-se que é necessário rever a forma de trabalho proposto pela escola, a qual utiliza técnicas que levam ao fracasso nas séries seguintes (terceira e quarta), quando a divisão passa a ser ensinada. Com esse objetivo, propomos, uma intervenção didática que nos parece mais apropriada considerando-se o que os estudos nos têm mostrado. Compreendendo como a criança constrói o conceito de divisão, o professor poderá realizar intervenções que se baseiem no esquema de correspondência, que tem se mostrado um caminho promissor para que a criança compreenda tal conceito.
Resumo:
Este trabalho compara modelos de séries temporais para a projeção de curto prazo da inflação brasileira, medida pelo Índice de Preços ao Consumidor Amplo (IPCA). Foram considerados modelos SARIMA de Box e Jenkins e modelos estruturais em espaço de estados, estimados pelo filtro de Kalman. Para a estimação dos modelos, foi utilizada a série do IPCA na base mensal, de março de 2003 a março de 2012. Os modelos SARIMA foram estimados no EVIEWS e os modelos estruturais no STAMP. Para a validação dos modelos para fora da amostra, foram consideradas as previsões 1 passo à frente para o período de abril de 2012 a março de 2013, tomando como base os principais critérios de avaliação de capacidade preditiva propostos na literatura. A conclusão do trabalho é que, embora o modelo estrutural permita, decompor a série em componentes com interpretação direta e estudá-las separadamente, além de incorporar variáveis explicativas de forma simples, o desempenho do modelo SARIMA para prever a inflação brasileira foi superior, no período e horizonte considerados. Outro importante aspecto positivo é que a implementação de um modelo SARIMA é imediata, e previsões a partir dele são obtidas de forma simples e direta.
Resumo:
Outliers são observações que parecem ser inconsistentes com as demais. Também chamadas de valores atípicos, extremos ou aberrantes, estas inconsistências podem ser causadas por mudanças de política ou crises econômicas, ondas inesperadas de frio ou calor, erros de medida ou digitação, entre outras. Outliers não são necessariamente valores incorretos, mas, quando provenientes de erros de medida ou digitação, podem distorcer os resultados de uma análise e levar o pesquisador à conclusões equivocadas. O objetivo deste trabalho é estudar e comparar diferentes métodos para detecção de anormalidades em séries de preços do Índice de Preços ao Consumidor (IPC), calculado pelo Instituto Brasileiro de Economia (IBRE) da Fundação Getulio Vargas (FGV). O IPC mede a variação dos preços de um conjunto fixo de bens e serviços componentes de despesas habituais das famílias com nível de renda situado entre 1 e 33 salários mínimos mensais e é usado principalmente como um índice de referência para avaliação do poder de compra do consumidor. Além do método utilizado atualmente no IBRE pelos analistas de preços, os métodos considerados neste estudo são: variações do Método do IBRE, Método do Boxplot, Método do Boxplot SIQR, Método do Boxplot Ajustado, Método de Cercas Resistentes, Método do Quartil, do Quartil Modificado, Método do Desvio Mediano Absoluto e Algoritmo de Tukey. Tais métodos foram aplicados em dados pertencentes aos municípios Rio de Janeiro e São Paulo. Para que se possa analisar o desempenho de cada método, é necessário conhecer os verdadeiros valores extremos antecipadamente. Portanto, neste trabalho, tal análise foi feita assumindo que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers. O Método do IBRE é bastante correlacionado com os preços alterados ou descartados pelos analistas. Sendo assim, a suposição de que os preços alterados ou descartados pelos analistas são os verdadeiros valores extremos pode influenciar os resultados, fazendo com que o mesmo seja favorecido em comparação com os demais métodos. No entanto, desta forma, é possível computar duas medidas através das quais os métodos são avaliados. A primeira é a porcentagem de acerto do método, que informa a proporção de verdadeiros outliers detectados. A segunda é o número de falsos positivos produzidos pelo método, que informa quantos valores precisaram ser sinalizados para um verdadeiro outlier ser detectado. Quanto maior for a proporção de acerto gerada pelo método e menor for a quantidade de falsos positivos produzidos pelo mesmo, melhor é o desempenho do método. Sendo assim, foi possível construir um ranking referente ao desempenho dos métodos, identificando o melhor dentre os analisados. Para o município do Rio de Janeiro, algumas das variações do Método do IBRE apresentaram desempenhos iguais ou superiores ao do método original. Já para o município de São Paulo, o Método do IBRE apresentou o melhor desempenho. Em trabalhos futuros, espera-se testar os métodos em dados obtidos por simulação ou que constituam bases largamente utilizadas na literatura, de forma que a suposição de que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers não interfira nos resultados.
Resumo:
Este Trabalho se Dedica ao exercício empírico de gerar mais restrições ao modelo de apreçamento de ativos com séries temporais desenvolvido por Hansen e Singleton JPE 1983. As restrições vão, desde um simples aumento qualitativo nos ativos estudados até uma extensão teórica proposta a partir de um estimador consistente do fator estocástico de desconto. As estimativas encontradas para a aversão relativa ao risco do agente representativo estão dentro do esperado, na maioria dos casos, já que atingem valores já encontrados na literatura além do fato destes valores serem economicamente plausíveis. A extensão teórica proposta não atingiu resultados esperados, parecendo melhorar a estimação do sistema marginalmente.
Resumo:
Thomas Dellinger
Resumo:
Forecast is the basis for making strategic, tactical and operational business decisions. In financial economics, several techniques have been used to predict the behavior of assets over the past decades.Thus, there are several methods to assist in the task of time series forecasting, however, conventional modeling techniques such as statistical models and those based on theoretical mathematical models have produced unsatisfactory predictions, increasing the number of studies in more advanced methods of prediction. Among these, the Artificial Neural Networks (ANN) are a relatively new and promising method for predicting business that shows a technique that has caused much interest in the financial environment and has been used successfully in a wide variety of financial modeling systems applications, in many cases proving its superiority over the statistical models ARIMA-GARCH. In this context, this study aimed to examine whether the ANNs are a more appropriate method for predicting the behavior of Indices in Capital Markets than the traditional methods of time series analysis. For this purpose we developed an quantitative study, from financial economic indices, and developed two models of RNA-type feedfoward supervised learning, whose structures consisted of 20 data in the input layer, 90 neurons in one hidden layer and one given as the output layer (Ibovespa). These models used backpropagation, an input activation function based on the tangent sigmoid and a linear output function. Since the aim of analyzing the adherence of the Method of Artificial Neural Networks to carry out predictions of the Ibovespa, we chose to perform this analysis by comparing results between this and Time Series Predictive Model GARCH, developing a GARCH model (1.1).Once applied both methods (ANN and GARCH) we conducted the results' analysis by comparing the results of the forecast with the historical data and by studying the forecast errors by the MSE, RMSE, MAE, Standard Deviation, the Theil's U and forecasting encompassing tests. It was found that the models developed by means of ANNs had lower MSE, RMSE and MAE than the GARCH (1,1) model and Theil U test indicated that the three models have smaller errors than those of a naïve forecast. Although the ANN based on returns have lower precision indicator values than those of ANN based on prices, the forecast encompassing test rejected the hypothesis that this model is better than that, indicating that the ANN models have a similar level of accuracy . It was concluded that for the data series studied the ANN models show a more appropriate Ibovespa forecasting than the traditional models of time series, represented by the GARCH model
Resumo:
Ce travail que nous venons de présenter apport une systématisation sur la viabilité de la praxis de l´éducateur français Célestin Freinet (1896-1996). Il s´agit d´une étude qualificative, recherche-action, développée dans une école coopérative l´ École Freinet à Natal/RN Brésil, auprès des élèves du 5ème et 8ème séries de l´Enseignement Fondamental. Le problème central que nous a amené à cette recherche, a été le fait de vérifier les progressions dans la production scientifique et dans les pratiques des enseignants qui ont à la charge l´Éducation Infantine et les premières séries de l´Enseignement Fondamental. Tout cela en tenant compte en concevoir l´élève en tant que sujet actif de son apprentissage et coresponsable à l´organisation du travail scolaire. Toutefois, qaund-il s´agit des quatre dernières séries de l´Enseignement Fondamental (5ème au 8ème séries), les propositions progressistes sont prises comme quelque chose pratiquement impossible d´en mettre en marche. Pour attenuer la lacune théorique sur le sujet, nous avons offert un texte significatif pour les enseignants d´une façon générale, les chercheurs de l´académie et pour l´écolechamp de la recherché. Tout cela par le fait de ne pas donner de priorité à une technique ou à un principe, en particulier. Cette pédagogie est discutée autant que possible dans son contexte global et aussi sur le comment s´est manifestée dans sa práxis . Nous avons mis en relief les aspects importants pour le fonctionnement de la salle de classe, aussi que les estratégies utilisées pour la construction, communication et documentation des connaissances L´intervention nous a permis de construire l´objet par la réflexion en action, à partir des données obtenues pendant les observations, les entretiens, les enterviews, les moments d´études et de la quête des textes écrits. L´analyse a été faite à la lumière de la methodologie comprehensive (Kaufmann, 1996), entrelacée au materiau empirique et à la théorie. Cette forme d´analyse nous a permis d´obtenir la logique dans l´ensemble comme nous crayons que doit caracteriser la recherche aux Sciences Humaines et Sociales. Les considérations finales mettent l´accent d´un côté sur l´efficacité de la pédagogie Freinet, pour orienter le processus de l´enseignement apprentissage, en tous les dégres de l´enseignement et de l´autre côté nous montre la nécessité urgente de l´équipe de l´école champ de la recherche, de qualifier sa pratique à partir des références théoriques-pratiques de la pédagogie Freinet