999 resultados para Estatística matemática
Resumo:
O objetivo do presente trabalho é investigar estatisticamente a influência de determinantes econômicos, tais como, PIB per capita, câmbio real, escolaridade, abertura comercial, peso do governo no produto e população, na perda de peso do setor industrial no produto. A regressão foi estruturada na forma de painel, com dimensão temporal, para capturar a evolução no tempo, e com 130 países, de forma a garantir heterogeneidade à amostra. O resultado indica uma forte influência do produto per capita na evolução do tamanho relativo do setor manufatureiro, o que reforça o ponto da transformação estrutural e estabelece uma relação positiva entre apreciação da taxa de câmbio real e o peso da indústria.
Resumo:
Em 1974, realizou-se uma pesquisa no Estado do Maranhão, entre os alunos da 4ª série do ensino de 1º grau da rede pública estadual do Município de Imperatriz e os alunos da 4ª série do ensino de 1º grau das escolas da rede pública estadual do Município de Carolina. O objetivo dessa pesquisa foi verificar o rendimento alcançado pelos alunos de Imperatriz, onde a rede de ensino pública estadual sofrera um processo de assistência técnica e compará-lo com o dos alunos de Carolina, o que foi feito através de provas de Comunicação e Expressão, Estudos Sociais, Ciências e Matemática. A população estudada apresentou o total de 132 alunos; 98 do Município de Imperatriz e 44 do Município de Carolina. Para verificar a equivalência da população quanto a algumas variáveis reputadas de importância, foram aplicados testes de inteligência e questionários de caracterização socioeconômica e aspectos da vida escolar dos informantes. Uma vez comprovada essa equivalência, quanto às variáveis consideradas, tornou-se possível a comparação do rendimento escolar, observando-se então, diferença estatística entre os dois grupos.
Resumo:
O presente trabalho relata um estudo sobre a aplicação de duas metodologias diferentes do processo ensino-aprendizagem da disciplina Estatística no curso de Formação de Psicologia da Faculdade de Humanidades Pedro II. O estudo empírico realizou-se no primeiro semestre letivo de 1984. Utilizou-se um plano de pesquisa quase-experimental, com o modelo pré-teste/pós-teste. Formaram-se dois grupos intactos. O primeiro grupo constava de 64 sujeitos e o segundo de 66 sujeitos. Foram aplicadas, respectivamente, a metodologia Renovadora, que tinha por objetivo a aprendizagem através da compreensão e da aplicabilidade de conceitos e princípios estatísticos, e a metodologia Tradicional que implicava na aprendizagem por memorização dos princípios e automatização na execução dos cálculos. Os resultados do tratamento estatístico, considerando-se o nível de significância de 0,05, evidenciou não haver diferença estatisticamente significativa entre as duas metodologias de ensino da disciplina Estatística, tanto no que se refere à atitude quanto no que se refere ao aproveitamento.
Resumo:
Esta tese tem o objetivo de mostrar que o sujeito aprendente, ao se deparar com um conceito matemático já construído por ele, pode, em outro contexto, atribuir-lhe novos sentidos e re-significá-lo. Para tanto, a investigação se apóia em duas teorias filosóficas: a filosofia de Immanuel Kant e a filosofia de Ludwig Wittgenstein. Também buscamos subsídios teóricos em autores contemporâneos da filosofia da matemática, tais como Gilles-Gaston Granger, Frank Pierobon, Maurice Caveing e Marco Panza. No decorrer do processo da aprendizagem, o conceito matemático está sempre em estado de devir, na perspectiva do aluno, mesmo que este conceito seja considerado imutável sob o ponto de vista da lógica e do rigor da Matemática. Ao conectar o conceito com outros conceitos, o sujeito passa a reinterpretá-lo e, a partir desta outra compreensão, ele o reconstrói. Ao atribuir sentidos em cada ato de interpretação, o conceito do objeto se modifica conforme o contexto. As estruturas sintáticas semelhantes, em que figura o objeto, e as aparências semânticas provenientes da polissemia da linguagem oferecem material para as analogias entre os conceitos. As conjeturas nascidas destas analogias têm origem nas representações do objeto percebido, nas quais estão de acordo com a memória e a imaginação do sujeito aprendente. A imaginação é a fonte de criação e sofre as interferências das ilusões provenientes do ato de ver, já que o campo de visão do aluno está atrelado ao contexto no qual se encontra o objeto. A memória, associada às experiências vividas com o objeto matemático e à imaginação, oferece condições para a re-significação do conceito. O conceito antes de ser interpretado pelo aluno obedece às exigências e à lógica da matemática, após a interpretação depende da própria lógica do aluno. A modificação do conceito surge no momento em que o sujeito, ao interpretar a regra matemática, estabelece novas regras forjadas durante o processo de sua aplicação. Na contingência, o aluno projeta sentidos aos objetos matemáticos (que têm um automovimento previsto), porém a sua imaginação inventiva é imprevisível. Nestas circunstâncias, o conceito passa a ser reconstruível a cada ato de interpretação. As condições de leitura e de compreensão do objeto definem a construção do conceito matemático, a qual está em constante mudança.
Resumo:
A teoria do custo padrão ressente-se de um tratamento matemático, como o que aqui é proposto. Conforme foi salientado no início, este tratamento matemático, embora substancialmente simples, é todavia absolutamente rigoroso e também é completo quando visto do prisma que se adotou. Modelamos a distinção necessariamente explícita entre a produção contínua e a produção descreta, através do uso dos modelos algébricos a dois e três fatores, respectivamente. Unificamos de uma maneira sitemática a abordagem dos três elementos básicos do custo, simplificando de um lado e generalizando do outro. Esta unificação levou aos elementos diretos também, como deve ser, todo o rigorismo analítico do elemento indireto. Ampliou-see a estreita visão das variações de preço e quantidade com a consideração da variação de unidades, qua acarretou automaticamente a substituição do conceito de variação total pelo de variação total orçamentária. A modelagem algébrica não tem a vantagem da visualidade que a modelagem gráfica oferece, mas tem, por outro lado, a superioridade que a generalização apresente. Com efeito, foi a generalização das definições das variações que permitiu os resultados obtidos, aqui resumidos. Mas as razões do método gráfico são também apreciáveis.Assim, o desdobramento da variação total em variação de preço e variação de quantidade é ainda mais ressaltada pelo método gráfico, no qual se vê a variação de quantidade como o resultado de um deslocamento horizontal do ponto cuja abcissa é a quantidade e cuja ordenada é o custo total. Também a variação de preço lá aparece como o resultado da variação do coeficiente angular da reta do custo. Implicando em um deslocamento do ponto representativo da produção. Graficamente também se vê a análise das variações de preço e quantidade nas suas componentes pura e mista.Finalmente os modelos tabulares para os sistemas de produção discreto e contínuo apresentam da maneira mais simples possível todas as variações e seus respectivos custos analisadores. A forma tabular é a mais apreciada pelo administrador prático, pouco efeito à algebra e a geometria. Já o mesmo não se pode dizer do desdobramento, feito por muitos autores, da variação de preço em variação de capacidade e variação de orçamento. Da variação de capacidade já se evidenciou a inadequação do nome, dado que ela não é função da variação de preço. Isto não é mera questão teminológica. A terminologia apenas traz à luz a essência da dificuldade. E nossa proposição que este desdobramento seja descartado por ser totalmente sem significação, mesmo para o elemento indireto, para o qual foi proposto. Esta consideração é importante para a consideração da variação das unidades. Assim, introduzido o orçamento na análise das variaçãoes, a variação de orçamento que verdadeiramente merece este nome é a variação total orçamentária, ou seja, a diferença entre o custo efetivo e o custo orçado, a qual inclui como suas componentes a variação de unidades, a variação da quantidade e a variação de preço. O que é importante na análise da variação de preço é a consideração de variação mista de preço e de quantidade. Foi dado bastante destaque a este desdobramento com a apresentação de mais de um método para o tratamento analítico do desdobramento. Também foi devidamente ressaltada a questão das responsabilidades administrativas derivadas da variação mista
Resumo:
A teoria de custo padrão ressente-se de um tratamento matemático, como o que aqui é proposto. Conforme foi salientado no início, este tratamento matemático, embora substancialmente simples, é todavia absolutamente rigoroso e também é completo quando visto do prisma que se adotou. Modelamos a distinção necessariamente explícita entre a produção contínua e a produção discreta, através do uso dos modelos algébricos a dois e três fatores, respectivamente. Unificamos de uma maneira sistemática a abordagem dos três elementos básicos do custo, simplificando de um lado e generalizando do outro. Esta unificação levou aos elementos diretos, como deve ser, todo o rigorismo analítico do elemento indireto. Ampliou-se a estreita visão das variaçoes de preço e quantidade com a consideração da variação de unidades, que acarretou automaticamente a substituição do conceito de variação total pelo de variação total orçamentária
Resumo:
A superfamília das fosfolipases A2 (FLA2) é composta por proteínas dotadas de propriedades diferenciadas que as tornam capazes de apresentar distintas atividades biológicas, além de sua atividade catalítica. Esta diversidade funcional é intrigante devido à alta similaridade de seqüência primária e de estrutura entre essas proteínas. O principal objetivo deste trabalho é o desenvolvimento de uma metodologia para a predição de atividades biológicas específicas em FLA2 de peçonha de serpentes a partir da análise de seqüências primárias. A metodologia desenvolvida compreende: a) seleção de seqüências anotadas quanto à função ou atividade biológica que desempenham; b) detecção e validação estatística de motivos de seqüência relacionados à atividade estudada; e c) construção de Modelos Ocultos de Markov (MOMs) representando cada motivo. MOM consiste em uma modelagem estatística que tem sido aplicada com sucesso em diversas áreas onde se faz necessária a detecção e representação de padrões de informação; por sua base matemática robusta e formal, pode ser utilizada na automação deste tipo de processo. A metodologia foi testada para duas atividades de FLA2 de peçonha de serpente: neurotoxicidade e miotoxicidade. Para as FLA2 neurotóxicas, foram detectados seis motivos conservados, dos quais três foram validados estatisticamente como sendo adequados na discriminação de seqüências neurotóxicas de não neurotóxicas. Para as FLA2 miotóxicas, foram detectados seis motivos conservados, dos quais quatro foram validados. Os MOMs dos motivos validados podem ser usados na predição de atividade neurotóxica e miotóxica. As relações entre seqüência, estrutura, função e evolução das FLA2s são discutidas. Os dados obtidos foram coerentes com a hipótese apresentada por Kini (2003), da existência de diferentes sítios farmacológicos na superfície das FLA2, interagindo independente ou cooperativamente com diferentes receptores, para gerar as diversas funções biológicas observadas. Por não haver, até o momento, qualquer ferramenta automatizada para a predição de função biológica de FLA2, os resultados deste trabalho foram a base para a construção de uma ferramenta (disponível em www.cbiot.ufrgs.br/bioinfo/phospholipase) para a identificação de miotoxicidade e neurotoxicidade em FLA2.
Resumo:
A presente dissertação estuda relações entre o processo de aprendizagem de Matemática e o perfil do sujeito da Sociedade em Rede a partir das interações registradas na Lista de Discussão de e-mail da disciplina de Computador na Matemática Elementar do curso de Licenciatura em Matemática da Universidade Federal do Rio Grande do Sul. Os processos sócio-cognitivos dos licenciandos são analisados para investigar a hipótese de que aprender Matemática com o uso das Tecnologias da Informação contribui para a formação do sujeito da Sociedade em Rede. Estão presentes autores como Manuel Castells, Pierre Lévy e Edgar Morin, que participam da configuração dos novos paradigmas da Sociedade em Rede; Jean Piaget, Antonio Battro e Seymour Papert que, dentro da perspectiva da Epistemologia e da Psicologia Genéticas, contribuem para o estudo da aprendizagem; e Jean-Blaise Grize, que analisa os processos de comunicação Seus aportes teóricos nos permitem entrelaçar as áreas de conhecimento de Psicologia Social e Institucional, Educação (Instituição Escolar) e Matemática. A análise de uma proposta didática apoiada na utilização de Tecnologias da Informação (software Super Logo e Lista de Discussão) nos permite observar o movimento de transição de uma postura passiva, receptora de informações, para uma postura ativa, produtora de conhecimento na qual os sujeitos foram desenvolvendo atitudes, habilidades e competências para detectar e formular problemas, pensá-los sob diferentes perspectivas e equacioná-los; buscar e implementar as melhores soluções; testar e avaliar as soluções encontradas; contextualizar e questionar os caminhos escolhidos para solucionar desafios; operar com os conhecimentos, processá-los e integrá-los em novos sistemas de significação; e saber trabalhar em equipe, tendo disposição para ouvir, contribuir e produzir no e para o grupo.
Resumo:
Este trabalho primeiramente explora fundamentos teóricos básicos para análise e implementação de algoritmos para a modelagem de séries temporais. A finalidade principal da modelagem de séries temporais será a predição para utilizá-la na arbitragem estatística. As séries utilizadas são retiradas de uma base de histórico do mercado de ações brasileiro. Estratégias de arbitragem estatística, mais especificamente pairs trading, utilizam a característica de reversão à média dos modelos para explorar um lucro potencial quando o módulo do spread está estatisticamente muito afastado de sua média. Além disso, os modelos dinâmicos deste trabalho apresentam parâmetros variantes no tempo que aumentam a sua flexibilidade e adaptabilidade em mudanças estruturais do processo. Os pares do algoritmo de pairs trading são escolhidos selecionando ativos de mesma empresa ou índices e ETFs (Exchange Trade Funds). A validação da escolha dos pares é feita utilizando testes de cointegração. As simulações demonstram os resultados dos testes de cointegração, a variação no tempo dos parâmetros do modelo e o resultado de um portfólio fictício.
Resumo:
Com o objetivo de identificar oportunidades de arbitragem estatística no mercado de opções brasileiro, este trabalho utiliza o modelo de volatilidade incerta e o conceito de Hedging Estático, no apreçamento de um portfólio composto por diversas opções. São também incluídos os custos de transação relacionados a estruturação de um portfólio livre de risco, obtendo assim um modelo que pode ser facilmente implementado através da utilização do método de diferenças finitas explicito. Na aplicação do modelo ao mercado de opções sobre a ação preferencial da Petrobrás (PETR4), foi estabelecido um critério para estabelecer a frequência do ajuste do delta hedge do portfólio livre de risco de maneira a não incorrer em custos de transação elevados. Foi escolhido o período entre 19/05/08 e 20/01/14 para analisar o desempenho do modelo, selecionando-se em cada data de cálculo um conjunto de 11 opções de diferentes strikes e mesmo vencimento para compor o portfólio. O modelo apresentou um bom desempenho quando desconsiderados os custos de transação na apuração do resultado da estratégia de arbitragem, obtendo na maior parte dos casos resultados positivos. No entanto, ao incorporar os custos de transação, o desempenho obtido pelo modelo foi ruim, uma vez que na maior parte dos casos o resultado apresentado foi negativo.
Resumo:
O pesquisador da FGV/DAPP João Victor participou, durante o mês de Julho, do 21º SINAPE - Simpósio Nacional de Probabilidade e Estatística, em Natal, a principal reunião científica da comunidade estatística brasileira. Durante uma semana, o pesquisador da DAPP participou de palestras e minicursos e apresentou seu projeto sobre Ferramentas para Formatação e Verificação de Microdados de Pesquisas, sob orientação do atual presidente-eleito do International Statistical Institute, Pedro Luis do Nascimento Silva.
Resumo:
A formação de emulsão de água-em-óleo gera um significativo incremento na viscosidade, o que afeta diretamente a produção do poço, pois aumenta a perda de carga ao longo da linha de produção, dificultando o escoamento e diminuindo a produção de óleo. A presença e natureza da emulsão, e seu impacto na reologia do petróleo, podem determinar a viabilidade econômica e técnica dos processos envolvidos. A medida que a fração de água aumenta e a temperatura é reduzida, o comportamento das emulsões se torna cada vez mais não-Newtoniano. A decorrência disso, é que a temperatura e a taxa de cisalhamento passam a ter maior impacto na variação da viscosidade das emulsões. Nesse estudo são propostos novos métodos que levam em conta essas variáveis. Os dados reológicos experimentais de 15 petróleos leves foram utilizados para avaliar o desempenho dos modelos existentes na literatura e compará-los com os novos métodos propostos nesse estudo.
Resumo:
É senso comum que o texto escrito é uma importante forma de registrar as informações e que atualmente grande parte desse conteúdo informacional está disponível em meio digital. Entretanto, de maneira geral, os computadores lidam com o texto como sendo uma cadeia de caracteres que não têm nenhum significado. A área de Processamento de Linguagem Natural (PLN) vem se empenhando em extrair significados do texto. Nesse sentido este trabalho apresenta uma revisão desse tema e propõe um método automatizado que utiliza uma heurística determinística denominada Heudet que visa extrair bigramas do texto. A meta é extrair o significado do texto através de um conjunto de expressões multipalavras identificadas. Os resultados obtidos foram melhores se comparados com aqueles que utilizam-se das técnicas de medidas de associação estatística obtidas pelo software Ngram Statistics Package (NSP).
Resumo:
Este trabalho minera as informações coletadas no processo de vestibular entre 2009 e 2012 para o curso de graduação de administração de empresas da FGV-EAESP, para estimar classificadores capazes de calcular a probabilidade de um novo aluno ter bom desempenho. O processo de KDD (Knowledge Discovery in Database) desenvolvido por Fayyad et al. (1996a) é a base da metodologia adotada e os classificadores serão estimados utilizando duas ferramentas matemáticas. A primeira é a regressão logística, muito usada por instituições financeiras para avaliar se um cliente será capaz de honrar com seus pagamentos e a segunda é a rede Bayesiana, proveniente do campo de inteligência artificial. Este estudo mostre que os dois modelos possuem o mesmo poder discriminatório, gerando resultados semelhantes. Além disso, as informações que influenciam a probabilidade de o aluno ter bom desempenho são a sua idade no ano de ingresso, a quantidade de vezes que ele prestou vestibular da FGV/EAESP antes de ser aprovado, a região do Brasil de onde é proveniente e as notas das provas de matemática fase 01 e fase 02, inglês, ciências humanas e redação. Aparentemente o grau de formação dos pais e o grau de decisão do aluno em estudar na FGV/EAESP não influenciam nessa probabilidade.
Resumo:
We consider multistage stochastic linear optimization problems combining joint dynamic probabilistic constraints with hard constraints. We develop a method for projecting decision rules onto hard constraints of wait-and-see type. We establish the relation between the original (in nite dimensional) problem and approximating problems working with projections from di erent subclasses of decision policies. Considering the subclass of linear decision rules and a generalized linear model for the underlying stochastic process with noises that are Gaussian or truncated Gaussian, we show that the value and gradient of the objective and constraint functions of the approximating problems can be computed analytically.