999 resultados para Estatística matemática
Resumo:
Esta pesquisa tem por objetivo analisar e problematizar os significados produzidos sobre Matemática nos cartuns. Não se trata de propor uma utilização pedagógica, mas de fazer uma tentativa de mostrar o que eles ensinam com os saberes que inventam sobre Matemática. Para isso, analiso as representações de Matemática presentes nos discursos dos cartuns, entendendo-os como artefatos da cultura que produzem narrativas que põem em circulação significados na arena de uma política cultural. Como referencial teórico, utilizo-me do campo dos Estudos Culturais em suas versões contemporâneas inspiradas no pós-modernismo e no pós-estruturalismo. Autores e autoras como Stuart Hall, Michel Foucault, Valerie Walkerdine, Kathryn Woodward, Alfredo Veiga-Neto, Guacira Lopes Louro, Marisa Vorraber Costa, Rosa Hessel Silveira, Tomaz Tadeu da Silva, entre outros/as, a partir de suas produções nesse campo, contribuem para as análises de cartuns que circulam em nosso meio nos jornais, revistas, gibis e sites da Internet. Os significados sobre Matemática produzidos nos cartuns foram agrupados, para fins de análise, em três focos: a metanarrativa da onisciência, onde abordo aqueles significados que conferem ao conhecimento matemático um caráter diabólico, complexo, inacessível, transcendental, que apresentam a crença de que o mundo é matematizado segundo leis divinas; o gênero da Matemática, relativo àqueles que opondo as mulheres aos homens, colocando estes num pólo privilegiado de raciocínio e aquelas num pólo oposto, deficitário, generificam a área da Matemática como sendo masculina, assim como se generifica o trabalho docente como feminino; e o terror das provas, apresentando aqueles que mostram os momentos de avaliação nas aulas de Matemática sempre povoados por sentimentos de desespero, pavor e sofrimento.
Resumo:
Este trabalho visa desenvolver um modelo físico e matemático geral para os processos de extração sólido-líquido em fluxos contracorrente cruzados (CCC) que são utilizados na indústria de alimentos. Levam-se em consideração os processos principais (o transporte de massa entre as fases, difusão e convecção) envolvidos por todo o campo de extração, com uma abordagem bidimensional evolutiva, incluindo as zonas de carregamento, drenagem e as bandejas acumuladoras. O modelo matemático é formado por equações diferenciais parciais que determinam a alteração das concentrações nas fases poro e “bulk” em todo o campo de extração e equações diferenciais ordinárias (que refletem as evoluções das concentrações médias nas bandejas). As condições de contorno estabelecem as ligações entre os fluxos CCC da micela e matéria-prima e consideram, também, a influência das zonas de drenagem e carregamento. O algoritmo de resolução utiliza o método de linhas que transforma as equações diferenciais parciais em equações diferenciais ordinárias, que são resolvidas pelo método de Runge-Kutta. Na etapa de validação do modelo foram estabelecidos os parâmetros da malha e o passo de integração, a verificação do código com a lei de conservação da espécie e um único estado estacionário. Também foram realizadas a comparação com os dados experimentais coletados no extrator real e com o método de estágios ideais, a análise da influência de propriedades da matéria-prima nas características principais do modelo, e estabelecidos os dados iniciais do regime básico (regime de operação) Foram realizadas pesquisas numéricas para determinar: os regimes estacionário e transiente, a variação da constante de equilíbrio entre as fases, a variação do número de seções, a alteração da vazão de matéria-prima nas características de um extrator industrial e, também foram realizadas as simulações comparativas para diferentes tipos de matéria-prima (flocos laminados e flocos expandidos) usados amplamente na indústria. Além dessas pesquisas, o modelo também permite simular diferentes tipos de solventes. O estudo da capacidade de produção do extrator revelou que é necessário ter cuidado com o aumento da vazão da matéria-prima, pois um pequeno aumento desta pode causar grandes perdas de óleo tornando alto o custo da produção. Mesmo que ainda seja necessário abastecer o modelo com mais dados experimentais, principalmente da matéria-prima, os resultados obtidos estão em concordância com os fenômenos físico-químicos envolvidos no processo, com a lei de conservação de espécies químicas e com os resultados experimentais.
Resumo:
A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.
Resumo:
Esta tese expõe minhas reflexões sobre a prática docente de matemática em classes de ensino fundamental. Tem como referencial básico a teoria da abstração reflexionante, como proposta por Jean Piaget, complementada por reflexões sobre a formação do juízo moral e sobre conseqüências pedagógicas pensadas a partir da Epistemologia Genética. Para a coleta de dados foram entrevistados professores, matriculados no Curso de Especialização em Educação Matemática da Faculdade de Educação da Universidade Católica de Pelotas. As entrevistas, desenvolvidas segundo o método clínico piagetiano, buscaram elucidar como se desenvolve o trabalho do professor com o ensino de matemática, enfocando suas concepções de matemática, assim como sua compreensão do processo de ensinar e de aprender. Para o professor, a matemática pode ser descrita como uma ferramenta que descreve quantitativamente idéias a respeito do mundo; ou como um sistema independente, abstrato, fixo, lógico e livre de contradições ou ainda como uma disciplina rígida, cheia de definições, teoremas e procedimentos de caráter absoluto. Em todos os casos cabe ao professor transmitir informações e conduzir os alunos em direção a objetivos pré-definidos, além de exercer a autoridade e o controle disciplinar da turma, permanecendo a aprendizagem como uma decorrência direta do ato de ensinar exercido pelo professor. Considerando minha história de vida como professor, a análise do processo evolutivo do pensamento matemático, as falas dos professores entrevistados e os posicionamentos teóricos colhidos na epistemologia genética proponho, ao final, um conjunto de ações que entendo serem indispensáveis para o desenvolvimento de práticas de ensino e aprendizagem de matemática que assegurem a condição de sujeito de seu fazer tanto ao professor quanto ao aluno.
Resumo:
A capacidade de encontrar e aprender as melhores trajetórias que levam a um determinado objetivo proposto num ambiente e uma característica comum a maioria dos organismos que se movimentam. Dentre outras, essa e uma das capacidades que têm sido bastante estudadas nas ultimas décadas. Uma consequência direta deste estudo e a sua aplicação em sistemas artificiais capazes de se movimentar de maneira inteligente nos mais variados tipos de ambientes. Neste trabalho, realizamos uma abordagem múltipla do problema, onde procuramos estabelecer nexos entre modelos fisiológicos, baseados no conhecimento biológico disponível, e modelos de âmbito mais prático, como aqueles existentes na área da ciência da computação, mais especificamente da robótica. Os modelos estudados foram o aprendizado biológico baseado em células de posição e o método das funções potencias para planejamento de trajetórias. O objetivo nosso era unificar as duas idéias num formalismo de redes neurais. O processo de aprendizado de trajetórias pode ser simplificado e equacionado em um modelo matemático que pode ser utilizado no projeto de sistemas de navegação autônomos. Analisando o modelo de Blum e Abbott para navegação com células de posição, mostramos que o problema pode ser formulado como uma problema de aprendizado não-supervisionado onde a estatística de movimentação no meio passa ser o ingrediente principal. Demonstramos também que a probabilidade de ocupação de um determinado ponto no ambiente pode ser visto como um potencial que tem a propriedade de não apresentar mínimos locais, o que o torna equivalente ao potencial usado em técnicas de robótica como a das funções potencias. Formas de otimização do aprendizado no contexto deste modelo foram investigadas. No âmbito do armazenamento de múltiplos mapas de navegação, mostramos que e possível projetar uma rede neural capaz de armazenar e recuperar mapas navegacionais para diferentes ambientes usando o fato que um mapa de navegação pode ser descrito como o gradiente de uma função harmônica. A grande vantagem desta abordagem e que, apesar do baixo número de sinapses, o desempenho da rede e muito bom. Finalmente, estudamos a forma de um potencial que minimiza o tempo necessário para alcançar um objetivo proposto no ambiente. Para isso propomos o problema de navegação de um robô como sendo uma partícula difundindo em uma superfície potencial com um único ponto de mínimo. O nível de erro deste sistema pode ser modelado como uma temperatura. Os resultados mostram que superfície potencial tem uma estrutura ramificada.
Resumo:
Os impactos sobre o meio ambiente, associados ao desenvolvimento de atividades pelo homem em uma bacia hidrográfica, estão fortemente inter-relacionados e têm, a cada dia, se tornado mais evidentes. Esta idéia motiva a concepção de uma gestão integrada dos recursos naturais em várias partes do mundo, inclusive em países em desenvolvimento como o Brasil. Modelos matemáticos de qualidade de água podem ser ferramentas úteis para a tomada de decisão no apoio à gestão de bacias hidrográficas. O planejamento e gestão dos recursos hídricos em um país de grande porte como o Brasil envolve, geralmente, bacias extensas, com um vasto conjunto de elementos naturais e antrópicos. Um modelo de qualidade de água deve permitir a representação da variabilidade espacial da região e, desta forma, a consideração de fontes difusas juntamente com fontes pontuais de poluição. O presente estudo analisou o impacto do desenvolvimento sobre a qualidade da água em uma bacia de grande extensão (bacia do rio Taquari-Antas, RS, com 26.500 km2), considerando a alternativa de aproveitamento hidrelétrico definida no inventário da bacia. Utilizou-se um modelo distribuído de simulação hidrológica e de qualidade de água aplicável principalmente a grandes bacias ( > 1.000 km2), o IPH-MGBq. Este modelo, desenvolvido no IPH, foi ajustado aos dados diários observados de vazão, no seu módulo de quantidade, e de concentração de OD, DBO, nitrogênio e fósforo totais e coliformes fecais, obtidos de coletas trimestrais, no módulo de qualidade. O modelo permite a análise temporal das condições hidrológicas e de qualidade da água de toda a bacia, discretizada por células, com trechos de rios e reservatórios. O modelo apresentou bom desempenho quanto à quantidade (vazões) e quanto aos perfis de concentração dos parâmetros de qualidade de água ao longo do Taquari- Antas, principalmente em termos de valores médios. Foi realizada uma análise de incertezas de alguns parâmetros e variáveis de entrada do modelo com relação à inerente incerteza existente na definição destes elementos. Esta metodologia demonstrou ser uma alternativa adequada à aplicação de modelos distribuídos de qualidade de água em bacias sem dados, sendo que os erros cometidos pelo modelo, em relação aos valores de concentração observados, foram aceitáveis para uma confiança de 95%. A simulação de alguns cenários de desenvolvimento na bacia do Taquari-Antas evidenciou a importância da avaliação conjunta de todos os elementos da bacia (fontes pontuais e difusas de poluição e da implantação de reservatórios) sobre a qualidade de suas águas. O IPH-MGBq mostrou ser uma ferramenta útil para a simulação de cenários de desenvolvimento em grandes bacias como base para a tomada de decisão na gestão dos recursos hídricos.
Resumo:
A presente dissertação tem como objeto a reconstituição histórica do desenvolvimento da estatística no Brasil e a criação e os primeiros anos de atuação do Instituto Brasileiro de Geografia e Estatística (IBGE). O período tratado se estende desde o SegundoImpério até 1945. O trabalho prioriza a abordagem dos acontecimentos que culminaramcom a constituição do IBGE, no contexto das transformações produzidas pelaRevolução de 1930, e analisa sua participação nos projetos modernizadores políticoculturaisdurante o Estado Novo, com base, entre outras fontes na documentaçãoproduzida pelo próprio Instituto.
Resumo:
O Instituto Nacional de Matemática Pura e Aplicada (IMPA) foi o primeiro órgão de pesquisa criado pelo Conselho Nacional de Pesquisas (CNPq), em 1952. Desde seu início o IMPA dedicou-se à pesquisa científica em matemática do mais alto nível e promoveu a formação de novos pesquisadores, promovendo também a difusão e aprimoramento da cultura matemática no país. Mais recentemente, passou a dedicar-se também às aplicações da matemática em outras áreas do conhecimento e em setores tecnológicos. Ao longo de mais de cinqüenta anos de trabalho, consolidou-se como o centro de referência em pesquisa matemática e formação de novos pesquisadores no Brasil e na América Latina. Tendo em vista a relevância da instituição para os rumos da pesquisa na área no país, este trabalho de conclusão de curso tem como objetivo estabelecer as diretrizes para a criação do Centro de Memória do Instituto Nacional de Matemática Pura e Aplicada (CEMIMPA), que seria um espaço para produção e re-elaboração de identidade e memória institucional – seguindo uma tendência que se afirma, no Brasil, desde a década de 1970. Discute-se aqui a trajetória do IMPA, os conceitos sobre memória, acervo e identidade para conseguir demarcar as linhas gerais do CEMIMPA e precisar sua importância para a instituição. A criação de um centro de memória como o que propomos, ajudaria a dar visibilidade à história do IMPA, de seus pesquisadores, suas áreas de atuação para além dos limites do cenário da pesquisa matemática, alcançando um público cada vez mais amplo e diverso. Isto poderia influenciar de forma ainda mais vigorosa a formação de jovens em geral, e em particular, de futuros matemáticos. Também poderá incrementar as pesquisas sobre a história da matemática no Brasil e a trajetória dos pesquisadores que a fizerem e dela fazem parte.
Resumo:
Este trabalho apresenta a aplicação da transformada de ondaletas, como ferramenta de análise para o estudo de escoamentos turbulentos transientes e não homogêneos que podem ocorrer nas situações reais de engenharia, onde fenômenos transientes e não contínuos estão normalmente presentes. O estudo experimental da turbulência em túnel de vento habitualmente pressupõe que o escoamento seja estacionário; assim, fenômenos transientes são estudados como uma sucessão de situações estacionárias intermediárias. Isto é necessário porque a ferramenta clássica para o estudo experimental da turbulência, a análise de Fourier, só se aplica a fenômenos estacionários, pois seus resultados se referem a comportamentos de conjunto e as singularidades do sinal não aparecem na análise. Para estes escoamentos onde a transformada de Fourier não se aplica ou não apresenta resultados satisfatórios, a transformada de ondaletas, entre outras possibilidades, é a ferramenta matemática que vem sendo mais freqüentemente utilizada a partir da última década. São apresentados os fundamentos matemáticos, bem como uma breve história da transformada de ondaletas, da transformada de Fourier e da estatística aplicada á turbulência. Para estudar a transformada de ondaletas e buscar a melhor forma de aplicá-la ao estudo da turbulência, foram analisados três escoamentos distintos: na esteira de um cilindro, em turbulência homogênea e em um banco de tubos de configuração quadrangular. Os resultados experimentais foram obtidos por anemometria de fio quente. As medições foram feitas em um túnel de vento, partindo do repouso até atingir o regime permanente. Os dados experimentais obtidos foram analisados utilizando técnicas de ondaletas, usando várias ondaletas e várias transformadas de ondaletas diferentes. Os resultados são comparados entre si e com a transformada de Fourier. Também foram realizados ensaios em regime permanente para várias velocidades do escoamento entre o repouso e a velocidade nominal do ventilador, com o auxílio de um inversor de freqüência. Os resultados para a variação do número de Strouhal com a velocidade, obtidos da análise destes dados pela transformada de Fourier mostraram boa concordância com os obtidos da análise de ondaletas das aquisições transientes. Os resultados mostram que a transformada de ondaletas é uma ferramenta valiosa para a análise dos dados experimentais obtidos nos problemas investigados, qualificando e complementando a análise de Fourier onde esta se aplica e substituindo-a quando o fenômeno for não estacionário.
Resumo:
Resumo não disponível.
Resumo:
This paper is a follow up of the study of the evolution of the public policies for education, especially in the areas of improvement in the science and mathematics program, whose main purpose is to qualify teachers is these disciplines. The evaluation of strategies adopted by the Department of education for the implementation and development of the program in the states, which, on a decentralized bases and through its administrative structure is responsible for contracting higher Education Institutions in charge of preparatory courses. It discusses the enforcement of such a strategy and analyses the combined efforts between the federal sphere, represented by the coordination of preparatory courses for Higher Education Personnel (CAPES) and the Departments of Education, Science and Technology of the states, Research Spowsoring Foundations and the Federal Universities, breaking with some governmental traditions. It analyses the greater degree of interaction between the curriculum for public schools and the developments achieved in the many fields of knowledge. It is based on parameters in the proposals disposed by the law of the methods and fundamentals education, methods of curriculum, and national teaching standards, as well as studies carried out in the states that demand the biggest quantity of qualifying projects, trough analyses that are focused on the problems regarding science teaching in the Brazil and the format adopted in the implementation of the program.
Resumo:
Sob a premissa de que a geometria do perfil deposicional das clinoformas pode conter informações sobre a composição textural dos sedimentos que as compõem, bem como sobre a energia da coluna d’água, foi desenvolvido um modelo computacional para a análise teórica dos fatores controladores do tipo de curvatura dos foresets das clinoformas, e, por extensão dos taludes submarinos. Um modelo análogo de suspensão dinâmica foi implementado experimentalmente com um programa em código Matlab, denominado MAXWELL, e é classificado como um modelo estratigráfico, bidimensional, analítico, determinístico, dinâmico, parcialmente dedutivo e parcialmente baseado em regras. Contém um modelo de escoamento de fluido em linhas de corrente, e trata indiretamente a tensão de cisalhamento no domínio de um sistema fechado bifásico líquido-vapor análogo, a partir a proposta de analogias entre os processos de evaporação e de suspensão de sedimentos. É uma abordagem baseada na competência de transporte do fluxo d’água, pois considera temperatura e velocidade de fluxo combinado onda-corrente como variáveis controladoras análogas da intensidade de transferência de energia. Os processos deposicionais marinhos são reduzidos a um fenômeno da superfície deposicional, que é considerada análoga a uma interface líquidovapor dentro de um sistema fechado. A equação de distribuição estatística de velocidades moleculares de Maxwell é usada para calcular a proporção de moléculas na fase líquida, considerada análoga à proporção de sedimentos depositados, bem como a proporção na fase vapor, tomada como análoga à proporção de sedimentos em suspensão. O estado energético do sistema é parametrizado por três potenciais: energia interna, como função do tamanho de grão (areia, silte ou argila); energia térmica do meio, como função da energia hidrodinâmica, e energia gravitacional, como função do declive topográfico As simulações indicam que os principais fatores controladores do perfil deposicional das clinoformas, e por extensão, dos taludes submarinos em geral, são a energia hidrodinâmica da coluna d’água e a granulometria (ou coesão) do sedimento, que podem ser consideradas dois parâmetros comutáveis, isto é, grãos grossos ou coesos podem produzir sobre a geometria das clinoformas o mesmo efeito da baixa energia hidrodinâmica, e vice-versa. Com base no fator de decaimento da energia hidrodinâmica com o aumento da batimetria, foram definidas três ordens de grandeza da intensidade da energia da coluna d’água: baixa energia (10–1), alta x energia (10-2) e muito alta energia (10-3). Com base nesse critério, foram caracterizados quatro tipos de perfis deposicionais de clinoformas: dois tipos sigmoidais e dois tipos exponenciais. Os tipos sigmoidais podem ser de alta energia ou de muito alta energia, e distinguem-se pela granulometria do sedimento e pela distribuição de declividades em relação à dimensão na direção horizontal. Os perfis de tipo exponencial podem ser tanto de baixa energia, quanto de alta energia. A subida relativa do nível do mar afeta o tipo geométrico do perfil deposicional apenas de forma indireta, a partir da retenção da fração grossa do influxo sedimentar na plataforma ou topset. Os principais fatores controladores do ângulo de declividade do perfil das clinoformas são a granulometria do sedimento, a energia hidrodinâmica, a profundidade d’água da bacia e o desvio lateral da corrente de fundo. A dedução da litofácies a partir da geometria das clinoformas parece promissora apenas para os tipos teóricos sigmoidais, que são distintos na forma e no conteúdo sedimentar.