29 resultados para Cálculo diferencial e integral

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

100.00% 100.00%

Publicador:

Resumo:

A presente dissertação tem o objetivo de propor a reinclusão de elementos de Cálculo no ensino médio, pois no passado o Cálculo fazia parte do currículo e foi abolido após uma reforma no ensino da matemática. O trabalho apresenta os resultados de um levantamento estatístico sobre os índices de reprovação na disciplina Cálculo Diferencial e Integral I nos períodos mais recentes da Universidade do Estado do Rio de Janeiro (UERJ) e, também, uma pesquisa quantitativa com quarenta professores de matemática com o objetivo de analisar a viabilidade do projeto e os problemas a serem enfrentados. Por fim, a dissertação conta com uma série de atividades comentadas sobre o tema de limites, que é o foco do trabalho. Tais atividades podem ser incluídas já no 1 ano do ensino médio, paralelamente ao conteúdo de funções, e visam proporcionar aos estudantes o contato com elementos de Cálculo em uma linguagem acessível, e orientar o professor nesta tarefa

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho traz uma proposta de atividades, a serem desenvolvidas em sala de aula, com o objetivo de introduzir o conceito de derivadas para os alunos da primeira série do Ensino Médio. Antes das atividades, estão presentes algumas breves pesquisas. O histórico da presença de tópicos do Cálculo Diferencial e Integral no Ensino Médio no Brasil, assim como a análise de alguns livros didáticos, serve para mostrar como o assunto já foi e está sendo tratado no país. Também são exibidos aspectos sobre o Ensino Médio na Alemanha e nos Estados Unidos, países onde o cálculo está presente na Escola Secundária, embora de formas bastante diferentes. Um capítulo sobre a preparação adequada para as aulas também foi incluído, uma vez que a simples inserção da derivada poderia causar problemas de tempo para o cumprimento do cronograma e não trazer os resultados esperados. São necessários algum grau de adequação dos conteúdos ministrados e de cooperação com professores de Física. As atividades visando o ensino dos conceitos iniciais de derivada são motivadas por um problema físico de movimento. O foco é dado na intuição e na visualização de gráficos, para que haja uma melhor compreensão dos conceitos envolvidos. A utilização de um software de geometria dinâmica é requerida em boa parte do tempo, como importante ferramenta de apoio pedagógico

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O cálculo de dispersão de plumas é uma ferramenta empregada para se estimar o alcance dos poluentes emitidos por uma chaminé nas suas redondezas. É empregada nos países desenvolvidos há alguns anos e recentemente vem sendo exigida pelas agências ambientais brasileiras como um dos requisitos para concessão das licenças de operação. Baseia-se em um cálculo gaussiano, onde os dados de entrada são as taxas de emissão, os dados físicos da chaminé, dados meteorológicos e topográficos. Como é uma técnica recente no Brasil, este trabalho se propõe a fazer uma descrição da metodologia e suas etapas, indicando quais são os dados mais relevantes e quais simplificações podem ser feitas. O estudo de caso foi realizado nas instalações das Indústrias Nucleares do Brasil (INB). Os resultados indicaram que a influência de edificações adjacentes à fonte emissora é um dos parâmetros mais importantes, seguido da influência do relevo da região. Foi também realizada uma comparação entre os dois softwares comerciais existentes, o ISCST3, de maior complexidade, e o SCREEN mais simplificado, e indicou que o SCREEN pode ser usado como uma ferramenta de avaliação inicial, quando todos os dados de entrada necessários para se usar o ISCST3 não estão disponíveis

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O cálculo da área de poligonais geodésicas é um desafio matemático instigante. Como calcular a área de uma poligonal sobre o elipsóide, se seus lados não possuem parametrização conhecida? Alguns trabalhos já foram desenvolvidos no intuito de solucionar este problema, empregando, em sua maioria, sistemas projetivos equivalentes ou aproximações sobre esferas autálicas. Tais métodos aproximam a superfície de referência elipsoidal por outras de mais fácil tratamento matemático, porém apresentam limitação de emprego, pois uma única superfície não poderia ser empregada para todo o planeta, sem comprometer os cálculos realizados sobre ela. No Código de Processo Civil, Livro IV, Título I, Capítulo VIII, Seção III artigo 971 diz, em seu parágrafo único, que não havendo impugnação, o juiz determinará a divisão geodésica do imóvel. Além deste, existe ainda a Lei 10.267/2001, que regula a obrigatoriedade, para efetivação de registro, dos vértices definidores dos limites dos imóveis rurais terem suas coordenadas georreferenciadas ao Sistema Geodésico Brasileiro (SGB), sendo que áreas de imóveis menores que quatro módulos fiscais terão garantida isenção de custos financeiros.Este trabalho visa fornecer uma metodologia de cálculo de áreas para poligonais geodésicas, ou loxodrômicas, diretamente sobre o elipsóide, bem como fornecer um programa que execute as rotinas elaboradas nesta dissertação. Como a maioria dos levantamentos geodésicos é realizada usando rastreadores GPS, a carga dos dados é pautada em coordenadas (X, Y, Z), empregando o Sistema Geodésico WGS-84, fornecendo a área geodésica sem a necessidade de um produto tipo SIG. Para alcançar o objetivo deste trabalho, foi desenvolvida parametrização diferente da abordagem clássica da Geodésia geométrica, para transformar as coordenadas (X, Y, Z) em geodésicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo verificar se há diferença quanto ao nível de significância estatística no cálculo do retorno anormal realizado através de quatro modelos estatísticos utilizados em estudos de eventos, tendo como objeto de estudo empresas no mercado de ações no Brasil durante o período de março de 2003 até julho de 2010 na Bovespa. Considerando a importância do cálculo do retorno anormal nos estudos de eventos, bem como possíveis variações de resultados decorrentes da escolha do modelo de cálculo, este estudo utiliza um tema bastante conhecido, qual seja, o anúncio de recompra de ações feito pela própria companhia emissora dos títulos. A metodologia utilizada nesta pesquisa foi quantitativa, utilizando o estudo de corte transversal. Os resultados apontam que há diferença entre os níveis de significância encontrados. Ao analisar o gráfico dos modelos calculados no período da janela do evento, verificou-se que as empresas que recompraram ações a fizeram quando os papéis estavam com retorno anormal acumulado negativo e, após a recompra, os papéis tiveram retornos anormais acumulados positivos. Recalculou-se os dois modelos que utilizam o Ibovespa em sua fórmula de cálculo, através de um Ibovespa sem ponderação e conclui-se que os resultados apontam na direção de se evitar o uso de índices ponderados de mercado, preferindo a utilização de carteiras compostas apenas com uma ação para cada empresa componente da carteira de controle. Após este recálculo, verificou-se que o modelo que era menos próximo dos demais graficamente era o modelo de retorno ajustado ao mercado ponderado. Por fim, as evidências empíricas indicam que o mercado de capitais brasileiro ajusta tempestivamente os papéis das empresas que realizaram recompra de ações, em linha com o que prescreve a hipótese do mercado eficiente na sua forma semiforte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho propõe analisar metodologias para o cálculo do gradiente em malhas não-estruturadas do tipo Voronoi que são utilizadas no método de Volumes Finitos. Quatro metodologias para o cálculo do gradiente são testadas e comparadas com soluções analíticas. As técnicas utilizadas são: Método do Balanço de Forças, Método do Mínimo Resíduo Quadrático, Método da Média dos Gradientes Projetos e Método da Média dos Gradientes Projetados Corrigidos. Uma análise por série de Taylor também foi feita, e as equações analíticas comparadas com resultados numéricos. Os testes são realizados em malhas cartesianas e malhas triangulares, que em um trabalho anterior apresentaram alguns resultados inconsistentes. A influência do ponto gerador e do ângulo de rotação é analisada. É verificado que a posição do ponto gerador e a metodologia utilizada em cada malha influencia no cálculo do gradiente. Dependendo da malha e da metodologia utilizada, as equações analíticas indicaram que existem erros associados, que prejudicam o cálculo do gradiente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho procura investigar o processo que deu origem ao Serviço Brasileiro de Apoio às Micro e Pequenas Empresas (SEBRAE), assim como a sua trajetória desde a criação até os dias atuais. O SEBRAE foi constituído, em 1972, no âmbito do Ministério de Planejamento e Coordenação Geral (MPCG) do governo Garrastazu Médici (1969-1974). A partir do fim dos anos 70, quando a crise do capital começou a produzir efeitos no país, a agência iniciou um processo paulatino de transformação, culminando na sua privatização, ocorrida no primeiro ano do governo Collor de Mello (1990-1992). Este processo consolidou a sua passagem definitiva da sociedade política para a sociedade civil e alterou, em grande medida, a função da agência junto ao bloco no poder. Ainda que algumas operações não tenham sofrido mudanças significativas, os seus agentes incorporaram definitivamente o papel de formuladores e de disseminadores de ideologia em apoio à consolidação de uma nova fase do capital. Neste sentido, o SEBRAE cumpre, nos dias atuais, o papel de produzir consenso na sociedade em torno da importância econômica e social das micro e pequenas empresas, auxilia a formulação de políticas públicas e leis voltadas para esta questão e, por fim, assume a função ética do Estado, através da qual realiza a tarefa educativa dos indivíduos visando ao "universal". A história da agência é analisada à luz das reflexões de Gramsci sobre hegemonia e Estado integral, capazes de, entre outros aspectos, auxiliar a compreensão das relações mediatas estabelecidas entre agências da sociedade civil e o bloco no poder

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um Estudo para a solução numérica do modelo de difusão com retenção, proposta por Bevilacqua et al. (2011), é apresentado, bem como uma formulação implícita para o problema inverso para a estimativa dos parâmetros envolvidos na formulação matemática do modelo. Através de um estudo minucioso da análise de sensibilidade e do cálculo do coeficiente de correlação de Pearson, são identificadas as chances de se obter sucesso na solução do problema inverso através do método determinístico de Levenberg-Marquardt e dos métodos estocásticos Algoritmo de Colisão de Partículas (Particle Collision Algorithm - PCA) e Evolução Diferencial (Differential Evolution - DE). São apresentados os resultados obtidos através destes três métodos de otimização para três casos de conjunto de parâmetros. Foi observada uma forte correlação entre dois destes três parâmetros, o que dificultou a estimativa simultânea dos mesmos. Porém, foi obtido sucesso nas estimativas individuais de cada parâmetro. Foram obtidos bons resultados para os fatores que multiplicam os termos diferenciais da equação que modela o fenômeno de difusão com retenção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta investigação tem como tema a proposta de formação de professores em serviço do Curso de Atualização de Professores de Escola de Horário Integral, realizado no segundo governo de Leonel Brizola, no Estado do Rio de Janeiro (1991 1994), durante o Segundo Programa Especial de Educação (II PEE). Este estudo objetivou analisar a proposta de formação de professores em serviço, focalizando este Curso como uma das iniciativas desta formação e, partindo dela identificar contribuições significativas, produzidas naquele tempo e espaço específico, que possam enriquecer e suscitar questões para os debates atuais sobre a formação continuada de professores. Ao empreender esta tarefa se julgou necessário delinear a trajetória do I E II PEE para melhor compreensão da evolução deste plano e de sua proposta de formação de professores, até a elaboração do Curso. Após a retomada do II PEE, frente à necessidade de reestruturação pedagógica dos Centros Integrados de Educação Pública (CIEPs) foi criado o Curso, em convênio com a UERJ. O ponto mais importante identificado nesta proposta de formação foi considerar a escola como lócus de formação continuada tendo como base o saber do professor neste processo. Aspecto como se pode constatar, de grande relevância atualmente nas discussões sobre a temática, mas que naquele momento foi uma inovação. Supõe-se que os resultados deste trabalho poderão contribuir para ampliar os debates em torno das questões voltadas para a formação continuada de professores, e ainda, ampliar os debates, bem oportunos, sobre criação de diferentes alternativas de escolas públicas de horário integral, com suas proposta de formação para atender a uma necessidade da sociedade contemporânea e fundamentar ações de gestores das políticas públicas de Educação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As técnicas de injeção de traçadores têm sido amplamente utilizadas na investigação de escoamentos em meios porosos, principalmente em problemas envolvendo a simulação numérica de escoamentos miscíveis em reservatórios de petróleo e o transporte de contaminantes em aquíferos. Reservatórios subterrâneos são em geral heterogêneos e podem apresentar variações significativas das suas propriedades em várias escalas de comprimento. Estas variações espaciais são incorporadas às equações que governam o escoamento no interior do meio poroso por meio de campos aleatórios. Estes campos podem prover uma descrição das heterogeneidades da formação subterrânea nos casos onde o conhecimento geológico não fornece o detalhamento necessário para a predição determinística do escoamento através do meio poroso. Nesta tese é empregado um modelo lognormal para o campo de permeabilidades a fim de reproduzir-se a distribuição de permeabilidades do meio real, e a geração numérica destes campos aleatórios é feita pelo método da Soma Sucessiva de Campos Gaussianos Independentes (SSCGI). O objetivo principal deste trabalho é o estudo da quantificação de incertezas para o problema inverso do transporte de um traçador em um meio poroso heterogêneo empregando uma abordagem Bayesiana para a atualização dos campos de permeabilidades, baseada na medição dos valores da concentração espacial do traçador em tempos específicos. Um método do tipo Markov Chain Monte Carlo a dois estágios é utilizado na amostragem da distribuição de probabilidade a posteriori e a cadeia de Markov é construída a partir da reconstrução aleatória dos campos de permeabilidades. Na resolução do problema de pressão-velocidade que governa o escoamento empregase um método do tipo Elementos Finitos Mistos adequado para o cálculo acurado dos fluxos em campos de permeabilidades heterogêneos e uma abordagem Lagrangiana, o método Forward Integral Tracking (FIT), é utilizada na simulação numérica do problema do transporte do traçador. Resultados numéricos são obtidos e apresentados para um conjunto de realizações amostrais dos campos de permeabilidades.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho que envolve matemática aplicada e processamento paralelo: seu objetivo é avaliar uma estratégia de implementação em paralelo para algoritmos de diferenças finitas que aproximam a solução de equações diferenciais de evolução. A alternativa proposta é a substituição dos produtos matriz-vetor efetuados sequencialmente por multiplicações matriz-matriz aceleradas pelo método de Strassen em paralelo. O trabalho desenvolve testes visando verificar o ganho computacional relacionado a essa estratégia de paralelização, pois as aplicacações computacionais, que empregam a estratégia sequencial, possuem como característica o longo período de computação causado pelo grande volume de cálculo. Inclusive como alternativa, nós usamos o algoritmo em paralelo convencional para solução de algoritmos explícitos para solução de equações diferenciais parciais evolutivas no tempo. Portanto, de acordo com os resultados obtidos, nós observamos as características de cada estratégia em paralelo, tendo como principal objetivo diminuir o esforço computacional despendido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O retardo mental (RM) representa um problema de saúde pública mundial ainda negligenciado no Brasil e, em especial nas regiões mais pobres como o Nordeste. A síndrome do X frágil (SXF) é uma das formas mais estudadas de RM hereditário em seres humanos. Esta doença monogênica, de herança ligada ao X dominante, é decorrente de uma mutação no exon 1 do gene FMR1, localizado na região Xq27.3. A mutação no FMR1 se caracteriza pelo aumento de repetições de trinucleotídios CGG em tandem na região 5 UTR desse gene, sendo a expansão dessas trincas o principal evento mutacional responsável pela SXF. De maneira geral, os fenótipos cognitivos de indivíduos do sexo masculino com a síndrome incluem deficiência intelectual de moderada à grave. No presente trabalho, realizamos um estudo transversal da SXF em indivíduos portadores de retardo mental de causa desconhecida, engajados em Programas de Educação Especial e em instituições psiquiátricas de São Luís-MA, rastreando amplificações de sequências trinucleotídicas no gene FMR1. A amostra foi composta por 238 indivíduos do sexo masculino, não aparentados, na faixa etária de 4 a 60 anos (média = 21 9 anos). O DNA dos participantes foi obtido a partir de 5 mL de sangue coletados em tubos com anti-coagulante EDTA e a análise molecular da região gênica de interesse foi realizada através da reação em cadeia da polimerase, utilizando-se três primers. Dentre os indivíduos triados quanto à presença de mutações no gene FMR1, apenas um apresentou um resultado inconclusivo e 2 (0,84%) foram positivos para a SXF, sendo que um deles (3503) apresentou mais de 200 repetições CGG no locus FRAXA e o outro indivíduo (3660) apresentou uma deleção de ~197 pb envolvendo parte das repetições CGG e uma região proximal às repetições CGG. Ambos possuíam história familiar de RM ligado ao X. No indivíduo 3503 observamos as seguintes características clínicas: temperamento dócil, orelhas grandes, mandíbula proeminente e flacidez ligamentar. O indivíduo 3660 apresentava hiperatividade, contato pobre com os olhos, orelhas grandes, mandíbula proeminente, pectus excavatum, macroorquidismo e pouca comunicação. O esclarecimento sobre a doença oferecido às famílias de ambos contribuiu sobremaneira para o entendimento da condição, do prognóstico e dos riscos de recorrência. A prevalência da SXF em nossa amostra, 0,84%, embora relativamente baixa, encontra-se na faixa de incidência de casos diagnosticados em outras populações que, em sua maioria, relatam incidências variando de 0 a 3%. Em parte, atribuímos o percentual encontrado aos critérios de inclusão utilizados em nosso estudo. Concluímos que o protocolo de triagem molecular utilizado em nosso estudo se mostrou eficiente e adequado para a realidade do Maranhão, podendo constituir uma ferramenta auxiliar a ser aplicada na avaliação de rotina dos portadores de RM, com grandes benefícios para o Estado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Estratégia de Saúde da Família (ESF) foi criada como a principal iniciativa de reorientação do modelo assistencial no SUS, ao mesmo tempo em que a população brasileira envelhecia. As equipes da SF estão lidando com a atenção à saúde deste contingente populacional sob a influência de aspectos técnicos, institucionais e culturais adversos como a sua frágil capacitação, a não interligação da rede, e o escasso valor social dado ao velho na sociedade. Este estudo foca a atenção ao idoso, no contexto da implementação da Estratégia e Saúde da Família (ESF), no Estado do Rio de Janeiro, utilizando metodologia qualitativa. Seu objetivo geral é conhecer a atenção ao idoso no contexto de trabalho da Estratégia de Saúde da Família no Estado do Rio de Janeiro. Especificamente pretendeu-se conhecer a percepção dos profissionais de saúde acerca do envelhecimento e suas consequências sobre a atenção ao idoso na ESF; discutir o papel da ESF numa rede de atenção ao idoso, analisando a organização da rede e analisar o processo de trabalho na atenção ao idoso. Utilizando métodos descritivos e analíticos, três conjuntos de dados foram articulados: dados sobre o contexto do Programa de Saúde da Família em cada município, dados relativos aos conhecimentos técnicos das equipes sobre atenção ao idoso e dados relativos à percepção dos profissionais sobre a atenção ao idoso na ESF. Como técnicas de coleta de dados foram utilizadas a entrevista individual, o grupo focal e a análise documental os dados. Foram realizados 54 entrevistas individuais e 6 grupos focais para a criação de Fluxogramas Descritores e Discussões de Casos. Participaram 6 equipes de 3 municípios do Estado do Rio de Janeiro. Da análise dos dados emergiu o papel de ESF na rede de atenção ao idoso, o que permite a determinação de conteúdos, habilidades e atitudes que precisam ser desenvolvidos como um todo nos profissionais, e nos médicos em particular. Também está clara a necessidade de articulação de uma rede de atenção ao idoso, integrada, composta por serviços e níveis de atenção diferentes e intersetorial, que permita uma prática de cuidado e a promoção de um envelhecimento saudável. Chegamos a conclusão que a formação e as práticas destes profissionais, em particular do médico, precisam ser entendidas de um modo integrado e inseridas na graduação e pós-graduação. O treinamento das equipes, já instaladas, deveria ser trabalhado dentro das premissas da educação permanente e acompanhado de um trabalho de articulação de uma rede de atenção para o idoso, de forma a permitir seu resolutividade. Desenvolver as competências para os profissionais de saúde da ESF, sem desenvolver a competência do sistema de saúde não terá efeito significativo na qualidade da atenção prestada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma dedução dos critérios de multicriticalidade para o cálculo de pontos críticos de qualquer ordem representa a formalização de ideias utilizadas para calcular pontos críticos e tricríticos e ainda amplia tais ideias. De posse desta dedução pode-se compreender os critérios de tricriticalidade e, com isso, através de uma abordagem via problema de otimização global pode-se fazer o cálculo de pontos tricríticos utilizando um método numérico adequado de otimização global. Para evitar um excesso de custo computacional com rotinas numéricas utilizou-se aproximações na forma de diferenças finitas dos termos que compõem a função objetivo. Para simular a relação P v - T optou-se pela equação de estado cúbica de Peng-Robinson e pela regra clássica de fluidos de van der Vaals, para modelagem do problema também se calculou os tensores de ordem 2, 3, 4 e 5 da função do teste de estabilidade. Os resultados obtidos foram comparados com dados experimentais e por resultados obtidos com outros autores que utilizaram métodos numéricos, equação de estado ou abordagem diferente das utilizadas neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.