25 resultados para Cálculo integral

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente dissertação tem o objetivo de propor a reinclusão de elementos de Cálculo no ensino médio, pois no passado o Cálculo fazia parte do currículo e foi abolido após uma reforma no ensino da matemática. O trabalho apresenta os resultados de um levantamento estatístico sobre os índices de reprovação na disciplina Cálculo Diferencial e Integral I nos períodos mais recentes da Universidade do Estado do Rio de Janeiro (UERJ) e, também, uma pesquisa quantitativa com quarenta professores de matemática com o objetivo de analisar a viabilidade do projeto e os problemas a serem enfrentados. Por fim, a dissertação conta com uma série de atividades comentadas sobre o tema de limites, que é o foco do trabalho. Tais atividades podem ser incluídas já no 1 ano do ensino médio, paralelamente ao conteúdo de funções, e visam proporcionar aos estudantes o contato com elementos de Cálculo em uma linguagem acessível, e orientar o professor nesta tarefa

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho traz uma proposta de atividades, a serem desenvolvidas em sala de aula, com o objetivo de introduzir o conceito de derivadas para os alunos da primeira série do Ensino Médio. Antes das atividades, estão presentes algumas breves pesquisas. O histórico da presença de tópicos do Cálculo Diferencial e Integral no Ensino Médio no Brasil, assim como a análise de alguns livros didáticos, serve para mostrar como o assunto já foi e está sendo tratado no país. Também são exibidos aspectos sobre o Ensino Médio na Alemanha e nos Estados Unidos, países onde o cálculo está presente na Escola Secundária, embora de formas bastante diferentes. Um capítulo sobre a preparação adequada para as aulas também foi incluído, uma vez que a simples inserção da derivada poderia causar problemas de tempo para o cumprimento do cronograma e não trazer os resultados esperados. São necessários algum grau de adequação dos conteúdos ministrados e de cooperação com professores de Física. As atividades visando o ensino dos conceitos iniciais de derivada são motivadas por um problema físico de movimento. O foco é dado na intuição e na visualização de gráficos, para que haja uma melhor compreensão dos conceitos envolvidos. A utilização de um software de geometria dinâmica é requerida em boa parte do tempo, como importante ferramenta de apoio pedagógico

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O cálculo de dispersão de plumas é uma ferramenta empregada para se estimar o alcance dos poluentes emitidos por uma chaminé nas suas redondezas. É empregada nos países desenvolvidos há alguns anos e recentemente vem sendo exigida pelas agências ambientais brasileiras como um dos requisitos para concessão das licenças de operação. Baseia-se em um cálculo gaussiano, onde os dados de entrada são as taxas de emissão, os dados físicos da chaminé, dados meteorológicos e topográficos. Como é uma técnica recente no Brasil, este trabalho se propõe a fazer uma descrição da metodologia e suas etapas, indicando quais são os dados mais relevantes e quais simplificações podem ser feitas. O estudo de caso foi realizado nas instalações das Indústrias Nucleares do Brasil (INB). Os resultados indicaram que a influência de edificações adjacentes à fonte emissora é um dos parâmetros mais importantes, seguido da influência do relevo da região. Foi também realizada uma comparação entre os dois softwares comerciais existentes, o ISCST3, de maior complexidade, e o SCREEN mais simplificado, e indicou que o SCREEN pode ser usado como uma ferramenta de avaliação inicial, quando todos os dados de entrada necessários para se usar o ISCST3 não estão disponíveis

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O cálculo da área de poligonais geodésicas é um desafio matemático instigante. Como calcular a área de uma poligonal sobre o elipsóide, se seus lados não possuem parametrização conhecida? Alguns trabalhos já foram desenvolvidos no intuito de solucionar este problema, empregando, em sua maioria, sistemas projetivos equivalentes ou aproximações sobre esferas autálicas. Tais métodos aproximam a superfície de referência elipsoidal por outras de mais fácil tratamento matemático, porém apresentam limitação de emprego, pois uma única superfície não poderia ser empregada para todo o planeta, sem comprometer os cálculos realizados sobre ela. No Código de Processo Civil, Livro IV, Título I, Capítulo VIII, Seção III artigo 971 diz, em seu parágrafo único, que não havendo impugnação, o juiz determinará a divisão geodésica do imóvel. Além deste, existe ainda a Lei 10.267/2001, que regula a obrigatoriedade, para efetivação de registro, dos vértices definidores dos limites dos imóveis rurais terem suas coordenadas georreferenciadas ao Sistema Geodésico Brasileiro (SGB), sendo que áreas de imóveis menores que quatro módulos fiscais terão garantida isenção de custos financeiros.Este trabalho visa fornecer uma metodologia de cálculo de áreas para poligonais geodésicas, ou loxodrômicas, diretamente sobre o elipsóide, bem como fornecer um programa que execute as rotinas elaboradas nesta dissertação. Como a maioria dos levantamentos geodésicos é realizada usando rastreadores GPS, a carga dos dados é pautada em coordenadas (X, Y, Z), empregando o Sistema Geodésico WGS-84, fornecendo a área geodésica sem a necessidade de um produto tipo SIG. Para alcançar o objetivo deste trabalho, foi desenvolvida parametrização diferente da abordagem clássica da Geodésia geométrica, para transformar as coordenadas (X, Y, Z) em geodésicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo verificar se há diferença quanto ao nível de significância estatística no cálculo do retorno anormal realizado através de quatro modelos estatísticos utilizados em estudos de eventos, tendo como objeto de estudo empresas no mercado de ações no Brasil durante o período de março de 2003 até julho de 2010 na Bovespa. Considerando a importância do cálculo do retorno anormal nos estudos de eventos, bem como possíveis variações de resultados decorrentes da escolha do modelo de cálculo, este estudo utiliza um tema bastante conhecido, qual seja, o anúncio de recompra de ações feito pela própria companhia emissora dos títulos. A metodologia utilizada nesta pesquisa foi quantitativa, utilizando o estudo de corte transversal. Os resultados apontam que há diferença entre os níveis de significância encontrados. Ao analisar o gráfico dos modelos calculados no período da janela do evento, verificou-se que as empresas que recompraram ações a fizeram quando os papéis estavam com retorno anormal acumulado negativo e, após a recompra, os papéis tiveram retornos anormais acumulados positivos. Recalculou-se os dois modelos que utilizam o Ibovespa em sua fórmula de cálculo, através de um Ibovespa sem ponderação e conclui-se que os resultados apontam na direção de se evitar o uso de índices ponderados de mercado, preferindo a utilização de carteiras compostas apenas com uma ação para cada empresa componente da carteira de controle. Após este recálculo, verificou-se que o modelo que era menos próximo dos demais graficamente era o modelo de retorno ajustado ao mercado ponderado. Por fim, as evidências empíricas indicam que o mercado de capitais brasileiro ajusta tempestivamente os papéis das empresas que realizaram recompra de ações, em linha com o que prescreve a hipótese do mercado eficiente na sua forma semiforte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho propõe analisar metodologias para o cálculo do gradiente em malhas não-estruturadas do tipo Voronoi que são utilizadas no método de Volumes Finitos. Quatro metodologias para o cálculo do gradiente são testadas e comparadas com soluções analíticas. As técnicas utilizadas são: Método do Balanço de Forças, Método do Mínimo Resíduo Quadrático, Método da Média dos Gradientes Projetos e Método da Média dos Gradientes Projetados Corrigidos. Uma análise por série de Taylor também foi feita, e as equações analíticas comparadas com resultados numéricos. Os testes são realizados em malhas cartesianas e malhas triangulares, que em um trabalho anterior apresentaram alguns resultados inconsistentes. A influência do ponto gerador e do ângulo de rotação é analisada. É verificado que a posição do ponto gerador e a metodologia utilizada em cada malha influencia no cálculo do gradiente. Dependendo da malha e da metodologia utilizada, as equações analíticas indicaram que existem erros associados, que prejudicam o cálculo do gradiente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho procura investigar o processo que deu origem ao Serviço Brasileiro de Apoio às Micro e Pequenas Empresas (SEBRAE), assim como a sua trajetória desde a criação até os dias atuais. O SEBRAE foi constituído, em 1972, no âmbito do Ministério de Planejamento e Coordenação Geral (MPCG) do governo Garrastazu Médici (1969-1974). A partir do fim dos anos 70, quando a crise do capital começou a produzir efeitos no país, a agência iniciou um processo paulatino de transformação, culminando na sua privatização, ocorrida no primeiro ano do governo Collor de Mello (1990-1992). Este processo consolidou a sua passagem definitiva da sociedade política para a sociedade civil e alterou, em grande medida, a função da agência junto ao bloco no poder. Ainda que algumas operações não tenham sofrido mudanças significativas, os seus agentes incorporaram definitivamente o papel de formuladores e de disseminadores de ideologia em apoio à consolidação de uma nova fase do capital. Neste sentido, o SEBRAE cumpre, nos dias atuais, o papel de produzir consenso na sociedade em torno da importância econômica e social das micro e pequenas empresas, auxilia a formulação de políticas públicas e leis voltadas para esta questão e, por fim, assume a função ética do Estado, através da qual realiza a tarefa educativa dos indivíduos visando ao "universal". A história da agência é analisada à luz das reflexões de Gramsci sobre hegemonia e Estado integral, capazes de, entre outros aspectos, auxiliar a compreensão das relações mediatas estabelecidas entre agências da sociedade civil e o bloco no poder

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta investigação tem como tema a proposta de formação de professores em serviço do Curso de Atualização de Professores de Escola de Horário Integral, realizado no segundo governo de Leonel Brizola, no Estado do Rio de Janeiro (1991 1994), durante o Segundo Programa Especial de Educação (II PEE). Este estudo objetivou analisar a proposta de formação de professores em serviço, focalizando este Curso como uma das iniciativas desta formação e, partindo dela identificar contribuições significativas, produzidas naquele tempo e espaço específico, que possam enriquecer e suscitar questões para os debates atuais sobre a formação continuada de professores. Ao empreender esta tarefa se julgou necessário delinear a trajetória do I E II PEE para melhor compreensão da evolução deste plano e de sua proposta de formação de professores, até a elaboração do Curso. Após a retomada do II PEE, frente à necessidade de reestruturação pedagógica dos Centros Integrados de Educação Pública (CIEPs) foi criado o Curso, em convênio com a UERJ. O ponto mais importante identificado nesta proposta de formação foi considerar a escola como lócus de formação continuada tendo como base o saber do professor neste processo. Aspecto como se pode constatar, de grande relevância atualmente nas discussões sobre a temática, mas que naquele momento foi uma inovação. Supõe-se que os resultados deste trabalho poderão contribuir para ampliar os debates em torno das questões voltadas para a formação continuada de professores, e ainda, ampliar os debates, bem oportunos, sobre criação de diferentes alternativas de escolas públicas de horário integral, com suas proposta de formação para atender a uma necessidade da sociedade contemporânea e fundamentar ações de gestores das políticas públicas de Educação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As técnicas de injeção de traçadores têm sido amplamente utilizadas na investigação de escoamentos em meios porosos, principalmente em problemas envolvendo a simulação numérica de escoamentos miscíveis em reservatórios de petróleo e o transporte de contaminantes em aquíferos. Reservatórios subterrâneos são em geral heterogêneos e podem apresentar variações significativas das suas propriedades em várias escalas de comprimento. Estas variações espaciais são incorporadas às equações que governam o escoamento no interior do meio poroso por meio de campos aleatórios. Estes campos podem prover uma descrição das heterogeneidades da formação subterrânea nos casos onde o conhecimento geológico não fornece o detalhamento necessário para a predição determinística do escoamento através do meio poroso. Nesta tese é empregado um modelo lognormal para o campo de permeabilidades a fim de reproduzir-se a distribuição de permeabilidades do meio real, e a geração numérica destes campos aleatórios é feita pelo método da Soma Sucessiva de Campos Gaussianos Independentes (SSCGI). O objetivo principal deste trabalho é o estudo da quantificação de incertezas para o problema inverso do transporte de um traçador em um meio poroso heterogêneo empregando uma abordagem Bayesiana para a atualização dos campos de permeabilidades, baseada na medição dos valores da concentração espacial do traçador em tempos específicos. Um método do tipo Markov Chain Monte Carlo a dois estágios é utilizado na amostragem da distribuição de probabilidade a posteriori e a cadeia de Markov é construída a partir da reconstrução aleatória dos campos de permeabilidades. Na resolução do problema de pressão-velocidade que governa o escoamento empregase um método do tipo Elementos Finitos Mistos adequado para o cálculo acurado dos fluxos em campos de permeabilidades heterogêneos e uma abordagem Lagrangiana, o método Forward Integral Tracking (FIT), é utilizada na simulação numérica do problema do transporte do traçador. Resultados numéricos são obtidos e apresentados para um conjunto de realizações amostrais dos campos de permeabilidades.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Estratégia de Saúde da Família (ESF) foi criada como a principal iniciativa de reorientação do modelo assistencial no SUS, ao mesmo tempo em que a população brasileira envelhecia. As equipes da SF estão lidando com a atenção à saúde deste contingente populacional sob a influência de aspectos técnicos, institucionais e culturais adversos como a sua frágil capacitação, a não interligação da rede, e o escasso valor social dado ao velho na sociedade. Este estudo foca a atenção ao idoso, no contexto da implementação da Estratégia e Saúde da Família (ESF), no Estado do Rio de Janeiro, utilizando metodologia qualitativa. Seu objetivo geral é conhecer a atenção ao idoso no contexto de trabalho da Estratégia de Saúde da Família no Estado do Rio de Janeiro. Especificamente pretendeu-se conhecer a percepção dos profissionais de saúde acerca do envelhecimento e suas consequências sobre a atenção ao idoso na ESF; discutir o papel da ESF numa rede de atenção ao idoso, analisando a organização da rede e analisar o processo de trabalho na atenção ao idoso. Utilizando métodos descritivos e analíticos, três conjuntos de dados foram articulados: dados sobre o contexto do Programa de Saúde da Família em cada município, dados relativos aos conhecimentos técnicos das equipes sobre atenção ao idoso e dados relativos à percepção dos profissionais sobre a atenção ao idoso na ESF. Como técnicas de coleta de dados foram utilizadas a entrevista individual, o grupo focal e a análise documental os dados. Foram realizados 54 entrevistas individuais e 6 grupos focais para a criação de Fluxogramas Descritores e Discussões de Casos. Participaram 6 equipes de 3 municípios do Estado do Rio de Janeiro. Da análise dos dados emergiu o papel de ESF na rede de atenção ao idoso, o que permite a determinação de conteúdos, habilidades e atitudes que precisam ser desenvolvidos como um todo nos profissionais, e nos médicos em particular. Também está clara a necessidade de articulação de uma rede de atenção ao idoso, integrada, composta por serviços e níveis de atenção diferentes e intersetorial, que permita uma prática de cuidado e a promoção de um envelhecimento saudável. Chegamos a conclusão que a formação e as práticas destes profissionais, em particular do médico, precisam ser entendidas de um modo integrado e inseridas na graduação e pós-graduação. O treinamento das equipes, já instaladas, deveria ser trabalhado dentro das premissas da educação permanente e acompanhado de um trabalho de articulação de uma rede de atenção para o idoso, de forma a permitir seu resolutividade. Desenvolver as competências para os profissionais de saúde da ESF, sem desenvolver a competência do sistema de saúde não terá efeito significativo na qualidade da atenção prestada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma dedução dos critérios de multicriticalidade para o cálculo de pontos críticos de qualquer ordem representa a formalização de ideias utilizadas para calcular pontos críticos e tricríticos e ainda amplia tais ideias. De posse desta dedução pode-se compreender os critérios de tricriticalidade e, com isso, através de uma abordagem via problema de otimização global pode-se fazer o cálculo de pontos tricríticos utilizando um método numérico adequado de otimização global. Para evitar um excesso de custo computacional com rotinas numéricas utilizou-se aproximações na forma de diferenças finitas dos termos que compõem a função objetivo. Para simular a relação P v - T optou-se pela equação de estado cúbica de Peng-Robinson e pela regra clássica de fluidos de van der Vaals, para modelagem do problema também se calculou os tensores de ordem 2, 3, 4 e 5 da função do teste de estabilidade. Os resultados obtidos foram comparados com dados experimentais e por resultados obtidos com outros autores que utilizaram métodos numéricos, equação de estado ou abordagem diferente das utilizadas neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No período entre 1954 e 1964, Willys de Castro dedicou-se, entre outras tarefas, ao Estúdio de Projetos Gráficos. A presente dissertação analisa quatro marcas desenvolvidas nessa época, e realizadas de forma concomitante a produção de suas pinturas, objetos e esculturas. As marcas de Willys, parecem tornar-se uma síntese de seu trabalho, de sua arte como um todo. Para realizar esta analise a dissertação traça sua trajetória no campo do design no Brasil. Devido as pouquíssimas publicações sobre o artista, principalmente com relação a sua produção gráfica, este trabalho tenta ser o mais completo possível para o estudo da arte e do design no Brasil até o momento

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Painel Intergovernamental de Mudanças Climáticas da ONU (IPCC) tem comprovado com nível de confiança cada vez maior, ao longo dos últimos anos, a forte relação entre o aumento da temperatura média global e o aumento dos gases de efeito estufa (GEEs) principalmente quanto ao gás que mais contribui para a composição desses gases: o gás carbônico ou CO2. O Brasil se insere no rol dos emissores desse gás, principalmente devido ao desmatamento das reservas florestais que possui. Assim, assumiu o compromisso na Convenção Quadro das Nações Unidas sobre Mudanças Climáticas (United Nations Framework Convention on Climate Change UNFCCC) de estabilizar suas emissões e inventariar periodicamente os seus GEEs. Dentro deste contexto, cabe também à indústria levantar sua parcela de responsabilidade significativa neste processo ameaçador para a vida no planeta terra. Desta forma, o principal objetivo do presente trabalho foi o de levantar e contabilizar o Inventário dos GEEs emitidos em 2006 por uma empresa que produz importantes insumos para a indústria de petróleo. A pesquisa bibliográfica sobre a metodologia mais adequada e sua aplicação para a empresa em estudo foram os principais objetivos específicos. A autora não encontrou fatores de emissão de CO2 (kg CO2/TJ do combustível, detalhado no decorrer deste trabalho) desenvolvidos no Brasil para levantar o inventário, com um nível razoável de confiança, que reflita a situação real e local. Toda a pesquisa bibliográfica feita mostrou que os trabalhos realizados mesmo por órgãos governamentais brasileiros usaram a metodologia do IPCC (versão anterior à usada neste trabalho) que foi elaborada por países desenvolvidos, que não é o nosso caso ou realidade. Foram feitas diversas visitas à empresa, levantadas todas as fontes potenciais de emissão, consumos e características de todos os combustíveis usados, bem como o levantamento do trabalho desenvolvido sobre geração de mudas de plantas no seu horto. Através de cálculos por essa metodologia reconhecida mundialmente (IPCC) a autora encontrou um valor em torno de 76.000 toneladas de CO2 emitidos pela empresa em 2006. A empresa neutralizou cerca de 80 toneladas de CO2, através da produção de mudas (para doação e plantio em torno de uma área que é um passivo ambiental) em seu horto e o que plantou na área desse passivo em 2006. Isso significou cerca de 0,1% do que emitiu

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é apresentado um estudo para a determinação do tamanho ótimo da malha de elementos, utilizando redes neurais artificiais, para o cálculo da intensidade útil. A ideia principal é treinar as redes de modo a possibilitar a aprendizagem e o reconhecimento do melhor tamanho para diversas áreas superficiais em fontes sonoras com geometria plana. A vantagem de se utilizar redes neurais artificiais deve-se ao fato de apresentarem um único tamanho para a obtenção da intensidade útil, consequentemente, uma redução significativa de tempo computacional quando comparado com o tempo de cálculo de uma malha bem refinada. Ensaios numéricos com placas planas - geometria separável que permite uma solução analítica - são utilizados para se realizar comparações. É apresentado um estudo comparativo entre o tempo computacional gasto para a obtenção da intensidade útil e o mesmo com a malha otimizada via redes neurais artificiais. Também é apresentada uma comparação do nível de potência sonora mediante solução numérica, a fim de validar os resultados apresentados pelas redes neurais.