992 resultados para matemática computacional
Resumo:
Neste trabalho é apresentado a aplicação de um método de otimização a fim de estimar parâmetros que normalmente estão presentes na modelagem matemática da dinâmica de espécies químicas na interface água-sedimento. O Problema Direto aqui consistiu na simulação das concentrações das espécies orgânicas e inorgânicas (amônia e nitrato) de nitrogênio, num ambiente idealizado, o qual foi fracionado em quatro camadas: uma camada de água (1 metro) e três camadas de sedimento (0-1 cm, 1-2 cm e 2-10 cm). O Problema Direto foi resolvido pelo Método de Runge Kutta, tendo sido gerada uma simulação de 50 dias. Na estimativa dos coeficientes de difusão e porosidade foi aplicado o Método Simulated Annealing (SA). A eficiência da estratégia aqui adotada foi avaliada através do confronto entre dados experimentais sintéticos e as concentrações calçadas pela solução do Problema Direto, adotando-se os parâmetros estimados pela SA. O melhor ajuste entre dados experimentais e valores calculados se deu quando o parâmetro estimado foi a porosidade. Com relação à minimização da função objetivo, a estimativa desse parâmetro também foi a que exigiu menor esforço computacional. Após a introdução de um ruído randômico às concentrações das espécies nitrogenadas, a técnica SA não foi capaz de obter uma estimativa satisfatória para o coeficiente de difusão, com exceção da camada 0-1 cm sedimentar. Para outras camadas, erros da ordem de 10 % foram encontrados (para amônia na coluna dágua, pro exemplo). Os resultados mostraram que a metodologia aqui adotada pode ser bastante promissora enquanto ferramenta de gestão de corpos dágua, especialmente daqueles submetidos a um regime de baixa energia, como lagos e lagoas costeiras.
Resumo:
Neste trabalho é apresentada uma nova abordagem para obter as respostas impulsivas biauriculares (BIRs) para um sistema de aurilização utilizando um conjunto de redes neurais artificiais (RNAs). O método proposto é capaz de reconstruir as respostas impulsivas associadas à cabeça humana (HRIRs) por meio de modificação espectral e de interpolação espacial. A fim de cobrir todo o espaço auditivo de recepção, sem aumentar a complexidade da arquitetura da rede, uma estrutura com múltiplas RNAs (conjunto) foi adotada, onde cada rede opera uma região específica do espaço (gomo). Os três principais fatores que influenciam na precisão do modelo arquitetura da rede, ângulos de abertura da área de recepção e atrasos das HRIRs são investigados e uma configuração ideal é apresentada. O erro de modelagem no domínio da frequência é investigado considerando a natureza logarítmica da audição humana. Mais ainda, são propostos novos parâmetros para avaliação do erro, definidos em analogia com alguns dos bem conhecidos parâmetros de qualidade acústica de salas. Através da metodologia proposta obteve-se um ganho computacional, em redução do tempo de processamento, de aproximadamente 62% em relação ao método tradicional de processamento de sinais utilizado para aurilização. A aplicabilidade do novo método em sistemas de aurilização é reforçada mediante uma análise comparativa dos resultados, que incluem a geração das BIRs e o cálculo dos parâmetros acústicos biauriculares (IACF e IACC), os quais mostram erros de magnitudes reduzidas.
Desenvolvimento do clube de história da matemática: um diálogo das ciências humanas com a matemática
Resumo:
Este trabalho apresenta uma pesquisa sobre a utilização da História da Matemática no ensino básico do Colégio Militar do Rio de Janeiro CMRJ através de manifestações artísticas, fazendo uso, principalmente, do teatro,para que alunos percebam a matemática como uma ciência temporal, humana e sujeita a interferências políticas e sociais e, dessa forma, desenvolver a criticidade, aumentar a sensibilidade e o senso de solidariedade. A partir de um tema da história envolvendo fatos matemáticos os alunos pesquisam, escrevem uma peça teatral e encenam para um público formado por pessoas da comunidade escolar. Como a intenção é tornar essa prática efetiva, a pesquisa culmina na fundação do Clube de História da Matemática, espaço onde, espera-se, atividades recorrentes sejamdesenvolvidas, atraindo alunos afetos tanto às ciências humanas e sociais como às ciências exatas. Realiza-se um estudo de caso com observação participante, por ser o autor também professor do CMRJ. Este estudo busca referência teórica principalmente em autores relacionados à História da Matemática, Arte na Educação, gestão democrática, relações de poder e na legislação vigente. A pesquisa aponta a importância do trabalho com a história e com a arte e nos leva a concluir que, para formar cidadãos participativos e críticos, o primeiro passo é a sociedade tornar-se participativa e crítica, sendo a escola o principal locuspara tal formação.
Resumo:
Este trabalho aborda, de maneira bem sucinta e objetiva, a história da evolução dos números desde o primeiro risco em um osso, até chegar na forma atual como os conhecemos. Ao longo de aproximadamente 30.000 anos de existência, os sistemas de numeração, suas bases e representações sofreram inúmeras modificações, adequando-se ao contexto histórico vigente. Podemos citar a mentalidade científica da época, a necessidade da conquista de territórios, religiões e crenças e necessidades básicas da vida cotidiana. Deste modo, mostramos uma corrente histórica que tenta explicar como e porque a ideia de número se modifica com o tempo, sempre tendo em vista os fatores que motivaram tais mudanças e quais benefícios (ou malefícios) trouxeram consigo. Com um capítulo dedicado a cada uma das mais importantes civilizações que contribuíram para o crescimento da matemática e, sempre que possível, em ordem cronológica de acontecimentos, o leitor consegue ter uma boa ideia de como uma civilização influencia a outra e como um povo posterior pôde apoiar-se nos conhecimentos adquiridos dos antepassados para produzir seus próprios algorítimos e teoremas.
Resumo:
Ao se realizar estudo em qualquer área do conhecimento, quanto mais dados se dispuser, maior a dificuldade de se extrair conhecimento útil deste banco de dados. A finalidade deste trabalho é apresentar algumas ferramentas ditas inteligentes, de extração de conhecimento destes grandes repositórios de dados. Apesar de ter várias conotações, neste trabalho, irá se entender extração de conhecimento dos repositórios de dados a ocorrência combinada de alguns dados com freqüência e confiabilidade que se consideram interessantes, ou seja, na medida e que determinado dado ou conjunto de dados aparece no repositório de dados, em freqüência considerada razoável, outro dado ou conjunto de dados irá aparecer. Executada sobre repositórios de dados referentes a informações georreferenciadas dos alunos da UERJ (Universidade do Estado do Rio de Janeiro), irá se analisar os resultados de duas ferramentas de extração de dados, bem como apresentar possibilidades de otimização computacional destas ferramentas.
Resumo:
Nesta dissertação consideramos duas abordagens para o tráfego de veículos: a macroscópica e a microscópica. O tráfego é descrito macroscopicamente por três grandezas físicas interligadas entre si, a saber, a velocidade, a densidade e o fluxo, descrevendo leis de conservação do número de veículos. Há vários modelos para o tráfego macroscópico de veículos. A maioria deles trata o tráfego de veículos como um fluido compressível, traduzindo a lei de conservação de massa para os veículos e requer uma lei de estado para o par velocidade-densidade, estabelecendo uma relação entre eles. Já o modelo descrito pela abordagem microscópica considera os veículos como partículas individuais. Consideramos os modelos da classe "car - following". Estes modelos baseiam-se no princípio de que o (n - 1)-ésimo veículo (denominado de "following-car") acelera em função do estímulo que recebe do n-ésimo veículo. Analisamos a equação de conservação do número de veículos em modelos macroscópicos para fluxo de tráfego. Posteriormente resolvemos esta equação através da linearização do modelo, estudando suas retas características e apresentamos a resolução do problema não linear em domínios limitados utilizando o método das características
Resumo:
Esta dissertação tem como objetivo principal apresentar aos professores a matemática que é utilizada em diversas atividades da indústria do petróleo para serem apresentadas em sala de aula como aplicações práticas de diversos conceitos que são ministrados desde o ensino fundamental até o superior. Assim, possui o intuito de desenvolver no aluno a percepção da importância de se aprender matemática, criando um estímulo a mais em seus estudos. O trabalho se refere especificamente ao Terminal Aquaviário da Baía de Guanabara (TABG), pertencente à empresa de petróleo Petrobras Transporte S/A (TRANSPETRO), no qual labora o autor. São apresentados os diversos cálculos utilizados nas variadas atividades do dia a dia do TABG. Por fim, são sugeridas algumas atividades que podem ser aplicadas em sala de aula
Resumo:
Deposição é um fenômeno indesejável que ocorre na superfície dos trocadores de calor ao longo de sua operação, ocasionando redução na efetividade térmica e aumento da resistência ao escoamento nestes equipamentos. Estes efeitos trazem grandes consequências econômicas e ambientais, devido ao aumento dos custos operacionais (energia adicional é requerida), aumento dos custos de projeto (demanda por equipamentos de maior área de troca térmica), limitações hidráulicas (que pode levar a uma diminuição da carga processada) e aumento das emissões (aumento da queima de combustíveis fósseis para suprir a energia adicional requerida). Neste contexto, o presente trabalho tem por objetivo fornecer ferramentas computacionais robustas que apliquem técnicas de otimização para o gerenciamento da deposição em redes de trocadores de calor, visando minimizar os seus efeitos negativos. Estas ferramentas foram desenvolvidas utilizando programação matemática no ambiente computacional GAMS, e três abordagens distintas para a resolução do problema da deposição foram pesquisadas. Uma delas consiste na identificação do conjunto ótimo de trocadores de calor a serem limpos durante uma parada para manutenção da planta, visando restaurar a carga térmica nesses equipamentos através da remoção dos depósitos existentes. Já as duas outras abordagens consistem em otimizar a distribuição das vazões das correntes ao longo de ramais paralelos, uma de forma estacionária e a outra de forma dinâmica, visando maximizar a recuperação de energia ao longo da rede. O desempenho destas três abordagens é ilustrado através de um conjunto de exemplos de redes de trocadores de calor, onde os ganhos reais obtidos com estas ferramentas de otimização desenvolvidas são demonstrados
Resumo:
As simulações computacionais tem sido amplamente empregadas no estudo do escoamento darciano e não-darciano em meios porosos consolidados e não-consolidados. Neste trabalho, através de uma nova formulação para a equação de Forchheimer, foram identificadas duas novas propriedades denominados fator de comportamento do fluido, que atua paralelamente a permeabilidade, e permeabilidade equivalente global, resultado da relação anterior. Este comportamento foi estudado e validado através da implementação de um aparato experimental e um código computacional baseado no modelo de regressão-linear que, além disso, demonstrou que o escoamento, ainda que em regime não darciano, comporta-se linearmente como a equação de Darcy, ainda que o coeficiente angular desta diminuiu de acordo com a faixa do número de Reynolds atingida, sendo esta dependente do tipo de leito empregado. Ainda neste trabalho, foi implementado o método de otimização R2W para estimar os parâmetros da equação de Kozeny-Carman a partir de dados experimentais obtidos por Dias et al, a fim de simular o escoamento darciano em meios porosos. Por fim, foi alcançada excelente concordância entre os dados simulados pelo método R2W / equação de Kozeny-Carman e os dados reais.
Resumo:
A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária
Resumo:
A reação álcali-agregado - RAA é uma patologia de ação lenta que tem sido observada em construções de concreto capaz de comprometer suas estruturas. Sabe-se que a reação álcali-agregado é um fenômeno bastante complexo em virtude da grande variedade de rochas na natureza que são empregadas como agregados no preparo do concreto, podendo cada mineral utilizado afetar de forma distinta a reação ocorrida. Em função dos tipos de estrutura, das suas condições de exposição e dos materiais empregados, a RAA não se comporta sempre da mesma forma, em virtude disto a pesquisa constante neste tema é necessária para o meio técnico e a sociedade. Pesquisas laboratoriais, empíricas e experimentais tem sido rotina em muitos dos estudos da RAA dada ainda à carência de certas definições mais precisas a respeito dos métodos de ensaio, mas também em função da necessidade do melhor conhecimento dos materiais de uso em concretos como os agregados, cimentos, adições, aditivos entre outros e do comportamento da estrutura. Embora técnicas de prevenção possam reduzir significativamente a incidência da RAA, muitas estruturas foram construídas antes que tais medidas fossem conhecidas, havendo no Brasil vários casos de estruturas afetadas, sendo custosos os reparos dessas estruturas. Em estudos recentes sobre o tamanho das partículas de álcali-agregado e sua distribuição foi concluído que o tamanho do agregado está relacionado com o potencial danoso da RAA. Existem ainda indícios de que o tamanho e a distribuição dos poros do concreto também sejam capazes de influenciar o potencial reativo do concreto. Neste trabalho desenvolvemos um Sistema de Visão Artificial (SVA) que, com o uso de técnicas de Processamento de Imagens, é capaz de identificar em imagens de concreto, agregado e poros que atendam em sua forma, às especificações do usuário, possibilitando o cálculo da porosidade e produzindo imagens segmentadas à partir das quais será possível extrair dados relativos à geometria desses elementos. Serão feitas duas abordagens para a obtenção das imagens, uma por Escâner Comercial, que possui vantagens relacionadas à facilidade de aquisição do equipamento, e outra por micro tomógrafo. Uma vez obtidas informações sobre as amostras de concreto, estas podem ser utilizadas para pesquisar a RAA, comparar estruturas de risco com estruturas antigas de forma a melhorar a previsão de risco de ocorrência, bem como serem aplicadas a outras no estudo de outras patologias do concreto menos comuns no nosso país, como o efeito gelo/degelo.
Resumo:
Esta tese apresentada uma proposta de desenvolvimento de uma ferramenta computacional para metrologia com microtomografia computadorizada que possa ser implantada em sistemas de microtomógrafos convencionais. O estudo concentra-se nas diferentes técnicas de detecção de borda utilizadas em processamento de imagens digitais.Para compreender a viabilidade do desenvolvimento da ferramenta optou-se por utilizar o Matlab 2010a. A ferramenta computacional proposta é capaz de medir objetos circulares e retangulares. As medidas podem ser horizontais ou circulares, podendo ser realizada várias medidas de uma mesma imagem, uma medida de várias imagens ou várias medidas de várias imagens. As técnicas processamento de imagens digitais implementadas são a limiarização global com escolha do threshold manualmente baseado no histograma da imagem ou automaticamente pelo método de Otsu, os filtros de passa-alta no domínio do espaço Sobel, Prewitt, Roberts, LoG e Canny e medida entre os picos mais externos da 1 e 2 derivada da imagem. Os resultados foram validados através de comparação com os resultados de teste realizados pelo Laboratório de Ensaios Mecânicos e Metrologia (LEMec) do Intstituto Politécnico do Rio de Janeiro (IPRJ), Universidade do Estado do Rio de Janeiro (UERJ), Nova Friburdo- RJ e pelo Serviço Nacional da Indústria Nova Friburgo (SENAI/NF). Os resultados obtidos pela ferramenta computacional foram equivalentes aos obtidos com os instrumentos de medição utilizados, demonstrando à viabilidade de utilização da ferramenta computacional a metrologia.
Resumo:
Modelos de evolução populacional são há muito tempo assunto de grande relevância, principalmente quando a população de estudo é composta por vetores de doenças. Tal importância se deve ao fato de existirem milhares de doenças que são propagadas por espécies específicas e conhecer como tais populações se comportam é vital quando pretende-se criar políticas públicas para controlar a sua proliferação. Este trabalho descreve um problema de evolução populacional difusivo com armadilhas locais e tempo de reprodução atrasado, o problema direto descreve a densidade de uma população uma vez conhecidos os parâmetros do modelo onde sua solução é obtida por meio da técnica de transformada integral generalizada, uma técnica numérico-analítica. Porém a solução do problema direto, por si só, não permite a simulação computacional de uma população em uma aplicação prática, uma vez que os parâmetros do modelo variam de população para população e precisam, portanto, ter seus valores conhecidos. Com o objetivo de possibilitar esta caracterização, o presente trabalho propõe a formulação e solução do problema inverso, estimando os parâmetros do modelo a partir de dados da população utilizando para tal tarefa dois métodos Bayesianos.
Resumo:
2010
Resumo:
Este trabalho avaliou o programa Gotas, desenvolvido pela Embrapa Informática Agropecuária e Embrapa Meio Ambiente, para comparação de resultados de deposição de pulverização aérea, em diferentes situações de temperatura e umidade relativa. Constatou-se que o programa permite estimativas fidedignas de parâmetros imprescindíveis à tomada de decisão sobre a calibração da pulverização. As pulverizações com aeronaves realizadas em condições de temperatura 36 ºC e 25% de umidade relativa foram totalmente inadequadas.