990 resultados para Combinações (Matematica)
Resumo:
Neste trabalho é descrita a teoria necessária para a obtenção da grandeza denominada intensidade supersônica, a qual tem por objetivo identificar as regiões de uma fonte de ruído que efetivamente contribuem para a potência sonora, filtrando, consequentemente, a parcela referente às ondas sonoras recirculantes e evanescentes. É apresentada a abordagem de Fourier para a obtenção da intensidade supersônica em fontes com geometrias separáveis e a formulação numérica existente para a obtenção de um equivalente à intensidade supersônica em fontes sonoras com geometrias arbitrárias. Este trabalho apresenta como principal contribuição original, uma técnica para o cálculo de um equivalente à intensidade supersônica, denominado aqui de intensidade acústica útil, capaz de identificar as regiões de uma superfície vibrante de geometria arbitrária que efetivamente contribuem para a potência sonora que será radiada. Ao contrário da formulação numérica existente, o modelo proposto é mais direto, totalmente formulado na superfície vibrante, onde a potência sonora é obtida através de um operador (uma matriz) que relaciona a potência sonora radiada com a distribuição de velocidade normal à superfície vibrante, obtida com o uso do método de elementos finitos. Tal operador, chamado aqui de operador de potência, é Hermitiano, fato crucial para a obtenção da intensidade acússtica útil, após a aplicação da decomposição em autovalores e autovetores no operador de potência, e do critério de truncamento proposto. Exemplos de aplicações da intensidade acústica útil em superfícies vibrantes com a geometria de uma placa, de um cilindro com tampas e de um silenciador automotivo são apresentados, e os resultados são comparados com os obtidos via intensidade supersônica (placa) e via técnica numérica existente (cilindro), evidenciando que a intensidade acústica útil traz, como benefício adicional, uma redução em relação ao tempo computacional quando comparada com a técnica numérica existente.
Resumo:
Os métodos espectrais são ferramentas úteis na análise de dados, sendo capazes de fornecer informações sobre a estrutura organizacional de dados. O agrupamento de dados utilizando métodos espectrais é comumente baseado em relações de similaridade definida entre os dados. O objetivo deste trabalho é estudar a capacidade de agrupamento de métodos espectrais e seu comportamento, em casos limites. Considera-se um conjunto de pontos no plano e usa-se a similaridade entre os nós como sendo o inverso da distância Euclidiana. Analisa-se a qual distância mínima, entre dois pontos centrais, o agrupamento espectral é capaz de reagrupar os dados em dois grupos distintos. Acessoriamente, estuda-se a capacidade de reagrupamento caso a dispersão entre os dados seja aumentada. Inicialmente foram realizados experimentos considerando uma distância fixa entre dois pontos, a partir dos quais os dados são gerados e, então, reduziu-se a distância entre estes pontos até que o método se tornasse incapaz de efetuar a separação dos pontos em dois grupos distintos. Em seguida, retomada a distância inicial, os dados foram gerados a partir da adição de uma perturbação normal, com variância crescente, e observou-se até que valor de variância o método fez a separação dos dados em dois grupos distintos de forma correta. A partir de um conjunto de pontos obtidos com a execução do algoritmo de evolução diferencial, para resolver um problema multimodal, testa-se a capacidade do método em separar os indivíduos em grupos diferentes.
Resumo:
A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).
Resumo:
As técnicas inversas têm sido usadas na determinação de parâmetros importantes envolvidos na concepção e desempenho de muitos processos industriais. A aplicação de métodos estocásticos tem aumentado nos últimos anos, demonstrando seu potencial no estudo e análise dos diferentes sistemas em aplicações de engenharia. As rotinas estocásticas são capazes de otimizar a solução em uma ampla gama de variáveis do domínio, sendo possível a determinação dos parâmetros de interesse simultaneamente. Neste trabalho foram adotados os métodos estocásticos Luus-Jaakola (LJ) e Random Restricted Window (R2W) na obtenção dos ótimos dos parâmetros cinéticos de adsorção no sistema de cromatografia em batelada, tendo por objetivo verificar qual método forneceria o melhor ajuste entre os resultados obtidos nas simulações computacionais e os dados experimentais. Este modelo foi resolvido empregando o método de Runge- Kutta de 4 ordem para a solução de equações diferenciais ordinárias.
Resumo:
Neste trabalho, foi desenvolvido um simulador numérico baseado no método livre de malhas Smoothed Particle Hydrodynamics (SPH) para a resolução de escoamentos de fluidos newtonianos incompressíveis. Diferentemente da maioria das versões existentes deste método, o código numérico faz uso de uma técnica iterativa na determinação do campo de pressões. Este procedimento emprega a forma diferencial de uma equação de estado para um fluido compressível e a equação da continuidade a fim de que a correção da pressão seja determinada. Uma versão paralelizada do simulador numérico foi implementada usando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA) da NVIDIA Corporation. Foram simulados três problemas, o problema unidimensional do escoamento de Couette e os problemas bidimensionais do escoamento no interior de uma Cavidade (Shear Driven Cavity Problem) e da Quebra de Barragem (Dambreak).
Resumo:
O presente trabalho sugere que o ensino de morfologia possa contribuir com a proficiência em leitura e escrita dos alunos. Buscou-se refletir sobre essa prática com a intenção de mostrar o ensino de um componente curricular como meio e não como fim em si mesmo. Focaliza-se o funcionamento do sistema da língua para que, com tal domínio, amplie-se sua competência lingüística. Propomos a discussão em classe da pertinência do sentido contextual da nova formação que aparece nos textos dos cronistas eleitos seguida da reutilização das mesmas (ou similares) em seus próprios textos. O que sugerimos é exatamente uma prática inversa à habitualmente vista nas escolas. Confrontamos semelhanças e dessemelhanças das combinações lexicais com outros processos de formação de palavras por composição, além de verificar se as combinações lexicais são passíveis de análises estruturais e semânticas
Resumo:
A presente pesquisa objetiva, em essência, discutir questões referentes à expressividade em textos literários, como também observar a riqueza de suas múltiplas possibilidades de construção estética. Esse material é burilado pelos recursos fônicos, morfossintáticos e léxico-semânticos do sistema linguístico. Foram utilizados como corpus para o trabalho os contos de Ana Maria Machado e as poesias de José Paulo Paes, produções inseridas no Programa Literatura em Minha Casa e que sensibilizaram os leitores pelo jogo verbal primoroso, resultado das escolhas e das combinações dos autores. Foram tomados como referência para análise dos textos os recursos linguístico-expressivos neles observados, pretendendo demonstrar o potencial expressivo, com vistas a propor alternativa pedagógica, de caráter produtivo para o ensino, despertando a sensibilidade frente ao texto literário e contribuindo para promover o prazer de ler dos alunos do ensino fundamental. Para tanto, a autora buscou na estilística fundamentos teóricos e metodológicos que aprofundassem a temática em tela
Resumo:
O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.
Resumo:
Estudo sobre os programas Fale com o Deputado e Fale com a Ouvidoria da Câmara dos Deputados, a fim de se captarem representações, crenças e valores sobre a política. O trabalho assume a perspectiva de uma antropologia da política, desnaturalizando conceitos como democracia, participação e representação política, para captar as concepções dos sujeitos envolvidos no diálogo proposto pela Câmara dos Deputados, por intermédio desses canais de correio eletrônico. Assim, a tese não estuda os programas Fale com o Deputado e Fale com a Ouvidoria, mas nos programas. As mensagens enviadas, juntamente com os documentos produzidos pela Casa Legislativa acerca dos programas, bem como notícias e entrevistas com parlamentares e assessores sobre eles, são suportes de expressão de significados associados ao mundo da política, muitas vezes, concebidos como excludentes. Assim, eles são veículos de expressão, mas também de ação, que expõem combinações, normalmente contrapostas, por uma espécie de ficção construída em torno da noção de modernidade: indivíduo e pessoa, diretos e favores, particular e universal. Os documentos abordados revelam conciliações e embates discursivos que acenam para distintas maneiras de os atores fazerem a política, as quais acabam por revelar entendimentos sobre como se dá a gestão interna à Casa desses programas e questionamentos a respeito dos limites e possibilidades da Internet no fazer político
Resumo:
Neste trabalho estudamos o problema da segregação de impurezas substitucionais em sistemas nanoestruturados metálicos formados pela justaposição de camadas (multicamadas). Utilizamos o modelo de ligações fortes (tight-binding) com um orbital por sítio para calcular a estrutura eletrônica desses sistemas, considerando a rede cristalina cubica simples em duas direções de crescimento: (001) e (011). Devido à perda de simetria do sistema, escrevemos o hamiltoniano em termos de um vetor de onda k, paralelo ao plano, e um ındice l que denota um plano arbitrario do sistema. Primeiramente, calculamos a estrutura eletrônica do sistema considerando-o formado por átomos do tipo A e, posteriormente, investigamos as modificações nessa estrutura eletrônica ao introduzirmos uma impureza do tipo B em um plano arbitrário do sistema. Calculamos o potencial introduzido por esta impureza levando-se em conta a neutralidade de carga através da regra de soma de Friedel. Calculamos a variação da energia eletrônica total ΔEl como função da posição da impureza. Como substrato, consideramos sistemas com ocupações iguais a 0.94 e 0.54 elétrons por banda, o que dentro do modelo nos permite chamá-los de Nie Cr. As impurezas sao tambem metais de transição - Mn, Fee Co. Em todos os casos investigados, foi verificado que a variação de energia eletrônica total apresenta um comportamento oscilatorio em função da posição da impureza no sistema, desde o plano superficial, até vários planos interiores do sistema. Como resultado, verificamos a ocorrencia de planos mais favoráveis à localização da impureza. Ao considerarmos um número relativamente grande de planos, um caso em particular foi destacado pelo aparecimento de um batimentono comportamento oscilatório de ΔEl. Estudamos também o comportamento da variação da energia total, quando camadas (filmes) são crescidas sobre o substrato e uma impureza do mesmo tipo das camadas é colocada no substrato. Levamos em conta a diferença de tamanho entre os átomos do substrato e os átomos dos filmes. Analisamos ainda a influência da temperatura sobre o comportamento oscilatório da energia total, considerando a expansão de Sommerfeld.
Resumo:
Apresentamos os resultados de nossa pesquisa para concepção, execuçãoo e avaliação de uma ferramenta adaptativa informatizada, denominada DIA, que permita tanto avaliar como fornecer feedback a estudantes sob uma perspectiva de avaliação formativa. Na primeira etapa, usamos os PCN: Ciências da Natureza, Matemática e suas Tecnologias (BRASIL, 1998) e as Matrizes Curriculares de Referência do Instituto Nacional de Estudos e Pesquisas Educacionais - INEP, para o Sistema de Avaliação para a Educação Básica- SAEB (BRASIL, 2005), para construir uma escala, em que os objetivos estão em ordem crescente, de acordo com o desenvolvimento vertical da construção do conhecimento em Matemática. Entrelaçamos os objetivos propostos para criar um Banco de Itens (BI), que foi usado em nossas simulações. Analisamos os resultados obtidos em nosso ensaio para avaliar o diálogo entre o BI e a escala sob a perspectiva de oferecer um diagnóstico de lacunas na construção do conhecimento matemático. Em nosso ensaio, simulamos o funcionamento da ferramenta DIA através de um teste adaptativo informatizado baseado na Teoria de Resposta ao Item (TRI). Também estamos interessados em determinar um perfil de um Banco de Itens, que seja capaz de forma significativa de dialogar com nossa escala através de TRI. A escala e o banco de itens a ela associado devem viabilizar um feedback construtivo que ajude os alunos a desenvolverem competências metacognitivas.
Resumo:
Esta tese tem por objetivo propor uma metodologia para recuperação de perfis verticais de temperatura na atmosfera com nuvens a partir de medidas de radiância feitas por satélite, usando redes neurais artificiais. Perfis verticais de temperatura são importantes condições iniciais para modelos de previsão de tempo, e são usualmente obtidos a partir de medidas de radiâncias feitas por satélites na faixa do infravermelho. No entanto, quando estas medidas são feitas na presença de nuvens, não é possível, com as técnicas atuais, efetuar a recuperação deste perfil. É uma perda significativa de informação, pois, em média, 20% dos pixels das imagens acusam presença de nuvens. Nesta tese, este problema é resolvido como um problema inverso em dois passos: o primeiro passo consiste na determinação da radiância que atinge a base da nuvem a partir da radiância medida pelos satélites; o segundo passo consiste na determinação do perfil vertical de temperaturas a partir da informação de radiância fornecida pelo primeiro passo. São apresentadas reconstruções do perfil de temperatura para quatro casos testes. Os resultados obtidos mostram que a metodologia adotada produz resultados satisfatórios e tem grande potencial de uso, permitindo incorporar informações sobre uma região mais ampla do globo e, consequentemente, melhorar os modelos de previsão do tempo.
Resumo:
Um Estudo para a solução numérica do modelo de difusão com retenção, proposta por Bevilacqua et al. (2011), é apresentado, bem como uma formulação implícita para o problema inverso para a estimativa dos parâmetros envolvidos na formulação matemática do modelo. Através de um estudo minucioso da análise de sensibilidade e do cálculo do coeficiente de correlação de Pearson, são identificadas as chances de se obter sucesso na solução do problema inverso através do método determinístico de Levenberg-Marquardt e dos métodos estocásticos Algoritmo de Colisão de Partículas (Particle Collision Algorithm - PCA) e Evolução Diferencial (Differential Evolution - DE). São apresentados os resultados obtidos através destes três métodos de otimização para três casos de conjunto de parâmetros. Foi observada uma forte correlação entre dois destes três parâmetros, o que dificultou a estimativa simultânea dos mesmos. Porém, foi obtido sucesso nas estimativas individuais de cada parâmetro. Foram obtidos bons resultados para os fatores que multiplicam os termos diferenciais da equação que modela o fenômeno de difusão com retenção.
Resumo:
Atualmente, existem modelos matemáticos capazes de preverem acuradamente as relações entre propriedades de estado; e esta tarefa é extremamente importante no contexto da Engenharia Química, uma vez que estes modelos podem ser empregados para avaliar a performance de processos químicos. Ademais, eles são de fundamental importância para a simulação de reservatórios de petróleo e processos de separação. Estes modelos são conhecidos como equações de estado, e podem ser usados em problemas de equilíbrios de fases, principalmente em equilíbrios líquido-vapor. Recentemente, um teorema matemático foi formulado (Teorema de Redução), fornecendo as condições para a redução de dimensionalidade de problemas de equilíbrios de fases para misturas multicomponentes descritas por equações de estado cúbicas e regras de mistura e combinação clássicas. Este teorema mostra como para uma classe bem definidade de modelos termodinâmicos (equações de estado cúbicas e regras de mistura clássicas), pode-se reduzir a dimensão de vários problemas de equilíbrios de fases. Este método é muito vantajoso para misturas com muitos componentes, promovendo uma redução significativa no tempo de computação e produzindo resultados acurados. Neste trabalho, apresentamos alguns experimentos numéricos com misturas-testes usando a técnica de redução para obter pressões de ponto de orvalho sob especificação de temperaturas.
Resumo:
Este trabalho apresenta um método para reconhecimento do padrão na biodisponibilidade do ferro, através da interação com substâncias que auxiliam a absorção como vitamina C e vitamina A e nutrientes inibidores como cálcio, fitato, oxalato, tanino e cafeína. Os dados foram obtidos através de inquérito alimentar, almoço e jantar, em crianças de 2 a 5 anos da única Creche Municipal de Paraty-RJ entre 2007 e 2008. A Análise de Componentes Principais (ACP) foi aplicada na seleção dos nutrientes e utilizou-se o Algoritmo Fuzzy C-Means (FCM) para criar os agrupamentos classificados de acordo com a biodisponibilidade do ferro. Uma análise de sensibilidade foi desenvolvida na tentativa de buscar quantidades limítrofes de cálcio a serem consumidas nas refeições. A ACP mostrou que no almoço os nutrientes que explicavam melhor a variabilidade do modelo foram ferro, vitamina C, fitato e oxalato, enquanto no jantar o cálcio se mostrou eficaz na determinação da variabilidade do modelo devido ao elevado consumo de leite e derivados. Para o almoço, a aplicação do FCM na interação dos nutrientes, notou-se que a ingestão de vitamina C foi determinante na classificação dos grupos. No jantar, a classificação de grupos foi determinada pela quantidade de ferro heme na interação com o cálcio. Na análise de sensibilidade realizada no almoço e no jantar, duas iterações do algoritmo determinaram a interferência total do cálcio na biodisponibilidade do ferro.