977 resultados para Método dos momentos
Resumo:
Nanopartículas de dióxido de titânio vêm sendo extensamente empregadas como fotocatalisa-dores, já que são eficientes na degradação de diversos poluentes. Visando a obtenção de titâ-nias com diferentes propriedades, realizaram-se sínteses através do método sol-gel, a partir da hidrólise do tetraisopropóxido de titânio (IV) TIPP e seguindo-se os princípios da Química Verde, dispensando-se temperaturas e pressões elevadas. Foi estudada a influência de dife-rentes parâmetros, como: pH, solvente, razão molar álcool/TIPP e ordem de adição dos rea-gentes. Foram obtidas titânias na forma cristalina anatásio, nanométricas, com elevadas áreas superficiais específicas e predominantemente mesoporosas. Visando-se obter titânias com melhores propriedades óticas, isto é, capazes de sofrer a fotoativação pela luz visível, foram sintetizadas titânias dopadas e co-dopadas com os metais ferro e rutênio (Fe3+ e Ru3+) e o a-metal N (N3). A síntese desses materiais também foi realizada através do método sol-gel, sendo a dopagem realizada durante o processo de hidrólise. As amostras foram caracterizadas na forma de pó por difração de raios-X, adsorção-dessorção de nitrogênio, microscopia ele-trônica de varredura e espectroscopia de refletância difusa no UV-Visível. A titânia pura a-presentou como única fase cristalina o anatásio, quando calcinada até 400 C, com a presença de traços de brookita. A partir de 600 C, observou-se o aparecimento da fase rutilo, que em 900C foi a única fase encontrada na titânia. A dopagem com Ru3+dificultou a transformação de fase anatásio para rutilo, ao contrário da dopagem com Fe3+. O processo de co-dopagem acelerou a formação de rutilo, que se apresentou como única fase nas amostras calcinadas a 600 C. As titânias dopadas apresentaram uma leve diminuição na energia de bandgap, sendo os dopantes capazes de deslocar a absorção para o vermelho. Foram realizados testes fotoca-talíticos visando à degradação do azocorante Reactive Yellow 145 com lâmpada de vapor de mercúrio de 125 W a fim de se comparar as atividades fotocatalíticas das titânias puras, dopa-das e co-dopadas, calcinadas a 300C. De todas as titânias sintetizadas, a titânia pura foi a que melhor degradou o corante, tendo um desempenho semelhante ao do TiO2 P25, da Evo-nik
Resumo:
Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.
Resumo:
Em engenharia, a modelagem computacional desempenha um papel importante na concepção de produtos e no desenvolvimento de técnicas de atenuação de ruído. Nesse contexto, esta tese investiga a intensidade acústica gerada pela radiação sonora de superfícies vibrantes. De modo específico, a pesquisa enfoca a identificação das regiões de uma fonte sonora que contribuem efetivamente para potência sonora radiada para o campo afastado, quando a frequência de excitação ocorre abaixo da frequência crítica de coincidência. São descritas as fundamentações teóricas de duas diferentes abordagens. A primeira delas, denominada intensidade supersônica (analítica) é calculada via transformadas de Fourier para fontes sonoras com geometrias separáveis. A segunda, denominada intensidade útil (numérica) é calculada através do método dos elementos de contorno clássico para fontes com geometrias arbitrárias. Em ambas, a identificação das regiões é feita pela filtragem das ondas não propagantes (evanescentes). O trabalho está centrado em duas propostas, a saber. A primeira delas, é a apresentação implementação e análise de uma nova técnica numérica para o cálculo da grandeza intensidade útil. Essa técnica constitui uma variante do método dos elementos de contorno (MEC), tendo como base o fato de as aproximações para as variáveis acústicas pressão e velocidade normal serem tomadas como constantes em cada elemento. E também no modo peculiar de obter a velocidade constante através da média de um certo número de velocidades interiores a cada elemento. Por esse motivo, a técnica recebe o nome de método de elemento de contorno com velocidade média (AVBEMAverage Velocity Boundary Element Method). A segunda, é a obtenção da solução forma fechada do campo de velocidade normal para placas retangulares com oito diferentes combinações de condições contorno clássicas. Então, a intensidade supersônica é estimada e comparada à intensidade acústica. Nos ensaios numéricos, a comparação da intensidade útil obtida via MEC clássico e via AVBEM é mostrada para ilustrar a eficiência computacional da técnica aqui proposta, que traz como benefício adicional o fato de poder ser utilizada uma malha menos refinada para as simulações e, consequentemente, economia significativa de recursos computacionais.
Resumo:
Os perfis tubulares sem costura são largamente utilizados em diversos países, porém, no Brasil, o uso desses perfis na construção civil era bastante limitado, restringindo-se praticamente a coberturas espaciais. Considerando uma nova realidade para o uso de perfis tubulares, este trabalho apresenta uma análise de ligações tipo T com perfis tubulares quadrados (SHS) para o banzo e para o montante efetuada com base na norma europeia, Eurocode 3, no CIDECT, na NBR 16239:2013 e ISO 14346 através de um modelo em elementos finitos desenvolvido no programa Ansys. Verificou-se a influência do momento atuante no montante no comportamento global das ligações. As não-linearidades físicas e geométricas foram incorporadas aos modelos, a fim de se mobilizar totalmente a capacidade resistente desta ligação. A não-linearidade do material foi considerada através do critério de plastificação de von Mises através da lei constitutiva tensão versus deformação trilinear de forma a exibir um comportamento elasto-plástico com encruamento. A nãolinearidade geométrica foi introduzida no modelo através da Formulação de Lagrange Atualizado. Os resultados numéricos são avaliados para a ligação em estudo quanto aos modos de falha e a distribuição de tensões. A análise dos momentos resistentes obtidos em comparação com os resultados do modelo numérico, apresentou valores excessivamente a favor da segurança no cálculo utilizando as equações de dimensionamento. Um estudo para fatores de correção das equações de dimensionamento é proposto.
Resumo:
O diabetes mellitus tipo 2 (DM2) é uma doença de prevalência crescente na população mundial, sendo associado ao aumento de diversas comorbidades. A relação entre o trato digestivo e o DM2 tem sido fortalecida a partir dos resultados das diferentes cirurgias metabólicas frente à remissão do distúrbio endócrino. Alterações morfológicas hipertróficas no epitélio intestinal são percebidas nos estágios iniciais da doença e parece ter papel primordial na instalação da hiperglicemia crônica. O gene p53 participa ativamente dos processos de regulação do crescimento epitelial intestinal e pode sofrer alteração de sua expressão em estados diabéticos. Objetiva-se avaliar os resultados clínicos e laboratoriais de pacientes DM2 e com índice de Massa Corpórea (IMC) >25 e <35 Kg/m2 submetidos a cirurgia metabólica denominada adaptação digestiva com duodenal switch parcial (DSP) e avaliar o comportamento da expressão do gene p53 na mucosa intestinal no período pré e pós-operatório. Nove pacientes DM2, com IMC<35Kg/m2 foram operados pela técnica DSP. Biópsias de duodeno e íleo foram colhidas no estado diabético (pré e transoperatório respectivamente) e, 3 meses após a cirurgia, através de endoscopia digestiva alta. Foram comparados os dados de evolução antropométrica (IMC) e laboratorial no período pré e pós-operatório. Através do método enzyme-linked immunosorbent assay (ELISA) foram determinados os níveis dos entero-hormônios glucagon-like peptide-1 (GLP-1) e glucose-dependent insulinotropic peptide (GIP), no pré e pós-operatório, em jejum e pós-prandial nos períodos 30',60',90' e 120'. A expressão do gene p53, foi avaliada por real time polymerase chain reaction (qrt-PCR) e western blot, nos dois diferentes momentos. As variáveis: glicemia de jejum e pós-prandial (2 horas), trigliceridemia de jejum, hemoglobina glicada (HbAc1) e peptídeo C foram analisadas. As médias dos parâmetros laboratoriais foram comparadas pela análise multivariada ANOVA e após teste-Tukey. A média de expressão relativa do gene p53 foi comparada nos dois períodos pelo teste t-student. Os resultados evidenciaram que entre maio e dezembro de 2010, nove pacientes (4 homens, 5 mulheres) DM2 e com IMC entre 26 e 34Kg/m2 foram submetidos a DSP. A média de IMC do grupo operado foi de 31,3. Houve queda do IMC média de 23% após um ano. Houve queda significativa (p<0,05) nos níveis de triglicerídeos, glicemia de jejum e pós-prandial (2 horas), HbA1c assim como aumento do peptídeo-C (p<0,05), quando comparados os períodos pré e pós-operatório. Os níveis séricos de GLP-1 foram significativamente maiores no pós-operatório (p<0,05), tanto em jejum como pós-prandial sendo que houve diminuição dos níveis de GIP, contudo sem significância estatística. O gene p53 sofreu aumento significativo de sua expressão relativa (qrt-PCR)(p<0,05) no período pós-operatório na mucosa duodenal e uma tendência de aumento no íleo, contudo sem significância estatística. A análise da expressão ao nível proteico foi bem sucedida somente no íleo, também mostrando tendência de aumento. Concluí-se que a DSP foi capaz de controlar satisfatoriamente o DM2 em pacientes com IMC<35 Kg/m2. Houve aumento da secreção de GLP-1 e tendência de diminuição do GIP. Houve aumento da expressão do p53 na mucosa intestinal, no período pós-operatório, após o controle do diabetes, quando comparada ao período pré-operatório.
Resumo:
A integridade de dutos ganha importância à medida em que o desenvolvimento da indústria expande a malha para transportar líquidos e gases num contexto de aumento das exigências ambientais. Um importante aliado para manutenção da integridade de dutos são reparos de materiais compósitos. Estes materiais apresentam baixa densidade, capacidade de direcionar resistência de acordo com as direções das solicitações, execução de reparo a frio sem necessidade de interromper produção ou grande maquinário. Este trabalho tem como objetivo desenvolver e implementar um algoritmo de elementos finitos que permita avaliar os esforços e a resistência das paredes de um tubos fabricados ou reparados com laminados de material compósito carregados com pressão interna. Entre as vantagens de desenvolver um programa tem-se: agilidade de avaliação, menor custo com licença, menores exigências computacionais, possibilidade de desenvolver o programa e o melhor entendimento da modelagem dos fenômenos. Utiliza-se como entrada do programa o diâmetro do duto, pressão interna e parâmetros do laminado. A modelagem em elementos finitos é realizada a partir da teoria clássica de laminados. Aplicando o carregamento resultante da pressão interna, determina-se os deslocamentos e são calculadas as tensões e aplicado o critério de falha de Tsai-Hill em cada camada. Estudos experimentais e numéricos encontrados na literatura foram simulados com o programa gerado e os resultados para propriedades do laminado, tensões nos dutos e pressão de ruptura apresentam concordância com os resultados da literatura.O programa ainda tem sua estrutura modificada para encontrar a pressão de falha a partir dos dados do laminado. O programa implementado permite uma avaliação rápida de resistência do reparo e possibilita avaliar rapidamente a resposta a mudanças nos parâmetros de projeto do laminado.
Resumo:
Apesar de serem intensamente estudados em muitos países que caminham na vanguarda do conhecimento, os métodos sem malha ainda são pouco explorados pelas universidades brasileiras. De modo a gerar uma maior difusão ou, para a maioria, fazer sua introdução, esta dissertação objetiva efetuar o entendimento dos métodos sem malha baseando-se em aplicações atinentes à mecânica dos sólidos. Para tanto, são apresentados os conceitos primários dos métodos sem malha e o seu desenvolvimento histórico desde sua origem no método smooth particle hydrodynamic até o método da partição da unidade, sua forma mais abrangente. Dentro deste contexto, foi investigada detalhadamente a forma mais tradicional dos métodos sem malha: o método de Galerkin sem elementos, e também um método diferenciado: o método de interpolação de ponto. Assim, por meio de aplicações em análises de barras e chapas em estado plano de tensão, são apresentadas as características, virtudes e deficiências desses métodos em comparação aos métodos tradicionais, como o método dos elementos finitos. É realizado ainda um estudo em uma importante área de aplicação dos métodos sem malha, a mecânica da fratura, buscando compreender como é efetuada a representação computacional da trinca, com especialidade, por meio dos critérios de visibilidade e de difração. Utilizando-se esses critérios e os conceitos da mecânica da fratura, é calculado o fator de intensidade de tensão através do conceito da integral J.
Resumo:
Os escoamentos altamente convectivos representam um desafio na simulação pelo método de elementos finitos. Com a solução de elementos finitos de Galerkin para escoamentos incompressíveis, a matriz associada ao termo convectivo é não simétrica, e portanto, a propiedade de aproximação ótima é perdida. Na prática as soluções apresentam oscilações espúrias. Muitos métodos foram desenvolvidos com o fim de resolver esse problema. Neste trabalho apresentamos um método semi- Lagrangeano, o qual é implicitamente um método do tipo upwind, que portanto resolve o problema anterior, e comparamos o desempenho do método na solução das equações de convecção-difusão e Navier-Stokes incompressível com o Streamline Upwind Petrov Galerkin (SUPG), um método estabilizador de reconhecido desempenho. No SUPG, as funções de forma e de teste são tomadas em espaços diferentes, criando um efeito tal que as oscilações espúrias são drasticamente atenuadas. O método semi-Lagrangeano é um método de fator de integração, no qual o fator é um operador de convecção que se desloca para um sistema de coordenadas móveis no fluido, mas restabelece o sistema de coordenadas Lagrangeanas depois de cada passo de tempo. Isto prevê estabilidade e a possibilidade de utilizar passos de tempo maiores.Existem muitos trabalhos na literatura analisando métodos estabilizadores, mas não assim com o método semi-Lagrangeano, o que representa a contribuição principal deste trabalho: reconhecer as virtudes e as fraquezas do método semi-Lagrangeano em escoamentos dominados pelo fenômeno de convecção.
Resumo:
O presente trabalho tem como tema as disputas que ocorrem no interior de uma instituição (IFSul) da Rede Federal de Educação Profissional, Científica e Tecnológica a respeito da pertinência e da concepção dos cursos técnicos integrados. Para tanto, discute as transformações que ocorrem no mundo do trabalho e suas especificidades no Brasil, bem como as implicações das novas relações de produção sobre as necessidades de formação humana. Aproxima as propostas de Gramsci para a escola unitária da realidade educacional brasileira e da proposta que se constrói como travessia para uma educação integral ou omnilateral o ensino médio integrado , além de apontar os espaços de contradição existentes na instituição estudada e que permitem avanços em direção à politecnia ou educação tecnológica. Utilizou-se da ampla bibliografia já existente para as formulações referentes às transformações no mundo do trabalho; à situação social, política e econômica brasileira; às opções ontológico-históricas, filosóficas e epistemológicas que constroem a proposta de ensino médio integrado. Para as análises das disputas no interior do instituto, utilizou-se de entrevistas semi-estruturadas e de um método de análise inspirado na metodologia da análise textual discursiva. Foram entrevistados 20 professores/gestores de três campi do IFSul, escolhidos por terem sido criados em diferentes momentos históricos. Tais professores ocupam os cargos de responsáveis pelo ensino do campus ou de coordenadores de cursos técnicos integrados ou de áreas do conhecimento do ensino médio. Foram escolhidos por catalizarem as opiniões de seus pares nos processos decisórios que se referem à oferta e ao currículo dos cursos. Na execução da análise, este trabalho utilizou-se das ferramentas do materialismo histórico e dialético. Partiu da análise mais geral das disputas de rumos, baseadas em projetos societários diferenciados, no interior do IFSul. Ao mesmo tempo, procurou ambientar o leitor com a instituição e o processo investigativo percorrido pelo autor. Em um segundo momento buscou aprofundar a análise, estudando as mudanças que ocorrem no mundo a partir da crise que se inicia na década de 1970 e que trouxe grandes transformações nos processos produtivos, além da financeirização dos mercados. Seguindo este processo de ida às categorias mais abstratas que organizam o todo social, manifestou as dificuldades históricas do modelo desenvolvimentista que se aplica no Brasil e apresentou as novas necessidades formativas na visão hegemônica e na visão dos trabalhadores, ao propor reformas educacionais que apontem numa perspectiva revolucionária. Assim, voltando ao concreto pensado, aprofundou algumas discussões a respeito da concepção de ensino médio integrado. Mesmo partindo do pressuposto de que a debilidade da formulação burguesa para a educação que se articula com o trabalho dificulta a formulação de um discurso contra-hegemônico, por parte da classe trabalhadora, este trabalho verificou as potencialidades de rupturas existentes neste processo histórico que vivemos. A concepção de politecnia se caracteriza como uma possibilidade de superação da polivalência perseguida pelo discurso educacional hegemônico. Tal superação, tarefa nas mãos da classe trabalhadora, poderá contribuir para a superação do capitalismo dependente brasileiro, resultado insólito das limitações revolucionárias de nossa burguesia
Resumo:
As vigas casteladas já são utilizadas em diversos tipos de estruturas para se vencer grandes vãos. Há uma nova realidade para o uso de perfis castelados, agora em aço inoxidável. Este trabalho apresenta uma análise comparativa entre vigas casteladas e vigas de alma cheia em perfis IPE, baseadas na norma europeia, no método da resistência contínua; e, também, através de um modelo em elementos finitos desenvolvido no programa Ansys. Este trabalho tem como objetivo verificar o comportamento e a resistência à flexão das vigas casteladas em aço inoxidável. As não-linearidades físicas e geométricas foram incorporadas aos modelos, a fim de se mobilizar totalmente a capacidade resistente desta estrutura. A não-linearidade do material foi considerada através do critério de plastificação de von Mises e da lei constitutiva tensão versus deformação multi-linear, de forma a exibir um comportamento elasto-plástico com encruamento. A não-linearidade geométrica foi considerada a partir de uma formulação de Lagrange atualizado. Os resultados numéricos das vigas em estudo foram avaliados quanto aos modos de falha e da distribuição de tensões. Os momentos resistentes analíticos foram comparados com os resultados do modelo numérico apresentando valores satisfatórios e a favor da segurança.
Resumo:
Projetos de construção são caracterizados pela escala, complexidade e seus riscos. Não é incomum encontrar planejamento e definição de escopo incompletos o que leva a aumento de custos e prazos. O objetivo desse trabalho é descrever um método de avaliação de riscos de forma a aumentar a previsibilidade da estimativa de custos do empreendimento. Para isso foram utilizados conceitos de gerenciamento de projetos, de simulação e de analise de riscos descritos na literatura para a constituição de um método de análise de riscos em estimativa de custos. A aplicação do método proposto em comparação com o método tradicional traz vantagens no que diz respeito à abrangência da análise. Enquanto pelo método tradicional a análise do empreendimento se faz por meio de suas tarefas, o método proposto analisa de forma distinta o planejamento do empreendimento nas suas três dimensões fundamentais: escopo, prazo e custo.
Resumo:
Projetos de construção são caracterizados pela escala, complexidade e seus riscos. Não é incomum encontrar planejamento e definição de escopo incompletos o que leva a aumento de custos e prazos. O objetivo desse trabalho é descrever um método de avaliação de riscos de forma a aumentar a previsibilidade da estimativa de custos do empreendimento. Para isso foram utilizados conceitos de gerenciamento de projetos, de simulação e de analise de riscos descritos na literatura para a constituição de um método de análise de riscos em estimativa de custos. A aplicação do método proposto em comparação com o método tradicional traz vantagens no que diz respeito à abrangência da análise. Enquanto pelo método tradicional a análise do empreendimento se faz por meio de suas tarefas, o método proposto analisa de forma distinta o planejamento do empreendimento nas suas três dimensões fundamentais: escopo, prazo e custo.
Resumo:
Lehmer (1929) analisa matematicamente o método do passo uniforme para construção de quadrados mágicos de ordem impar. Ele divide sua análise em várias etapas. Na primeira delas, envolvendo a discussão de condições necessárias e suficientes para o preenchimento do quadrado pelo método, o autor afirma que se dois números guardarem entre si uma certa relação, eles serão designados a ocupar a mesma célula do quadrado causando seu não preenchimento. A análise do preenchimento pelo método do passo uniforme envolve a resolução de um sistema linear módulo n. Nesse trabalho, discutimos o comportamento das soluções desse sistema quando o método falha no preenchimento. Como consequência, concluímos que números que guardam a relação mencionada nunca ocupam a mesma célula. A análise das condições necessárias e suficientes para obter quadrados mágicos segundo a definição de Lehmer (1929) envolve a resolução de equações de congruências lineares a duas variáveis. Nesse trabalho, detalhamos os resultados de Lehmer (1929). A análise das condições necessárias e suficientes para obtenção de quadrados mágicos, como são reconhecidos usualmente, também envolve a resolução de equações de congruências lineares a duas variáveis. Discutimos o comportamento das soluções dessas equações para obter diagonais principais mágicas. Como consequência, mostramos que diagonais principais mágicas são obtidas se e somente se as coordenadas iniciais guardarem certas relações
Resumo:
Esta pesquisa foi realizada com a intenção de motivar o estudo da criptografia, mostrando que a matemática e a comunicação estão presentes em diversos momentos, tanto no passado quanto no presente. Este trabalho mostra a origem da criptoanálise e toda a sua evolução dando ênfase nos mecanismos de codificação e decodificação através de exemplos práticos. Além disso, alguns métodos criptográficos são destacados como a cifra de substituição monoalfabética, a cifra de Vigenère, a criptografia RSA que é o método mais conhecido de criptografia de chave pública, as cifras de Hill, o método das transformações lineares e o método de Rabin, devido a sua grande importância para a evolução de sistemas computacionais e assinaturas digitais entre outros. Por fim, mostra-se a importância e a necessidade dos recursos criptográficos nos dias de hoje, na tentativa de impedir que hackers e pessoas que fazem mau uso do conhecimento matemático possam causar danos a sociedade, seja por uma simples mensagem ou até mesmo através de situações mais imprudentes como as transações bancárias indevidas
Resumo:
Tensões residuais são uma das principais causas de falhas em componentes mecânicos submetidos a processos de fabricação. O objetivo do trabalho foi medir as tensões residuais presentes em um tubo quadrado soldado por resistência elétrica de alta frequência e caracterizar microestruturalmente o seu material. Para a caracterização, foram utilizadas técnicas de microscopia óptica (MO), microscopia eletrônica de varredura (MEV) e análise química quantitativa. Para a medição das tensões residuais, foi utilizado o método do furo cego, baseado na norma ASTM E837-08, onde rosetas (strain-gages) são coladas à peça para medir as deformações geradas devido à usinagem de um pequeno furo no local de medição. As deformações foram associadas às tensões residuais através de equações baseadas na Lei de Hooke. A caracterização revelou uma microestrutura composta basicamente de ferrita e perlita, típica de aços com baixo teor de carbono, corroborando com a especificação fornecida pelo fabricante. As tensões residuais encontradas foram trativas e mostraram-se elevadas, com alguns valores acima do limite de escoamento do material.