35 resultados para Método não-isotérmico
Resumo:
A previsão do comportamento de resíduos constituiu-se em um desafio geotécnico, uma vez que estes materiais apresentam uma resposta distinta dos materiais usualmente encontrados em depósitos naturais. A análise dos recalques da fundação, decorrentes da sobrecarga imposta pelo alteamento, é complexa, tendo em vista que o adensamento de resíduos pressupõe grandes deformações, invalidando o uso de teorias clássicas de adensamento. Atualmente, no Brasil, a técnica de disposição de resíduos de bauxita prevê uma operação inicial de lançamento no interior de lagos artificiais, em forma de polpa. Após o esgotamento do lago e ressecamento do resíduo, inicia-se o lançamento pelo método a montante. Neste método, a polpa é lançada sobre o resíduo pré-existente, que se encontra em processo de adensamento. O presente trabalho tem como objetivo reproduzir numericamente o comportamento de áreas de resíduos durante a etapa de alteamento a montante. A pesquisa tem como enfoque 2 áreas de resíduos de bauxita. Uma delas encontra-se em fase de reabilitação e dispõe de instrumentação de campo (recalques e deslocamentos horizontais). A outra se encontra em fase de operação do alteamento e dispõe de dados experimentais. Desta forma, a metodologia consistiu na reprodução numérica do processo de alteamento da área instrumentada e comparação dos resultados com a instrumentação de campo, com objetivo de avaliar o modelo numérico e os parâmetros do resíduo. Posteriormente, realizou-se a previsão do comportamento do resíduo de fundação da área em fase de alteamento. Os parâmetros geotécnicos foram definidos a partir de um extenso programa de ensaios de campo e laboratório, executado no local em estudo, fazendo-se uso de um tratamento estatístico dos dados experimentais. Os resultados numéricos mostraram a potencialidade do programa na previsão do comportamento de áreas de resíduos durante o alteamento a montante, com previsões de recalques e deslocamentos horizontais coerentes com a instrumentação de campo.
Resumo:
Esta tese apresenta um exame da lógica da negação ou ambiguidade essencial da consciência, como núcleo metodológico da filosofia de Gaston Bachelard. Seu ponto de partida é a consideração da filosofia do não reformulação do pensamento estruturada sobre a necessidade epistemológica de opor-se ao modo de conhecimento clássico como valorização da negatividade, da crítica e da contradição, novos vetores de progresso dos saberes estético e científico. O jogo de oposições assume nesta abordagem o papel de estímulo que impulsiona a expansão da consciência, ao ressaltar a lógica das contradições que, em tal modo, revela simultaneamente como fundamento da investigação bachelardiana a necessidade de abertura e valorização da imaginação criadora, em sua aptidão ao vislumbre de novas estratégias do saber. O primeiro capítulo aborda a atuação deste dinamismo de polaridades e ambivalências como estratégia de demonstração e crescimento do saber epistemológico de Bachelard; o segundo, realiza um percurso análogo no campo da poética, estudando imaginação e devaneio como fulcros de infinitas e fecundas contradições. O terceiro capítulo explora as possibilidades desta lógica das oposições, que põe em relevo a complementaridade entre ciência e arte, e possibilita a compreensão da obra bachelardiana como unidade essencial.
Resumo:
Um método de Matriz Resposta (MR) é descrito para gerar soluções numéricas livres de erros de truncamento espacial para problemas multigrupo de transporte de nêutrons com fonte fixa e em geometria unidimensional na formulação de ordenadas discretas (SN). Portanto, o método multigrupo MR com esquema iterativo de inversão nodal parcial (NBI) converge valores numéricos para os fluxos angulares nas fronteiras das regiões que coincidem com os valores da solução analítica das equações multigrupo SN, afora os erros de arredondamento da aritmética finita computacional. É também desenvolvido um esquema numérico de reconstrução espacial, que fornece a saída para os fluxos escalares de nêutrons em cada grupo de energia em um intervalo qualquer do domínio definido pelo usuário, com um passo de avanço também escolhido pelo usuário. Resultados numéricos são apresentados para ilustrar a precisão do presente método em cálculos de malha grossa.
Resumo:
O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhança. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.
Resumo:
Em uma grande gama de problemas físicos, governados por equações diferenciais, muitas vezes é de interesse obter-se soluções para o regime transiente e, portanto, deve-se empregar técnicas de integração temporal. Uma primeira possibilidade seria a de aplicar-se métodos explícitos, devido à sua simplicidade e eficiência computacional. Entretanto, esses métodos frequentemente são somente condicionalmente estáveis e estão sujeitos a severas restrições na escolha do passo no tempo. Para problemas advectivos, governados por equações hiperbólicas, esta restrição é conhecida como a condição de Courant-Friedrichs-Lewy (CFL). Quando temse a necessidade de obter soluções numéricas para grandes períodos de tempo, ou quando o custo computacional a cada passo é elevado, esta condição torna-se um empecilho. A fim de contornar esta restrição, métodos implícitos, que são geralmente incondicionalmente estáveis, são utilizados. Neste trabalho, foram aplicadas algumas formulações implícitas para a integração temporal no método Smoothed Particle Hydrodynamics (SPH) de modo a possibilitar o uso de maiores incrementos de tempo e uma forte estabilidade no processo de marcha temporal. Devido ao alto custo computacional exigido pela busca das partículas a cada passo no tempo, esta implementação só será viável se forem aplicados algoritmos eficientes para o tipo de estrutura matricial considerada, tais como os métodos do subespaço de Krylov. Portanto, fez-se um estudo para a escolha apropriada dos métodos que mais se adequavam a este problema, sendo os escolhidos os métodos Bi-Conjugate Gradient (BiCG), o Bi-Conjugate Gradient Stabilized (BiCGSTAB) e o Quasi-Minimal Residual (QMR). Alguns problemas testes foram utilizados a fim de validar as soluções numéricas obtidas com a versão implícita do método SPH.
Resumo:
Nesta pesquisa utilizou-se um equipamento experimental que utiliza o método do eco-impacto produzido no Laboratório de Ensaios Físicos do Instituto Politécnico do Rio de Janeiro (UERJ/IPRJ), para estimar a espessuras de placas de concreto através da propagação de ondas de tensão geradas por um impacto. Para determinação dessa espessura, foram investigados vários mecanismos de estruturação do protótipo do equipamento com objetivo de se obter a melhor leitura possível, por meio das literaturas existentes. Entre parâmetros avaliados no estudo, estava o modelo de sensor a ser utilizado, o tipo de impactor, a precisão relacionada à aquisição de dados e o tratamento do mesmo, a distância entre o ponto de impacto e o transdutor (sensor), e o local de teste. Os resultados experimentais concordam com as previsões teóricas e revelam que este método é eficiente para análise de estrutura de concreto. A análise da espessura e resposta em frequência de um novo protótipo desenvolvido e os testes realizados possibilitou um erro médio de espessura real para amostras sem agregados de 0,39% e para as amostras com agregados com de 0,64%. Esses resultados apontam que o equipamento produzido tem potencial e que o mesmo pode ser utilizado para avaliação de estrutura de concreto.
Resumo:
A presente dissertação Método Pocha: Práticas de Ensino em Performance para Cruzadores de Fronteiras é uma reflexão sobre possibilidades educativas em performance art. Pesquisa que tem como enfoque o Método Pocha metodologia de ensino em performance desenvolvida pelo coletivo La Pocha Nostra. Nesse sentido, busca-se identificar as propostas metodológicas, procedimentos, temáticas, apontamentos conceituais que sustentam as práticas pedagógicas do La Pocha Nostra, e investigar o processo formativo/educativo por vias da arte da performance. O recorte da presente abordagem prioriza performances que habitem interstícios e espaços fronteiriços. Compreende o performer como um cronista do seu tempo/espaço, que reflete e problematiza os fluxos, formações e composições contemporâneas. As práticas, procedimentos e conceitos desenvolvidos nos programas performativos do coletivo La Pocha Nostra são pensados no contexto da pesquisa enquanto modo de descolonizar nossos corpos e criar complicações em torno de representações vigentes, ampliando noções de identidade e diferença em seu lugar de trânsito: o corpo
Resumo:
Nanopartículas de dióxido de titânio vêm sendo extensamente empregadas como fotocatalisa-dores, já que são eficientes na degradação de diversos poluentes. Visando a obtenção de titâ-nias com diferentes propriedades, realizaram-se sínteses através do método sol-gel, a partir da hidrólise do tetraisopropóxido de titânio (IV) TIPP e seguindo-se os princípios da Química Verde, dispensando-se temperaturas e pressões elevadas. Foi estudada a influência de dife-rentes parâmetros, como: pH, solvente, razão molar álcool/TIPP e ordem de adição dos rea-gentes. Foram obtidas titânias na forma cristalina anatásio, nanométricas, com elevadas áreas superficiais específicas e predominantemente mesoporosas. Visando-se obter titânias com melhores propriedades óticas, isto é, capazes de sofrer a fotoativação pela luz visível, foram sintetizadas titânias dopadas e co-dopadas com os metais ferro e rutênio (Fe3+ e Ru3+) e o a-metal N (N3). A síntese desses materiais também foi realizada através do método sol-gel, sendo a dopagem realizada durante o processo de hidrólise. As amostras foram caracterizadas na forma de pó por difração de raios-X, adsorção-dessorção de nitrogênio, microscopia ele-trônica de varredura e espectroscopia de refletância difusa no UV-Visível. A titânia pura a-presentou como única fase cristalina o anatásio, quando calcinada até 400 C, com a presença de traços de brookita. A partir de 600 C, observou-se o aparecimento da fase rutilo, que em 900C foi a única fase encontrada na titânia. A dopagem com Ru3+dificultou a transformação de fase anatásio para rutilo, ao contrário da dopagem com Fe3+. O processo de co-dopagem acelerou a formação de rutilo, que se apresentou como única fase nas amostras calcinadas a 600 C. As titânias dopadas apresentaram uma leve diminuição na energia de bandgap, sendo os dopantes capazes de deslocar a absorção para o vermelho. Foram realizados testes fotoca-talíticos visando à degradação do azocorante Reactive Yellow 145 com lâmpada de vapor de mercúrio de 125 W a fim de se comparar as atividades fotocatalíticas das titânias puras, dopa-das e co-dopadas, calcinadas a 300C. De todas as titânias sintetizadas, a titânia pura foi a que melhor degradou o corante, tendo um desempenho semelhante ao do TiO2 P25, da Evo-nik
Resumo:
Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.
Resumo:
Em engenharia, a modelagem computacional desempenha um papel importante na concepção de produtos e no desenvolvimento de técnicas de atenuação de ruído. Nesse contexto, esta tese investiga a intensidade acústica gerada pela radiação sonora de superfícies vibrantes. De modo específico, a pesquisa enfoca a identificação das regiões de uma fonte sonora que contribuem efetivamente para potência sonora radiada para o campo afastado, quando a frequência de excitação ocorre abaixo da frequência crítica de coincidência. São descritas as fundamentações teóricas de duas diferentes abordagens. A primeira delas, denominada intensidade supersônica (analítica) é calculada via transformadas de Fourier para fontes sonoras com geometrias separáveis. A segunda, denominada intensidade útil (numérica) é calculada através do método dos elementos de contorno clássico para fontes com geometrias arbitrárias. Em ambas, a identificação das regiões é feita pela filtragem das ondas não propagantes (evanescentes). O trabalho está centrado em duas propostas, a saber. A primeira delas, é a apresentação implementação e análise de uma nova técnica numérica para o cálculo da grandeza intensidade útil. Essa técnica constitui uma variante do método dos elementos de contorno (MEC), tendo como base o fato de as aproximações para as variáveis acústicas pressão e velocidade normal serem tomadas como constantes em cada elemento. E também no modo peculiar de obter a velocidade constante através da média de um certo número de velocidades interiores a cada elemento. Por esse motivo, a técnica recebe o nome de método de elemento de contorno com velocidade média (AVBEMAverage Velocity Boundary Element Method). A segunda, é a obtenção da solução forma fechada do campo de velocidade normal para placas retangulares com oito diferentes combinações de condições contorno clássicas. Então, a intensidade supersônica é estimada e comparada à intensidade acústica. Nos ensaios numéricos, a comparação da intensidade útil obtida via MEC clássico e via AVBEM é mostrada para ilustrar a eficiência computacional da técnica aqui proposta, que traz como benefício adicional o fato de poder ser utilizada uma malha menos refinada para as simulações e, consequentemente, economia significativa de recursos computacionais.
Resumo:
A integridade de dutos ganha importância à medida em que o desenvolvimento da indústria expande a malha para transportar líquidos e gases num contexto de aumento das exigências ambientais. Um importante aliado para manutenção da integridade de dutos são reparos de materiais compósitos. Estes materiais apresentam baixa densidade, capacidade de direcionar resistência de acordo com as direções das solicitações, execução de reparo a frio sem necessidade de interromper produção ou grande maquinário. Este trabalho tem como objetivo desenvolver e implementar um algoritmo de elementos finitos que permita avaliar os esforços e a resistência das paredes de um tubos fabricados ou reparados com laminados de material compósito carregados com pressão interna. Entre as vantagens de desenvolver um programa tem-se: agilidade de avaliação, menor custo com licença, menores exigências computacionais, possibilidade de desenvolver o programa e o melhor entendimento da modelagem dos fenômenos. Utiliza-se como entrada do programa o diâmetro do duto, pressão interna e parâmetros do laminado. A modelagem em elementos finitos é realizada a partir da teoria clássica de laminados. Aplicando o carregamento resultante da pressão interna, determina-se os deslocamentos e são calculadas as tensões e aplicado o critério de falha de Tsai-Hill em cada camada. Estudos experimentais e numéricos encontrados na literatura foram simulados com o programa gerado e os resultados para propriedades do laminado, tensões nos dutos e pressão de ruptura apresentam concordância com os resultados da literatura.O programa ainda tem sua estrutura modificada para encontrar a pressão de falha a partir dos dados do laminado. O programa implementado permite uma avaliação rápida de resistência do reparo e possibilita avaliar rapidamente a resposta a mudanças nos parâmetros de projeto do laminado.
Resumo:
No presente trabalho, foram processados compósitos de polietileno de alta densidade (PEAD) com hidroxiapatita deficiente de cálcio (HA), com o objetivo de obter materiais com melhores propriedades mecânicas e bioatividade. A adição da HA deficiente de cálcio proporcionou um aumento no módulo de elasticidade (maior rigidez), menor resistência ao impacto e decréscimo do grau de cristalinidade do PEAD, proporcionando uma maior bioatividade ao material. A análise térmica exploratória (sistema não isotérmico) foi realizada por meio da técnica de calorimetria exploratória diferencial (DSC) e foram avaliados os teores de fosfato de cálcio e a velocidade de rotação da rosca no processamento dos materiais. No estudo da cristalização não-isotérmica observou-se uma diminuição da temperatura de cristalização com o aumento da taxa de resfriamento para todos os materiais sintetizados. A energia de ativação (Ea) da cristalização dos materiais foi avaliada por meio dos métodos Kissinger e Ozawa. A amostra com 5% de HA deficiente de cálcio e velocidade de processamento de 200 rpm foi a que apresentou menor valor de energia de ativação, 262 kJ/mol, menor desvio da linearidade e a que mais se assemelhou à matriz de PEAD sem HA. O teor de hidroxiapatita deficiente de cálcio não favorece o processo de cristalização devido à alta energia de ativação determinada pelos métodos descritos. Provavelmente, a velocidade de rotação, favorece a dispersão da carga na matriz de PEAD, dificultando o processo de cristalização. Na aplicação do método de Osawa-Avrami, os coeficientes de correlação indicaram perda na correlação linear. Estas perdas podem estar associadas a uma pequena percentagem de cristalização secundária e/ou à escolha das temperaturas utilizadas para determinar a velocidade de cristalização. Na determinação dos parâmetros pelo método de Mo, as menores percentagens de cristalização apresentaram um grande desvio da linearidade, com coeficiente de correlação bem menor que 1 e com o aumento da percentagem de cristalização, o desvio da linearidade diminui, ficando próximo de 1. Os resultados obtidos mostraram que o modelo de Mo e de Osawa-Avrami não foram capazes de definir o comportamento cinético dos materiais produzidos neste trabalho.
Resumo:
Apesar de serem intensamente estudados em muitos países que caminham na vanguarda do conhecimento, os métodos sem malha ainda são pouco explorados pelas universidades brasileiras. De modo a gerar uma maior difusão ou, para a maioria, fazer sua introdução, esta dissertação objetiva efetuar o entendimento dos métodos sem malha baseando-se em aplicações atinentes à mecânica dos sólidos. Para tanto, são apresentados os conceitos primários dos métodos sem malha e o seu desenvolvimento histórico desde sua origem no método smooth particle hydrodynamic até o método da partição da unidade, sua forma mais abrangente. Dentro deste contexto, foi investigada detalhadamente a forma mais tradicional dos métodos sem malha: o método de Galerkin sem elementos, e também um método diferenciado: o método de interpolação de ponto. Assim, por meio de aplicações em análises de barras e chapas em estado plano de tensão, são apresentadas as características, virtudes e deficiências desses métodos em comparação aos métodos tradicionais, como o método dos elementos finitos. É realizado ainda um estudo em uma importante área de aplicação dos métodos sem malha, a mecânica da fratura, buscando compreender como é efetuada a representação computacional da trinca, com especialidade, por meio dos critérios de visibilidade e de difração. Utilizando-se esses critérios e os conceitos da mecânica da fratura, é calculado o fator de intensidade de tensão através do conceito da integral J.
Resumo:
Os escoamentos altamente convectivos representam um desafio na simulação pelo método de elementos finitos. Com a solução de elementos finitos de Galerkin para escoamentos incompressíveis, a matriz associada ao termo convectivo é não simétrica, e portanto, a propiedade de aproximação ótima é perdida. Na prática as soluções apresentam oscilações espúrias. Muitos métodos foram desenvolvidos com o fim de resolver esse problema. Neste trabalho apresentamos um método semi- Lagrangeano, o qual é implicitamente um método do tipo upwind, que portanto resolve o problema anterior, e comparamos o desempenho do método na solução das equações de convecção-difusão e Navier-Stokes incompressível com o Streamline Upwind Petrov Galerkin (SUPG), um método estabilizador de reconhecido desempenho. No SUPG, as funções de forma e de teste são tomadas em espaços diferentes, criando um efeito tal que as oscilações espúrias são drasticamente atenuadas. O método semi-Lagrangeano é um método de fator de integração, no qual o fator é um operador de convecção que se desloca para um sistema de coordenadas móveis no fluido, mas restabelece o sistema de coordenadas Lagrangeanas depois de cada passo de tempo. Isto prevê estabilidade e a possibilidade de utilizar passos de tempo maiores.Existem muitos trabalhos na literatura analisando métodos estabilizadores, mas não assim com o método semi-Lagrangeano, o que representa a contribuição principal deste trabalho: reconhecer as virtudes e as fraquezas do método semi-Lagrangeano em escoamentos dominados pelo fenômeno de convecção.
Resumo:
Projetos de construção são caracterizados pela escala, complexidade e seus riscos. Não é incomum encontrar planejamento e definição de escopo incompletos o que leva a aumento de custos e prazos. O objetivo desse trabalho é descrever um método de avaliação de riscos de forma a aumentar a previsibilidade da estimativa de custos do empreendimento. Para isso foram utilizados conceitos de gerenciamento de projetos, de simulação e de analise de riscos descritos na literatura para a constituição de um método de análise de riscos em estimativa de custos. A aplicação do método proposto em comparação com o método tradicional traz vantagens no que diz respeito à abrangência da análise. Enquanto pelo método tradicional a análise do empreendimento se faz por meio de suas tarefas, o método proposto analisa de forma distinta o planejamento do empreendimento nas suas três dimensões fundamentais: escopo, prazo e custo.