30 resultados para Método de aplicação
em Universidade Federal do Pará
Resumo:
O presente trabalho analisa o efeito da forma da partícula por meio do método dos Elementos Discretos (DEM). São analisadas quatro partículas com formas e esfericidades diferentes – uma esférica e três não-esféricas. O ângulo de repouso é o principal instrumento de avaliação dos escoamentos. A análise inicia com a calibração da partícula esférica usando dados da literatura, em seguida, estes parâmetros calibrados são empregados para a simulação dos escoamentos das partículas não-esféricas. São feitas comparações dos esforços computacionais e, estas informações, são usadas para verificar as vantagens que a partícula esférica oferece sobre as outras três formas. Nesse cenário, procedimentos foram desenvolvidos para ajudar no processo de calibração dos ângulos de repousos, tendo como base, o conhecimento da sensibilidade de alguns parâmetros DEM. Os resultados mostram a influência das partículas não-esféricas e, principalmente, que é possível obter com a partícula esférica, escoamentos similares aos das partículas não-esféricas, com ganho computacional.
Resumo:
O filtro de Kalman é aplicado para filtragem inversa ou problema de deconvolução. Nesta dissertação aplicamos o método de Kalman, considerado como uma outra visão de processamento no domínio do tempo, para separar sinal-ruído em perfil sônico admitido como uma realização de um processo estocástico não estacionário. Em um trabalho futuro estudaremos o problema da deconvolução. A dedução do filtro de Kalman destaca a relação entre o filtro de Kalman e o de Wiener. Estas deduções são baseadas na representação do sistema por variáveis de estado e modelos de processos aleatórios, com a entrada do sistema linear acrescentado com ruído branco. Os resultados ilustrados indicam a aplicabilidade dessa técnica para uma variedade de problemas de processamento de dados geofísicos, por exemplo, ideal para well log. O filtro de Kalman oferece aos geofísicos de exploração informações adicionais para o processamento, problemas de modelamento e a sua solução.
Resumo:
O empilhamento sísmico é um método de imageamento utilizado para simulação de seções sísmicas com afastamento nulo (AN) a partir de dados de cobertura múltipla, produzindo um aumento da razão sinal/ruído na seção simulada. Este método é realizado usando o processamento convencional denominado ponto médio comum (PMC), através das chamadas correções sobretempo normal e sobretempo oblíquo (STN/STO). Alternativamente, um novo método de empilhamento sísmico, denominado superfície de reflexão comum (SRC) pode ser usado para simular seções sísmicas em afastamento nulo (AN). O método SRC tem como principais características: 1) a construção de uma aproximação do tempo de trânsito de reflexões primárias na vizinhança de um raio de reflexão normal; 2) esta aproximação de empilhamento tem como parâmetros os ângulos de emergência do raio normal e os raios de curvaturas de duas ondas hipotéticas denominadas onda ponto de incidência normal (onda PIN) e onda normal (onda N). O método pressupõe ainda que a velocidade da onda longitudinal na parte superior do modelo próxima à superfície da Terra seja conhecida. Para determinar adequadamente os parâmetros supracitados, fundamentais para o método de imageamento SRC, são necessárias estratégias de busca que utilizem casos particulares da aproximação de segunda ordem hiperbólica dos tempos de trânsito. As estratégias de busca apresentadas são: SRC pragmático-extendito e SRC global-local. Neste trabalho é apresentada uma revisão extensa dos fundamentos teóricos de método de empilhamento SRC, como também das estratégias de busca dos parâmetros SRC, dos algoritmos de implementação, e da delimitação de aberturas do operador de empilhamento SRC usando conceitos de zonas de Fresnel e o fator de estiramento da correção STN. Como um exemplo de aplicação dos atributos ou parâmetros SRC é apresentado o resultado da correção STN, sem estiramento do sinal sísmico, obtido utilizando as velocidades estimadas dos parâmetros SRC. Também, são apresentados os resultados da aplicação dos três métodos de empilhamento (PMC (STN/STO), SRC pragmático-extendido, SRC global-local) nos dados sintéticos Marmousi e real terrestre da bacia paleozóica Amazônica. Finalmente apresentam-se as discussões sobre os resultados, quanto à resolução da imagem sísmica e custo computacional.
Resumo:
Atualmente setor elétrico brasileiro está estruturado sobre a disponibilidade das unidades geradoras, subestações e linhas de transmissão. Com a aplicação das regras do novo modelo do setor, tanto as empresas de geração como as de transmissão, passaram a ser submetidas a mecanismos que penalizam a indisponibilidade, causada por desligamentos forçados ou programados, dos seus ativos. Para evitar a aplicação destes mecanismos, e outras penalidades, que causam grandes prejuízos, é preciso que o processo de manutenção garanta a disponibilidade e confiabilidade, dos equipamentos e instalações. Este trabalho propõe um método de gestão da produção, também direcionado para a eliminação das perdas existentes no processo de geração e transmissão de energia elétrica, adaptado da Manutenção Produtiva Total – TPM. O desenvolvimento do método está baseado no estudo da aplicação da TPM nas plantas de geração e transmissão da Eletrobras Eletronorte. O método proposto deverá fomentar a gestão da qualidade não só na manutenção e operação (O&M), mas também em todos os processos que possam impactar na disponibilidade dos ativos de geração e transmissão.
Resumo:
A análise de ocorrências no sistema de energia elétrica é de fundamento mportância para uma operação segura, e para manter a qualidade da energia elétrica lornecida aos consumidores. As concessionárias do setor de energia elétrica usam equipamentos, chamados registradores de perturbação (RP's), para monitora diagnosticar problemas nos sistemas elétrico e de proteção. As formas de onda normalmente analisadas nos centros de operação das concessionárias, são aquelas geradas por eventos que quase sempre causam a aocrtul je linhas devido a operação dos relés comandados pelos dispositivos de proteção .Contudo, uma grande quantidade de registros armazenados que podem conte informações importantes sobre o comportamento e desempenho do sistema elétricl jeixa de ser analisada. O objetivo desse trabalho é usar os dados disponíveis nos centros de ontrole, operação das concessionárias de energia elétrica obtidos pelos RP's, para classificar e quantificar de forma automática sinais que caracterizem problemas de qualidade da energia, quanto a variações de tensão de curta duração: afundamentos, elevações e interrupções. O método proposto usa a transformada wavelet para obter um vetor característico para as tensões das fases A, B e C, e uma rede neural probabilística para classificação. Os sinais classificados como apresentando variações de curta duração são quantilicados quanto a duração e amplitude, usando-se as propriedades da análise nultiresolução da decomposição do sinal. Esses parâmetros, então, irão formar uma Jase de dados onde procedimentos de análise estatística podem ser usados para gerar relatórios com as características da qualidade da energia. Os resultados obtidos com a metodologia proposta para um sistema real são também apresentados.
Resumo:
Os materiais amorfos vêm ganhando grande espaço na indústria de transformadores, devido às baixas perdas no núcleo, visto que estes possuem um ciclo de histerese mais estreito quando comparados com os núcleos tradicionais de aço silício. Entretanto, seu custo ainda tem sido um grande fator para pouca inserção deste tipo de equipamento nos sistemas elétricos de potência. Estudos sobre o custo/benefício em termos técnicos de desempenho e robustez devem ser considerados quando se deseja projetar transformadores que utilizam esse tipo de material. A grande contribuição deste trabalho encontra-se na análise do desempenho do transformador de núcleo amorfo diante de curtos-circuitos, visto que tais falhas neste equipamento ocasionam redução da receita, não apenas por gastos com manutenção, mas também porque a concessionária deixa de vender seu produto, energia elétrica, além de poder estar sujeita a penalidades por parte dos órgãos de regulação do setor elétrico. Quando em condições de curto-circuito os enrolamentos dos transformadores ficam submetidos a esforços mecânicos, produzidos por forças de Lorentz, essas forças surgem como resultado do fluxo produzido pelos próprios condutores em paralelo que transportam corrente na mesma direção. Diante disso, estudar o comportamento eletromagnético do transformador é fundamental para obtenção de tais forças. Para o desenvolvimento deste trabalho, utilizou-se o software Finite Element Method Magnetics (FEMM). Esta ferramenta se baseia no método de elementos finitos para realizar os cálculos das magnitudes eletromecânicas e, consequentemente, o cálculo das forças atuando nas espiras, as quais permitem realizar os cálculos dos esforços mecânicos. Por fim, este trabalho aborda a aplicação da ferramenta FEMM para o cálculo de esforços mecânicos e simulação do comportamento eletromagnético de um transformador de distribuição.
Resumo:
A metodologia da Aprendizagem Baseada em Problemas (ABP), diferentemente dos métodos de ensino convencionais, é uma metodologia que usa problemas para diminuir a lacuna entre a teoria e a prática no processo de aprendizagem. Além de favorecer a construção de conhecimentos, se propõe a contribuir para o desenvolvimento de algumas capacidades profissionais não técnicas, consideradas importantes para a prática do engenheiro em uma sociedade em constantes e rápidas transformações. Este trabalho, uma pesquisa-ação, buscou vivenciar e analisar a eficiência do método durante sua aplicação na disciplina “Gestão Empresarial”, ministrada a alunos do penúltimo e último semestre do Curso de Graduação em Engenharia Civil. Os dados para a análise foram coletados por meio de observação participante do professor/tutor da disciplina e de relatórios de avaliação, nos quais os alunos opinavam sobre a ABP, suas vantagens e desvantagens e seu potencial para atingir os objetivos propostos. Nos três estudos de caso realizados, apesar de aplicados em turmas diferentes, evidenciam-se através dos relatórios apresentados pelos alunos e de avaliações feitas durante todo o processo, a ocorrência tanto da aprendizagem dos conhecimentos quanto o desenvolvimento de algumas habilidades e atitudes objetivadas pela disciplina, tais como: capacidade de pesquisa, desenvolvimento de espírito empreendedor e busca de conhecimentos inovadores. De forma geral, os alunos reagiram positivamente à ABP, o que sugere sua possível utilização nos contextos estudados. A metodologia também demonstrou ser um instrumento interessante de desenvolvimento profissional para o professor/tutor, no que concerne ao aprimoramento docente.
Resumo:
O interesse no comportamento dinâmico de estruturas metálicas vem crescendo nas últimas décadas no Brasil, em decorrência de acidentes com colapso total de algumas estruturas devido às vibrações ambientes em diversas regiões do país. Na região amazônica, por exemplo, onde esse tipo de estrutura deve vencer obstáculos como florestas e rios de grande largura, casos de colapso total de estruturas metálicas também são relatados. O foco principal dessa dissertação é o estudo do comportamento modal de estruturas metálicas submetidas às vibrações ambientes cuja magnitude das forças de excitação é desconhecida. Dois estudos de caso são apresentados: no primeiro deles, o comportamento modal de uma torre de linha de transmissão de energia elétrica é investigado; e no segundo caso, tanto o comportamento modal como os níveis de desconforto de uma ponte são estudados. Os estudos realizados neste último caso visam avaliar os níveis de desconforto da ponte quando submetida às excitações ambientes como rajadas de vento e o tráfego de veículo de acordo a norma brasileira NBR 8800 (1986). Em ambos os estudos de caso foram realizadas análises experimentais e computacionais. Na etapa experimental, ambas as estruturas foram monitoradas com emprego de um conjunto de acelerômetros de baixa freqüência e também de um sistema de aquisição apropriados para ensaios de vibração de estruturas civis. Como é muito difícil medir a magnitude das forças de excitação ambientes, foram utilizados os métodos de identificação estocásticos SSI-DATA e SSI-COV para extração de parâmetros modais de estruturas civis a partir somente dos dados de resposta coletados nos ensaios de vibração. Entre as atividades desenvolvidas nessa etapa, destaca-se a criação de um programa computacional com recursos do Graphical User Interface (GUI) da plataforma Matlab®, destinado à identificação modal de estruturas civis com o emprego dos referidos métodos estocásticos. Esse programa é constituído de três módulos: o primeiro é destinado ao processamento e tratamento dos sinais coletados nos ensaios de vibração; o segundo é utilizado para adicionar as informações do posicionamento dos acelerômetros utilizados nos arquivos dos sinais de resposta; e o terceiro e último módulo é destinado à identificação a partir dos arquivos de dados de resposta processados nos dois primeiros módulos. Na etapa das análises teóricas, foram criados modelos numéricos utilizando o método dos elementos finitos para simular o comportamento dinâmico das estruturas analisadas. Comparando os resultados obtidos em ambas as etapas de análise, verifica-se que resultados experimentais e teóricos apresentaram parâmetros bastante próximos entre si nos primeiros modos de vibração. Os resultados experimentais mostraram que ambos os métodos estocásticos foram muito eficientes na identificação das estruturas ensaiadas.
Resumo:
Introdução: São poucos e dispersos os estudos sobre prevalência de enteroparasitoses em nosso meio, sendo a maioria deles realizada em amostras de base populacional mal definidas, como usuários de serviços de saúde ou alunos de escolas públicas. Objetivo: Quantificar a prevalência da Entamoeba histolytica em uma população rural do Estado do Pará. Casuística e Método: Estudo coprológico pelo método da hematoxilina férrica em 124 moradores do meio rural de Tailândia, utilizando processo de amostragem aleatória para estabelecer a prevalência, a acurácia, os valores preditivos positivo e negativo, bem como a sensibilidade e especificidade. Resultados: Da amostra populacional, 56,58% pertenciam ao sexo masculino, sendo 60,6% entre as idades de 18 a 43 anos. No estudo da escolaridade, 64,5% tinham até 3 anos de estudo e 63,7% recebiam menos de 1 salário mínimo de remuneração. A prevalência de Entamoeba histolytica atingiu 24,2%. Conclusão: A acurácia, medida de valor global do teste efetuado, mostra que 73,4% dos pacientes foram classificados corretamente. O teste de sensibilidade de 70,0% definiu teste positivo para a infecção e a especificidade de 74,5%.
Resumo:
Apesar das diversas vantagens oferecidas pelas redes neurais artificiais (RNAs), algumas limitações ainda impedem sua larga utilização, principalmente em aplicações que necessitem de tomada de decisões essenciais para garantir a segurança em ambientes como, por exemplo, em Sistemas de Energia. Uma das principais limitações das RNAs diz respeito à incapacidade que estas redes apresentam de explicar como chegam a determinadas decisões; explicação esta que seja humanamente compreensível. Desta forma, este trabalho propõe um método para extração de regras a partir do mapa auto-organizável de Kohonen, projetando um sistema de inferência difusa capaz de explicar as decisões/classificação obtidas através do mapa. A metodologia proposta é aplicada ao problema de diagnóstico de faltas incipientes em transformadores, em que se obtém um sistema classificatório eficiente e com capacidade de explicação em relação aos resultados obtidos, o que gera mais confiança aos especialistas da área na hora de tomar decisões.
Resumo:
Neste trabalho foi utilizado rejeito de caulim da região do Ipixuna-PA, com objetivo de sintetizar zeólita tipo analcina na forma sódica como fase cristalina predominante, através do processo hidrotérmico. O rejeito foi submetido à calcinação por 4 horas a 700°C, para conversão em metacaulinita. A partir desta metacaulinita foi preparada uma mistura reacional contendo diatomito e hidróxido de sódio, que foi levada à autoclave a uma temperatura de 215°C por 24 horas. Diversas variáveis do processo de síntese foram investigadas, entre elas destacam-se: disponibilidade de sódio, proporção de silício, natureza da fonte de sílica, pH na mistura reacional e tempo de autoclavagem. Isso com o intuito de se determinar quais asalterações que os produtos reacionais sofrem com tais modificações, definindo desta forma a condição ideal de síntese da analcina. Foram avaliadas também algumas propriedades importantes do adsorvente, tais como: estabilidade térmica, onde foi aplicado o método de Rietveld para identificar as modificações na estrutura cristalina; estabilidade em presença ácida; cinética de dessorção gerada pelo íon hidrogênio; comportamento das isotermas de adsorção de cobre, cádmio, zinco e níquel bem como avaliar a seletividade de tais cátions no adsorvente. A síntese de analcina mostrou-se possível usando rejeito de caulim. Quando analcina foi calcinada a 400°C foi observado deslocamento nos planos (h,k,l) e manteve-se constante até 600°C, gerado pela saída de oxigênio da posição 1/8 da analcina, isso gera uma diminuição na célula unitária provocando uma diminuição nos canais e sítios ativos da zeólita o que afetou a capacidade de adsorção.
Resumo:
Neste trabalho estudaram-se as características de superfície de CAG comercial in natura (CA-1) e tratado por (HNO3) (CA-2) e suas aplicações na adsorção de benzeno e tolueno. Caracterização dos adsorventes: área superficial específica - SBET e distribuição de poros (adsorção de N2/77 K), pH (norma ASTM D3838-05), grupos funcionais de superfície (FTIR e método de Boehm). Foram realizados ensaios de adsorção em sistema batelada (25°C/140 rpm/25 minutos) e sistema de coluna em leito fixo, onde as amostras foram quantificadas por cromatografia gasosa com extração por headspace método EPA 0010. A SBET e o volume médio dos poros do adsorvente CA-2 diminuíram com relação aos valores de CA1, bem como o valor do pH. Houve aumento de grupos funcionais ácidos determinados pelo método de Boehm do adsorvente CA-2 em relação ao CA-1, o que foi confirmado pela determinação de FTIR, na qual a intensidade das bandas de absorção foram mais intensas para CA-2. Obtiveram-se percentuais de remoção de benzeno de 92,6 e 93,6 (%) a partir de CA-1 e CA-2, respectivamente, e para tolueno de 93,2 e 94,3 (%) para CA-1 e CA-2. Os dados dos testes cinéticos foram ajustados satisfatoriamente pelo modelo matemático de pseudo-segunda ordem, baseado nos testes estatísticos aplicados, havendo diferenças estatísticas significativas entre o adsorvente tratado (CA-2) e o in natura (CA-1). Realizaram-se ensaios de equilíbrio de adsorção e correlacionaram-se os resultados pela Isoterma de Langmuir, com resposta satisfatória para o referido modelo. A partir do sistema de adsorção em coluna de leito fixo e considerando o maior valor de vazão volumétrica (Q=100 mL/min) utilizado no referido sistema obtiveram-se os resultados mais significativos de adsorção de benzeno e tolueno empregando (CA-2) como adsorvente.
Resumo:
A fluidização de partículas é amplamente utilizada na indústria, principalmente devido às altas taxas de transferência de calor e massa entre as fases. O acoplamento entre a Dinâmica dos Fluidos Computacional (CFD – Computational Fluid Dynamics) e o Método dos Elementos Discretos (DEM – Discrete Element Method) tem se tornado atrativo para a simulação de fluidização, já que nesse caso o movimento das partículas é analisado de forma mais direta do que em outros tipos de abordagens. O grande problema do acoplamento CFD-DEM é a alta exigência computacional para rastrear todas as partículas do sistema, o que leva ao uso de estratégias de redução do tempo de simulação que em caso de utilização incorreta podem comprometer os resultados. O presente trabalho trata da aplicação do acoplamento CFD-DEM na análise de fluidização de alumina, que é um problema importante para o setor mineral. Foram analisados diversos parâmetros capazes de influenciar os resultados e o tempo de simulação como os passos de tempo, os modelos de arrasto, a distribuição granulométrica das partículas, a constante de rigidez, a utilização de partículas representativas com tamanho maior que o das partículas reais, etc. O modelo de força de interação DEM utilizado foi o modelo de mola e amortecedor lineares (LSD – Linear Spring Dashpot). Todas as simulações foram realizadas com o software ANSYS FLUENT 14.5 e os resultados obtidos foram comparados com dados experimentais e da literatura. Tais resultados permitiram comprovar a capacidade do modelo linear LSD em predizer o comportamento global de leitos de alumina e reduzir o tempo de simulação, desde que os parâmetros do modelo sejam definidos de forma adequada.
Resumo:
O alumínio metálico é obtido a partir da bauxita, minério de grande importância industrial, composta por um ou mais tipos de hidróxidos de alumínio, acrescido de uma mistura de compostos contendo sílica, óxido de ferro, titânia e aluminossilicatos. Em virtude da variação na concentração relativa desses componentes, em amostras diferentes de bauxita, a determinação qualitativa e quantitativa da composição mineralógica desse minério, tem importância relevante no que se refere à sua aplicação tecnológica, já que esta está diretamente relacionada com o teor desses componentes. Neste trabalho, aplicou-se em oito amostras de bauxita extraídas de uma mina em Paragominas, o processo de refinamento de espectros de difração de raios X pelo método de Rietveld, onde foram identificadas e quantificadas as fases cristalinas: gibbsita, caulinita, goehtita, anatásio, quartzo e hematita. Realizados os refinamentos das amostras, constatou-se que todas apresentavam alto teor de Gibbsita e baixo teor de Goethita o que confere um excelente tipo de bauxita para ser utilizada em processo de extração de alumina.
Resumo:
O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.