836 resultados para Torta de filtro
Resumo:
Nesta dissertação investiga-se o comportamento não saturado de dois solos coluvionares situados na divisa dos estados do Rio Grande do Sul e Santa Catarina, em um dos trechos do Gasoduto Bolívia-Brasil. Os solos coluvionares amostrados são constituídos por materiais provenientes de derrames básicos da Formação Serra Geral (basalto) e da Formação Botucatu (arenito). O trabalho de pesquisa realizado com esses solos tem seu enfoque dividido em duas partes principais (1) determinação da curva característica dos solos na condição indeformada e (2) análise do potencial de colapso de amostras indeformadas e remoldadas. O programa experimental inclui também ensaios de caracterização física e mineralógica dos materiais. A determinação da curva característica é fundamental para o entendimento do comportamento do solo não saturado, pois representa a capacidade do solo de armazenar água quando submetido a diferentes valores de sucção. As curvas características dos solos coluvionares investigados foram obtidas através de uma nova proposta de ensaio para o método do papel filtro. Os resultados das curvas características exibiram um formato de “sela”, indicando que a microestrutura e a macroestrutura presentes nesses solos têm um papel determinante na entrada e na saída de água dos poros do solo. Um modelo físico e uma hipótese para a variação da área de água nos diferentes trechos da curva característica foram propostos O índice de vazios inicial e a histerese determinaram a forma das curvas características dos solos estudados. Os valores elevados de índices de vazios iniciais, a presença de macroestrutura e microestrutura bem definidas, e a condição não saturada dos solos coluvionares motivaram uma análise do potencial de colapso. O colapso foi analisado através de critérios qualitativos (ensaios de caracterização e índices físicos) e quantitativos (ensaios oedométricos simples e duplo). Os critérios qualitativos e os ensaios oedométricos simples classificam todas as amostras como não colapsíveis. O ensaio oedométrico duplo, em geral, superestima os valores de potencial de colapso para os solos. As amostras remoldadas apresentaram valores de colapso maiores que as indeformadas.
Resumo:
Esta dissertação trata da elaboração de uma ferrramenta para a geração de filtros FIR otimizados paralelos com coeficientes constantes. A ferramenta desenvolvida é capaz de gerar uma descrição VHDL de um filtro FIR paralelo com coeficientes constantes a partir das especificações do filtro. São exploradas técnicas de otimização de coeficientes e de otimização arquitetural. As técnicas empregadas são baseadas no uso de representações ternárias e redução do número de digitos não-zero dos coeficientes, uso de fatores de escala e eliminação de sub-expressões comuns. No texto, uma breve introdução sobre os filtros digitais é apresentada seguida por uma série de trabalhos encontrados na literatura relacionados às técnicas mencionadas e que são apresentados como base para o desenvolvimento da ferramenta implementada nesta dissertação. O funcionamento da ferramenta é detalhado tanto nos seus aspectos de algoritmo quanto em nível de implementação. São apresentados resultados de síntese em alguns de filtros hipotéticos projetados utilizando a ferramenta desenvolvida. Uma análise detalhada dos resultados obtidos é realizada. Os apêndices deste trabalho apresentam o código fonte da ferramenta de síntese de filtros desenvolvida.
Resumo:
O presente trabalho analisa diferentes modelos de representação temporal usados em arquiteturas conexionistas e propõe o uso de um novo modelo neural, chamado Neurônio Diferenciador-Integrador (NDI) para aplicação com processamento de sinais temporais. O NDI pode ser interpretado como filtro digital. Seu funcionamento exige poucos recursos computacionais e pode ser de grande valia em problemas onde a solução ideal depende de uma representação temporal instantânea, facilidade de implementação, modularidade e eliminação de ruído. Após a definição do modelo, o mesmo é sujeito a alguns experimentos teóricos utilizado em conjunto com arquiteturas conexionistas clássicas para resolver problemas que envolvem o tempo, como previsão de séries temporais, controle dinâmico e segmentação de seqüências espaço-temporais. Como conclusão, o modelo neural apresenta grande potencialidade principalmente na robótica, onde é necessário tratar os sinais sensoriais ruidosos do robô de forma rápida e econômica.
Resumo:
O objetivo deste trabalho é caracterizar a Curva de Juros Mensal para o Brasil através de três fatores, comparando dois tipos de métodos de estimação: Através da Representação em Espaço de Estado é possível estimá-lo por dois Métodos: Filtro de Kalman e Mínimos Quadrados em Dois Passos. Os fatores têm sua dinâmica representada por um Modelo Autorregressivo Vetorial, VAR(1), e para o segundo método de estimação, atribui-se uma estrutura para a Variância Condicional. Para a comparação dos métodos empregados, propõe-se uma forma alternativa de compará-los: através de Processos de Markov que possam modelar conjuntamente o Fator de Inclinação da Curva de Juros, obtido pelos métodos empregados neste trabalho, e uma váriavel proxy para Desempenho Econômico, fornecendo alguma medida de previsão para os Ciclos Econômicos.
Resumo:
O desenvolvimento de um método analítico para determinação de Mg, Ti e Cl emcatalisadores suportados Ziegler-Natta (ZN) por espectroscopia de fluorescência de raios Xcom dispersão em comprimento de onda (WDXRF) foi avaliado. Três famílias decatalisadores com distintos teores de Mg, Ti e Cl foram utilizados. Para fins de comparação,os analitos foram também determinados por métodos clássicos, a saber, Mg porcomplexometria com EDTA, Ti por espectrofotometria e Cl por argentimetria. A naturezahigroscópica desses catalisadores impossibilitou a análise direta por WDXRF. Melhoresresultados na preparação da amostra foram obtidos através da calcinação (1000 0C), seguida de mistura com aglomerante (H3BO3), na proporção 1:4, para a determinação da razãoMg/Ti. O estudo do efeito da pressão sobre a intensidade do sinal analítico de Mg e de Ti evidencioua necessidade de prensagem das amostras em pressões superiores a 200 MPa. No caso de Mg e Ti, a determinação por Parâmetros Fundamentais (FP), a partir da medida da linha espectral do Ti, forneceu resultados equivalentes àqueles obtidos porcalibração univariada e por métodos clássicos. No entanto, a utilização de FP a partir damedida da linha espectral do Mg mostrou-se inadequada, provavelmente, devido ao baixo valor do número atômico do Mg. Nas três famílias de catalisadores ZN a razão Mg/Tiobservada foi 0,44 ± 0,01; 1,8 ± 0,05 e 4,9 ± 0,02. A determinação de Cl foi estudada através de extração em meio aquoso, seguida pordeposição de um alíquota da solução sobre diferentes suportes (filmes finos) e posteriorevaporação do solvente. Foram avaliados os suportes papel filtro quantitativo, membranasMillipore FHLC Teflon®, de difluoreto de polivinilideno, celulose, Nylon®, fita Kapton®(poliamida) e Mylar® (poliéster). Devido à natureza do Cl, houve perdas do elemento químicopor volatilização, durante as medidas, possivelmente devido ao vácuo e aquecimento daamostra dentro da câmara de análise do equipamento. A tentativa de fixação do Cl comoAgCl, seguida por deposição sobre a membrana Millipore FHLC foi considerada adequada.No entanto, a média dos resultados obtidos por WDXRF mostrou-se inferior quando comparada ao método argentimétrico utilizado como referência, para um nível de certeza de95%.
Resumo:
A silicose é a formação de cicatrizes permanentes nos pulmões, provocadas pela inalação do pó de sílica (quartzo) existente na areia. A exposição à poeira respirável contendo sílica é comum entre os trabalhadores de minas, indústrias cerâmicas, os cortadores de arenito e de granito e também os operários de fundições de metais ferrosos e não ferrosos. Atualmente, as fundições reutilizam a areia, adicionando no processo de fundição, percentuais de 3% até 10% de areia nova. Com base em uma Intervenção Ergonômica, este trabalho aborda a avaliação ambiental da concentração de sílica (SiO2) em uma fundição de metais ferrosos da região metropolitana da grande Porto Alegre, com o objetivo de quantificá-la e compará-la com os limites de tolerância (LT) recomendados. Foram obtidas amostras de poeira respirável junto aos trabalhadores, conforme grupo homogêneo de trabalho, utilizando bomba de amostragem de uso individual, ciclone Door-Oliver e filtro de membrana de PVC. Para quantificação da sílica na amostra coletada foi utilizada a técnica da espectrometria de difração de Raios X. Os resultados obtidos indicaram que a exposição à poeira contendo sílica, nas condições de trabalho analisadas, apresenta-se com valores de exposição aceitável segundo as normas nacionais e internacionais.
Resumo:
O objetivo principal deste trabalho é propor uma metodologia de classificação de imagens de sensoriamento remoto que integre a importância de atributos de textura na seleção de feições, através da utilização de freqüências espaciais de cada classe textural e sua direção, com a eficiência das redes neurais artificiais para classificá-las. O processo é composto por uma etapa de filtragem baseada nos filtros de Gabor, seguida de uma fase de classificação através de uma rede neural Multi-Layer Perceptron com algoritmo BackPropagation. A partir da transformada de Fourier são estimados os parâmetros a serem utilizados na constituição dos filtros de Gabor, adequados às freqüências espaciais associadas a cada classe presente na imagem a ser classificada. Desta forma, cada filtro gera uma imagem filtrada. O conjunto de filtros determina um conjunto de imagens filtradas (canais texturais). A classificação pixel a pixel é realizada pela rede neural onde cada pixel é definido por um vetor de dimensionalidade igual ao número de filtros do conjunto. O processo de classificação através da rede neural Multi-Layer Perceptron foi realizado pelo método de classificação supervisionada. A metodologia de classificação de imagens de sensoriamento remoto proposta neste trabalho foi testada em imagens sintética e real de dimensões 256 x 256 pixels. A análise dos resultados obtidos é apresentada sob a forma de uma Matriz de Erros, juntamente com a discussão dos mesmos.
Resumo:
Neste artigo, foi estimada a taxa natural de juros para a economia brasileira entre o final de 2001 e segundo trimestre de 2010 com base em dois modelos, sendo o primeiro deles o proposto por Laubach e Williams e o segundo proposto por Mesónnier e Renne, que trata de uma versão alterada do primeiro, que segundo os autores perimite uma estimação mais transparente e robusta. Em ambos os modelos, a taxa natural de juros é estimada em conjunto com o produto potencial, através de filtro de Kalman, no formato de um modelo Espaço de Estado. As estimativas provenientes dos dois modelos não apresentam diferenças relevantes, o que gera maior confiabilidade nos resultados obtidos. Para o período de maior interesse deste estudo (pós-2005), dada a existência de outras análises para período anterior, as estimativas mostram que a taxa natural de juros está em queda na economia brasileira desde 2006. A mensuração da taxa natural de juros, adicionalmente, possibilitou que fosse feita uma avaliação sobre a condução da política monetária implementada pelo Banco Central brasileiro nos últimos anos através do conceito de hiato de juros. Em linhas gerais, a análise mostrou um Banco Central mais conservador entre o final de 2001 e 2005, e mais próximo da neutralidade desde então. Esta conclusão difere da apontada por outros estudos, especialmente para o primeiro período.
Resumo:
A tendência atual de desenvolvimento de novos equipamentos geotécnicos combina diferentes técnicas, aliando a robustez do ensaio de cone às informações adicionais de outros ensaios. O cone sísmico constitui-se em exemplo típico adotado internacionalmente. Geofones ou acelerômetros podem ser incorporados ao fuste do cone para medida de velocidade de propagação de ondas de compressão e cisalhamento. O cone possibilita uma estimativa da resistência ao cisalhamento de materiais geotécnicos, enquanto as medias sísmicas permitem medir o módulo cisalhante a pequenas deformações. A combinação de valores de resistência e deformabilidade, expressa através da razão entre Go/qc, pode representar uma alternativa importante na caracterização de solos. Nesta dissertação o cone sísmico foi projetado, construído, calibrado e testado no depósito argiloso do Aeroporto Internacional Salgado Filho em Porto Alegre. O equipamento é composto de um módulo onde são acondicionados dois sensores (geofones), distantes de 1,0 m, para a captação das ondas de cisalhamento. Os sinais são captados e enviados para um pré-amplificador com filtro, acondicionado no módulo sísmico, sendo posteriormente conduzidos para um segundo amplificador cuja taxa de amplificação pode ser regulada. O sinal adquirido é armazenado em um computador para análise posterior O ensaio de cone sísmico consiste basicamente na geração de uma onda de cisalhamento na superfície do solo e seu armazenamento com o sistema de aquisição de sinais. A determinação do módulo de cisalhamento é feita através da teoria da elasticidade, medindo-se os tempos de chegada da onda de cisalhamento em cada geofone e calculando-se a velocidade de percurso da onda entre os dois sensores. O trabalho contempla o desenvolvimento do cone sísmico, montagem, calibração e aplicação na Área do Aeroporto Internacional Salgado Filho. Os resultados obtidos são comparados a resultados de ensaios de cross-hole existentes no referido local.
Resumo:
Este trabalho se propõe a testar a validade da hipótese da paridade câmbio-juro para o caso brasileiro e, posteriormente, a investigar a principal explicação apontada pela literatura para a falência da UIP, qual seja: a existência de um prêmio de risco cambial variante ao longo do tempo. A clássica abordagem das regressões de Fama, aplicadas para o período de livre flutuação cambial, sugere falência da hipótese em questão quando considerados contratos de NDF de doze meses sobre o real, identificando viés nos contratos futuros como estimadores da taxa de câmbio – não foi possível obter a mesma conclusão ao se trabalhar com contratos futuros de dólar de um mês negociados na BM&F. Feitas as regressões de Fama, replica-se ao caso brasileiro metodologia implementada por Clarida et. al. (2009) para os países desenvolvidos, na tentativa de capturar eventual relação entre a volatilidade e o excesso de retorno de uma estratégia de carry trade com o real. Em linha com os resultados obtidos pela experiência internacional, detecta-se correlação negativa entre a volatilidade e o excesso de retorno de tal estratégia. A partir de tal conclusão, revisitam-se as regressões de Fama para subperíodos, conforme a volatilidade. Períodos de maior volatilidade foram caracterizados por um incremento do coeficiente da regressão de Fama, novamente em um resultado alinhado àquele obtido por Clarida et. al. (2009). Esgotado o assunto circunscrito às regressões de Fama, passa-se à estimativa da série de prêmio de risco cambial propriamente dita, por meio da metodologia de Filtro de Kalman imposta à série de NDF de doze meses, a qual detectou um prêmio de risco cambial com média positiva na amostra considerada – em linha com a intuição -, mas com medidas de dispersão bastante elevadas. O estudo segue numa tentativa de modelar o prêmio de risco cambial através de um instrumental da família GARCH-M, sendo, entretanto, incapaz de prover boas estimativas para o comportamento da variável sob interesse. Inicia-se um novo capítulo com o intuito de introduzir microfundamentação ao prêmio de risco cambial, trazendo ao caso brasileiro método desenvolvido por Frankel (1982). A aderência da modelagem também foi baixa. Para terminar, apresenta-se investigação preliminar sobre a relação entre o prêmio de risco cambial e a presença de eventos considerados raros na série de PTAX, seguindo intuição levantada por Rietz (1988) e expandida por Barro (2005). A moeda brasileira carrega caráter leptocúrtico superior às demais componentes da amostra, indicando que, de fato, o prêmio de risco cambial exigido para se estar na moeda doméstica pode estar relacionado à recorrência de eventos supostamente raros.
Resumo:
Neste artigo, foi estimada a taxa natural de juros para a economia brasileira entre o final de 2001 e segundo trimestre de 2010 com base em dois modelos, sendo o primeiro deles o proposto por Laubach e Williams e o segundo proposto por Mesónnier e Renne, que trata de uma versão alterada do primeiro, que segundo os autores perimite uma estimação mais transparente e robusta. Em ambos os modelos, a taxa natural de juros é estimada em conjunto com o produto potencial, através de filtro de Kalman, no formato de um modelo Espaço de Estado. As estimativas provenientes dos dois modelos não apresentam diferenças relevantes, o que gera maior confiabilidade nos resultados obtidos. Para o período de maior interesse deste estudo (pós-2005), dada a existência de outras análises para período anterior, as estimativas mostram que a taxa natural de juros está em queda na economia brasileira desde 2006. A mensuração da taxa natural de juros, adicionalmente, possibilitou que fosse feita uma avaliação sobre a condução da política monetária implementada pelo Banco Central brasileiro nos últimos anos através do conceito de hiato de juros. Em linhas gerais, a análise mostrou um Banco Central mais conservador entre o final de 2001 e 2005, e mais próximo da neutralidade desde então. Esta conclusão difere da apontada por outros estudos, especialmente para o primeiro período.
Resumo:
O gado zebu (Bos indicus) é predominante em todo o mundo. Atualmente, no Brasil, o rebanho de bovinos e zebuínos é composto por aproximadamente 170 milhões de indivíduos, no qual, 80% são zebuínos ou animais de raças cruzadas com zebu. O principal objetivo deste estudo foi determinar a possibilidade da utilização de marcadores moleculares de bovinos na identificação genética de zebuínos. A confirmação desta possibilidade seria de extrema valia, já que a quantidade de informações sobre o genoma zebuíno é limitada e metodologias específicas de identificação de marcadores genéticos para raças zebuínas são raras. Assim, o DNA de 65 zebus, de 4 raças diferentes (Gir, Tabapuã, Nelore e Brahman), foi extraído a partir de sangue aplicado em papel filtro, utilizando o “kit” DNA IQTM SYSTEM (Promega®). Após a extração de DNA, foi feito um PCR Multiplex utilizando o “kit” StockMarks® (Applied Biosystems®), o qual amplifica um total de 11 loci (BM1824, BM2113, ETH10, ETH225, ETH3, INRA023, SPS115, TGLA122, TGLA126, TGLA227 e TGLA53). Os fragmentos gerados pela PCR foram analisados por eletroforese capilar utilizando o analisador genético ABI Prism 3100 (Applied Biosystems®) e o programa GeneScan® v.3.7 (Applied Biosystems®). A freqüência dos marcadores e os índices de variabilidade genética foram calculados utilizando o programa Microsatellite Toolkit v.3.1 e o equilíbrio de Hardy-Weinberg foi determinado através do programa GENEPOP v.3.4. Através destas técnicas foi possível demonstrar que os marcadores moleculares utilizados para identificação genética de bovinos podem também ser utilizados para a realização da técnica de identificação genética de zebuínos Além disso, foi possível demonstrar a freqüência alélica na população de zebuínos analisada como um todo, assim como foi determinada a freqüência alélica para os diferentes marcadores moleculares dentro das 4 raças estudas. Considerando o total de 100 diferentes alelos identificados entre os 11 STR (Short Tandem Repeats) analisados, foi possível observar que a heterozigosidade esperada (He) foi relativamente alta na população analisada, assim como na análise por raça. Estes dados indicam alto grau de diversidade genética nas diferentes raças. Neste sentido, a raça Brahman apresentou a menor diversidade (0,60) e a raça Tabapuã, a maior (0,69). Contudo, estudos complementares são necessários, a fim de confirmar as freqüências alélicas estabelecidas, uma vez que os resultados encontrados no presente trabalho referem-se a um número relativamente pequeno de zebuínos, quando comparados com o total de zebus encontrados no rebanho brasileiro.
Resumo:
À luz do instituído pela Constituição Federal de 1988, os direitos fundamentais passaram a ser vistos sob um novo olhar. Todavia, temas considerados complexos, como o transexualismo, segundo a Classificação Internacional das Doenças (CID 10) considerado “Transtorno de Identidade Sexual”, ainda suscitam maior aprofundamento por parte da sociedade, do poder judiciário e do poderes executivo e legislativo. O Sistema Único de Saúde – SUS passou a permitir a cirurgia de transgenitalização no Brasil, na qual se opera a redesignação de sexo, tendo sido estipulados por lei critérios para a sua realização. Após a cirurgia, surge um problema: o da identidade civil, uma vez que o novo gênero da pessoa operada não se coaduna com o seu registro civil, causando-lhe constrangimento. Não há lei que regule a matéria. A partir desta constatação, o presente estudo se propõe a explorar as decisões judiciais de todos os estados da Federação, por intermédio de pesquisa nos sites dos seus respectivos tribunais, bem como das cortes superiores, buscando os termos “transexual” e “prenome” e utilizando o filtro temporal a partir de 1988, ano da promulgação da Carta Cidadã, até final de 2010. Tendo em vista a falta de lei que normatize a matéria, o escopo primordial consiste na obtenção de uma narrativa de como vêm sendo decididas as demandas na temática ora proposta. A conclusão do trabalho sugere que apesar de não haver um marco normativo estabelecido, o discurso do poder judiciário se utiliza de diversos argumentos de ordem social, psicológica e jurídica, devidamente sistematizados e apreciados, bem como de princípios jurídicos, sendo, nesse caso, o princípio da dignidade da pessoa humana, previsto na Carta Magna, o mais utilizado.
Resumo:
Neste trabalho é apresentada uma solução analítica de um problema bidimensional e transiente de dispersão de poluentes atmosféricos. O modelamento utilizado é conhecido na literatura como modelo Kzz para dispersão de poluentes atmosféricos e é representado por uma equação difusivo-advectiva com coeficientes de difusão e advecção variáveis. São utilizados três diferentes coeficientes de difusão nas simulações, bem como as componentes horizontal e vertical do vento são tomadas como variáveis. A solução analítica é gerada através da aplicação da técnica GITT (Generalized Integral Transform Technique) dupla com problema transformado resolvido por Transformada de Laplace e diagonalização de matrizes. Filtros matemáticos são usados para homogenizar as condições de contorno viabilizando o uso da técnica citada. Além disso, o tipo de filtro matemático utilizado permite a sensível diminuição do custo computacional. Resultados numéricos são obtidos e comparados com dados experimentais e outras soluções da literatura.
Resumo:
Este trabalho busca analisar a relação entre as taxas de câmbio e a inflação no Brasil, tanto entre médias quanto entre volatilidades, fazendo uso de instrumentais econométricos mais sofisticados que aqueles até então aplicados na literatura existente. No que se refere à relação entre médias, ou a estimação do pass-through da taxa de câmbio para a inflação, analisou-se a relação entre tais variáveis no período compreendido entre 1980 e 2002, considerando dois índices de preços ao consumidor (IPCA e IGP-DI) e um índice de preços ao produtor (IPA-DI). A abordagem teórica partiu do modelo de FEENSTRA e KENDAL (1997), com algumas adaptações para a economia brasileira. Os testes empíricos foram realizados aplicando o Filtro de Kalman, após a demonstração de que este gera melhores resultados que as estimações por OLS tradicionalmente usadas. Os resultados mostram que o ambiente inflacionário e o regime cambial percebido pelos agentes afetam o grau de pass-through do câmbio para os preços ao consumidor. Observou-se uma redução no pass-through após a implementação do Real para os índices de preço ao consumidor (IPCA) ou com um componente de preços ao consumidor incorporado (IGP-DI) e uma redução ainda mais intensa após a adoção do regime de taxas de câmbio flutuantes em 1999. Já no que se refere à relação entre volatilidades, aplicou-se um modelo GARCH bivariado, trabalhando-se diretamente com os efeitos das volatilidades condicionais, aspecto ainda não abordado na literatura existente Foi encontrada uma relação semi-côncava entre as variâncias da taxa de câmbio e da inflação, diferente do estimado para séries financeiras e em linha com intuições sugeridas em outros estudos. Esta aplicação inova ao (i) estabelecer uma relação entre volatilidades da taxa de câmbio e da inflação, (ii) aplicar um modelo GARCH multivariado, usando variâncias condicionais para analisar a relação entre aquelas volatilidades e (iii) mostrar que os testes tradicionais realizados com séries de volatilidade construídas exogenamente são sensíveis ao critério escolhido para a construção de tais séries, ocultando características relevantes daquela relação. PALAVRAS-CHAVE: Taxas de câmbio, inflação, pass-through, volatilidade, Filtro de Kalman, GARCH