1000 resultados para tortas de filtro
Resumo:
Em fontes de nêutrons por spallation para pesquisa de materiais, o comprimento de onda dos nêutrons é geralmente determinado pelos tempos de percurso (TOF) dos nêutrons desde a fonte até o detector. A precisão atingível é limitada pelo fato de o tempo de emissão do pulso característico do sistema alvo/moderador ser diferente de zero (a situação ideal fictícia seria a emissão se ocorresse na forma de um impulso). “Moderadores acoplados” (elementos usados para produzir feixes de alta intensidade com nêutrons de baixa energia) apresentam um decaimento de intensidade em função do tempo muito longo, ao longo de todo o espectro usado nos experimentos. Por este motivo, “moderadores desacoplados”, os quais produzem feixes com intensidade mais reduzida, são freqüentemente usados para instrumentos que requerem alta resolução. Neste trabalho, propusemos e analisamos uma nova técnica de filtragem dinâmica de feixes de nêutrons polarizados de baixa energia para experimentos que utilizam TOF na determinação do comprimento de onda. O dispositivo consiste de um sistema ótico polarizador/analisador e um inversor de spin seletivo em energia, o qual funciona por ressonância espacial do spin. Variando a condição de ressonância em sincronia com a estrutura temporal do pulso de nêutrons (através do controle de campos magnéticos), o filtro pode ajustar a resolução de energia (ou de comprimento de onda) de pulsos de banda larga em tais experimentos, separando os nêutrons com a correta relação “TOF/comprimento de onda” dos demais Um método para o cálculo de desempenho do sistema foi apresentado em um Trabalho Individual (TI) (PARIZZI et al., 2002 - i), do qual se fará aqui uma breve revisão além de amplo uso na otimização dos parâmetros a serem ajustados para o projeto do filtro. Os resultados finais mostram que ganhos consideráveis em resolução podem ser obtidos com a aplicação desta técnica em experimentos de reflectometria por tempo de percurso, sem que para tal seja necessário comprometer a intensidade do feixe usado pelo mesmo instrumento quando operado em um modo de baixa resolução, dando ao usuário do instrumento a opção de escolher a relação ótima entre intensidade e resolução para seu experimento. Como parte da conclusão desta dissertação, é apresentada uma proposta de parâmetros para a construção deste tipo de filtro e previsão de desempenho da configuração proposta, baseada no software de modelamento desenvolvido.
Resumo:
Esta dissertação é estruturada em três partes. Na primeira, revisa-se a noção de filtro sensorial, com enfoque particular no paradigma do P50, uma técnica eletroneurofisiológica de extremo valor para a investigação da neurobiologia básica subjacente aos defeitos de processamento sensorial que caracterizam algumas doenças mentais, e mais particularmente a esquizofrenia, sobre a qual dedica-se especial interesse. Na segunda, revisa-se a hipótese, proposta recentemente por Lara e Souza (2000), de hipofunção adenosinérgica como disfunção bioquímica básica na esquizofrenia, à luz das evidências mais recentes. Na terceira, desenvolve-se um trabalho experimental original com o intuito de investigar a hipótese hipoadenosinérgica da esquizofrenia. Trata-se de um desafio farmacológico, de um ensaio clínico cruzado onde 13 voluntários hígidos foram submetidos a tratamento com teofilina (um antagonista não-seletivo dos receptores de adenosina do tipo A1 e A2A) e a placebo, em dois momentos diferentes, tendo se avaliado os seus potenciais evocados de acordo com o paradigma do P50 antes (em seu valor basal) e após o tratamento, levantando-se uma curva de efeito com base no tempo. Paralelamente, avaliaram-se 17 pacientes com diagnóstico estabelecido de esquizofrenia, clinicamente estáveis, em acompanhamento ambulatorial e em uso de medicação neuroléptica típica, com a intenção de fornecer um grupo adicional de comparação e de replicar os achados prévios de falha de supressão do componente P50 na esquizofrenia, um aspecto fundamental para demonstrar o domínio da metodologia experimental, que foi aqui empregada pela primeira vez em nosso meio. Este estudo foi capaz de mostrar que a indução de um estado transitório de hipofunção adenosinérgica em indivíduos normais, mostra perda da supressão. Em outras palavras, que déficits no processamento da informação auditiva, que não existiam nos indivíduos normais, foram provocados pela utilização de teofilina, que, bloqueando os receptores de adenosina A1 e A2A, provocou um estado hipoadenosinérgico transitório. A disfunção provocada pela teofilina foi da mesma ordem de grandeza da verificada nos pacientes com esquizofrenia. Estes resultados fornecem evidência que corroboram o modelo de hipofunção adenosinérgica para a esquizofrenia.
Resumo:
A disposição no solo, qualificada ou não, provavelmente por longo tempo permanecerá como alternativa adotada por países não abastados para a destinação dos seus resíduos sólidos. Dada a escassez de recursos econômicos de tais nações, há uma demanda urgente por alternativas de baixo custo para o tratamento do efluente líquido ambientalmente altamente impactante gerado em tal processo: o lixiviado. O presente trabalho, desenvolvido em uma área do Aterro Sanitário da Extrema, Porto Alegre, vem contribuir apresentando resultados da utilização de três métodos biológicos de baixo custo aplicados consecutivamente ao tratamento de lixiviado bruto proveniente de aterro sanitário de resíduos sólidos: (1) filtro biológico anaeróbio com meio suporte de pedra britada nº 5, (2) filtro biológico aeróbio de baixa taxa com meio suporte de pedra britada nº 3 e (3) banhado construído de fluxo subsuperficial com cultivo de Typha latifolia sobre areia de elevada granulometria. O filtro anaeróbio demonstrou constituir-se em excelente alternativa de reduzido custo para o tratamento de lixiviado bruto. Utilizando-se afluente com 2690-8860 mgDBO5/L e 5345-14.670 mgDQO/L, apontou-se para um tempo de detenção hidráulica próximo a 56 dias como ótimo dos pontos de vista operacional e econômico, produzindo eficiências de remoção de DBO5 de 82,43% e de DQO de 77,70%. A pesquisa conduzida com filtro aeróbio de baixa taxa, ainda que produzindo resultados de significância limitada do ponto de vista estatístico, em função do reduzido número de repetições e utilização de apenas uma unidade experimental, apontou para um desempenho satisfatório da unidade, uma vez que, aplicado lixiviado previamente tratado anaerobicamente a 0,063 m3/(m2.d), obtiveram-se remoções de 53,17% de NTK, de 46,12% de nitrogênio (todas as formas) e de 36,01% de DBO5. A pesquisa com banhado construído de fluxo subsuperficial utilizado no polimento do lixiviado previamente tratado anaeróbia e aerobicamente produziu limitado número de resultados, sobretudo pela dificuldade de aclimatação das macrófitas utilizadas. Ainda assim, elevadas remoções de DBO5, DQO, NTK, nitrogênio (todas as formas), fósforo e cromo total foram obtidas operando-se com diluições para controle da salinidade, havendo adaptado-se as plantas a lixiviado com condutividade elétrica de 6370 µmho/cm.
Resumo:
Tendo como motivação o desenvolvimento de uma representação gráfica de redes com grande número de vértices, útil para aplicações de filtro colaborativo, este trabalho propõe a utilização de superfícies de coesão sobre uma base temática multidimensionalmente escalonada. Para isso, utiliza uma combinação de escalonamento multidimensional clássico e análise de procrustes, em algoritmo iterativo que encaminha soluções parciais, depois combinadas numa solução global. Aplicado a um exemplo de transações de empréstimo de livros pela Biblioteca Karl A. Boedecker, o algoritmo proposto produz saídas interpretáveis e coerentes tematicamente, e apresenta um stress menor que a solução por escalonamento clássico.
Resumo:
Tendo como motivação o desenvolvimento de uma representação gráfica de redes com grande número de vértices, útil para aplicações de filtro colaborativo, este trabalho propõe a utilização de superfícies de coesão sobre uma base temática multidimensionalmente escalonada. Para isso, utiliza uma combinação de escalonamento multidimensional clássico e análise de procrustes, em algoritmo iterativo que encaminha soluções parciais, depois combinadas numa solução global. Aplicado a um exemplo de transações de empréstimo de livros pela Biblioteca Karl A. Boedecker, o algoritmo proposto produz saídas interpretáveis e coerentes tematicamente, e apresenta um stress menor que a solução por escalonamento clássico. O estudo da estabilidade da representação de redes frente à variação amostral dos dados, realizado com base em simulações envolvendo 500 réplicas em 6 níveis de probabilidade de inclusão das arestas nas réplicas, fornece evidência em favor da validade dos resultados obtidos.
Resumo:
Esta dissertação é apresentada sob a forma de dois artigos. O primeiro foi realizado com o objetivo de comparar medidas verticais e horizontais de imagens adquiridas em estereomicroscópio (E) e scanner de mesa (S). Para isso, 50 dentes posteriores extraídos de humanos e seccionados no sentido mésio-distal foram utilizados. Cada hemi-secção foi fotografada no estereomicroscópio e digitalizada em scanner de mesa, com resolução de 230 dpi. No programa Photoshop foram realizadas medições horizontais (H) e verticais (V) de cada hemi-secção, nas imagens obtidas pelos dois métodos, com repetição aleatória de 20% dos casos da amostra. As medidas iniciais e repetidas apresentaram excelente correlação e o teste t para amostras pareadas não evidenciou diferenças significativas (p = 0,05) entre elas nos dois métodos. As médias das medidas e seus desvios-padrão foram: horizontais E 8,89 mm ? 4,30 mm, S 8,89 mm ? 4,52 mm e verticais E 4,42 mm ? 2,19 mm, S 4,43 mm ? 2,19 mm. O teste t para amostras pareadas com nível de significância de 5% demonstrou não haver diferenças significativas entre os dois métodos, tanto para as medidas horizontais (p=0,685) quanto para as verticais (p=0,299). Conclui-se que o scanner de mesa pode substituir o estereomicroscópio na aquisição de imagens de hemi-secções de dentes, com a finalidade de obtenção de medidas horizontais e verticais. O segundo artigo avaliou, in vitro, a profundidade de lesões de cárie proximal em dentes posteriores, comparando os exames clínico e radiográfico interproximal, com e sem a aplicação de cores, ao exame histológico. No total, 142 superfícies proximais foram avaliadas clinicamente e radiografadas. Para obtenção do padrão-ouro do estudo o exame histológico com cortes seriado foi realizado e as secções adquiridas, assim como as radiografias, digitalizadas com scanner de mesa A partir da criação de um programa digital, foi possível a aplicação de cores nas imagens radiográficas de maneira padronizada, de acordo com a intensidade de pixels de cada superfície. A profundidade das lesões foi aferida por meio de escores e de medidas nas imagens histológicas, radiográficas com e sem o uso de cor em cada superfície da amostra. O programa não foi capaz de identificar superfícies hígidas e lesões em diferentes profundidades no esmalte. Em todas as lesões que apresentavam alteração radiográfica em dentina, os escores atribuídos às imagens radiográficas com aplicação de cores foram 100% concordantes com os escores histológicos. Em relação às lesões que apresentavam histologicamente alteração na metade externa dentina, 55,56% tiveram sua profundidade subestimada, contudo nenhuma era cavidade em dentina. Todas as lesões que apresentavam profundidade histológica na metade interna de dentina apresentavam cavidade em dentina e mostraram a mesma extensão com a aplicação de cor na radiografia, superando os resultados obtidos com a radiografia sem cor. Em relação às medidas de profundidade, quando um desvio-padrão foi subtraído da média de densidade óptica para a aplicação de cores, as medidas resultantes foram ligeiramente menores e não diferiram significativamente daquela do exame histológico de acordo com a Análise de Variância, utilizando o delineamento de blocos casualizados, complementado pelo teste de Comparações Múltiplas de Tukey. O uso de um programa digital que determina de maneira padronizada como cada imagem deve ser colorida auxilia no diagnóstico de lesões de cárie que apresentam extensão histológica em dentina, especialmente aquelas que atinjam a sua porção interna.
Resumo:
Busca-se como objetivo geral, através da estimação de uma equação de demanda por moeda de longo prazo para o Brasil, período 1980-2001, testar a sua estabilidade, o que implica analisar a evolução dos coeficientes ao longo do tempo, bem como mensurar o desempenho acerca do grau de previsibilidade de demanda futura por encaixes reais, comparando sua eficiência no prognóstico com aquelas que se obteriam utilizando técnicas de estimação Mínimos Quadrados Ordinários (MQO) e Mínimos Quadrados Ordinários Recursivos (MQOR), ambas de caráter não adaptativo. Além disso, como resultado da análise percuciente das trajetórias dos parâmetros, a política monetária exercida no período é recuperada. Os resultados rejeitam a hipótese nula de estabilidade da demanda de moeda, encontrando-se que os parâmetros apresentam flutuações importantes não ilustradas pelo procedimento MQO, tendo se destacado o período 1986-1992 como o mais instável. Como era de se esperar, nos testes de capacidade de previsão, a estimação por meio do Filtro de Kalman supera as demais técnicas, evidenciando a ocorrência de mudanças nos regimes de política.
Resumo:
O paradigma do P50 é uma técnica eletrofisiológica útil na investigação da neurobiologia básica subjacente aos defeitos de processamento sensorial que caracterizam algumas doenças mentais, mais tradicionalmente associados à esquizofrenia. Nessa tese replica-se e amplia-se o estudo do filtro sensorial P50 em algumas condições neurológicas e psiquiátricas. Foram replicados os achados de perda de supressão na esquizofrenia, na doença de Parkinson e no transtorno de estresse pós-traumático (avaliando pioneiramente vítimas de violência urbana). O filtro sensorial P50 em populações com transtorno de pânico, com transtorno obsessivo-compulsivo e na doença de Machado-Joseph, uma ataxia cerebelar, foi avaliado pela primeira vez. Em todas estas patologias documentou-se uma perda da supressão do P50. Também se investigou os efeitos da modulação do filtro sensorial por cafeína (a substância psicoativa mais consumida no mundo todo, um antagonista não-seletivo dos receptores de adenosina do tipo A1 e A2A), administrada por via oral a 24 voluntários saudáveis em diferentes doses (100, 200 e 400 mg e placebo). As doses de 200mg e 400 mg reduziram a supressão do P50. O efeito da cafeína foi independente do gênero e do uso habitual de cafeína. Usuários (n=15) mostraram valores basais diferentes quando comparados aos não usuários (n=9), com amplitudes S2 menores. Os resultados obtidos com a teofilina, num estudo prévio, e com a cafeína foram reanalizados, mostrando uma perda transitória de supressão do P50 mais pronunciada à direita, sugerindo uma alteração no padrão de lateralização do filtro sensorial P50 mediada pelo uso de metil-xantinas. Estes achados reforçam a participação da adenosina na modulação do filtro sensorial P50 e indicam que a ingestão de cafeína deva ser controlada neste tipo de estudo. Dessa forma, demonstra-se que uma supressão do P50 alterada é um achado pouco específico. Uma vez que a supressão do P50 pode ser alterada por uma situação habitual como o uso de bebidas que contém cafeína, é possível que a perda da supressão não seja necessáriariamente ruim, mesmo que ela esteja potencialmente associada a uma vulnerabilidade maior para doenças neuropsiquiátricas.
Estimativa de provisões de IBNR utilizando espaço de estados e filtro de Kalman : um caso brasileiro
Resumo:
Esta dissertação pretende discutir a provisão de sinistros do tipo IBNR, bem como qual a melhor forma de estimar estas provisões. Para tanto, serão utilizados dados reais de uma grande seguradora Brasileira para um produto de seguro de um ramo Não Vida. Serão utilizados no cálculo o clássico método Chain Ladder e em contrapartida um modelo de Espaço de Estados e Filtro de Kalman, discutindo as flexibilidades, vantagens e desvantagens de se utilizar tal metodologia.
Resumo:
Este trabalho tem o objetivo de testar a qualidade preditiva do Modelo Vasicek de dois fatores acoplado ao Filtro de Kalman. Aplicado a uma estratégia de investimento, incluímos um critério de Stop Loss nos períodos que o modelo não responde de forma satisfatória ao movimento das taxas de juros. Utilizando contratos futuros de DI disponíveis na BMFBovespa entre 01 de março de 2007 a 30 de maio de 2014, as simulações foram realizadas em diferentes momentos de mercado, verificando qual a melhor janela para obtenção dos parâmetros dos modelos, e por quanto tempo esses parâmetros estimam de maneira ótima o comportamento das taxas de juros. Os resultados foram comparados com os obtidos pelo Modelo Vetor-auto regressivo de ordem 1, e constatou-se que o Filtro de Kalman aplicado ao Modelo Vasicek de dois fatores não é o mais indicado para estudos relacionados a previsão das taxas de juros. As limitações desse modelo o restringe em conseguir estimar toda a curva de juros de uma só vez denegrindo seus resultados.
Resumo:
The effluents released by the textile industry have high concentrations of alkali, carbohydrates, proteins, in addition to colors containing heavy metals. Therefore, a filter was prepared aiming primarily to the removal of color. In order to prepare this filter, rice hulls and diatomite were used, which have in their structure, basically amorphous hydrated silica. The silica exists in three crystalline forms: quartz, tridymite and cristobalite. In accordance with the above considerations, this study was divided into two stages; the first corresponds to the preparation of the filter and the second to carry out the tests in the effluent/filter in order to verify the efficiency of the color removal. First, the raw material was subjected to a chemical analysis and XRD, and then the diatomite was mixed, via humid, with a planetarium windmill with 20 %, 40 %, 60 % and 80 % of rice husk ash. To the mixture, 5 % carboxymethylcellulose (CMC) was added as a binder at room temperature. The samples were uniaxially compacted into metallic matrix of 0.3 x 0.1 cm² of area at a pressure of 167 MPa by means of hydraulic press and then sintered at temperatures of 1,000 °C, 1,200 °C and 1,400 °C for 1 h and submitted to granulometry test using laser, linear retraction, water absorption, apparent porosity and resistance to bending, DTA, TMA and XRD. To examine the pore structure of the samples scanning electron microscope (SEM) was used. Also tests were carried out in a mercury porosimeter to verify the average size of the pores and real density of the samples. In the second stage, samples of the effluent were collected from a local industry, whose name will be preserved, located in Igapó, in the State of Rio Grande do Norte - RN. The effluent was first pretreated before filtration and then subjected to a treatment of flotation. The effluent was then characterized before and after filtration, with parameters of color, turbidity, suspended solids, pH, chemical and biochemical oxygen demand (COD and BOD). Thus, through the XRD analysis the formation of cristobalite α in all samples was observed. The best average size of pore was found to be 1.75 μm with 61.04 % apparent porosity, thus obtaining an average 97.9 % color removal and 99.8 % removal of suspended solid
Resumo:
In geophysics there are several steps in the study of the Earth, one of them is the processing of seismic records. These records are obtained through observations made on the earth surface and are useful for information about the structure and composition of the inaccessible parts in great depths. Most of the tools and techniques developed for such studies has been applied in academic projects. The big problem is that the seismic processing power unwanted, recorded by receivers that do not bring any kind of information related to the reflectors can mask the information and/or generate erroneous information from the subsurface. This energy is known as unwanted seismic noise. To reduce the noise and improve a signal indicating a reflection, without losing desirable signals is sometimes a problem of difficult solution. The project aims to get rid of the ground roll noise, which shows a pattern characterized by low frequency, low rate of decay, low velocity and high amplituds. The Karhunen-Loève Transform is a great tool for identification of patterns based on the eigenvalues and eigenvectors. Together with the Karhunen-Loève Transform we will be using the Singular Value Decomposition, since it is a great mathematical technique for manipulating data
Resumo:
This work describes the experimental implementation of a shunt active power filter applied to a three-phase induction generator. The control strategy of active filter turned to the excitation control of the machine and to decrease the harmonics in the generator output current. Involved the implementation of a digital PWM switching, and was made a comparison of two techniques for obtaining the reference currents. The first technique is based on the synchronous dq reference method and the second on the theory of instantaneous power. The comparison is performed via simulation and experimental results. To obtain the experimental results, was mounted a bench trial and the control and communications needed were implemented using DSP - MS320F2812. The simulation results and experimental data proved the efficiency of the filter to apply, highlighting the technique of instantaneous power
Resumo:
Conventional control strategies used in shunt active power filters (SAPF) employs real-time instantaneous harmonic detection schemes which is usually implements with digital filters. This increase the number of current sensors on the filter structure which results in high costs. Furthermore, these detection schemes introduce time delays which can deteriorate the harmonic compensation performance. Differently from the conventional control schemes, this paper proposes a non-standard control strategy which indirectly regulates the phase currents of the power mains. The reference currents of system are generated by the dc-link voltage controller and is based on the active power balance of SAPF system. The reference currents are aligned to the phase angle of the power mains voltage vector which is obtained by using a dq phase locked loop (PLL) system. The current control strategy is implemented by an adaptive pole placement control strategy integrated to a variable structure control scheme (VS¡APPC). In the VS¡APPC, the internal model principle (IMP) of reference currents is used for achieving the zero steady state tracking error of the power system currents. This forces the phase current of the system mains to be sinusoidal with low harmonics content. Moreover, the current controllers are implemented on the stationary reference frame to avoid transformations to the mains voltage vector reference coordinates. This proposed current control strategy enhance the performance of SAPF with fast transient response and robustness to parametric uncertainties. Experimental results are showing for determining the effectiveness of SAPF proposed control system
Resumo:
This work shows a theoretical analysis together with numerical and experimental results of transmission characteristics from the microstrip bandpass filters with different geometries. These filters are built over isotropic dielectric substrates. The numerical analysis is made by specifical commercial softwares, like Ansoft Designer and Agilent Advanced Design System (ADS). In addition to these tools, a Matlab Script was built to analyze the filters through the Finite-Difference Time-Domain (FDTD) method. The filters project focused the development of the first stage of filtering in the ITASAT s Transponder receptor, and its integration with the others systems. Some microstrip filters architectures have been studied, aiming the viability of implementation and suitable practical application for the purposes of the ITASAT Project due to its lowspace occupation in the lower UHF frequencies. The ITASAT project is a Universityexperimental project which will build a satellite to integrate the Brazilian Data Collect System s satellite constellation, with efforts of many Brazilian institutes, like for example AEB (Brazilian Spatial Agency), ITA (Technological Institute of Aeronautics), INPE/CRN (National Institute of Spatial Researches/Northeastern Regional Center) and UFRN (Federal University of Rio Grande do Norte). Comparisons were made between numerical and experimental results of all filters, where good agreements could be noticed, reaching the most of the objectives. Also, post-work improvements were suggested.