17 resultados para filtro passivo stripline passa-banda, ricetrasmissione wireless UWB, parametri S

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The focus of this thesis is to discuss the development and modeling of an interface architecture to be employed for interfacing analog signals in mixed-signal SOC. We claim that the approach that is going to be presented is able to achieve wide frequency range, and covers a large range of applications with constant performance, allied to digital configuration compatibility. Our primary assumptions are to use a fixed analog block and to promote application configurability in the digital domain, which leads to a mixed-signal interface. The use of a fixed analog block avoids the performance loss common to configurable analog blocks. The usage of configurability on the digital domain makes possible the use of all existing tools for high level design, simulation and synthesis to implement the target application, with very good performance prediction. The proposed approach utilizes the concept of frequency translation (mixing) of the input signal followed by its conversion to the ΣΔ domain, which makes possible the use of a fairly constant analog block, and also, a uniform treatment of input signal from DC to high frequencies. The programmability is performed in the ΣΔ digital domain where performance can be closely achieved according to application specification. The interface performance theoretical and simulation model are developed for design space exploration and for physical design support. Two prototypes are built and characterized to validate the proposed model and to implement some application examples. The usage of this interface as a multi-band parametric ADC and as a two channels analog multiplier and adder are shown. The multi-channel analog interface architecture is also presented. The characterization measurements support the main advantages of the approach proposed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Em fontes de nêutrons por spallation para pesquisa de materiais, o comprimento de onda dos nêutrons é geralmente determinado pelos tempos de percurso (TOF) dos nêutrons desde a fonte até o detector. A precisão atingível é limitada pelo fato de o tempo de emissão do pulso característico do sistema alvo/moderador ser diferente de zero (a situação ideal fictícia seria a emissão se ocorresse na forma de um impulso). “Moderadores acoplados” (elementos usados para produzir feixes de alta intensidade com nêutrons de baixa energia) apresentam um decaimento de intensidade em função do tempo muito longo, ao longo de todo o espectro usado nos experimentos. Por este motivo, “moderadores desacoplados”, os quais produzem feixes com intensidade mais reduzida, são freqüentemente usados para instrumentos que requerem alta resolução. Neste trabalho, propusemos e analisamos uma nova técnica de filtragem dinâmica de feixes de nêutrons polarizados de baixa energia para experimentos que utilizam TOF na determinação do comprimento de onda. O dispositivo consiste de um sistema ótico polarizador/analisador e um inversor de spin seletivo em energia, o qual funciona por ressonância espacial do spin. Variando a condição de ressonância em sincronia com a estrutura temporal do pulso de nêutrons (através do controle de campos magnéticos), o filtro pode ajustar a resolução de energia (ou de comprimento de onda) de pulsos de banda larga em tais experimentos, separando os nêutrons com a correta relação “TOF/comprimento de onda” dos demais Um método para o cálculo de desempenho do sistema foi apresentado em um Trabalho Individual (TI) (PARIZZI et al., 2002 - i), do qual se fará aqui uma breve revisão além de amplo uso na otimização dos parâmetros a serem ajustados para o projeto do filtro. Os resultados finais mostram que ganhos consideráveis em resolução podem ser obtidos com a aplicação desta técnica em experimentos de reflectometria por tempo de percurso, sem que para tal seja necessário comprometer a intensidade do feixe usado pelo mesmo instrumento quando operado em um modo de baixa resolução, dando ao usuário do instrumento a opção de escolher a relação ótima entre intensidade e resolução para seu experimento. Como parte da conclusão desta dissertação, é apresentada uma proposta de parâmetros para a construção deste tipo de filtro e previsão de desempenho da configuração proposta, baseada no software de modelamento desenvolvido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação é estruturada em três partes. Na primeira, revisa-se a noção de filtro sensorial, com enfoque particular no paradigma do P50, uma técnica eletroneurofisiológica de extremo valor para a investigação da neurobiologia básica subjacente aos defeitos de processamento sensorial que caracterizam algumas doenças mentais, e mais particularmente a esquizofrenia, sobre a qual dedica-se especial interesse. Na segunda, revisa-se a hipótese, proposta recentemente por Lara e Souza (2000), de hipofunção adenosinérgica como disfunção bioquímica básica na esquizofrenia, à luz das evidências mais recentes. Na terceira, desenvolve-se um trabalho experimental original com o intuito de investigar a hipótese hipoadenosinérgica da esquizofrenia. Trata-se de um desafio farmacológico, de um ensaio clínico cruzado onde 13 voluntários hígidos foram submetidos a tratamento com teofilina (um antagonista não-seletivo dos receptores de adenosina do tipo A1 e A2A) e a placebo, em dois momentos diferentes, tendo se avaliado os seus potenciais evocados de acordo com o paradigma do P50 antes (em seu valor basal) e após o tratamento, levantando-se uma curva de efeito com base no tempo. Paralelamente, avaliaram-se 17 pacientes com diagnóstico estabelecido de esquizofrenia, clinicamente estáveis, em acompanhamento ambulatorial e em uso de medicação neuroléptica típica, com a intenção de fornecer um grupo adicional de comparação e de replicar os achados prévios de falha de supressão do componente P50 na esquizofrenia, um aspecto fundamental para demonstrar o domínio da metodologia experimental, que foi aqui empregada pela primeira vez em nosso meio. Este estudo foi capaz de mostrar que a indução de um estado transitório de hipofunção adenosinérgica em indivíduos normais, mostra perda da supressão. Em outras palavras, que déficits no processamento da informação auditiva, que não existiam nos indivíduos normais, foram provocados pela utilização de teofilina, que, bloqueando os receptores de adenosina A1 e A2A, provocou um estado hipoadenosinérgico transitório. A disfunção provocada pela teofilina foi da mesma ordem de grandeza da verificada nos pacientes com esquizofrenia. Estes resultados fornecem evidência que corroboram o modelo de hipofunção adenosinérgica para a esquizofrenia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No processo de classificação de uma imagem digital, o atributo textura pode ser uma fonte importante de informações. Embora o processo de caracterização da textura em uma imagem seja mais difícil, se comparado ao processo de caracterização de atributos espectrais, sabe-se que o emprego daquele atributo pode aumentar significativamente a exatidão na classificação da imagem. O objetivo deste trabalho de pesquisa consiste em desenvolver e testar um método de classificação supervisionado em imagens digitais com base em atributos de textura. O método proposto implementa um processo de filtragem baseado nos filtros de Gabor. Inicialmente, é gerado um conjunto de filtros de Gabor adequados às freqüências espaciais associadas às diferentes classes presentes na imagem a ser classificada. Em cada caso, os parâmetros utilizados por cada filtro são estimados a partir das amostras disponíveis, empregando-se a transformada de Fourier. Cada filtro gera, então, uma imagem filtrada que quantifica a freqüência espacial definida no filtro. Este processo resulta em um certo número de imagens filtradas as quais são denominadas de "bandas texturais". Desta forma, o problema que era originalmente unidimensional passa a ser multi-dimensional, em que cada pixel passa a ser definido por um vetor cuja dimensionalidade é idêntica ao número de filtros utilizados. A imagem em várias "bandas texturais" pode ser classificada utilizando-se um método de classificação supervisionada. No presente trabalho foi utilizada a Máxima Verossimilhança Gaussiana. A metodologia proposta é então testada, utilizandose imagens sintéticas e real. Os resultados obtidos são apresentados e analisados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta, inicialmente, uma análise comparativa detalhada dos dois padrões, IEEE 802.11a e IEEE802.11b, que foram apresentados recentemente pelo IEEE na área de redes sem fio (wireless). São apresentadas as principais diferenças tecnológicas dos dois padrões, no que se refere, principalmente, à arquitetura, funções de controle, segurança, desempenho e custo de implementação destas duas tecnologias de redes wireless. São avaliados também os aspectos de interoperabilidade, quando estas redes são integradas em redes corporativas fixas, que são baseadas, principalmente, em redes Ethernet, tradicionalmente usadas em redes corporativas. São considerados também, aspectos de custo e flexibilidade de aplicação das duas tecnologias e mostram-se como estas diferenças devem ser levadas em conta em aplicações típicas de um ambiente corporativo. Finalmente, apresenta-se também, como estudo de caso, uma análise focalizada principalmente na integração da tecnologia wireless em aplicações típicas de uma grande empresa local. Consideram-se as vantagens e desvantagens de ambas as tecnologias, como solução para algumas aplicações típicas encontradas nesta empresa, e justifica-se a escolha da solução que foi adotada. Conclui-se com algumas projeções quanto ao futuro da tecnologia wireless no ambiente público e corporativo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A disposição no solo, qualificada ou não, provavelmente por longo tempo permanecerá como alternativa adotada por países não abastados para a destinação dos seus resíduos sólidos. Dada a escassez de recursos econômicos de tais nações, há uma demanda urgente por alternativas de baixo custo para o tratamento do efluente líquido ambientalmente altamente impactante gerado em tal processo: o lixiviado. O presente trabalho, desenvolvido em uma área do Aterro Sanitário da Extrema, Porto Alegre, vem contribuir apresentando resultados da utilização de três métodos biológicos de baixo custo aplicados consecutivamente ao tratamento de lixiviado bruto proveniente de aterro sanitário de resíduos sólidos: (1) filtro biológico anaeróbio com meio suporte de pedra britada nº 5, (2) filtro biológico aeróbio de baixa taxa com meio suporte de pedra britada nº 3 e (3) banhado construído de fluxo subsuperficial com cultivo de Typha latifolia sobre areia de elevada granulometria. O filtro anaeróbio demonstrou constituir-se em excelente alternativa de reduzido custo para o tratamento de lixiviado bruto. Utilizando-se afluente com 2690-8860 mgDBO5/L e 5345-14.670 mgDQO/L, apontou-se para um tempo de detenção hidráulica próximo a 56 dias como ótimo dos pontos de vista operacional e econômico, produzindo eficiências de remoção de DBO5 de 82,43% e de DQO de 77,70%. A pesquisa conduzida com filtro aeróbio de baixa taxa, ainda que produzindo resultados de significância limitada do ponto de vista estatístico, em função do reduzido número de repetições e utilização de apenas uma unidade experimental, apontou para um desempenho satisfatório da unidade, uma vez que, aplicado lixiviado previamente tratado anaerobicamente a 0,063 m3/(m2.d), obtiveram-se remoções de 53,17% de NTK, de 46,12% de nitrogênio (todas as formas) e de 36,01% de DBO5. A pesquisa com banhado construído de fluxo subsuperficial utilizado no polimento do lixiviado previamente tratado anaeróbia e aerobicamente produziu limitado número de resultados, sobretudo pela dificuldade de aclimatação das macrófitas utilizadas. Ainda assim, elevadas remoções de DBO5, DQO, NTK, nitrogênio (todas as formas), fósforo e cromo total foram obtidas operando-se com diluições para controle da salinidade, havendo adaptado-se as plantas a lixiviado com condutividade elétrica de 6370 µmho/cm.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A passividade da Liga 600 (76Ni 16Cr 8Fe), em Na2SO4 0,5 M, pH=2,0, em atmosfera desarejada e à temperatura ambiente, foi estudada empregando-se diferentes métodos eletroquímicos e não eletroquímicos. A voltametria cíclica, com eletrodo rotatório de disco, revelou um comportamento típico ativo-passivo, com valores para a densidade de corrente anódica bastante baixos, na ordem de alguns poucos mA/cm2. Dois picos de corrente anódica pouco resolvidos foram observados e atribuídos à provável dissolução ativa de níquel, cromo e ferro. A ausência de picos catódicos e a existência de uma histerese na região de potenciais negativos sugerem que o filme passivo formado na varredura direta não é totalmente reduzido na varredura inversa, permanecendo sempre algum tipo de filme residual sobre a superfície da liga. A região passiva se estende de aproximadamente 100 a 700 mV e corresponde à região onde níquel e cromo puros também encontram-se passivos nas condições experimentais empregadas. Na região de potenciais mais positivos do que 700 mV tem início o processo de dissolução transpassiva da liga. Constatou-se, também, que o comportamento ativo-passivo da liga é essencialmente influenciado pelo comportamento do cromo, o qual é conhecido ser bastante complexo. Através das medidas de impedância eletroquímica foi possível sugerir três circuitos equivalentes para o sistema liga/filme/solução, um para cada região de potencial (de dissolução ativa, passiva e transpassiva). Através dos mesmos pôdese caracterizar a composição química e transformações mais importantes apresentadas pelos filmes passivos formados sobre a Liga 600. As espectroscopias eletrônicas (Auger e XPS) revelaram que os filmes passivos formados são extremamente finos, na faixa de 1,2 a 1,8 nm, e que apresentam uma estrutura duplex, com uma região interna (em contato com a liga) enriquecida em cromo e uma região externa (em contato com a solução) rica em níquel e ferro. Além disso, com base nos resultados obtidos e no modelo previamente proposto para filmes passivos formados sobre o aço inoxidável 304 em solução de borato, é sugerida uma representação esquemática das prováveis estruturas dos óxidos e dos possíveis processos de transporte, para os filmes passivos formados sobre a liga. O comportamento capacitivo dos filmes passivos foi estudado empregando-se a equação de Mott-Schottky. Os resultados obtidos mostram que os filmes formados se comportam como semicondutores degenerados do tipo n e do tipo p, na região de potenciais situada maiores e menores do que o potencial de banda plana, respectivamente. Esse comportamento é considerado conseqüência das propriedades semicondutoras dos óxidos de ferro (tipo n) e cromo (tipo p) presentes nos filmes passivos. Essa interpretação é fortalecida pelos resultados obtidos através das espectroscopias eletrônicas, as quais possibilitam o estabelecimento de uma relação direta entre a composição química das duas regiões de óxidos e a análise de Mott-Schottky. O comportamento dos filmes formados na região de potenciais próximos ao potencial de banda plana é essencialmente controlado pelo óxido de níquel, cujo comportamento pode ser comparado ao de um dielétrico, sem alterar a semicondutividade do óxido de ferro, quando ambos encontram-se misturados. O alto grau de degenerescência se deve ao valor elevado da densidade de doadores e aceptores (~ 1021 cm-3). Baseado nos resultados obtidos, o modelo da estrutura eletrônica previamente proposto para explicar a semicondutividade de filmes passivos e térmicos crescidos sobre o aço inoxidável 304, pode também ser aplicado no presente estudo. Segundo tal modelo, a estrutura eletrônica dos filmes formados pode ser comparada a de uma heterojunção do tipo p–n, onde as regiões de carga espacial encontram-se localizadas nas interfaces liga-filme e filme-solução.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação é apresentada sob a forma de dois artigos. O primeiro foi realizado com o objetivo de comparar medidas verticais e horizontais de imagens adquiridas em estereomicroscópio (E) e scanner de mesa (S). Para isso, 50 dentes posteriores extraídos de humanos e seccionados no sentido mésio-distal foram utilizados. Cada hemi-secção foi fotografada no estereomicroscópio e digitalizada em scanner de mesa, com resolução de 230 dpi. No programa Photoshop foram realizadas medições horizontais (H) e verticais (V) de cada hemi-secção, nas imagens obtidas pelos dois métodos, com repetição aleatória de 20% dos casos da amostra. As medidas iniciais e repetidas apresentaram excelente correlação e o teste t para amostras pareadas não evidenciou diferenças significativas (p = 0,05) entre elas nos dois métodos. As médias das medidas e seus desvios-padrão foram: horizontais E 8,89 mm ? 4,30 mm, S 8,89 mm ? 4,52 mm e verticais E 4,42 mm ? 2,19 mm, S 4,43 mm ? 2,19 mm. O teste t para amostras pareadas com nível de significância de 5% demonstrou não haver diferenças significativas entre os dois métodos, tanto para as medidas horizontais (p=0,685) quanto para as verticais (p=0,299). Conclui-se que o scanner de mesa pode substituir o estereomicroscópio na aquisição de imagens de hemi-secções de dentes, com a finalidade de obtenção de medidas horizontais e verticais. O segundo artigo avaliou, in vitro, a profundidade de lesões de cárie proximal em dentes posteriores, comparando os exames clínico e radiográfico interproximal, com e sem a aplicação de cores, ao exame histológico. No total, 142 superfícies proximais foram avaliadas clinicamente e radiografadas. Para obtenção do padrão-ouro do estudo o exame histológico com cortes seriado foi realizado e as secções adquiridas, assim como as radiografias, digitalizadas com scanner de mesa A partir da criação de um programa digital, foi possível a aplicação de cores nas imagens radiográficas de maneira padronizada, de acordo com a intensidade de pixels de cada superfície. A profundidade das lesões foi aferida por meio de escores e de medidas nas imagens histológicas, radiográficas com e sem o uso de cor em cada superfície da amostra. O programa não foi capaz de identificar superfícies hígidas e lesões em diferentes profundidades no esmalte. Em todas as lesões que apresentavam alteração radiográfica em dentina, os escores atribuídos às imagens radiográficas com aplicação de cores foram 100% concordantes com os escores histológicos. Em relação às lesões que apresentavam histologicamente alteração na metade externa dentina, 55,56% tiveram sua profundidade subestimada, contudo nenhuma era cavidade em dentina. Todas as lesões que apresentavam profundidade histológica na metade interna de dentina apresentavam cavidade em dentina e mostraram a mesma extensão com a aplicação de cor na radiografia, superando os resultados obtidos com a radiografia sem cor. Em relação às medidas de profundidade, quando um desvio-padrão foi subtraído da média de densidade óptica para a aplicação de cores, as medidas resultantes foram ligeiramente menores e não diferiram significativamente daquela do exame histológico de acordo com a Análise de Variância, utilizando o delineamento de blocos casualizados, complementado pelo teste de Comparações Múltiplas de Tukey. O uso de um programa digital que determina de maneira padronizada como cada imagem deve ser colorida auxilia no diagnóstico de lesões de cárie que apresentam extensão histológica em dentina, especialmente aquelas que atinjam a sua porção interna.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho analisa o processo de evolução, concorrência e competição no Setor de Telefonia Móvel Celular do Rio Grande do Sul, no período de 1999 à 2001, entre as operadoras Telefónica (banda A) e Claro (banda B). Para este estudo foram utilizados os conceitos de forças competitivas e estratégias competitivas de Michael E. Porter. Os conceitos são empregados para contextualizar a evolução histórica da telefonia móvel celular no Brasil e o perfil tecnológico do setor Baseado na análise podemos observar que a competição entre as operadoras foi baseada na qualidade dos serviços oferecidos ao invés de um competição baseada em preço, característica de um setor que passa por mudanças tecnológicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo analisa a relação entre facção e sistema eleitoral no Uruguai. Toma-se a reforma constitucional de 1996 como paradigma que busca a eliminação das facções pela modificação do sistema eleitoral. Mostra-se que nem todas as facções no Uruguai decorrem, necessariamente, do sistema eleitoral. A origem dos principais partidos políticos é discutida e com ela se analisa a base social de cada um. O crescimento eleitoral da esquerda, dentro de um sistema eleitoral concebido para garantir a continuidade dos partidos tradicionais, é apresentado com o ponto de partida da reforma. Uma comparação entre os dois sistemas eleitorais – o antigo e o novo – leva a conclusão que os partidos tradicionais, por não conseguirem resolver problemas de coordenação no pólo conservador do sistema de partidos, acabam por operar uma reforma que garanta mais representação proporcional frente uma oposição crescente, que tende a ser maioria. Com a teoria dos jogos, os incentivos e a lógica para a formação de coligações de facções são aportados ao estudo demonstrando que as mesmas atuam de forma cooperativa para suplantar estratégias, que individualmente conferem menores ganhos. Mecanismos clássicos de mensuração de número efetivo de partidos (NEP) apontam a quantidade de facções relevantes no sistema. Conclui-se que as facções são agentes relevantes do sistema e que a reforma do sistema eleitoral agiu de forma diversa sobre as facções dos três maiores partidos Uruguaios, não eliminando o fenômeno faccionista.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A popularização das tecnologias de acesso à Internet por “banda larga” suportam a crescente proliferação de aplicações do tipo “par-a-par” (peer-to-peer), onde o usuário doméstico, tipicamente consumidor de informação, passa também a atuar como provedor. De forma simultânea, há uma popularização crescente dos jogos em rede, especialmente dos “jogos maciçamente multijogador” (MMG ou massively multiplayer game) onde milhares de jogadores interagem, em tempo real, em mundos virtuais de estado persistente. Os MMGs disponíveis atualmente, como EverQuest e Ultima Online, são implementados como sistemas centralizados, que realizam toda a simulação do jogo no “lado servidor”. Este modelo propicia controle de acesso ao jogo pelo servidor, além de ser muito resistente a jogadores trapaceiros. Porém, a abordagem cliente-servidor não é suficientemente escalável, especialmente para pequenas empresas ou projetos de pesquisa que não podem pagar os altos custos de processamento e comunicação dos servidores de MMGs centralizados. Este trabalho propõe o FreeMMG, um modelo híbrido, cliente-servidor e par-a-par, de suporte a jogos maciçamente multijogador de estratégia em tempo real (MMORTS ou massively multiplayer online real-time strategy). O servidor FreeMMG é escalável pois delega a maior parte da tarefa de simulação do jogo para uma rede par-apar, formada pelos clientes. É demonstrado que o FreeMMG é resistente a certos tipos de trapaças, pois cada segmento da simulação distribuída é replicado em vários clientes. Como protótipo do modelo, foi implementado o jogo FreeMMGWizards, que foi utilizado para gerar testes de escalabilidade com até 300 clientes simulados e conectados simultaneamente no mesmo servidor Os resultados de escalabilidade obtidos são promissores, pois mostram que o tráfego gerado em uma rede FreeMMG, entre servidor e clientes, é significativamente menor se comparado com uma alternativa puramente cliente-servidor, especialmente se for considerado o suporte a jogos maciçamente multijogador de estratégia em tempo real.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Busca-se como objetivo geral, através da estimação de uma equação de demanda por moeda de longo prazo para o Brasil, período 1980-2001, testar a sua estabilidade, o que implica analisar a evolução dos coeficientes ao longo do tempo, bem como mensurar o desempenho acerca do grau de previsibilidade de demanda futura por encaixes reais, comparando sua eficiência no prognóstico com aquelas que se obteriam utilizando técnicas de estimação Mínimos Quadrados Ordinários (MQO) e Mínimos Quadrados Ordinários Recursivos (MQOR), ambas de caráter não adaptativo. Além disso, como resultado da análise percuciente das trajetórias dos parâmetros, a política monetária exercida no período é recuperada. Os resultados rejeitam a hipótese nula de estabilidade da demanda de moeda, encontrando-se que os parâmetros apresentam flutuações importantes não ilustradas pelo procedimento MQO, tendo se destacado o período 1986-1992 como o mais instável. Como era de se esperar, nos testes de capacidade de previsão, a estimação por meio do Filtro de Kalman supera as demais técnicas, evidenciando a ocorrência de mudanças nos regimes de política.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A G6PD é expressa em todos os tecidos, onde catalisa a primeira etapa da via das pentoses-fosfato. O NADPH produzido pela ação da G6PD serve como doador de elétrons na biossíntese redutora. Pelo fato de os glóbulos vermelhos não terem mitocôndria, a via das pentoses-fosfato é a única fonte de NADPH e essencial para sua proteção contra o stress oxidativo. A deficiência da G6PD é classificada como anemia hemolítica hereditária ligada ao cromossomo X, associada a manifestações clínicas heterogêneas. O gene da G6PD possui cerca de 140 variantes moleculares já descritas, muitas dessas associadas à enzimopatia. Considerando-se a alta freqüência populacional da deficiência de G6PD, a constituição da população do Rio Grande do Sul e as dificuldades diagnósticas desta deficiência, este trabalho teve como objetivo caracterizar os aspectos laboratoriais do diagnóstico da deficiência de G6PD em nosso meio. Para a quantificação da atividade da G6PD, foi utilizado o método enzimáticocolorimétrico com normalização da hemoglobina (kit intercientífica) e para as análises moleculares foram investigadas as mutações 202, 376 e 563 por PCR/RFLP. O presente estudo revelou uma prevalência combinada de 7,9% das duas formas de deficiência de G6PD (completa e parcial) no Rio Grande do Sul, com alta prevalência de pacientes parcialmente deficientes e sem correlação com origem étnica. Usando técnicas bioquímicas e moleculares, foi caracterizada a deficiência de G6PD em amostras de Porto Alegre como sendo principalmente devida às mutações G202A e A376G, representando a variante G6PD A-, confirmando uma distribuição homogênea do padrão G6PD A- no Brasil. Os resultados apresentados aqui demonstraram que as condições de estocagem (temperatura principalmente) desempenham um papel fundamental na atividade da G6PD, especialmente nas coletas em papel filtro. Na avaliação da acurácia do método enzimático de medida da atividade da G6PD as sensibilidades e especificidades calculadas para os valores de cut-off estabelecido em uma população normal foram: para 2,9 U/gHb ( 11,4% e 100%), para 8 U/g Hb (77,1% e 94,7%) e para 11,5 U/g hb (97,1% e 76,3%). Estima-se que a deficiência de ambas as formas combinadas de G6PD seja de aproximadamente 8% numa amostra do RS. A partir de uma probabilidade pré-teste de 8,0%, após a realização do ensaio enzimático, a probabilidade pós-teste de uma pessoa ser deficiente de G6PD com nível enzimático inferior a 8 U/g Hb passa a ser 55,9%. Ao passo que para níveis superiores a 11,5 U/gHb esta probabilidade de deficiência diminui para 0,37%. Pode-se concluir que o método empregado (kit Intercientífica) foi adequado para avaliar a atividade enzimática de G6PD em amostras de sangue total. É um método capaz de detectar a deficiência de G6PD, demonstrando de forma satisfatória o grau de deficiência em indivíduos que possuem mutações que causam deficiência enzimática menos severa, inclusive mulheres heterozigotas. A análise molecular pode identificar o tipo de variante mas não pode indicar o risco real para as mulheres portadoras, que é diretamente estimado pelo nível de atividade enzimática.