26 resultados para Calibration.
Resumo:
Levofloxacino é uma fluorquinolona sintética de 3 geração. É eficaz contra uma variedade de infecções, incluindo o trato respiratório superior e inferior, trato urinário, obstétrico, ginecológico, e infecções dermatológicas. Com o objetivo de quantificar o levofloxacino em medicamentos e amostras de pacientes saudáveis e ter a resolução de seu espectro, foram realizados estudos preliminares em medicamento utilizando espectrofluorescência molecular com concentrações na faixa de 28,8 108 ng/mL e cromatografia líquida de alta eficiência (HPLC) na faixa de concentração de 2,9 10,8 g/mL; e também quantificação em urina de paciente em tratamento com o medicamento, usando os dois métodos citados. Após isso, foram feitos estudos conclusivos utilizando espectrofluorescência molecular e os métodos univariado e PLS para determinação de levofloxacino na faixa de concentração de 0 250 ng/mL e PARAFAC combinado com o método da adição de padrão, para quantificação de levofloxacino em urina de paciente saudável, na faixa de concentração de 0 150 ng/mL, com diluição da amostra em três níveis (100 x, 500 x e 1000x). O método de ordem zero se mostrou mais eficiente na determinação de levofloxacino em medicamento que o de primeira ordem, seus desvios padrão foram 2,0% e 7,9%, respectivamente. Já o PARAFAC com o método de adição de padrão apresentou melhores resultados com a urina, pois possibilitou a quantificação do antibiótico em uma amostra complexa, de forma mais precisa e exata com o aumento da diluição da urina, sem necessidade de tratamento prévio.
Resumo:
Para aumentar os volumes de extração de petróleo, resolver e prevenir problemas nas operações de produção são utilizados diversos produtos químicos, dentre os quais se destacam os inibidores de corrosão, que são utilizados em toda cadeia produtiva do petróleo visando proteger o sistema da deterioração por corrosão. Os sais de amônio quaternário são uma das classes de inibidores mais utilizadas pela indústria do petróleo devido a sua grande eficiência. Entretanto, sua solubilidade em água faz com que estejam presentes na água produzida representando um risco para contaminação ambiental, visto que possuem baixa biodegrabilidade e potencial de bioacumulação. Como se encontram misturados a outros produtos químicos e sob efeitos das variações do ambiente em que são aplicados, definir um método de análise confiável e viável para monitoramento em linha representa um desafio para os laboratórios de campos de produção. Neste trabalho, foi estudado o emprego da fluorescência de ultravioleta na quantificação de um inibidor de corrosão do tipo sal de amônio quaternário em água. Foram obtidos espectros de emissão do produto comercial em água, além do estudo de variáveis instrumentais e interferentes presentes na água produzida. A comparação com padrões de sal de amônio quaternário permitiu identificar como principal fluorófilo, um sal alquil-aril de amônio quaternário. Estudos de estabilidade revelaram que a adsorção do inibidor de corrosão nas superfícies dos frascos plásticos provoca a queda do sinal fluorescente e que a adição de isopropanol reduz este efeito de 40 para 24%. Foram obtidas curvas de calibração com a formulação comercial e com o cloreto de 2-metil-4-dodecil-benzil-trimetil amônio com uma boa correlação. Amostras sintéticas do inibidor foram determinadas com um erro relativo de 2,70 a 13,32%. O método de adição padrão foi avaliado usando uma amostra de água produzida, e os resultados não foram satisfatórios, devido à interferência, principalmente, de compostos orgânicos aromáticos presentes
Resumo:
The Amazon river, located in northernBrazil, discharges between 80,000 and 250,000 m3s-1 of water onto the adjacent shelf, creating a plume of brackish water that extends hundreds of kilometers away from the river mouth. This river also carries a large amount of fine sediments to the ocean where fluid mud has been found in the topset and upper foreset layers of the subaqueous delta formed on the mid-shelf. One of the main goals of this dissertation is to describe how turbulence and suspended sediment concentration vary along the Northern Channel of the Amazon river. Water column measurements were carried out in October 2008 at six anchor stations (P1, P3, P5, P6, P8 e P9) located seaward of the river mouth; P1 and P9 were 125 km apart. Each station was occupied during 13 hours during which current speed and direction were continuously sampled with a 600 kHz Teledyne-RDI ADCP; hourly profiles of temperature, salinity, turbidity and depth were also obtained. Water samples were collected for determination of Suspended Particulate Matter (SPM) concentration and calibration of the turbidity sensor. Current speed reached values above 1.5 m s1 in the along-channel direction (NE-SW); a remarkable ebb-flood asymmetry was observed and flows were strongly ebb-dominated. Throughout the water column, SPM concentration at stations P1 and P3 varied between 100 and 300 mg L1 in association with the presence of freshwater. In contrast, a strong salinity gradient was observed between stations P6 and P9, coinciding with the occurrence of concentrations of SPM above 10 g L-1 (fluid mud). At stations P3, P5 and P6, interface between freshwater from the Amazon river and salt water from the continental shelf, shear stresses wereestimated through four diferents methods: Reynolds, Turbulent Kinetic Energy (TKE), modified TKE and Quadratic Law; in the nearbed region (3 mab) the computed values varied between 0 and 3 Pa. At the three stations (P3, P5 and P6) the lowest and the highest shear stress values were obtained through, respectively, the Reynolds and the TKE methods. Over the whole water column turbulence intensity was estimated through the standard deviation of the turbulent component of the along-channel current velocity (root-mean square of u); from these values, it was estimated the turbulent dissipation of energy (G), whose values at 3 mab varied between zero and 20 s1.
Resumo:
Este trabalho de pesquisa descreve dois estudos de caso de métodos quimiométricos empregados para a quantificação de hidrocarbonetos policíclicos aromáticos HPAs (naftaleno, fluoreno, fenantreno e fluoranteno) em água potável usando espectroscopia de fluorescência molecular e a classificação e caracterização de sucos de uva e seus parâmetros de qualidade através de espectroscopia de infravermelho próximo. O objetivo do primeiro estudo é a aplicação combinada de métodos quimiométricos de segunda ordem (N-PLS, U-PLS, U-PLS/RBL e PARAFAC) e espectrofluorimetria para determinação direta de HPAs em água potável, visando contribuir para o conhecimento do potencial destas metodologias como alternativa viável para a determinação tradicional por cromatografia univariada. O segundo estudo de caso destinado à classificação e determinação de parâmetros de qualidade de sucos de uva, densidade relativa e teor de sólidos solúveis totais, foi medida por espectroscopia de infravermelho próximo e métodos quimiométricos. Diversos métodos quimiométricos, tais como HCA, PLS-DA, SVM-DA e SIMCA foram investigados para a classificação amostras de sucos de uva ao mesmo tempo que métodos de calibração multivariada de primeira ordem, tais como PLS, iPLS e SVM-LS foram usadas para a predição dos parâmetros de qualidade. O princípio orientador para o desenvolvimento dos estudos aqui descritos foi a necessidade de metodologias analíticas com custo, tempo de execução e facilidade de operação melhores e menor produção de resíduos do que os métodos atualmente utilizados para a quantificação de HPAs, em água de torneira, e classificação e caracterização das amostras de suco de uva e seus parâmetros de qualidade
Resumo:
Este trabalho de pesquisa descreve três estudos de utilização de métodos quimiométricos para a classificação e caracterização de óleos comestíveis vegetais e seus parâmetros de qualidade através das técnicas de espectrometria de absorção molecular no infravermelho médio com transformada de Fourier e de espectrometria no infravermelho próximo, e o monitoramento da qualidade e estabilidade oxidativa do iogurte usando espectrometria de fluorescência molecular. O primeiro e segundo estudos visam à classificação e caracterização de parâmetros de qualidade de óleos comestíveis vegetais utilizando espectrometria no infravermelho médio com transformada de Fourier (FT-MIR) e no infravermelho próximo (NIR). O algoritmo de Kennard-Stone foi usado para a seleção do conjunto de validação após análise de componentes principais (PCA). A discriminação entre os óleos de canola, girassol, milho e soja foi investigada usando SVM-DA, SIMCA e PLS-DA. A predição dos parâmetros de qualidade, índice de refração e densidade relativa dos óleos, foi investigada usando os métodos de calibração multivariada dos mínimos quadrados parciais (PLS), iPLS e SVM para os dados de FT-MIR e NIR. Vários tipos de pré-processamentos, primeira derivada, correção do sinal multiplicativo (MSC), dados centrados na média, correção do sinal ortogonal (OSC) e variação normal padrão (SNV) foram utilizados, usando a raiz quadrada do erro médio quadrático de validação cruzada (RMSECV) e de predição (RMSEP) como parâmetros de avaliação. A metodologia desenvolvida para determinação de índice de refração e densidade relativa e classificação dos óleos vegetais é rápida e direta. O terceiro estudo visa à avaliação da estabilidade oxidativa e qualidade do iogurte armazenado a 4C submetido à luz direta e mantido no escuro, usando a análise dos fatores paralelos (PARAFAC) na luminescência exibida por três fluoróforos presentes no iogurte, onde pelo menos um deles está fortemente relacionado com as condições de armazenamento. O sinal fluorescente foi identificado pelo espectro de emissão e excitação das substâncias fluorescentes puras, que foram sugeridas serem vitamina A, triptofano e riboflavina. Modelos de regressão baseados nos escores do PARAFAC para a riboflavina foram desenvolvidos usando os escores obtidos no primeiro dia como variável dependente e os escores obtidos durante o armazenamento como variável independente. Foi visível o decaimento da curva analítica com o decurso do tempo da experimentação. Portanto, o teor de riboflavina pode ser considerado um bom indicador para a estabilidade do iogurte. Assim, é possível concluir que a espectroscopia de fluorescência combinada com métodos quimiométricos é um método rápido para monitorar a estabilidade oxidativa e a qualidade do iogurte
Resumo:
A presente pesquisa concentra-se no estudo hidrológico utilizando o potencial das geotecnologias na modelagem do escoamento na bacia do rio Bengalas, cujo rio principal de mesmo nome, corta o município de Nova Friburgo, RJ, no sentido Sul-Norte. Esse município, um dos mais importantes da região serrana, sofre frequentemente com inundações e deslizamentos, onde, dados históricos e acontecimentos recentes mostram que a ocupação inadequada de encostas e calhas dos rios são as áreas destacada e negativamente afetadas. A metodologia tem suporte no uso de um SIG, extraindo informações, que por sua vez, serão entrada de dados na fase de modelagem, e reforçando a apresentação dos resultados das simulações através de mapas. Ela está divida basicamente em três etapas: "SIG", "Modelagem" e "Suporte à Tomada de Decisão/Simulação". Esse primeiro estudo permitiu compor um banco de dados geográfico com as características fisiográficas da bacia; a seleção criteriosa de uma modelagem matemática e encadeamento de seus parâmetros com os componentes do ciclo hidrológico; realizar a calibração do modelo de transformação chuva-vazão, Soil Conservation Service (CN); e simular a passagem dos volumes gerados pela precipitação efetiva na calha do rio Bengalas, com o objetivo de identificar e analisar as áreas suscetíveis a inundações na porção central da cidade de Nova Friburgo. Modelagem dessa natureza vem sendo empregada, principalmente, no gerenciamento de recursos hídricos, onde a tomada de decisões embasada nos resultados de simulações computacionais, contribuem para evitar prejuízos materiais e financeiros, e ainda, perdas de vidas humanas em áreas de risco, neste caso, aquelas suscetíveis a inundações. Analisando os resultados encontrados temos que a área suscetível à inundação para uma chuva com tempo de recorrência de 50 anos, o mais crítico estudado, seja de aproximadamente 1,0 km, distribuídos nos seus 8,5km na região central de Nova Friburgo-RJ, sendo está, ora delimitada, prioritariamente edificada.
Resumo:
Neste trabalho é estudada a viabilidade de uma implementação em paralelo do algoritmo scale invariant feature transform (SIFT) para identificação de íris. Para a implementação do código foi utilizada a arquitetura para computação paralela compute unified device architecture (CUDA) e a linguagem OpenGL shading language (GLSL). O algoritmo foi testado utilizando três bases de dados de olhos e íris, o noisy visible wavelength iris image Database (UBIRIS), Michal-Libor e CASIA. Testes foram feitos para determinar o tempo de processamento para verificação da presença ou não de um indivíduo em um banco de dados, determinar a eficiência dos algoritmos de busca implementados em GLSL e CUDA e buscar valores de calibração que melhoram o posicionamento e a distribuição dos pontos-chave na região de interesse (íris) e a robustez do programa final.
Resumo:
Esta tese tem por objetivo propor uma estratégia de obtenção automática de parâmetros hidrodinâmicos e de transporte através da solução de problemas inversos. A obtenção dos parâmetros de um modelo físico representa um dos principais problemas em sua calibração, e isso se deve em grande parte à dificuldade na medição em campo desses parâmetros. Em particular na modelagem de rios e estuários, a altura da rugosidade e o coeficiente de difusão turbulenta representam dois dos parâmetros com maior dificuldade de medição. Nesta tese é apresentada uma técnica automatizada de estimação desses parâmetros através deum problema inverso aplicado a um modelo do estuário do rio Macaé, localizado no norte do Rio de Janeiro. Para este estudo foi utilizada a plataforma MOHID, desenvolvida na Universidade Técnica de Lisboa, e que tem tido ampla aplicação na simulação de corpos hídricos. Foi realizada uma análise de sensibilidade das respostas do modelo com relação aos parâmetros de interesse. Verificou-se que a salinidade é uma variável sensível a ambos parâmetros. O problema inverso foi então resolvido utilizando vários métodos de otimização através do acoplamento da plataforma MOHID a códigos de otimização implementados em Fortran. O acoplamento foi realizado de forma a não alterar o código fonte do MOHID, possibilitando a utilização da ferramenta computacional aqui desenvolvida em qualquer versão dessa plataforma, bem como a sua alteração para o uso com outros simuladores. Os testes realizados confirmam a eficiência da técnica e apontam as melhores abordagens para uma rápida e precisa estimação dos parâmetros.
Resumo:
Este estudo teve como objetivo principal caracterizar os padrões de distribuição do material particulado em suspensão ao longo da baía de Sepetiba, associando as variabilidades espaciais e temporais com ciclos de maré. Além disso, o estudo também avalia a utilização de equipamentos acústicos como ferramentas à estimativa das concentrações de material particulado em suspensão. A aquisição de dados foi realizada num total de sete campanhas realizadas entre novembro de 2010 e dezembro de 2011. Sete estações foram posicionadas nas proximidades do canal principal de acesso à baía, ao longo de um transecto que se estende do seu interior até sua desembocadura. As sete campanhas amostrais se distribuem em duas séries longas, de 13 e 25 horas, de aquisição em um ponto fixo, e cinco amostragens ao longo das estações. A aquisição de dados envolve: coleta de amostras de água, utilizadas nas estimativas das concentrações de material particulado; coleta de sedimentos de fundo para caracterização granulométrica das estações amostradas; perfis de parâmetros físico-químicos; dados de correntômetria adquiridos junto ao fundo. O processamento das amostras de água e sedimentos foi realizado no laboratório de Geologia Marinha da Faculdade de Oceanografia da Universidade do Estado do Rio de Janeiro. As concentrações de material particulado em suspensão foram utilizadas na calibração de sensores acústicos e óticos, permitindo uma avaliação espaço-temporal mais detalhada dos padrões de distribuição junto ao fundo e ao longo da coluna dágua. Os dados observados permitiram identificar que as maiores concentrações de material particulado em suspensão ocorrem em condições de maré enchente, e estão associadas à assimetria de maré. A baía pode ser dividida em dois setores: um na porção mais interna, onde se observou maior influência do aporte fluvial, onde as concentrações de material particulado em suspensão respondem à propagação da pluma do canal de São Francisco; e outro que se estende da porção central até sua desembocadura, onde predomina o domínio marinho, com influência de eventos oriundos da plataforma continental. Também pode ser identificada a influência do fenômeno La Niña, que provavelmente foi responsável por: altas salinidades encontradas no interior da baía e ocorrência da Água Central do Atlântico Sul à baixas profundidades. Quanto à utilização de equipamentos acústicos nas estimativas das concentrações de material particulado, os dados se demonstraram ricos em detalhes, que permitiram avaliar o comportamento do material particulado junto ao fundo frente a diferentes condições de maré, turbulência e incidência de oscilações.
Resumo:
Neste trabalho são apresentados os procedimentos de caracterização de um sistema comercial portátil de Fluorescência de Raios X por dispersão em energia, o ARTAX 200, bem com seu processo de calibração. O sistema é composto por um tubo de Raios X, com anodo de Molibdênio e um detector XFlash (Silicon Drift Detector) refrigerado por Efeito Peltier. O procedimento de caracterização do sistema foi realizado utilizando-se uma amostra de referência contendo Ferro e Cromo. Foram também usadas amostras certificadas (National Bureau of Standards) D840, D845, D846, D847 e D849 para a realização do processo de calibração do sistema para análise quantitativa. O processo de calibração foi realizado por três metodologias diferentes a fim de avaliar qual deles apresentaria melhores resultados. A caracterização do sistema ARTAX 200 foi realizada executando testes de estabilidade do tubo de Raios X, repetibilidade, reprodutibilidade, resolução em energia do sistema, levantamento da curva de limite de detecção e verificação do centro geométrico do feixe (CG). Os resultados obtidos nos testes de estabilidade apresentaram um coeficiente de variação médio menor do que 2%, o teste de repetibilidade apresentou valores médios menores que 0,5 %. A reprodutibilidade apresentou um coeficiente de variação médio menor que 1,5%. A verificação do centro geométrica mostrou que o CG encontra-se alinhada com o centro ótimo do feixe em duas das três direções do plano cartesiano. A resolução em energia do sistema para a energia de 5,9 keV foi de 150 eV. O limite de detecção apresentou valores menores que 1 % do Si ao Cu. Na avaliação das metodologias para calibração verificou-se que uma das metodologias aplicadas apresentou melhor resultado. Comparando os resultados com outros sistemas portáteis de XRF observa-se que o ARTAX 200 apresenta eficiência superior em relação aos parâmetros analisados.
Resumo:
Desenvolvimento de metodologia para a determinação de aflatoxinas em amostras de amendoim usando espectrofluorimetria e análise dos fatores paralelos (PARAFAC). 2012. 92 f. Dissertação (Mestrado em Engenharia Química) - Instituto de Química, Universidade do Estado do Rio de Janeiro , Rio de Janeiro, 2012. Neste trabalho de pesquisa são descritos dois estudos de caso que se baseiam na determinação de aflatoxinas B1, B2, G1 e G2 em amostras de amendoim, utilizando a técnica de espectroscopia de fluorescência molecular. O primeiro estudo tem o objetivo de avaliar a metodologia empregada para a quantificação de aflatoxinas totais em amendoins, utilizando o método clássico de validação fazendo-se o uso da calibração univariada. Os principais parâmetros de desempenho foram avaliados visando certificar a possibilidade de implementação desta metodologia em laboratórios. O segundo estudo está focado na separação e quantificação destas aflatoxinas com a aplicação combinada da espectrofluorimetria e de um método quimiométrico de segunda ordem (PARAFAC) utilizando a calibração multivariada. Esta técnica pode ser empregada como uma alternativa viável para a determinação de aflatoxinas B1, B2, G1 e G2 isoladamente, tradicionalmente é feito por cromatografia líquida de alta eficiência com detector de fluorescência. Porém, como estes analitos apresentam uma larga faixa de sobreposição espectral e as aflatoxinas (B1 e G1) possuem intensidade de sinal de fluorescência bem abaixo das demais, a separação e quantificação das quatro aflatoxinas foi inviável. O estudo foi retomado com a utilização das aflatoxinas B2 e G2 e os resultados alcançados foram satisfatórios. O método utilizado para a quantificação de aflatoxinas totais apresentou bons resultados, mostrando-se como uma importante ferramenta para a determinação destes analitos. Alem disso, comtempla perfeitamente o que é requerido pela legislação brasileira para a análise de aflatoxinas B1, B2, G1 e G2, que tem como exigência em laudos finais de análise a declaração do somatório, em g/kg, destas aflatoxinas, ou seja, sem a necessidade de quantifica-las separadamente
Resumo:
Esse trabalho compreende dois diferentes estudos de caso: o primeiro foi a respeito de um medicamento para o qual foi desenvolvida uma metodologia para determinar norfloxacino (NOR) por espectrofluorimetria molecular e validação por HPLC. Primeiramente foi desenvolvida uma metodologia por espectrofluorimetria onde foram feitos alguns testes preliminares a fim de estabelecer qual valor de pH iria fornecer a maior intensidade de emissão. Após fixar o pH foi feita a determinação de NOR em padrões aquosos e soluções do medicamento usando calibração univariada. A faixa de concentração trabalhada foi de 0500 μg.L-1. O limite de detecção para o medicamento foi de 6,9 μg.L-1 enquanto que o de quantificação foi de 24,6 μg.L-1. Além dessas, outras figuras de mérito também foram estimadas para desenvolvimento da metodologia e obtiveram resultados muito satisfatórios, como por exemplo, os testes de recuperação no qual a recuperação do analito foi de 99.5 a 103.8%. Para identificação e quantificação do NOR da urina foi necessário diluir a amostra de urina (estudada em dois diferentes níveis de diluição: 500 e 1000 x) e também uso do método da adição de padrão (na mesma faixa de concentração usada para medicamento). Após a aquisição do espectro, todos foram usados para construção do tensor que seria usado no PARAFAC. Foi possível estimar as figuras de mérito como limite de detecção de 11.4 μg.L-1 and 8.4 μg.L-1 (diluição de 500 e 1000 x respectivamente) e limite de quantificação de 34 μg.L-1 e 25.6 μg.L-1 (diluição de 500 x e 1000 x respectivamente). O segundo estudo de caso foi na área alimentícia no qual se usou espectroscopia NIR e FT MIR acopladas a quimiometria para discriminar óleo de soja transgênica e não transgênica. Os espectros dos óleos não mostraram diferença significativa em termos visuais, sendo necessário usar ferramentas quimiométricas capazes de fazer essa distinção. Tanto para espectroscopia NIR quanto FT MIR foi feito o PCA a fim de identificar amostras discrepantes e que influenciariam o modelo de forma negativa. Após efetuar o PCA, foram usadas três diferentes técnicas para discriminar os óleos: SIMCA, SVM-DA e PLS-DA, sendo que para cada técnica foram usados também diferentes pré processamento. No NIR, apenas para um pré processamento se obteve resultados satisfatórios nas três técnicas, enquanto que para FT-MIR ao se usar PLS-DA se obteve 100% de acerto na classificação para todos os pré processamentos
Resumo:
A presente dissertação objetiva a verificação do desempenho dos ensaios do tipo CRS, com velocidade controlada, quando comparados aos ensaios de adensamento oedométricos convencionais, SIC. O ensaio SIC é executado em vários estágios de carga, cada qual com vinte e quatro horas de duração e razão unitária entre o incremento de tensão e a tensão anterior, requerendo um prazo total de cerca de 10 dias para sua execução. Já o ensaio de adensamento com velocidade controlada, CRS, tem sua duração bastante reduzida, o que levou diversos pesquisadores da área de Geotecnia a concentrarem esforços no estudo de seu desempenho, visando sua utilização mais ampla. Para este estudo foi adquirido equipamento da empresa Hogentogler Inc., designado por GeoStar. Sua instalação, montagem e calibração foram realizadas no Laboratório de Mecânica dos Solos. Foram executados ensaios em corpos de prova obtidos de amostras de caulim, preparadas em laboratório, e também em amostras de solos originários de dois depósitos de diferentes regiões no Estado do Rio de Janeiro: baixada de Jacarepaguá e Itaboraí. A dissertação procurou detalhar a execução dos ensaios, as dificuldades da interpretação das planilhas originadas pelo sistema de aquisição de dados, acoplado ao equipamento GeoStar, as mudanças efetuadas, as ocorrências não previstas, a análise e interpretação dos resultados e a comparação dos parâmetros obtidos com os ensaios SIC e CRS. Procurou-se estudar o efeito da velocidade de deformação, histórico de tensões, qualidade dos corpos de prova, parâmetros do ensaio, facilidade de execução e desempenho. Verificou-se a simplicidade, rapidez e o desempenho satisfatório do ensaio CRS. Sugere-se estender estudos semelhantes a outros locais e, principalmente, a amostras de qualidade superior, na expectativa de confirmar as conclusões detalhadas nesta pesquisa.
Resumo:
Este trabalho estima, utilizando dados trimestrais de 1999 a 2011, o impacto dinâmico de um estímulo fiscal no Brasil sobre as principais variáveis macroeconômicas Brasileiras. Na estimativa dos impactos permitiu-se que as expectativas dos agentes econômicas fossem afetadas pela existência e probabilidade de alternância de regimes (foram detectados dois regimes) na política monetária do país. Os parâmetros da regra da política monetária, nos dois regimes detectados, foram estimados através de um modelo - composto apenas pela equação da regra da política monetária - que permite uma mudança de regime Markoviana. Os parâmetros do único regime encontrado para a política fiscal foram estimados por um modelo Vetorial de Correção de Erros (Vector Error Correction Model - VEC), composto apenas pelas variáveis pertencentes à regra da política fiscal. Os parâmetros estimados, para os diversos regimes das políticas monetária e fiscal, foram utilizados como auxiliares na calibragem de um modelo de equilíbrio geral estocástico dinâmico (MEGED), com mudanças de regime, com rigidez nominal de preços e concorrência monopolística (como em Davig e Leeper (2011)). Após a calibragem do MEGED os impactos dinâmicos de um estímulo fiscal foram obtidos através de uma rotina numérica (desenvolvida por Davig e Leeper (2006)) que permite obter o equilíbrio dinâmico do modelo resolvendo um sistema de equações de diferenças de primeira ordem expectacionais dinâmicas não lineares. Obtivemos que a política fiscal foi passiva durante todo o período analisado e que a política monetária foi sempre ativa, porém sendo em determinados momentos menos ativa. Em geral, em ambas as combinações de regimes, um choque não antecipado dos gastos do governo leva ao aumento do hiato do produto, aumento dos juros reais, redução do consumo privado e (em contradição com o resultado convencional) redução da taxa de inflação.
Resumo:
A discriminação de fases que são praticamente indistinguíveis ao microscópio ótico de luz refletida ou ao microscópio eletrônico de varredura (MEV) é um dos problemas clássicos da microscopia de minérios. Com o objetivo de resolver este problema vem sendo recentemente empregada a técnica de microscopia colocalizada, que consiste na junção de duas modalidades de microscopia, microscopia ótica e microscopia eletrônica de varredura. O objetivo da técnica é fornecer uma imagem de microscopia multimodal, tornando possível a identificação, em amostras de minerais, de fases que não seriam distinguíveis com o uso de uma única modalidade, superando assim as limitações individuais dos dois sistemas. O método de registro até então disponível na literatura para a fusão das imagens de microscopia ótica e de microscopia eletrônica de varredura é um procedimento trabalhoso e extremamente dependente da interação do operador, uma vez que envolve a calibração do sistema com uma malha padrão a cada rotina de aquisição de imagens. Por esse motivo a técnica existente não é prática. Este trabalho propõe uma metodologia para automatizar o processo de registro de imagens de microscopia ótica e de microscopia eletrônica de varredura de maneira a aperfeiçoar e simplificar o uso da técnica de microscopia colocalizada. O método proposto pode ser subdividido em dois procedimentos: obtenção da transformação e registro das imagens com uso desta transformação. A obtenção da transformação envolve, primeiramente, o pré-processamento dos pares de forma a executar um registro grosseiro entre as imagens de cada par. Em seguida, são obtidos pontos homólogos, nas imagens óticas e de MEV. Para tal, foram utilizados dois métodos, o primeiro desenvolvido com base no algoritmo SIFT e o segundo definido a partir da varredura pelo máximo valor do coeficiente de correlação. Na etapa seguinte é calculada a transformação. Foram empregadas duas abordagens distintas: a média ponderada local (LWM) e os mínimos quadrados ponderados com polinômios ortogonais (MQPPO). O LWM recebe como entradas os chamados pseudo-homólogos, pontos que são forçadamente distribuídos de forma regular na imagem de referência, e que revelam, na imagem a ser registrada, os deslocamentos locais relativos entre as imagens. Tais pseudo-homólogos podem ser obtidos tanto pelo SIFT como pelo método do coeficiente de correlação. Por outro lado, o MQPPO recebe um conjunto de pontos com a distribuição natural. A análise dos registro de imagens obtidos empregou como métrica o valor da correlação entre as imagens obtidas. Observou-se que com o uso das variantes propostas SIFT-LWM e SIFT-Correlação foram obtidos resultados ligeiramente superiores aos do método com a malha padrão e LWM. Assim, a proposta, além de reduzir drasticamente a intervenção do operador, ainda possibilitou resultados mais precisos. Por outro lado, o método baseado na transformação fornecida pelos mínimos quadrados ponderados com polinômios ortogonais mostrou resultados inferiores aos produzidos pelo método que faz uso da malha padrão.