986 resultados para erro refracional
Resumo:
A hiperargininemia é um erro inato do ciclo da uréia causado pela deficiência na atividade da arginase hepática. Esta doença é caracterizada bioquimicamente pelo acúmulo tecidual de arginina (Arg). Retardo mental e outras alterações neurológicas, cujos mecanismos são ainda desconhecidos, são sintomas comuns em pacientes hiperargininêmicos. O óxido nítrico (NO) é gerado em todas as células do sistema nervoso central (SNC) pela enzima óxido nítrico sintase (NOS), a qual, na presença de oxigênio molecular, tetraidrobiopterina e outros cofatores, catalisa a conversão de Arg em NO e citrulina. Em condições normais, o NO desempenha importante papel fisiológico no SNC, como por exemplo, na liberação de neurotransmissores e expressão gênica. Quando há formação excessiva, o NO torna-se um importante mediador de neurotoxicidade Trabalhos realizados em nosso laboratório mostraram que a administração aguda de Arg em ratos diminui a atividade da Na+,K+-ATPase e aumenta o estresse oxidativo cerebral. Outros estudos mostraram que a administração de Arg prejudica a memória em ratos. Estes resultados foram prevenidos pelo Nϖ-nitro-L-arginine methyl ester (L-NAME), um inibidor competitivo da NOS, sugerindo que a administração de Arg altera estes parâmetros através do NO e/ou estresse oxidativo. Considerando que a administração de Arg aumenta o estresse oxidativo e que estudos mostram que o NO inibe a cadeia de transporte de elétrons provavelmente comprometendo a produção de energia, no presente trabalho, nós investigamos o efeito da administração aguda de Arg sobre alguns parâmetros do metabolismo energético (produção de CO2, captação de glicose, produção de lactato e atividades da succinato desidrogenase, complexo II e IV da cadeia respiratória) em hipocampo de ratos. Também testamos o efeito do L-NAME sobre os efeitos produzidos pela Arg Ratos adultos de 60 dias foram tratados com uma única injeção intraperitoneal de Arg, de acordo com o protocolo estabelecido por Buchmann e colaboradores (1996). A dose de Arg (0,8 g/Kg) usada atinge níveis plasmáticos semelhantes àqueles encontrados em pacientes hiperargininêmicos (1,5 mM). Os resultados do presente trabalho mostraram que a administração de Arg aumentou significativamente a produção de lactato e diminuiu a produção de CO2 e a captação de glicose, bem como as atividades da succinato desidrogenase e do complexo II, e que a injeção simultânea de L-NAME preveniu estes efeitos, exceto a produção de CO2 e a produção de lactato. No entanto, não houve alteração na atividade da citocromo c oxidase (complexo IV). Se estes achados também ocorrerem em humanos, pode-se presumir que a Arg prejudica o metabolismo energético, possivelmente através da geração de radicais livres induzida pela formação de NO e/ou da formação de poliaminas, contribuindo assim para a disfunção cerebral observada na hiperargininemia.
Resumo:
O entendimento do processo de fabricação por usinagem passa pelo estudo de fenômenos de formação de cavaco, esforços de corte, qualidade superficial do material usinado, mecanismos de desgaste de ferramenta e a influência de parâmetros de corte e tipo de material usado sobre essas variáveis. Neste contexto, o objetivo principal deste trabalho é analisar os efeitos do desgaste de ferramenta sobre as forças de corte e a rugosidade dos componentes usinados. O procedimento adotado foi a realização de ensaios de usinabilidade de longa duração em torneamento cilíndrico externo, durante os quais foram medidos desgaste de flanco, força de corte, força de avanço e rugosidade média dos componentes usinados. Os ensaios foram realizados para os aços ABNT 1040 e 1045 usando ferramentas de metal duro com revestimento duplo (TiN-Al2O3). Os resultados de vida de ferramenta foram analisados através da equação de Taylor, com maiores vidas de ferramenta observadas para o aço ABNT 1040 em todas as velocidades de corte testadas. As demais variáveis medidas foram analisadas em função do tempo de usinagem, desgaste de flanco máximo e acabamento superficial No domínio do tempo, foram encontradas correlações fortes para o desgaste de flanco máximo, força de corte e força de avanço para ambos os materiais. A relação entre a rugosidade média e o tempo de corte observada foi mais “estável” para o aço ABNT 1040. Contudo, variações no comportamento da rugosidade média foram observadas na velocidade de corte inferior usada na usinagem do aço ABNT 1045, devido ao desgaste mais lento do raio de ponta de ferramenta. Não se observou relação entre as forças de usinagem e a rugosidade média. A relação entre a força de corte e o desgaste de flanco máximo apresentou forte correlação para ambos os materiais, assim como a relação entre a força de avanço e o desgaste de flanco máximo, sendo realizada regressão linear para ambas as relações. Foi observada fraca influência da velocidade de corte nas relações força-desgaste de flanco, o que sugere que uma única equação pode descrever estas relações para toda a faixa de condições de corte estudada. Os resultados da análise de regressão permitem a determinação do desgaste de flanco máximo em função da força de corte com um erro médio de 15% para os aços ABNT 1040 e 1045. Para a previsão do desgaste de flanco em função da força de avanço, o erro médio encontrado foi de 19% para o aço ABNT 1040 e 15% para o aço ABNT 1045.
Resumo:
Esta dissertação de mestrado em economia foi motivada por uma questão complexa bastante estudada na literatura de economia política nos dias de hoje: as formas como campanhas políticas afetam votação em uma eleição. estudo procura modelar mercado eleitoral brasileiro para deputados federais senadores. Através de um modelo linear, conclui-se que os gastos em campanha eleitoral são fatores decisivos para eleição de um candidato deputado federal. Após reconhecer que variável que mede os gastos em campanha possui erro de medida (devido ao famoso "caixa dois", por exemplo), além de ser endógena uma vez que candidatos com maiores possibilidades de conseguir votos conseguem mais fontes de financiamento -, modelo foi estimado por variáveis instrumentais. Para senadores, utilizando modelos lineares modelos com variável resposta binaria, verifica-se também importância, ainda que em menor escala, da campanha eleitoral, sendo que um fator mais importante para corrida ao senado parece ser uma percepção priori da qualidade do candidato.
Resumo:
Este trabalho apresenta um estudo experimental realizado na bacia hidrográfica do arroio Donato, localizada na região central do derrame basáltico sul-riograndense, com o objetivo de avaliar se a variabilidade espaço-temporal do conteúdo de água no solo pode ser explicada a partir de fatores do ambiente, tais como topografia e solo. Para isto foi analisado um conjunto de mais de 2000 medições de conteúdo de água no solo, coletadas numa malha regular em toda a bacia, nas profundidades de 0, 30 cm e 60 cm, com detalhamento em dois perfis com 280 m (Perfil P1) e 320 m (Perfil P3) de comprimento. As medições do conteúdo de água no solo foram realizadas pelo método gravimétrico, na camada superficial, e com TDR, nas camadas inferiores. A análise geoestatística dos dados mostrou que, na superfície do solo, a estrutura espacial é muito variável temporalmente. Na profundidade de 30 cm a presença de estrutura é mais permanente, indicando que nesta profundidade os processos laterais de distribuição de água são predominantes sobre os processos verticais. Os semivariogramas calculados com os dados do perfil P3 apresentam uma clara estrutura espacial, com o modelo exponencial com pepita apresentando um excelente ajuste. A análise de correlação mostrou que os atributos topográficos com maior correlação com o conteúdo de água no solo foram: área de contribuição, aspecto e curvatura no perfil, na superfície; e declividade, área de contribuição e aspecto, a 30 cm de profundidade. Os dados dos perfis P1 e P3 mostraram correlação muito fraca com praticamente todos os atributos topográficos testados nesta tese. Com relação aos índices de conteúdo de água, observou-se que os mesmos apresentam boa correlação com os dados da malha regular, principalmente com os obtidos a 30cm de profundidade. Nos conjuntos de dados obtidos somente numa vertente (perfis P1 e P3) os índices de conteúdo de água não apresentam bom desempenho. A análise de estabilidade temporal mostrou que na bacia do arroio Donato a estabilidade completa do padrão espacial do conteúdo de água no solo não existe na camada superficial existindo somente para a profundidade de 30 cm. No entanto, foi possível identificar pontos na bacia com estabilidade temporal, principalmente na profundidade de 30 cm e no perfil P1. O uso de pontos de estabilidade temporal permite estimar a média espacial do conteúdo de água no solo com erro inferior a 5% e 1% na superfície e 30 cm, respectivamente.
Resumo:
O objetivo da dissertação foi obter um modelo de previsão para os preços dos imóveis, praticados no mercado imobiliário da cidade do Rio de Janeiro no ano 2000, utilizando a Metodologia do Preço Hedônico (HPM), que deve reponder a duas questões: a) Quais são as características relevantes; b) Qual é a forma de relacionamento entre os preços e as características. O modelo de previsão foi obtido, com base em procedimentos econométricos, e teve duas etapas distintas. Na primeira etapa, de formulação do modelo, foram realizadas regressões paras as formas funcionais mais utilizadas pelos estudos na área, a saber, a forma funcional linear, dupla logarítmica e semilogarítmica. Em seguida foi utilizado o procedimento de seleção de modelos “geral para específico”. A segunda etapa consistiu na previsão fora da amostra. Isto é, a partir das formas funcionais reduzidas e utilizando-se dos coeficientes das variáveis significativas, obteve-se os preços estimados e em seguida foram comparados com os preços efetivamente praticados pelo mercado. Calculou-se, então, os Erro Quadrático Médio (EQM) e o Erro Absoluto Médio (EAM) e com o auxílio dos testes de diagnósticos e igualdade de variância, escolheu-se a forma funcional que melhor se adequou aos dados Desta forma, para um nível de significância de 5%, a forma funcional que melhor se adequou aos critérios estabelecidos foi a dupla logarítmica e apresentou como resultado da estimação um R2=92,63% e dentre as características mais relevantes para estimação do preço do imóvel pode-se destacar, entre outras, o tamanho do imóvel como características físicas; a ocorrência de roubos como características de segurança, a quantidade disponível de bens e serviços destinados ao lazer como características de vizinhança e a disponibilidade ou não de serviços de hotelaria como características dummies.
Resumo:
A sustentabilidade da dívida pública brasileira no período entre dezembro de 1997 e junho de 2004 é testada nesse trabalho. Além disso, estima- se como o governo a justa em valor presente os impostos e gastos futuros diante de um choque nestas variáveis. Para testar a sustentabilidade, dois tipos de testes são aplicados: o primeiro segue a metodologia de coin- tegração presente nos modelos desenvolvidos por Hakkio e Rush (1991) e Bohn (1991); e o segundo baseia-se na reação do superávit primário a mudanças na razão dívida-PIB, como demonstrado por Bohn (1998). Para estes testes, utiliza-se séries como proporção do PIB, pois são as variáveis de relevância para o governo na condução da política fiscal. Os resultados dos três modelos indicam sustentabilidade da dívida pública brasileira. Sob a confirmação empírica de que a dívida é sustentável, o modelo desenvolvido por Bohn (1991) foi aplicado para avaliar como o governo reage a inovações nos gastos ou nos impostos de modo a manter a relação de equilíbrio de longo prazo do seu orçamento. Os resultados indicam que o governo reage com aumento de impostos quando a economia sofre choques nas variáveis fiscais. Isto resulta da exogeneidade fraca dos gastos no modelo de correção-de-erro estimado.
Resumo:
Este estudo tem como objetivo analisar o desempenho de vários modelos econométricos ao prever Inflação . Iniciamos o trabalho utilizando como base de comparação para todos os modelos a tradicional curva de Phillips que usa a taxa de desemprego como variável explicativa para diferenças de preço. Dentre os modelos analisados temos univariados e bivariados, sendo estes últimos uma curva de Phillips alternativa já que apenas sustitui a variável desemprego por outra variável macroeconômica. Além destes modelos também comparamos o desempenho de previsão de modelos que usam como covariadas uma combinação das previsões dos modelos anteriores (univariados e bivariados). O resultado deste estudo aponta a combinação de modelos por "ridge regression" como uma técnica - dentre as analisadas para combinação de previsões - de menor erro de previsão sempre; sendo alcançado pela combinação da média em apenas um dos casos analisados. No entanto, a combinação de previsões não apresentou melhor resultado que algumas das covariadas testadas em modelos bivariados
Resumo:
O objetivo do trabalho investigar qualidade das previsões da taxa de inflação brasileira utilizando-se uma alternativa tradicional unemployment rate Phillips curve. Utilizaremos diversas variáveis que espelham nível de atividade econômica no Brasil em substituição ao hiato entre taxa de desemprego taxa natural de desemprego (NAIRU). Essas variáveis serão trabalhadas e baseado em critérios mencionados ao longo do estudo, serão classificadas por nível de erro de previsibilidade. objetivo ao final do trabalho sugerir indicadores variáveis de nível de atividade disponíveis publicamente que melhor possam interagir com dinâmica da inflação brasileira.
Resumo:
O modelo numérico GENESIS (Generalized Model for Simulating Shoreline Change) é parte de um sistema de modelagem de linha de praia, o SMS (Shoreline Modeling System), desenvolvido pelo CERC (Coastal Engineering Research Center), U.S.A. É um modelo genérico, determinístico e bidimensional, com grande flexibilidade para ser adaptado a costas abertas, arenosas e sujeitas a intervenção humana. Utilizado na previsão da resposta da linha praia as diversas obras costeiras que podem ser implantadas na mesma. Características estas, que fazem dele uma ferramenta indicada para a o estudo costa do Rio Grande do Sul e para o objetivo deste estudo. A aplicação do modelo de evolução de linha praia – GENESIS neste trabalho, tem como objetivos: calibrar o modelo numérico GENESIS para a costa centro norte do Rio Grande do Sul e avaliar seu uso como ferramenta na previsão de impactos ambientais gerados por obras costeiras, Alem de reproduzir as condições do modelo físico reduzido de 1965 e comparar os resultados entre as simulações matemática e física. O modelo foi aplicado num trecho de linha de praia da região centro norte do Rio Grande do Sul, nas praias de Tramandaí e Imbé. As quais já foram alvo de estudos anteriores através de modelo físico reduzido, em função do desejo deste município em construir molhes na desembocadura do canal da Laguna de Tramandaí. Para implementação do modelo numérico GENESIS foram utilizados dados das posições da linha de praia em três diferentes anos, coletados pelo CECO/UFRGS, dados de onda coletados pelo ondógrafo do IPH/UFRGS, e diversos dados sobre as praias e sua história, retirados da extensa bibliografia publicada sobre a região de estudo. A calibração do modelo foi realizada através das linhas de praia medidas em 1997 e em 2000. O modelo foi considerado calibrado quando o mesmo consegui reproduzir a linha de praia do ano 2000 a partir da linha de 1997, obtendo um erro máximo de 15 m. Foram realizadas simulações que reproduziam as simulações feitas em modelo físico reduzido do IPH em 1965. Através da comparação dos dados de onda utilizados no modelo físico reduzido de 1965 e dos dados de onda coletados pelo ondógrafo em 1996, pudemos observar a importância do uso de um série de dados de onda neste tipo de estudo, bem como, a desenvoltura e limitações do modelo numérico GENESIS na situações geradas.
Resumo:
O acúmulo de mutações, alterações incorporadas ao patrimônio genético de células somáticas e germinais, pode causar redução de populações naturais que são críticas para a cadeia alimentar, pondo em risco a sobrevivência de determinadas espécies. Embora o dano causado pela contaminação química ocorra em nível molecular, existem efeitos emergentes nas populações, tais como perda da diversidade genética, que não é previsível com base somente no conhecimento dos mecanismos de toxicidade não genéticos. Alguns compostos de origem antrópica tendem a adsorver no material orgânico do sedimento, sendo concentrados ao longo do tempo. Contaminantes ambientais podem ser mais associados com a porção fina dos sedimentos (silte ou argila) do que com a grosseira (areia ou cascalho). O presente estudo avaliou a atividade mutagênica e citotóxica de extratos moderadamente polares de sedimento em três pontos durante 5 coletas realizadas nos anos de 1999 e 2000 no arroio Bom Jardim, que drena a região do Complexo Petroquímico, localizado no município de Triunfo, Rio Grande do Sul. Foi utilizado na avaliação da mutagenicidade e citotoxicidade o ensaio Salmonella/microssoma, método de microssuspensão. A análise de granulometria mostrou um conteúdo de partículas finas em média menor no ponto em frente ao complexo, sendo este também o ponto amostral com menor percentual de material orgânico extraído. Observou-se baixa atividade mutagênica nos diferentes locais estudados, variando de 3,3% até 8,3%, sendo a citototoxicidade o mais importante efeito biológico observado na região, variando de 20% até 40%, somados os resultados dos ensaios em presença e ausência de metabolização externa. Os pontos com maior contaminação estão localizados em frente e a jusante da área industrial, havendo uma distribuição gradativa e sazonal das respostas à medida que o local se aproxima da foz do arroio. Em ensaios com ausência de fração de metabolização hepática, as respostas para mutagênese e citotoxicidade foram mais freqüentes, sendo os danos do tipo erro no quadro de leitura os mais presentes. A determinação da atividade mutagênica e citotóxica em amostras de sedimento mostrou-se importante na determinação da qualidade ambiental, apesar da composição química desta matriz ser bastante complexa. O ensaio Salmonella/microssoma monitorando danos moleculares e, principalmente citotoxicidade, foi uma ferramenta importante no diagnóstico da presença de poluentes. A possibilidade de avaliar danos precoces, através deste ensaio, promove a melhoria da qualidade ambiental e motiva ações de preservação do patrimônio genético da fauna e flora atingidas pela atividade antrópica.
Resumo:
Dada a escassez de informação (principalmente de vazão) nas sub-bacias urbanas, os parâmetros das metodologias usadas no dimensionamento de uma rede de macrodrenagem são estimados a partir de características físicas, introduzindo incertezas sobre os valores corretos do parâmetro. Neste trabalho são apresentados resultados que indicam o impacto que as incertezas nos parâmetros têm sobre os valores da vazão e custo da rede, e custo estimado para redução das mesmas. Foram analisados os parâmetros das metodologias dos blocos alternados utilizada na determinação da chuva de projeto; da “Curva Número” do SCS utilizada para determinação da precipitação efetiva; e de Clark e Hidrograma Unitário Triangular (SCS) empregadas para a propagação de vazão. Também foi analisado o efeito da variabilidade espacial da chuva. Da análise de sensibilidade dos parâmetros determinou-se que para simulação distribuída da bacia, o CN resultou o parâmetro mais sensível. Por exemplo, para um incremento de uma unidade no CN foram encontradas variações de entre 8 e 10% na vazão, o que representa um incremento de 5% no custo. Também foram significativas as diferenças na chuva de projeto obtidas a partir de diferentes IDFs de postos pluviométricos próximos (diferenças de até 80% na vazão ou seja 40% no custo. Mudanças no valor do tempo de concentração somente tiveram efeito significativo na simulação concentrada da bacia; já variações do parâmetro de forma no HTA do método de Clark não tiveram efeitos sobre a vazão ou custo. Por outro lado, os custos de medição de chuva e vazão, necessários para geração da informação que permitiria reduzir a incerteza resultam menores ao impacto produzido por um erro 1% no CN, ressaltando a importância de efetuar coleta contínua de dados de vazão.
Resumo:
Entre as doenças causadas por bactérias do gênero Mycobacterium, a tuberculose por M. tuberculosis é a mais conhecida. O diagnóstico da doença é feito utilizando-se um conjunto de exames que possibilitam a identificação da mesma (WATT, 2000). Contudo, sabe-se que o diagnóstico combinado de microscopia direta e com o posterior isolamento em meio de cultivo é o “padrão-ouro”. A principal desvantagem desse método é que tal bactéria possui um crescimento lento (cerca de 8 semanas). Recentemente, a detecção de doenças através da técnica de reação em cadeia da polimerase (PCR) tem proporcionado avanços significativos no diagnóstico. O uso da amplificação específica de genes, para identificar a M. tuberculosis, tais como rDNA 16S, IS6110 ou a região intergênica senX3-regX3, tem apresentado algumas restrições, ao nível de confiabilidade e sensibilidade, para a aplicação da técnica de PCR. O presente estudo mostra a construção e a aplicação de um novo alvo para a aplicação da PCR no diagnóstico da tuberculose, baseado no ensaio da diferença de organização gênica do operon plcA, B e C diferenciando a M. tuberculosis das demais micobactérias. Neste trabalho, foram examinadas 273 amostras de pacientes com suspeita de tuberculose, sendo estas submetidas ao estudo comparativo da técnica de PCR versus cultivo (padrão ouro). A PCR amplificou fragmentos de 439pb. Os resultados mostram 93,7% de acurácia para PCR/Cultivo (p<000,1), 93,1% de sensibilidade com intervalo de confiança de 88,7-96,0 e especificidade de 96,4% com intervalo de confiança de 96,4-99,4. O valor da estatística Kappa (k) foi de 0,82 com erro padrão de 0,041, demonstrando um alinhamento quase perfeito para a verificação do grau de concordância entre os testes. Desta forma, o uso desta nova região para a amplificação da PCR se mostra uma importante e confiável ferramenta no diagnóstico específico da tuberculose. Outra região que compreende parte dos genes mbaA e inhA foi utilizada para diferenciar o Complexo tuberculosis do Complexo avium. Porém, novos experimentos serão necessários para o emprego desta região como uma ferramenta de diagnóstico.
Resumo:
O propósito deste estudo é analisar a capacidade dos modelos econométricos ARMA, ADL, VAR e VECM de prever inflação, a fim de verificar qual modelagem é capaz de realizar as melhores previsões num período de até 12 meses, além de estudar os efeitos da combinação de previsões. Dentre as categorias de modelos analisados, o ARMA (univariado) e o ADL (bivariado e multivariado), foram testados com várias combinações de defasagens. Foram realizadas previsões fora-da-amostra utilizando 3 períodos distintos da economia brasileira e os valores foram comparados ao IPCA realizado, a fim de verificar os desvios medidos através do EQM (erro quadrático médio). Combinações das previsões usando média aritmética, um método de média ponderada proposto por Bates e Granger (1969) e média ponderada através de regressão linear múltipla foram realizadas. As previsões também foram combinadas com a previsão do boletim FOCUS do Banco Central. O método de Bates e Granger minimiza a variância do erro da combinação e encontra uma previsão com variância do erro menor ou igual à menor variância dos erros das previsões individuais, se as previsões individuais forem não viesadas. A conclusão é que, com as técnicas de séries temporais utilizadas, alguns modelos individuais fornecem previsões com EQM relativamente baixos. Destacando-se, dentre eles, os modelos VAR e VECM. Porém, com a combinação de previsões os EQM obtidos são menores do que os das previsões individuais usadas para combinação. Na maioria dos casos, a combinação de previsões com o boletim FOCUS também melhorou significativamente os resultados e forneceu previsões com EQM menores do que os das previsões individuais, destacando-se, dentre os métodos de combinações utilizados, a combinação via regressão linear múltipla.
Resumo:
O objetivo deste trabalho é obter uma nova solução analítica para a equação de advecção-difusão. Para tanto, considera-se um problema bidimensional difusivo-advectivo estacionário com coeficiente de difusão turbulenta vertical variável que modela a dispersão de poluentes na atmosfera. São utilizados três coeficientes difusivos válidos na camada limite convectiva e que dependem da altura, da distância da fonte e do perfil de velocidade. A abordagem utilizada para a resolução do problema é a técnica da Transformada Integral Generalizada, na qual a equação transformada do problema difusivo-advectivo é resolvida pela técnica da Transformada de Laplace com inversão analítica. Nenhuma aproximação é feita durante a derivação da solução, sendo assim, esta é exata exceto pelo erro de truncamento. O modelo ´e avaliado em condições moderadamente instáveis usando o experimento de Copenhagen. Apresentam-se os resultados numéricos e estatísticos, comparando os resultados obtidos com dados experimentais e com os resultados da literatura. O modelo proposto mostrou-se satisfatório em relação aos dados dos experimentos difusivos considerados.
Resumo:
Este trabalho descreve um estudo e desenvolvimento de um sensor de dióxido de carbono (CO2), de baixo custo, para monitoramento da qualidade do ar em ambientes climatizados. O sensor aqui proposto baseia-se na técnica de absorção em infravermelho não dispersivo (NDIR). Este trabalho avalia alguns métodos já empregados e propõe um modelo alternativo visando uma solução de baixo custo que possa ser incorporada a sistemas de monitoramento e/ou condicionamento existentes, permitindo o controle do teor de CO2. A metodologia inclui o estudo dos diferentes tipos de sensores de CO2, a seleção da técnica mais apropriada para medição, o estudo das alternativas para implementação da técnica selecionada, o desenvolvimento, testes e avaliações da solução. Especificamente desenvolveu-se uma solução em termos de sensor de CO2 que utiliza componentes comerciais, sendo facilmente reprodutível e de custo reduzido. O sensor desenvolvido tem faixa de medição entre 330 a mais de 10000 ppm, com resolução estimada em torno de 20 a 30 ppm, com erro em relação ao padrão menor que 10% da medição ou 150 ppm,o que for maior.