59 resultados para Validação - Métodos analíticos
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
A validação dos métodos de análises em situações fora da rotina, em P&D pesquisa e desenvolvimento, pode tornar-se um processo de difícil solução, em oposição àquelas de rotina, onde as concentrações são conhecidas. Nesta última situação, o método analítico é validado e aprovado com simplicidade. Apesar dos elementos de qualidade básicos para análises em P&D serem os mesmos adotados nas análises de rotina, fatores como o comportamento imprevisível da amostra, a composição desconhecida da matriz e interdependência com o analito, mesmo a incerteza a respeito da escolha do método instrumental, requer uma atenção renovada nos elementos de qualidade existentes. A razão pode ser atribuída à imprevisibilidade do procedimento analítico e a extensão do esforço adicional dos elementos de qualidade. As incertezas das análises em P&D requerem uma cuidadosa consideração do problema, assim como a disponibilidade de técnicas analíticas. Ao mesmo tempo, devem-se observar o planejamento e organização do trabalho, a supervisão do desenvolvimento analítico e a adequação dos aspectos técnico e organizacional - no trabalho de P&D, a definição de responsabilidades e a competência do corpo técnico. A garantia da qualidade nas indústrias farmacêuticas é estabelecida pelo desenvolvimento de especificações apropriadas para matérias-primas, produtos intermediários e produtos finais. A importância de especificações adequadas foi estabelecida e exemplos foram dados no desenvolvimento de especificação típica para produtos farmacêuticos, tais como a vacina e matéria prima. Isto incluiu uma discussão dos tipos de parâmetros que precisam ser controlados e uma indicação dos valores numéricos ou faixas esperadas para muitos materiais utilizados. A metrologia analítica que necessita ser aplicada para demonstrar a observância com as especificações foi discutida, com as implicações de desempenho do método para diferenciar variações na qualidade do produto e a simples variabilidade analítica. Esse trabalho foi escrito para laboratórios, com a finalidade de dar um suporte na implementação da validação de métodos analíticos e introduzir o conceito de incerteza da medida nas análises de rotina. O objetivo foi fornecer de uma maneira compreensível e prática a metodologia dos cálculos das medidas de incerteza baseados principalmente em dados de controle de qualidade e de validação já existentes. Exemplos práticos retirados diretamente do Laboratório de Metrologia e Validação, FIOCRUZ / Bio-Manguinhos, foram apresentados. Entretanto, o tratamento usado neste trabalho é genérico e pode ser aplicável a outros laboratórios químicos
Resumo:
Desde 2004, o CONAMA (Conselho Nacional de Meio Ambiente), através de sua Resolução n 344, vem exigindo que as análises físicas, químicas e biológicas em matrizes ambientais sejam realizadas em laboratórios ambientais que possuam sua competência técnica reconhecida formalmente através da acreditação concedida pelo Inmetro. Assim, algumas Unidades Federativas vem adotando o mesmo critério para cadastramento de laboratórios em seus bancos de dados. Com isso, houve um crescimento no número de acreditações: em 2002 haviam 12 laboratórios acreditados e em 2012 foram concedidas 198 acreditações a laboratórios ambientais. A adoção da ABNT NBR ISO/IEC 17025 como padrão de trabalho, além de atender as legislações vigentes, possui as seguintes vantagens: satisfação do cliente, credibilidade e melhoria contínua do laboratório, melhoria da capacitação profissional e a conquista de um mercado mais amplo. Buscando adequar-se a essa realidade, apesar de todas as dificuldades inerentes ao processo de implementação dos requisitos da ABNT NBR ISO/IEC 17025 em laboratórios universitários e de pesquisa, o Laboratório de Engenharia Sanitária (LES/DESMA) priorizou a adequação da determinação da demanda química de oxigênio (DQO) aos requisitos técnicos da ABNT NBR ISO/IEC 17025:2005, por ser um parâmetro indicador global de matéria orgânica em águas residuárias e superficiais e ser amplamente utilizado no monitoramento de estações de tratamento de efluentes líquidos e pelo fato deste poder ser determinado por duas técnicas analíticas distintas: espectrofotometria e colorimetria. Em razão deste cenário, o objetivo deste trabalho foi avaliar o desempenho dos métodos 5220 B e 5220 D descritos pelo Standard Methods, através dos parâmetros de validação de métodos analíticos. Ambos os métodos mostraram-se adequados ao uso a que se destinam e o limite de quantificação determinado apresentou-se compatível com o praticado com os laboratórios acreditados. As incertezas foram calculadas de forma a quantificar a qualidade do resultado.
Resumo:
Perante diversas situações da engenharia são utilizadas formulações empíricas de dimensionamento baseadas em dados de campo e experiência profissional que definem muito o caráter subjetivo da metodologia padrão de projeto. O presente trabalho de pesquisa aborda os diversos métodos de obtenção dos esforços gerados em dutos enterrados submetidos a cargas dinâmicas e estáticas e sua posterior reavaliação através de modelagem numérica com o programa Plaxis 3D. Os métodos analíticos não convencionais foram comparados com o método padrão de cálculo sendo que o mesmo demonstrou ter uma boa precisão mesmo sem considerar outros fatores importantes como a parcela de resistência devida à coesão do solo e sua deformabilidade. A modelagem numérica demonstrou o conservadorismo do método de Marston e o subdmensionamento do espraiamento em prisma devido aos efeitos locais ocasionados pela adoção do recobrimento mínimo e sobrecarga dinâmica elevada. Também se observou, através da modelagem 3D, que a utilização dos dois métodos clássicos favorecem a obtenção de resultados dentro da razoabilidade.Verificou-se também, como resultado desta pesquisa, que a proposta de um método clássico modificado permite uma melhor aproximação da carga que atinge o duto.
Resumo:
O mercúrio é um metal pesado que vem sendo reconhecido como um poluente potencialmente perigoso no ecossistema marinho devido à sua alta toxicidade e tendência a sofrer bioacumulação nos organismos e biomagnificação através das teias tróficas, podendo ser encontrado em elevadas concentrações em predadores de topo, como os atuns. O objetivo do presente estudo foi utilizar atuns e afins (Thunnus atlanticus, Thunnus albacares, Katsuwonus pelamis, Euthynnus alletteratus, Coryphaena hippurus e Sarda sarda) como indicadores da disponibilidade de mercúrio total (HgT) nas teias tróficas oceânicas do Rio de Janeiro. Os indivíduos foram coletados no período entre Fevereiro de 2009 a Janeiro de 2010, no desembarque pesqueiro da cidade de Cabo Frio, no Estado do Rio de Janeiro, no Sudeste do Brasil. A determinação das concentrações de mercúrio total foi baseada em Malm et al. (1989) e Bastos et al. (1998). As alíquotas de músculo e fígado foram digeridas através de uma mistura de ácidos e as concentrações de mercúrio total foram determinadas por espectrofotometria a vapor frio (FIMS-400, Perkin-Elmer). A precisão e exatidão dos métodos analíticos foram determinadas utilizando os materiais certificados, DORM-3 e DOLT-4, (NRC, Canadá). Os dados foram analisados estatisticamente através do programa STATISTICS 7.0 for Windows. As concentrações de mercúrio total (HgT) encontradas nos atuns e afins variaram significativamente entre as espécies para o músculo e fígado. As menores concentrações foram registradas em Coryphaena hippurus, (0,008 mg. Kg-1 no músculo e 0,003 mg. Kg-1 no fígado), enquanto as maiores concentrações foram reportadas no músculo de Thunnus atlanticus (1,300 mg. Kg-1) e no fígado de Sarda sarda (2,495 mg. Kg-1). Foram encontradas diferenças significativas entre as concentrações de mercúrio total musculares e hepáticas para Katsuwonus pelamis, Euthynnus alletteratus e Sarda sarda, com as concentrações mais elevadas encontradas no fígado. Além disso, o tamanho e o peso dos indivíduos foram fatores importantes, sendo positivamente correlacionados com as concentrações de mercúrio total em todas as espécies, com exceção das concentrações hepáticas encontradas em Katsuwonus pelamis e Euthynnus alleteratus. Ademais, nove indivíduos mostraram altas concentrações musculares, acima de 0,5 mg.Kg-1, limite máximo estabelecido pela Organização Mundial de Saúde (OMS) em peixes predadores para consumo humano. Estes resultados são preocupantes, uma vez que podem representar potencial risco à saúde. Considerando o mercúrio um micro poluente tóxico, as elevadas concentrações encontradas nesses peixes, podem causar efeitos neles e em seus consumidores. Portanto, é importante um contínuo monitoramento de peixes para auxiliar na sua conservação e permitir identificar quais espécies podem ser consumidas e com qual frequência.
Resumo:
Os recentes desastres ocorridos no país, como o rompimento da adutora em Campo Grande e os desastres relacionados às enchentes urbanas, mostram a necessidade de desenvolvimento de pesquisas científicas que auxiliem na compreensão e no dimensionamento das estruturas projetadas para atender a demanda da população. Os métodos analíticos e experimentais mais utilizados possuem algumas limitações de ordem teórica ou prática. Por outro lado, os métodos numéricos, capazes de simular etapas construtivas e envolver materiais com diferentes modelos constitutivos numa mesma análise, buscam atender às necessidades práticas dos projetos de geotecnia e, ao mesmo tempo, complementam os modelos analíticos e experimentais. Nesse trabalho foram realizadas comparações entre resultados obtidos em ensaios experimentais e resultados extraídos do modelo computacional, buscando aumentar a compreensão sobre a interação solo-estrutura em relação à distribuição de tensões mobilizadas e aos deslocamentos e deformações provocados. A simulação numérica foi feita com a utilização do PLAXIS/3D, software de análise geotécnica baseado no método dos elementos finitos. Os ensaios foram confeccionados na Escola de Engenharia de São Carlos/USP por Costa (2005) e envolveram dutos enterrados submetidos à perda de apoio ou elevação localizada. O estudo experimental foi realizado através de modelos físicos compostos por um maciço de areia pura, contendo um tubo repousando sobre um alçapão no centro do vão. Os modelos físicos foram equipados com instrumental capaz de medir as deflexões e as deformações específicas ao longo do duto, além das tensões totais no maciço de solo circundante e na base do equipamento.
Resumo:
Estudos de fundações de obras de arte, como barragens de concreto-gravidade e barragens de terra, devem contemplar todos os esforços atuantes no maciço de fundação, principalmente as tensões e as deformações esperadas durante todo o processo construtivo e no período pós-construtivo. Quando essas estruturas são apoiadas sobre rochas de boa sanidade, a escolha do barramento geralmente favorece a implantação de barragens de concreto. Entretanto, quando os maciços de fundação são formados por solos, a opção técnica geralmente mais bem aceita é quanto à utilização de barragens de terra. Em ambos os casos, as análises de estabilidade e de deformação são desenvolvidas por métodos analíticos bem consolidados na prática. Nas condições mais adversas de fundação, seja em rochas ou em solos com marcante anisotropia e estruturas reliquiares herdadas da rocha-mãe, a utilização de modelos constitutivos anisotrópicos em análises por elementos finitos propicia simulações mais realistas dessas feições estruturais, contribuindo para o seu melhor conhecimento. O presente trabalho teve por objetivo demonstrar a utilização de um modelo constitutivo anisotrópico no estudo da fundação da Barragem San Juan, localizada na República Dominicana, que foi concebida como uma estrutura tipo concreto-gravidade apoiada sobre solos residuais jovens altamente anisotrópicos. Nessa obra, apesar de sua pequena altura, a presença marcante de descontinuidades ensejou um estudo mais detalhado do comportamento tensão-deformação da fundação, levando em conta o levantamento detalhado da atitude das descontinuidades presentes no maciço e os resultados de ensaios de resistência em planos paralelos e normais às descontinuidades. Para a estimativa de deformações, os respectivos módulos de Young (Es) foram estimados com base em correlações com a resistência à penetração SPT desenvolvidas nesta dissertação, a partir de um estudo estatístico baseado em várias publicações disponíveis na literatura. As análises numéricas por elementos finitos foram desenvolvidas através do programa Plaxis 2D, utilizando-se como modelo constitutivo aquele denominado The Jointed Rock Model, que é particularmente recomendado para análises de estabilidade e deformação de materiais anisotrópicos. Os resultados das análises numéricas foram comparados com as análises de equilíbrio limite elaboradas para o projeto executivo da referida barragem, pelo programa Slope, utilizando o método rigoroso de Morgenstern e Price, que se mostrou conservador. Os resultados das análises numéricas mostraram sua inequívoca versatilidade para a escolha de opções de reforço da fundação, através de dentes que objetivavam o aumento das condições de estabilidade da barragem.
Resumo:
Uma das tarefas mais desafiadoras do engenheiro na área da Geotecnia é a escolha dos valores de parâmetros geotécnicos obtidos de ensaios de campo ou laboratório e que serão utilizados nos modelos analíticos ou numéricos na fase de projeto de fundações. Diante das incertezas inerentes aos ensaios de SPT e da heterogeneidade de abordagens para a utilização dos valores de NSPT, é proposta neste estudo, a aplicação de um critério estatístico para obtenção de valores de NSPT, a partir da construção de intervalos de confiança de 95% de probabilidade em torno da reta ajustada de regressão linear simples entre a variável aleatória NSPT e a profundidade. Os valores obtidos de NSPT pelo critério aplicado foram utilizados na previsão da capacidade de carga de 19 estacas isoladas a partir da utilização de três métodos semi-empíricos: Aoki-Velloso (1975) com coeficientes alterados por Monteiro (1997), Décourt & Quaresma (1978) alterado pelo método de Décourt (1996) e Método de Alonso (1996). As cargas de ruptura dessas 19 estacas ensaiadas através de Provas de Carga Estática foram obtidas pelos métodos de extrapolação de Van Der Veen (1953) e Décourt (1996) e serviram para comparação e consequente validação do critério estatístico. Adicionalmente, com fulcro no item 6.2.1.2.1 da ABNT NBR 6122:2010 Resistência calculada por método semi-empírico, foram avaliados os fatores de segurança em relação às cargas de projeto, inclusive, também se utilizando da premissa de reconhecimento de regiões representativas, levando em conta o número de ensaios de SPT executados, fato que promove uma diminuição da incerteza dos parâmetros, apontando a um menor fator de segurança. A dissertação enfatiza as vantagens de um adequado tratamento estatístico dos parâmetros geotécnicos, a exemplo da recomendação já existente nas normas internacionais como Eurocódigo e outras. O critério construído permite e encoraja análises e decisões racionais no universo das partes interessadas consumidores, projetistas, fiscais de obras, contratantes e comunidade científica promovendo as discussões de forma mais objetiva e harmoniosa sobre o tema.
Resumo:
Apesar dos impactos ambientais ocasionados pela poluição e acidentes químicos, constata-se que algumas organizações ainda investem pouco na prevenção, redução ou eliminação de seus resíduos. Em algumas Instituições de Ensino e Pesquisa (IES) do Brasil, não é incomum o manejo inadequado dos resíduos perigosos gerados em laboratórios de ensino e pesquisa, aumentando tais riscos. Para minimizar ou eliminar tais riscos, há que se realizarem investimentos em processos tecnológicos de tratamento e na seleção de métodos adequados ao gerenciamento. O objetivo desta pesquisa foi modelar um Sistema de Gerenciamento Integrado de Resíduos Perigosos e validá-lo através de sua aplicação em estudo piloto nos laboratórios dos Institutos de Química e Biologia da Universidade do Estado do Rio de Janeiro. A pesquisa empírica e exploratória foi realizada através de revisão bibliográfica e coleta de dados sobre o estado da arte no gerenciamento de resíduos em algumas IES nacionais e internacionais, seguido da seleção do sistema adequado a ser modelado e aplicado nestes contextos. O trabalho de campo consistiu na coleta de dados através de observação direta e aplicação de questionário junto aos responsáveis pelos laboratórios. As etapas do estudo foram: levantamento das instalações dos laboratórios; observação do manejo e geração dos resíduos; elaboração do banco de dados; análise qualitativa e quantitativa dos dados; modelagem do Sistema de Gerenciamento Integrado de Resíduos Perigosos SIGIRPE; implantação do modelo; apresentação e avaliação dos resultados; elaboração do manual para uso do sistema. O monitoramento quantitativo de resíduos foi feito através de ferramentas do sistema para a sua análise temporal. Os resultados da pesquisa permitiram conhecer a dinâmica e os problemas existentes nos laboratórios, bem como verificar a potencialidade do modelo. Conclui-se que o SIGIRPE pode ser aplicado a outros contextos desde que seja adequado para tal fim. É imprescindível ter uma estrutura institucional que elabore o Plano de Gerenciamento Integrado de Resíduos e viabilize sua implementação. A universidade, enquanto formadora dos futuros profissionais, é um lócus privilegiado na construção e disseminação do conhecimento, tendo o dever de realizar boas práticas no trato das questões ambientais, em particular, com relação aos resíduos. Assim, elas devem estabelecer entre suas estratégias de ação, a inclusão de políticas ambientais em seus campi, onde a Educação Ambiental deve ser permanente. Espera-se que este trabalho contribua com o planejamento e o gerenciamento dos resíduos perigosos gerados em laboratórios e com as mudanças necessárias rumo à sustentabilidade ambiental. O SIGIRPE foi elaborado e testado, mas não foi possível verificar sua aplicação por outros usuários. É o que se espera com a continuidade desta pesquisa e no desenvolvimento de futuros trabalhos, tais como: teste do sistema em hospitais, laboratórios, clínicas; estudar outras aplicações na área de segurança química de laboratórios através da inclusão de roteiro de transporte interno de resíduos, rotas de fuga, mapas de risco, localização de equipamentos de proteção individual e coletiva; demonstrar a potencialidade de uso do sistema e sensibilizar os segmentos envolvidos através de palestras, mini-cursos e outras estratégias de informação em revistas científicas especializadas.
Resumo:
Este trabalho de pesquisa descreve três estudos de utilização de métodos quimiométricos para a classificação e caracterização de óleos comestíveis vegetais e seus parâmetros de qualidade através das técnicas de espectrometria de absorção molecular no infravermelho médio com transformada de Fourier e de espectrometria no infravermelho próximo, e o monitoramento da qualidade e estabilidade oxidativa do iogurte usando espectrometria de fluorescência molecular. O primeiro e segundo estudos visam à classificação e caracterização de parâmetros de qualidade de óleos comestíveis vegetais utilizando espectrometria no infravermelho médio com transformada de Fourier (FT-MIR) e no infravermelho próximo (NIR). O algoritmo de Kennard-Stone foi usado para a seleção do conjunto de validação após análise de componentes principais (PCA). A discriminação entre os óleos de canola, girassol, milho e soja foi investigada usando SVM-DA, SIMCA e PLS-DA. A predição dos parâmetros de qualidade, índice de refração e densidade relativa dos óleos, foi investigada usando os métodos de calibração multivariada dos mínimos quadrados parciais (PLS), iPLS e SVM para os dados de FT-MIR e NIR. Vários tipos de pré-processamentos, primeira derivada, correção do sinal multiplicativo (MSC), dados centrados na média, correção do sinal ortogonal (OSC) e variação normal padrão (SNV) foram utilizados, usando a raiz quadrada do erro médio quadrático de validação cruzada (RMSECV) e de predição (RMSEP) como parâmetros de avaliação. A metodologia desenvolvida para determinação de índice de refração e densidade relativa e classificação dos óleos vegetais é rápida e direta. O terceiro estudo visa à avaliação da estabilidade oxidativa e qualidade do iogurte armazenado a 4C submetido à luz direta e mantido no escuro, usando a análise dos fatores paralelos (PARAFAC) na luminescência exibida por três fluoróforos presentes no iogurte, onde pelo menos um deles está fortemente relacionado com as condições de armazenamento. O sinal fluorescente foi identificado pelo espectro de emissão e excitação das substâncias fluorescentes puras, que foram sugeridas serem vitamina A, triptofano e riboflavina. Modelos de regressão baseados nos escores do PARAFAC para a riboflavina foram desenvolvidos usando os escores obtidos no primeiro dia como variável dependente e os escores obtidos durante o armazenamento como variável independente. Foi visível o decaimento da curva analítica com o decurso do tempo da experimentação. Portanto, o teor de riboflavina pode ser considerado um bom indicador para a estabilidade do iogurte. Assim, é possível concluir que a espectroscopia de fluorescência combinada com métodos quimiométricos é um método rápido para monitorar a estabilidade oxidativa e a qualidade do iogurte
Resumo:
Esse trabalho compreende dois diferentes estudos de caso: o primeiro foi a respeito de um medicamento para o qual foi desenvolvida uma metodologia para determinar norfloxacino (NOR) por espectrofluorimetria molecular e validação por HPLC. Primeiramente foi desenvolvida uma metodologia por espectrofluorimetria onde foram feitos alguns testes preliminares a fim de estabelecer qual valor de pH iria fornecer a maior intensidade de emissão. Após fixar o pH foi feita a determinação de NOR em padrões aquosos e soluções do medicamento usando calibração univariada. A faixa de concentração trabalhada foi de 0500 μg.L-1. O limite de detecção para o medicamento foi de 6,9 μg.L-1 enquanto que o de quantificação foi de 24,6 μg.L-1. Além dessas, outras figuras de mérito também foram estimadas para desenvolvimento da metodologia e obtiveram resultados muito satisfatórios, como por exemplo, os testes de recuperação no qual a recuperação do analito foi de 99.5 a 103.8%. Para identificação e quantificação do NOR da urina foi necessário diluir a amostra de urina (estudada em dois diferentes níveis de diluição: 500 e 1000 x) e também uso do método da adição de padrão (na mesma faixa de concentração usada para medicamento). Após a aquisição do espectro, todos foram usados para construção do tensor que seria usado no PARAFAC. Foi possível estimar as figuras de mérito como limite de detecção de 11.4 μg.L-1 and 8.4 μg.L-1 (diluição de 500 e 1000 x respectivamente) e limite de quantificação de 34 μg.L-1 e 25.6 μg.L-1 (diluição de 500 x e 1000 x respectivamente). O segundo estudo de caso foi na área alimentícia no qual se usou espectroscopia NIR e FT MIR acopladas a quimiometria para discriminar óleo de soja transgênica e não transgênica. Os espectros dos óleos não mostraram diferença significativa em termos visuais, sendo necessário usar ferramentas quimiométricas capazes de fazer essa distinção. Tanto para espectroscopia NIR quanto FT MIR foi feito o PCA a fim de identificar amostras discrepantes e que influenciariam o modelo de forma negativa. Após efetuar o PCA, foram usadas três diferentes técnicas para discriminar os óleos: SIMCA, SVM-DA e PLS-DA, sendo que para cada técnica foram usados também diferentes pré processamento. No NIR, apenas para um pré processamento se obteve resultados satisfatórios nas três técnicas, enquanto que para FT-MIR ao se usar PLS-DA se obteve 100% de acerto na classificação para todos os pré processamentos
Resumo:
Com cada vez mais intenso desenvolvimento urbano e industrial, atualmente um desafio fundamental é eliminar ou reduzir o impacto causado pelas emissões de poluentes para a atmosfera. No ano de 2012, o Rio de Janeiro sediou a Rio +20, a Conferência das Nações Unidas sobre Desenvolvimento Sustentável, onde representantes de todo o mundo participaram. Na época, entre outros assuntos foram discutidos a economia verde e o desenvolvimento sustentável. O O3 troposférico apresenta-se como uma variável extremamente importante devido ao seu forte impacto ambiental, e conhecer o comportamento dos parâmetros que afetam a qualidade do ar de uma região, é útil para prever cenários. A química das ciências atmosféricas e meteorologia são altamente não lineares e, assim, as previsões de parâmetros de qualidade do ar são difíceis de serem determinadas. A qualidade do ar depende de emissões, de meteorologia e topografia. Os dados observados foram o dióxido de nitrogênio (NO2), monóxido de nitrogênio (NO), óxidos de nitrogênio (NOx), monóxido de carbono (CO), ozônio (O3), velocidade escalar vento (VEV), radiação solar global (RSG), temperatura (TEM), umidade relativa (UR) e foram coletados através da estação móvel de monitoramento da Secretaria do Meio Ambiente (SMAC) do Rio de Janeiro em dois locais na área metropolitana, na Pontifícia Universidade Católica (PUC-Rio) e na Universidade do Estado do Rio de Janeiro (UERJ) no ano de 2011 e 2012. Este estudo teve três objetivos: (1) analisar o comportamento das variáveis, utilizando o método de análise de componentes principais (PCA) de análise exploratória, (2) propor previsões de níveis de O3 a partir de poluentes primários e de fatores meteorológicos, comparando a eficácia dos métodos não lineares, como as redes neurais artificiais (ANN) e regressão por máquina de vetor de suporte (SVM-R), a partir de poluentes primários e de fatores meteorológicos e, finalmente, (3) realizar método de classificação de dados usando a classificação por máquina de vetor suporte (SVM-C). A técnica PCA mostrou que, para conjunto de dados da PUC as variáveis NO, NOx e VEV obtiveram um impacto maior sobre a concentração de O3 e o conjunto de dados da UERJ teve a TEM e a RSG como as variáveis mais importantes. Os resultados das técnicas de regressão não linear ANN e SVM obtidos foram muito próximos e aceitáveis para o conjunto de dados da UERJ apresentando coeficiente de determinação (R2) para a validação, 0,9122 e 0,9152 e Raiz Quadrada do Erro Médio Quadrático (RMECV) 7,66 e 7,85, respectivamente. Quanto aos conjuntos de dados PUC e PUC+UERJ, ambas as técnicas, obtiveram resultados menos satisfatórios. Para estes conjuntos de dados, a SVM mostrou resultados ligeiramente superiores, e PCA, SVM e ANN demonstraram sua robustez apresentando-se como ferramentas úteis para a compreensão, classificação e previsão de cenários da qualidade do ar
Resumo:
Haemophilus influenzae tipo b (Hib) é a principal causa de pneumonia bacteriana e meningite em crianças com menos de 5 anos de idade. A doença pode ser prevenida através da vacinação com uma vacina conjugada polissacarídeo-proteína, uma vez que a vacina de polissacarídeo não é eficaz. Desde 1999, o Ministério da Saúde incluiu a vacina conjugada Hib na rotina do calendário de imunização para crianças rotineiramente. Sendo este um processo de grande importância para as pessoas e demanda de produção significativa para o governo brasileiro, é necessário que os processos estejam de acordo com as normas nacionais e internacionais de regulamentação e devem ser validados. Uma operação validada assegura a produção de lotes uniformes que atendem as especificações exigidas, consequentemente, garantindo ao fabricante a capacidade de proporcionar um produto de qualidade. O trabalho propõe o desenvolvimento de uma metodologia que evidencie e garanta o processo de produção de um conjugado de polissacarídeo-proteína pelo método de conjugação química e que será produzido de forma consistente e de acordo com as suas especificações pré-definidas. Os atributos de qualidade garantem o não desabastecimento da vacina Haemophilus influenzae tipo b por desvios de processo, o que contribui com aumento do valor agregado ao produto em questão. Portanto, a metodologia de validação foi aplicada ao estudo de validação. O estudo baseou-se em três etapas. A primeira foi baseada em análise de parâmetros do processo de conjugação química para mapear e estabelecer intervalos críticos de controle quanto a estes parâmetros, a segunda fase foi realizada com a produção de três lotes consecutivos, em escala industrial, com monitorização regular dos parâmetros críticos mapeados anteriormente. A fase final consistiu em amostras recolhidas, em tempo pré-determinado, durante o processo de produção e de controle do produto final em tamanho 50% a mais que na rotina de produção. Estas amostras foram analisadas utilizando os métodos de análise que foram anteriormente validados, a fim de garantir a reprodutibilidade dos resultados. A robustez do processo foi assegurada uma vez que todos os parâmetros do processo avaliados apresentaram resultados dentro do padrão de conformidade com os resultados de controle determinados durante o processo, e no produto final para a população de amostragem dentro de especificações definidas pelas metodologias analíticas validadas garantindo os resultados. O trabalho proposto assegura status de processo validado para o conjugado polissacarídeo-proteína com excepcionais rendimentos obtidos, combinado com características químicas bem definidas
Resumo:
O objetivo deste estudo foi comparar os resultados da microinfiltração marginal obtidos por diferentes meios de aquisição de imagens e métodos de mensuração da penetração de prata em restaurações de resina composta classe V, in vitro. Dezoito pré-molares humanos hígidos, recém extraídos, foram divididos em três grupos, de acordo com o tipo de instrumento para preparação cavitária utilizado. Grupo 1: ponta diamantada número 3100, em alta rotação. Grupo 2: broca carbide número 330, em alta rotação. Grupo 3: ponta CVDentus código 82137, em aparelho de ultrassom. Foram realizados preparos cavitários padronizados (3x4x2mm) classe V nas faces vestibular e lingual de todos os dentes, com margens oclusais em esmalte e cervicais em dentina/cemento. As cavidades foram restauradas com o sistema adesivo Solobond M (VOCO) e resina composta Grandio (VOCO), a qual foi inserida e fotoativada em três incrementos. Os corpos de prova ficaram imersos em água destilada por 24h a 37oC; receberam acabamento e polimento com discos SofLex (3M) e foram novamente armazenados em água destilada, por sete dias. Posteriormente, as superfícies dentárias foram coberta com duas camadas de esmalte para unhas vermelho, exceto as áreas adjacentes às restaurações. Os espécimes ficaram imersos em solução aquosa de nitrato de prata a 50% por 24h e em solução fotorreveladora por 2h e foram seccionados no sentido vestíbulo-lingual, passando pelo centro das restaurações, com disco diamantado em baixa rotação. As amostras foram polidas em politriz horizontal e analisadas por diferentes métodos. À extensão da microinfiltração foi atribuído escores de 0 a 3 através de análises por meio de estereomicroscópio tradicional e com leds e microscópio ótico. As imagens obtidas na lupa com leds e no microscópio ótico tiveram as áreas infiltradas medidas através do software AxioVision. O teste χ2 de McNemar-Bowker revelou concordância estatística entre estereomicroscópio tradicional e o com leds (p=0,809) durante análises semiquantitativas. Porém, houve diferenças significantes entre microscópio ótico e estereomicroscópios (p<0,001). Houve boa correlação entre análises semiquantitativas e quantitativas de acordo com o teste de Spearmann (p<0,001). O teste de Kruskall-Wallis não revelou diferenças estatisticamente significantes (p=0,174) entre os grupos experimentais na análise quantitativa por microscópio ótico, em esmalte. Ao contrário do que se observa com a mesma em lupa (p<0,001). Conclui-se que o método de atribuição de escores comumente aplicado com a lupa nos estudos da microinfiltração marginal é uma opção confiável para análise da microinfiltração.
Resumo:
Neste trabalho, é apresentada uma formulação apropriada à análise de guias de ondas eletromagnéticos, cobrindo do espectro de microondas até o da óptica. Nas regiões a partir do ultravioleta, os comprimentos de onda são equivalentes às dimensões atômicas e a formulação necessita de uma abordagem quântica, que não é considerada neste estudo. A formulação é fundamentada nos métodos vetorial magnético e dos elementos finitos (MEF), em meios não homogêneos, anisotrópicos e não dissipativos, embora a dissipação possa ser facilmente introduzida na análise. Deu-se preferência à formulação com o campo magnético em vez do elétrico, pelo fato do campo magnético ignorar descontinuidades elétricas. Ele é contínuo em regiões de permeabilidade homogênea, propriedade dos meios dielétricos em geral ( = 0), independente da permissividade dos respectivos meios, conquanto os campos elétricos sejam descontínuos entre regiões de permissividades diferentes.
Resumo:
O propósito desta Tese foi detectar e caracterizar áreas sob alto risco para leishmaniose visceral (LV) e descrever os padrões de ocorrência e difusão da doença, entre os anos de 1993 a 1996 e 2001 a 2006, em Teresina, Piauí, por meio de métodos estatísticos para análise de dados espaciais, sistemas de informações geográficas e imagens de sensoriamento remoto. Os resultados deste estudo são apresentados na forma de três manuscritos. O primeiro usou análise de dados espaciais para identificar as áreas com maior risco de LV na área urbana de Teresina entre 2001 e 2006. Os resultados utilizando razão de kernels demonstraram que as regiões periféricas da cidade foram mais fortemente afetadas ao longo do período analisado. A análise com indicadores locais de autocorrelação espacial mostrou que, no início do período de estudo, os agregados de alta incidência de LV localizavam-se principalmente na região sul e nordeste da cidade, mas nos anos seguintes os eles apareceram também na região norte da cidade, sugerindo que o padrão de ocorrência de LV não é estático e a doença pode se espalhar ocasionalmente para outras áreas do município. O segundo estudo teve como objetivo caracterizar e predizer territórios de alto risco para ocorrência da LV em Teresina, com base em indicadores socioeconômicos e dados ambientais, obtidos por sensoriamento remoto. Os resultados da classificação orientada a objeto apontam a expansão da área urbana para a periferia da cidade, onde antes havia maior cobertura de vegetação. O modelo desenvolvido foi capaz de discriminar 15 conjuntos de setores censitário (SC) com diferentes probabilidades de conterem SC com alto risco de ocorrência de LV. O subconjunto com maior probabilidade de conter SC com alto risco de LV (92%) englobou SC com percentual de chefes de família alfabetizados menor que a mediana (≤64,2%), com maior área coberta por vegetação densa, com percentual de até 3 moradores por domicílio acima do terceiro quartil (>31,6%). O modelo apresentou, respectivamente, na amostra de treinamento e validação, sensibilidade de 79% e 54%, especificidade de 74% e 71%, acurácia global de 75% e 67% e área sob a curva ROC de 83% e 66%. O terceiro manuscrito teve como objetivo avaliar a aplicabilidade da estratégia de classificação orientada a objeto na busca de possíveis indicadores de cobertura do solo relacionados com a ocorrência da LV em meio urbano. Os índices de acurácia foram altos em ambas as imagens (>90%). Na correlação da incidência da LV com os indicadores ambientais verificou-se correlações positivas com os indicadores Vegetação densa, Vegetação rasteira e Solo exposto e negativa com os indicadores Água, Urbana densa e Urbana verde, todos estatisticamente significantes. Os resultados desta tese revelam que a ocorrência da LV na periferia de Teresina está intensamente relacionada às condições socioeconômicas inadequadas e transformações ambientais decorrentes do processo de expansão urbana, favorecendo a ocorrência do vetor (Lutzomyia longipalpis) nestas regiões.