881 resultados para validação de método analítico
Resumo:
.INTRODUCCIÓN. 1.1. COMPUESTOS 1,3 - DICARBONÍLICOS. METILENOS ACTIVOS. Los compuestos 1,3 - dicarbonílicos son uno de los bloques sintéticos más utilizados a lo largo de la historia de la síntesis orgánica. Esto se debe a sus múltiples centros de reactividad: dos centros reactivos electrófilos y hasta cinco centros nucleófilos, como se puede ver en la Figura 1, que permiten r ealizar infinidad de secuencias de reacciones para generar moléculas complejas. 1 R R O O Figura 1 . Centros reactivos de los compuestos 1,3 - dicarbonílicos. Se conoce un gran número de reacciones para esta familia de compuestos pero en este texto nos vamos a centrar en estudiar tres casos especialmente característicos por el potencial sintético que proporcionan, y que están muy relacionados con el hecho de que los hidrógenos de la agrupación metilénica son especialmente ácidos. Por ejemplo, el pKa de estos protones, en el caso del malonato de dietilo es de 13 unidades, mientras que el de su éster simple es de 24. 2 Esta notable diferencia en la acidez se explica fácilmente por la diferente estabilidad de los aniones enolatos correspondientes para los que la deslocalización de carga por resonancia está más extendida en el primer caso (Figura 2). Figura 2 . Representación de las formas resonantes del anión enolato malonato de dietilo. EtO OEt O O - EtO OEt O O EtO OEt O - O Nu Nu Nu Nu Nu E E 2 Las reacciones más conocidas que se aprovechan de esta característica estructural son, probablemente, la reacción de Knoevenagel, la síntesis malónica y acetilacética y un buen número de reacciones multicomponente, para los que haremos unos comentarios particulares en los siguientes apartados
Resumo:
785p. -- De forma paralela al proceso de investigación para esta Tesis el investigador llevó a cabo un documental de 80 minutos de duración, titulado "Oteiza y el Centro Cultural Alhóndiga. Proyecto estético para Bilbao". Este documental está elaborado a partir de las entrevistas arriba señaladas, así como de material audiovisual inédito sobre este proyecto. El documental está expuesto de forma permanente en el Museo Jorge Oteiza (Alzuza, Navarra)
Resumo:
Novas metodologias de análise molecular voltadas para estudos populacionais, clínicos, evolutivos, da biodiversidade e identificação forense foram desenvolvidas com base em marcadores microssátelites ou STR Short Tandem Repeats. Os marcadores STR, que estão amplamente espalhados nos genomas e se caracterizam por apresentar alto grau de polimorfismo, podem ser analisados a partir da amplificação por PCR (Reação em Cadeia da polimerase). A análise foi facilitada a partir do desenvolvimento de sistemas de amplificação simultânea de múltiplos STR (multiplex STR) e com a detecção automatizada dos produtos de amplificação marcados por fluorescência. Recentemente, o uso de marcadores STR do cromossomo X (X-STR) tornou-se significativo na prática forense. Devido ao seu modo de transmissão, os X-STR são úteis em situações particulares de investigação de relações de parentesco, apresentando vantagens sobre o uso de STR autossômicos. Este estudo teve como principal objetivo o desenvolvimento e validação de sistema multiplex, denominado LDD (X-STR) Decaplex, capaz de amplificar dez loci X-STR (DXS7133, DXS7424, DXS8378, DXS6807, DXS7132, DXS10074, DXS7423, DXS8377, GATA172D05 e DXS10101) para aplicação em genética populacional, identificação e análises forenses. Utilizando o LDD (X-STR) Decaplex 170 indivíduos autodenominados afrodescendentes, não aparentados geneticamente, foram genotipados. As freqüências alélicas e genotípicas não apresentaram desvio do equilíbrio de Hardy-Weinberg e estão em concordância com aquelas observadas em outros estudos. Os haplótipos observados foram únicos em indivíduos de amostra masculina. A análise de desequilíbrio de ligação não revelou associação entre os marcadores X-STR. A diversidade genética foi elevada, variando entre 0,6218 para o locus DXS7133 a 0,9327 para o locus DXS8377. Os parâmetros de Probabilidade de Vinculação (PV), Índice de Vinculação (IV), Poder de Exclusão (PE), Poder de Discriminação e Razão de Verossimilhança foram também elevados, demonstraram que os dez X-STRs são altamente polimórficos e discriminativos na população estudada. A concentração mínima de DNA para a amplificação dos loci do LDD (X-STR) Decaplex é de 0,5 ng e verificamos que amplificação por PCR pode ser afetada quando são adicionados mais de 5 ng de DNA nas reações. Os percentuais de bandas stutter foram elevados para os loci DXS7132 e DXS8377. No teste de reprodutibilidade observamos consistência entre as tipagem de diferentes amostras biológicas, incluindo as de restos mortais. No teste de mistura a proporção limite em que observamos a coexistência de duas espécies biológicas foi de 2,5:1ng (feminino-masculino). Os resultados evidenciaram que os loci do LDD (X-STR) Decaplex são altamente informativos, consistindo, em conjunto, uma ferramenta importante em estudos de identificação humana e de relações de parentesco.
Resumo:
Apesar dos impactos ambientais ocasionados pela poluição e acidentes químicos, constata-se que algumas organizações ainda investem pouco na prevenção, redução ou eliminação de seus resíduos. Em algumas Instituições de Ensino e Pesquisa (IES) do Brasil, não é incomum o manejo inadequado dos resíduos perigosos gerados em laboratórios de ensino e pesquisa, aumentando tais riscos. Para minimizar ou eliminar tais riscos, há que se realizarem investimentos em processos tecnológicos de tratamento e na seleção de métodos adequados ao gerenciamento. O objetivo desta pesquisa foi modelar um Sistema de Gerenciamento Integrado de Resíduos Perigosos e validá-lo através de sua aplicação em estudo piloto nos laboratórios dos Institutos de Química e Biologia da Universidade do Estado do Rio de Janeiro. A pesquisa empírica e exploratória foi realizada através de revisão bibliográfica e coleta de dados sobre o estado da arte no gerenciamento de resíduos em algumas IES nacionais e internacionais, seguido da seleção do sistema adequado a ser modelado e aplicado nestes contextos. O trabalho de campo consistiu na coleta de dados através de observação direta e aplicação de questionário junto aos responsáveis pelos laboratórios. As etapas do estudo foram: levantamento das instalações dos laboratórios; observação do manejo e geração dos resíduos; elaboração do banco de dados; análise qualitativa e quantitativa dos dados; modelagem do Sistema de Gerenciamento Integrado de Resíduos Perigosos SIGIRPE; implantação do modelo; apresentação e avaliação dos resultados; elaboração do manual para uso do sistema. O monitoramento quantitativo de resíduos foi feito através de ferramentas do sistema para a sua análise temporal. Os resultados da pesquisa permitiram conhecer a dinâmica e os problemas existentes nos laboratórios, bem como verificar a potencialidade do modelo. Conclui-se que o SIGIRPE pode ser aplicado a outros contextos desde que seja adequado para tal fim. É imprescindível ter uma estrutura institucional que elabore o Plano de Gerenciamento Integrado de Resíduos e viabilize sua implementação. A universidade, enquanto formadora dos futuros profissionais, é um lócus privilegiado na construção e disseminação do conhecimento, tendo o dever de realizar boas práticas no trato das questões ambientais, em particular, com relação aos resíduos. Assim, elas devem estabelecer entre suas estratégias de ação, a inclusão de políticas ambientais em seus campi, onde a Educação Ambiental deve ser permanente. Espera-se que este trabalho contribua com o planejamento e o gerenciamento dos resíduos perigosos gerados em laboratórios e com as mudanças necessárias rumo à sustentabilidade ambiental. O SIGIRPE foi elaborado e testado, mas não foi possível verificar sua aplicação por outros usuários. É o que se espera com a continuidade desta pesquisa e no desenvolvimento de futuros trabalhos, tais como: teste do sistema em hospitais, laboratórios, clínicas; estudar outras aplicações na área de segurança química de laboratórios através da inclusão de roteiro de transporte interno de resíduos, rotas de fuga, mapas de risco, localização de equipamentos de proteção individual e coletiva; demonstrar a potencialidade de uso do sistema e sensibilizar os segmentos envolvidos através de palestras, mini-cursos e outras estratégias de informação em revistas científicas especializadas.
Resumo:
Este trabalho de pesquisa descreve três estudos de utilização de métodos quimiométricos para a classificação e caracterização de óleos comestíveis vegetais e seus parâmetros de qualidade através das técnicas de espectrometria de absorção molecular no infravermelho médio com transformada de Fourier e de espectrometria no infravermelho próximo, e o monitoramento da qualidade e estabilidade oxidativa do iogurte usando espectrometria de fluorescência molecular. O primeiro e segundo estudos visam à classificação e caracterização de parâmetros de qualidade de óleos comestíveis vegetais utilizando espectrometria no infravermelho médio com transformada de Fourier (FT-MIR) e no infravermelho próximo (NIR). O algoritmo de Kennard-Stone foi usado para a seleção do conjunto de validação após análise de componentes principais (PCA). A discriminação entre os óleos de canola, girassol, milho e soja foi investigada usando SVM-DA, SIMCA e PLS-DA. A predição dos parâmetros de qualidade, índice de refração e densidade relativa dos óleos, foi investigada usando os métodos de calibração multivariada dos mínimos quadrados parciais (PLS), iPLS e SVM para os dados de FT-MIR e NIR. Vários tipos de pré-processamentos, primeira derivada, correção do sinal multiplicativo (MSC), dados centrados na média, correção do sinal ortogonal (OSC) e variação normal padrão (SNV) foram utilizados, usando a raiz quadrada do erro médio quadrático de validação cruzada (RMSECV) e de predição (RMSEP) como parâmetros de avaliação. A metodologia desenvolvida para determinação de índice de refração e densidade relativa e classificação dos óleos vegetais é rápida e direta. O terceiro estudo visa à avaliação da estabilidade oxidativa e qualidade do iogurte armazenado a 4C submetido à luz direta e mantido no escuro, usando a análise dos fatores paralelos (PARAFAC) na luminescência exibida por três fluoróforos presentes no iogurte, onde pelo menos um deles está fortemente relacionado com as condições de armazenamento. O sinal fluorescente foi identificado pelo espectro de emissão e excitação das substâncias fluorescentes puras, que foram sugeridas serem vitamina A, triptofano e riboflavina. Modelos de regressão baseados nos escores do PARAFAC para a riboflavina foram desenvolvidos usando os escores obtidos no primeiro dia como variável dependente e os escores obtidos durante o armazenamento como variável independente. Foi visível o decaimento da curva analítica com o decurso do tempo da experimentação. Portanto, o teor de riboflavina pode ser considerado um bom indicador para a estabilidade do iogurte. Assim, é possível concluir que a espectroscopia de fluorescência combinada com métodos quimiométricos é um método rápido para monitorar a estabilidade oxidativa e a qualidade do iogurte
Resumo:
Neste trabalho é descrita a teoria necessária para a obtenção da grandeza denominada intensidade supersônica, a qual tem por objetivo identificar as regiões de uma fonte de ruído que efetivamente contribuem para a potência sonora, filtrando, consequentemente, a parcela referente às ondas sonoras recirculantes e evanescentes. É apresentada a abordagem de Fourier para a obtenção da intensidade supersônica em fontes com geometrias separáveis e a formulação numérica existente para a obtenção de um equivalente à intensidade supersônica em fontes sonoras com geometrias arbitrárias. Este trabalho apresenta como principal contribuição original, uma técnica para o cálculo de um equivalente à intensidade supersônica, denominado aqui de intensidade acústica útil, capaz de identificar as regiões de uma superfície vibrante de geometria arbitrária que efetivamente contribuem para a potência sonora que será radiada. Ao contrário da formulação numérica existente, o modelo proposto é mais direto, totalmente formulado na superfície vibrante, onde a potência sonora é obtida através de um operador (uma matriz) que relaciona a potência sonora radiada com a distribuição de velocidade normal à superfície vibrante, obtida com o uso do método de elementos finitos. Tal operador, chamado aqui de operador de potência, é Hermitiano, fato crucial para a obtenção da intensidade acússtica útil, após a aplicação da decomposição em autovalores e autovetores no operador de potência, e do critério de truncamento proposto. Exemplos de aplicações da intensidade acústica útil em superfícies vibrantes com a geometria de uma placa, de um cilindro com tampas e de um silenciador automotivo são apresentados, e os resultados são comparados com os obtidos via intensidade supersônica (placa) e via técnica numérica existente (cilindro), evidenciando que a intensidade acústica útil traz, como benefício adicional, uma redução em relação ao tempo computacional quando comparada com a técnica numérica existente.
Resumo:
A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.
Resumo:
Uma análise utilizando a série de Taylor é apresentada para se estimar a priori os erros envolvidos na solução numérica da equação de advecção unidimensional com termo fonte, através do Método dos Volumes Finitos em uma malha do tipo uniforme e uma malha não uniforme. Também faz-se um estudo a posteriori para verificar a magnitude do erro de discretização e corroborar os resultados obtidos através da análise a priori. Por meio da técnica de solução manufaturada tem-se uma solução analítica para o problema, a qual facilita a análise dos resultados numéricos encontrados, e estuda-se ainda a influência das funções de interpolação UDS e CDS e do parâmetro u na solução numérica.
Resumo:
Editoras Rosa Rabadán; Trinidad Guzmán; Marisa Fernández.
Resumo:
Resumen: El Método de la Madre Canguro (MMC) es un sistema de cuidado neonatal que consiste en el contacto piel con piel de la madre y su hijo de forma precoz, continuada y mantenida en el tiempo. Objetivo: Describir los efectos del uso del Método de la Madre Canguro en la madre y en el neonato. Metodología: Se ha realizado una búsqueda bibliográfica en diferentes bases de datos para recopilar revisiones sistemáticas, ensayos clínicos y estudios cualitativos acerca del MMC. La búsqueda se realizó entre Noviembre de 2014 y Febrero de 2015. Finalmente fueron seleccionados 17 artículos para la realización de este trabajo. Conclusión: Parece probado que la práctica del Método de la Madre Canguro resulta beneficiosa tanto para la madre como para el neonato. Es necesario avanzar más en la protocolización del método y en la investigación científica de sus efectos, para poder aumentar su fiabilidad y convertirlo en un método más eficaz y seguro.
Resumo:
Neste trabalho, foi desenvolvido um simulador numérico baseado no método livre de malhas Smoothed Particle Hydrodynamics (SPH) para a resolução de escoamentos de fluidos newtonianos incompressíveis. Diferentemente da maioria das versões existentes deste método, o código numérico faz uso de uma técnica iterativa na determinação do campo de pressões. Este procedimento emprega a forma diferencial de uma equação de estado para um fluido compressível e a equação da continuidade a fim de que a correção da pressão seja determinada. Uma versão paralelizada do simulador numérico foi implementada usando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA) da NVIDIA Corporation. Foram simulados três problemas, o problema unidimensional do escoamento de Couette e os problemas bidimensionais do escoamento no interior de uma Cavidade (Shear Driven Cavity Problem) e da Quebra de Barragem (Dambreak).
Resumo:
A avaliação da qualidade de vida tem sido cada vez mais utilizada pelos profissionais da área de saúde para mensurar o impacto de doenças na vida dos pacientes, bem como para avaliar os resultados dos tratamentos realizados. O crescente interesse por protocolos de pesquisa clínica em doenças não degenerativas do quadril tem encontrado muitos obstáculos na avaliação objetiva de seus resultados, principalmente nos estudos de observação de novas intervenções terapêuticas, como a artroscopia. O Nonarthritic Hip Score (NAHS) é um instrumento de avaliação clínica, desenvolvido originalmente em inglês, cujo objetivo é avaliar a função da articulação do quadril em pacientes jovens e fisicamente ativos. O objetivo desse estudo foi traduzir esse instrumento para a língua portuguesa, adaptá-lo para a cultura brasileira e validá-lo para que possa ser utilizado na avaliação de qualidade de vida de pacientes brasileiros com dor no quadril, sem doença degenerativa. A metodologia utilizada é a sugerida por Guillemin et al. (1993) e revisado por Beaton et al. (2000), que propuseram um conjunto de instruções padronizadas para adaptação cultural de instrumentos de qualidade de vida, incluindo cinco etapas: tradução, tradução de volta, revisão pelo comitê, pré-teste e teste, com reavaliação dos pesos dos escores, se relevante. A versão de consenso foi aplicada em 30 indivíduos. As questões sobre atividades esportivas e tarefas domésticas foram modificadas, para melhor adaptação à cultura brasileira. A versão brasileira do Nonarthritic Hip Score (NAHS-Brasil) foi respondida por 64 pacientes com dor no quadril, a fim de avaliar as propriedades de medida do instrumento: reprodutibilidade, consistência interna e validade. A reprodutibilidade foi 0,9, mostrando uma forte correlação; a consistência interna mostrou correlação entre 0,8 e 0,9, considerada boa e excelente; a validade foi considerada respectivamente boa e excelente; a correlação entre NAHS-Brasil e WOMAC foi 0,9; e a correlação entre o NAHS-Brasil e Questionário Algofuncional de Lequesne foi 0,79. O Nonarthritic Hip Score foi traduzido para a língua portuguesa e adaptado à cultura brasileira, de acordo com o conjunto de instruções padronizadas para adaptação cultural de instrumentos de qualidade de vida. Sua reprodutibilidade, consistência interna e validade foram também demonstradas.
Resumo:
Desenvolvimento de metodologia para a determinação de aflatoxinas em amostras de amendoim usando espectrofluorimetria e análise dos fatores paralelos (PARAFAC). 2012. 92 f. Dissertação (Mestrado em Engenharia Química) - Instituto de Química, Universidade do Estado do Rio de Janeiro , Rio de Janeiro, 2012. Neste trabalho de pesquisa são descritos dois estudos de caso que se baseiam na determinação de aflatoxinas B1, B2, G1 e G2 em amostras de amendoim, utilizando a técnica de espectroscopia de fluorescência molecular. O primeiro estudo tem o objetivo de avaliar a metodologia empregada para a quantificação de aflatoxinas totais em amendoins, utilizando o método clássico de validação fazendo-se o uso da calibração univariada. Os principais parâmetros de desempenho foram avaliados visando certificar a possibilidade de implementação desta metodologia em laboratórios. O segundo estudo está focado na separação e quantificação destas aflatoxinas com a aplicação combinada da espectrofluorimetria e de um método quimiométrico de segunda ordem (PARAFAC) utilizando a calibração multivariada. Esta técnica pode ser empregada como uma alternativa viável para a determinação de aflatoxinas B1, B2, G1 e G2 isoladamente, tradicionalmente é feito por cromatografia líquida de alta eficiência com detector de fluorescência. Porém, como estes analitos apresentam uma larga faixa de sobreposição espectral e as aflatoxinas (B1 e G1) possuem intensidade de sinal de fluorescência bem abaixo das demais, a separação e quantificação das quatro aflatoxinas foi inviável. O estudo foi retomado com a utilização das aflatoxinas B2 e G2 e os resultados alcançados foram satisfatórios. O método utilizado para a quantificação de aflatoxinas totais apresentou bons resultados, mostrando-se como uma importante ferramenta para a determinação destes analitos. Alem disso, comtempla perfeitamente o que é requerido pela legislação brasileira para a análise de aflatoxinas B1, B2, G1 e G2, que tem como exigência em laudos finais de análise a declaração do somatório, em g/kg, destas aflatoxinas, ou seja, sem a necessidade de quantifica-las separadamente
Resumo:
Nesse trabalho, foi desenvolvido um simulador numérico (C/C++) para a resolução de escoamentos de fluidos newtonianos incompressíveis, baseado no método de partículas Lagrangiano, livre de malhas, Smoothed Particle Hydrodynamics (SPH). Tradicionalmente, duas estratégias são utilizadas na determinação do campo de pressões de forma a garantir-se a condição de incompressibilidade do fluido. A primeira delas é a formulação chamada Weak Compressible Smoothed Particle Hydrodynamics (WCSPH), onde uma equação de estado para um fluido quase-incompressível é utilizada na determinação do campo de pressões. A segunda, emprega o Método da Projeção e o campo de pressões é obtido mediante a resolução de uma equação de Poisson. No estudo aqui desenvolvido, propõe-se três métodos iterativos, baseados noMétodo da Projeção, para o cálculo do campo de pressões, Incompressible Smoothed Particle Hydrodynamics (ISPH). A fim de validar os métodos iterativos e o código computacional, foram simulados dois problemas unidimensionais: os escoamentos de Couette entre duas placas planas paralelas infinitas e de Poiseuille em um duto infinito e foram usadas condições de contorno do tipo periódicas e partículas fantasmas. Um problema bidimensional, o escoamento no interior de uma cavidade com a parede superior posta em movimento, também foi considerado. Na resolução deste problema foi utilizado o reposicionamento periódico de partículas e partículas fantasmas.
Resumo:
Esse trabalho compreende dois diferentes estudos de caso: o primeiro foi a respeito de um medicamento para o qual foi desenvolvida uma metodologia para determinar norfloxacino (NOR) por espectrofluorimetria molecular e validação por HPLC. Primeiramente foi desenvolvida uma metodologia por espectrofluorimetria onde foram feitos alguns testes preliminares a fim de estabelecer qual valor de pH iria fornecer a maior intensidade de emissão. Após fixar o pH foi feita a determinação de NOR em padrões aquosos e soluções do medicamento usando calibração univariada. A faixa de concentração trabalhada foi de 0500 μg.L-1. O limite de detecção para o medicamento foi de 6,9 μg.L-1 enquanto que o de quantificação foi de 24,6 μg.L-1. Além dessas, outras figuras de mérito também foram estimadas para desenvolvimento da metodologia e obtiveram resultados muito satisfatórios, como por exemplo, os testes de recuperação no qual a recuperação do analito foi de 99.5 a 103.8%. Para identificação e quantificação do NOR da urina foi necessário diluir a amostra de urina (estudada em dois diferentes níveis de diluição: 500 e 1000 x) e também uso do método da adição de padrão (na mesma faixa de concentração usada para medicamento). Após a aquisição do espectro, todos foram usados para construção do tensor que seria usado no PARAFAC. Foi possível estimar as figuras de mérito como limite de detecção de 11.4 μg.L-1 and 8.4 μg.L-1 (diluição de 500 e 1000 x respectivamente) e limite de quantificação de 34 μg.L-1 e 25.6 μg.L-1 (diluição de 500 x e 1000 x respectivamente). O segundo estudo de caso foi na área alimentícia no qual se usou espectroscopia NIR e FT MIR acopladas a quimiometria para discriminar óleo de soja transgênica e não transgênica. Os espectros dos óleos não mostraram diferença significativa em termos visuais, sendo necessário usar ferramentas quimiométricas capazes de fazer essa distinção. Tanto para espectroscopia NIR quanto FT MIR foi feito o PCA a fim de identificar amostras discrepantes e que influenciariam o modelo de forma negativa. Após efetuar o PCA, foram usadas três diferentes técnicas para discriminar os óleos: SIMCA, SVM-DA e PLS-DA, sendo que para cada técnica foram usados também diferentes pré processamento. No NIR, apenas para um pré processamento se obteve resultados satisfatórios nas três técnicas, enquanto que para FT-MIR ao se usar PLS-DA se obteve 100% de acerto na classificação para todos os pré processamentos