65 resultados para Métodos de cálculo
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
O fator de compressibilidade (Z) de gás natural é utilizado em vários cálculos na engenharia de petróleo (avaliação de formações, perda de carga em tubulações, gradiente de pressão em poços de gás, cálculos de balanço de massa, medição de gás, compressão e processamento de gás). As fontes mais comuns de valores de Z são medições experimentais, caras e demoradas. Essa propriedade também é estimada por correlações empíricas, modelos baseados no princípio dos estados correspondentes ou equações de estado (EOS). Foram avaliadas as capacidades das EOS de Soave-Redlich-Kwong (SRK), Peng-Robinson (PR), Patel-Teja (PT), Patel-Teja-Valderrama (PTV), Schmidt-Wenzel (SW), Lawal-Lake-Silberberg (LLS) e AGA-8 para previsão desta propriedade em aproximadamente 2200 pontos de dados experimentais. Estes pontos foram divididos em quatro grupos: Grupo 1 (Presença de frações C7+, Grupo 2 (temperaturas inferiores a 258,15 K), Grupo 3 (pressões superiores a 10000 kPa) e Grupo 4 (pressões inferiores a 10000 kPa). Os cálculos utilizando as equações de estado sob diferentes esquemas de previsão de coeficientes binários de interação foram cuidadosamente investigados. Os resultados sugerem que a EOS AGA-8 apresenta os menores erros para pressões de até 70000 kPa. Entretanto, observou-se uma tendência de aumento nos desvios médios absolutos em função das concentrações de CO2 e H2S. As EOS PTV e a EOS SW são capazes de predizer o fator de compressibilidade (Z) com desvios médios absolutos entre os valores calculados e experimentais com precisão satisfatória para a maioria das aplicações, para uma variada faixa de temperatura e pressão. Este estudo também apresenta uma avaliação de 224 métodos de cálculo de Z onde foram utilizadas 8 correlações combinadas com 4 regras de mistura para estimativa de temperaturas e pressões pseudorreduzidas das amostras, junto com 7 métodos de caracterização das propriedades críticas da fração C7+, quando presente na composição do gás. Em função dos resultados são sugeridas, para diferentes tipos de sistemas, as melhores combinações de correlações com regras de mistura capazes de predizer fatores de compressibilidade (Z) com os menores erros absolutos médios relativos
Resumo:
A viscosimetria é um procedimento experimental simples e pouco oneroso, que pode fornecer informações valiosas sobre o volume hidrodinâmico e a conformação de macromoléculas em solução, num determinado solvente, em uma dada temperatura. Os parâmetros viscosimétricos podem ser matematicamente calculados por extrapolação gráfica, cuja execução experimental é mais demorada. Em contrapartida, é possível que a determinação seja feita por um único ponto. Neste trabalho, os dois métodos de cálculo, empregando uma série de seis equações: Huggins, Kraemer e Schulz-Blaschke, por extrapolação gráfica, e Schulz-Blaschke, Solomon-Ciuta e Deb-Chanterjee por um único ponto, foram utilizados em soluções de poli(glicol propilênico) (PPG) e copolímeros em bloco à base de poli(glicol propilênico) e poli(glicol etilênico) (EG-b-PG), com diferentes teores de poli(glicol etilênico), tendo isopropanol, tetra-hidrofurano (THF) e tolueno como solventes puros, além das misturas em proporções iguais de THF/ isopropanol e THF/ tolueno, a 25C. Os valores de viscosidade intrínseca e de algumas constantes indicaram que os solventes puros e as misturas se apresentaram no limite entre o bom e o mau solvente. Verificou-se também que o método de cálculo por um único ponto foi válido, especialmente quando a equação de Schulz-Blaschke foi empregada, apresentando um baixo percentual de erro sendo possível assim reduzir o tempo de análise para a maioria dos sistemas estudados
Resumo:
Copolímeros à base de estireno e anidrido maleico (SMA) são materiais sintéticos comercialmente disponíveis, obtidos pela reação dos dois monômeros citados em diferentes proporções, resultando em materiais versáteis, e disponíveis em diferentes graus de massas e porcentagens molares de anidrido maleico. São considerados polímeros funcionais devido à reatividade do grupamento anidrido maleico presente na cadeia polimérica. Por este motivo, esses materiais possuem vasta gama de aplicações, e elevada importância em diversas áreas, principalmente por terem baixa toxicidade, boa resistência térmica e boa estabilidade dimensional. Dessa forma, para melhor aplicação desses copolímeros, é muito importante o conhecimento dos parâmetros relativos ao seu comportamento em solução. A viscosimetria, em especial, é um método simples, útil e apropriado para fornecer essas informações. Os parâmetros viscosimétricos podem ser matematicamente calculados por extrapolação gráfica, entretanto a geração dos dados experimentais é mais demorada. Em contrapartida, é possível que a determinação experimental seja feita de forma mais rápida, por um único ponto, procedimento esse que desperta tanto o interesse acadêmico quanto o industrial. Neste trabalho, foram empregados os dois métodos de cálculo, utilizando solventes puros, misturas de solventes e três amostras de copolímeros à base de SMA. As determinações foram conduzidas a 40C. Os copolímeros utilizados possuiam teores de anidrido maleico de 50%, 45% e 40%, sendo os dois últimos esterificados com butil-metil-éster e sec-butil-metil-éster, respectivamente. Os solventes utilizados foram: N-metil-pirrolidona (NMP), tetrahidrofurano (THF) e suas respectivas misturas 1:1 com metil-etil-cetona (MEK), ou seja, (NMP:MEK) e THF:MEK, sendo a MEK um não solvente para o copolímero não esterificado. As equações utilizadas para extrapolação gráfica foram as de Huggins, Kraemer e Schulz-Blaschke. As equações empregadas em um único ponto foram as de Solomon-Ciuta, Deb-Chanterjee e novamente Schulz-Blaschke. Os resultados obtidos foram comparados e avaliou-se a possibilidade da utilização do método mais rápido, por um único ponto, para os sistemas estudados através dos desvios percentuais tendo como padrão os resultados da equação de Huggins. A equação de Deb-Chanterjee foi a mais adequada aos sistemas em NMP, que foi também o melhor solvente para as amostras. Os resultados obtidos na mistura NMP:MEK sugeriram que a viscosimetria pode ter sido um método sensível às pequenas diferenças estruturais entre os grupos pendentes nas amostras esterificadas. Paralelamente, realizou-se análises de espectroscopia na região do infravermelho (FTIR), análise termogravimétrica (TGA) e ensaios dinâmico-mecânicos (DMA) para a caracterização estrutural e térmica das amostras. Somente os resultados obtidos a partir de DMA indicaram diferenças entre as amostras esterificadas
Resumo:
Os pisos industriais devem atender aos critérios de segurança, funcionalidade e durabilidade das estruturas de concreto. A fim de analisar o desempenho de placas de concreto apoiadas sobre base elástica quando submetidas a ações diretas e indiretas, foram elaborados diversos modelos analíticos e empíricos. Com o avanço tecnológico e o advento de softwares desenvolvidos através de processos numéricos como o método dos elementos finitos (MEF), a aplicação desses modelos foi facilitada. Este trabalho aborda os métodos de cálculo existentes e utilizados na execução dos projetos estruturais de pisos industriais de concreto.
Resumo:
Este trabalho pretende verificar o alinhamento entre os indicadores de inovação utilizados pelos métodos Scorecard de mensuração dos ativos intangíveis e pelas agências governamentais nacionais e internacionais com aqueles utilizados pelos fundos de capital de risco na cidade do Rio de Janeiro, para investimento em empresas spin-offs acadêmicas incubadas. A metodologia constou de uma revisão bibliográfica sobre os métodos de mensuração e valoração dos ativos intangíveis, indicadores de inovação propostos por agências governamentais nacionais e internacionais e fundos de capital de risco que atuam na cidade do Rio de Janeiro. Além de serem aplicados questionários nas empresas de fundos de capital de risco desta cidade. Foram levantados diversos métodos Scorecards na literatura com seus indicadores, além dos indicadores de inovação de agências governamentais nacionais e internacionais. Adicionando-se a isso, identificou-se o foco de investimento, o processo de seleção, o método utilizado de avaliação de oportunidades de investimento e indicadores relevantes para as empresas de capital de risco da cidade do Rio de Janeiro. Observou-se que os ativos intangíveis, entre eles os de inovação, não são avaliados individualmente. A informação obtida com as empresas que receberão investimentos dessas empresas de capital de risco é utilizada para se entender a origem dos fluxos de caixa projetados e os principais fatores de risco. E esses dados aplicados ao método do fluxo de caixa descontado permitem que se estime o valor da empresa. Pela vasta experiência dos gestores dos fundos de capital de risco com micro e pequenas empresas inovadoras, espera-se que o estudo das práticas deste segmento traga importantes reflexões para as discussões relativas aos ativos intangíveis e a inovação.
Resumo:
O cálculo da área de poligonais geodésicas é um desafio matemático instigante. Como calcular a área de uma poligonal sobre o elipsóide, se seus lados não possuem parametrização conhecida? Alguns trabalhos já foram desenvolvidos no intuito de solucionar este problema, empregando, em sua maioria, sistemas projetivos equivalentes ou aproximações sobre esferas autálicas. Tais métodos aproximam a superfície de referência elipsoidal por outras de mais fácil tratamento matemático, porém apresentam limitação de emprego, pois uma única superfície não poderia ser empregada para todo o planeta, sem comprometer os cálculos realizados sobre ela. No Código de Processo Civil, Livro IV, Título I, Capítulo VIII, Seção III artigo 971 diz, em seu parágrafo único, que não havendo impugnação, o juiz determinará a divisão geodésica do imóvel. Além deste, existe ainda a Lei 10.267/2001, que regula a obrigatoriedade, para efetivação de registro, dos vértices definidores dos limites dos imóveis rurais terem suas coordenadas georreferenciadas ao Sistema Geodésico Brasileiro (SGB), sendo que áreas de imóveis menores que quatro módulos fiscais terão garantida isenção de custos financeiros.Este trabalho visa fornecer uma metodologia de cálculo de áreas para poligonais geodésicas, ou loxodrômicas, diretamente sobre o elipsóide, bem como fornecer um programa que execute as rotinas elaboradas nesta dissertação. Como a maioria dos levantamentos geodésicos é realizada usando rastreadores GPS, a carga dos dados é pautada em coordenadas (X, Y, Z), empregando o Sistema Geodésico WGS-84, fornecendo a área geodésica sem a necessidade de um produto tipo SIG. Para alcançar o objetivo deste trabalho, foi desenvolvida parametrização diferente da abordagem clássica da Geodésia geométrica, para transformar as coordenadas (X, Y, Z) em geodésicas.
Resumo:
Nos últimos anos, a população de idosos vem crescendo em todo o mundo, e a pesquisa de marcadores de risco cardiovascular mais precoces é de fundamental importância. Um desses marcadores é a doença arterial periférica (DAP), cuja prevalência aumenta com a idade. A DAP pode ser avaliada de forma simples e não invasiva através do índice tornozelo-braquial (ITB) que, por sua vez, pode ser obtido por cálculos diferentes. Até o momento, apenas o método tradicional foi utilizado no cálculo do ITB na população idosa. O objetivo do presente estudo foi avaliar, em idosos hipertensos que se mostrassem independentes para as atividades diárias, os principais fatores relacionados à redução do ITB, considerando-se duas formas distintas de calcular o índice. Os pacientes (n=65) foram submetidos à avaliação clínica, geriátrica e laboratorial, e divididos nos grupos com ITB normal (> 0,9) e ITB reduzido (≤ 0,9). Inicialmente o ITB foi calculado a partir da divisão da maior pressão sistólica dos membros inferiores pela maior pressão das artérias braquiais. Em seguida, o cálculo do ITB foi realizado por um método alternativo, a partir da utilização da menor ao invés da maior média de pressão sistólica nos membros inferiores. A média de idade foi de 74 anos, sendo 76% do sexo feminino. A prevalência de ITB reduzido foi de 18% pelo método convencional e de 32% pelo método alternativo. Na avaliação pelo método convencional, o grupo com ITB baixo apresentou maior prevalência de doenças cardiovasculares (58 vs 9%, p<0,001), diabetes (83 vs 13%, p<0,01), síndrome metabólica (75 vs 41%, p<0,05), e valores significativamente maiores de pressão arterial sistólica (1699 vs 1523 mmHg, p<0,05) e pressão de pulso (877 vs 672 mmHg, p<0,01). A redução do ITB pelo método alternativo mostrou associação com as mesmas variáveis, mas adicionalmente com maior freqüência de tabagistas (29 vs 20%, p<0,05) e maiores níveis de LDL-colesterol (15413 vs 1245 mg/dl, p<0,05). Além disso, o método alternativo foi capaz de detectar pacientes sem alto risco pelo escore de Framingham, mas obesos e com síndrome metabólica. Esses dados apontariam para um valor adicional desta forma de estimar o risco ao escore de Framingham na estratificação de risco cardiovascular, sugerindo sua incorporação na rotina de avaliação de pacientes idosos
Resumo:
Uma dedução dos critérios de multicriticalidade para o cálculo de pontos críticos de qualquer ordem representa a formalização de ideias utilizadas para calcular pontos críticos e tricríticos e ainda amplia tais ideias. De posse desta dedução pode-se compreender os critérios de tricriticalidade e, com isso, através de uma abordagem via problema de otimização global pode-se fazer o cálculo de pontos tricríticos utilizando um método numérico adequado de otimização global. Para evitar um excesso de custo computacional com rotinas numéricas utilizou-se aproximações na forma de diferenças finitas dos termos que compõem a função objetivo. Para simular a relação P v - T optou-se pela equação de estado cúbica de Peng-Robinson e pela regra clássica de fluidos de van der Vaals, para modelagem do problema também se calculou os tensores de ordem 2, 3, 4 e 5 da função do teste de estabilidade. Os resultados obtidos foram comparados com dados experimentais e por resultados obtidos com outros autores que utilizaram métodos numéricos, equação de estado ou abordagem diferente das utilizadas neste trabalho.
Resumo:
Azeotropia é um fenômeno termodinâmico onde um líquido em ebulição produz um vapor com composição idêntica. Esta situação é um desafio para a Engenharia de Separação, já que os processos de destilação exploram as diferenças entre as volatilidades relativas e, portanto, um azeótropo pode ser uma barreira para a separação. Em misturas binárias, o cálculo da azeotropia é caracterizado por um sistema não-linear do tipo 2 × 2. Um interessante e raro caso é o denominado azeotropia dupla, que pode ser verificado quando este sistema não-linear tem duas soluções, correspondendo a dois azeótropos distintos. Diferentes métodos tem sido utilizados na resolução de problemas desta natureza, como métodos estocásticos de otimização e as técnicas intervalares (do tipo Newton intervalar/bisseção generalizada). Nesta tese apresentamos a formulação do problema de azeotropia dupla e uma nova e robusta abordagem para a resolução dos sistemas não-lineares do tipo 2 × 2, que é a inversão de funções do plano no plano (MALTA; SALDANHA; TOMEI, 1996). No método proposto, as soluções são obtidas através de um conjunto de ações: obtenção de curvas críticas e de pré-imagens de pontos arbritários, inversão da função e por fim, as soluções esperadas para o problema de azeotropia. Esta metodologia foi desenvolvida para resolver sistemas não-lineares do tipo 2 × 2, tendo como objetivo dar uma visão global da função que modela o fenômeno em questão, além, é claro, de gerar as soluções esperadas. Serão apresentados resultados numéricos para o cálculo dos azeótropos no sistema benzeno + hexafluorobenzeno a baixas pressões por este método de inversão. Como ferramentas auxiliares, serão também apresentados aspectos numéricos usando aproximações clássicas, tais como métodos de Newton com técnicas de globalização e o algorítmo de otimização não-linear C-GRASP, para efeito de comparação.
Resumo:
O objetivo deste estudo foi comparar os resultados da microinfiltração marginal obtidos por diferentes meios de aquisição de imagens e métodos de mensuração da penetração de prata em restaurações de resina composta classe V, in vitro. Dezoito pré-molares humanos hígidos, recém extraídos, foram divididos em três grupos, de acordo com o tipo de instrumento para preparação cavitária utilizado. Grupo 1: ponta diamantada número 3100, em alta rotação. Grupo 2: broca carbide número 330, em alta rotação. Grupo 3: ponta CVDentus código 82137, em aparelho de ultrassom. Foram realizados preparos cavitários padronizados (3x4x2mm) classe V nas faces vestibular e lingual de todos os dentes, com margens oclusais em esmalte e cervicais em dentina/cemento. As cavidades foram restauradas com o sistema adesivo Solobond M (VOCO) e resina composta Grandio (VOCO), a qual foi inserida e fotoativada em três incrementos. Os corpos de prova ficaram imersos em água destilada por 24h a 37oC; receberam acabamento e polimento com discos SofLex (3M) e foram novamente armazenados em água destilada, por sete dias. Posteriormente, as superfícies dentárias foram coberta com duas camadas de esmalte para unhas vermelho, exceto as áreas adjacentes às restaurações. Os espécimes ficaram imersos em solução aquosa de nitrato de prata a 50% por 24h e em solução fotorreveladora por 2h e foram seccionados no sentido vestíbulo-lingual, passando pelo centro das restaurações, com disco diamantado em baixa rotação. As amostras foram polidas em politriz horizontal e analisadas por diferentes métodos. À extensão da microinfiltração foi atribuído escores de 0 a 3 através de análises por meio de estereomicroscópio tradicional e com leds e microscópio ótico. As imagens obtidas na lupa com leds e no microscópio ótico tiveram as áreas infiltradas medidas através do software AxioVision. O teste χ2 de McNemar-Bowker revelou concordância estatística entre estereomicroscópio tradicional e o com leds (p=0,809) durante análises semiquantitativas. Porém, houve diferenças significantes entre microscópio ótico e estereomicroscópios (p<0,001). Houve boa correlação entre análises semiquantitativas e quantitativas de acordo com o teste de Spearmann (p<0,001). O teste de Kruskall-Wallis não revelou diferenças estatisticamente significantes (p=0,174) entre os grupos experimentais na análise quantitativa por microscópio ótico, em esmalte. Ao contrário do que se observa com a mesma em lupa (p<0,001). Conclui-se que o método de atribuição de escores comumente aplicado com a lupa nos estudos da microinfiltração marginal é uma opção confiável para análise da microinfiltração.
Resumo:
Neste trabalho, é apresentada uma formulação apropriada à análise de guias de ondas eletromagnéticos, cobrindo do espectro de microondas até o da óptica. Nas regiões a partir do ultravioleta, os comprimentos de onda são equivalentes às dimensões atômicas e a formulação necessita de uma abordagem quântica, que não é considerada neste estudo. A formulação é fundamentada nos métodos vetorial magnético e dos elementos finitos (MEF), em meios não homogêneos, anisotrópicos e não dissipativos, embora a dissipação possa ser facilmente introduzida na análise. Deu-se preferência à formulação com o campo magnético em vez do elétrico, pelo fato do campo magnético ignorar descontinuidades elétricas. Ele é contínuo em regiões de permeabilidade homogênea, propriedade dos meios dielétricos em geral ( = 0), independente da permissividade dos respectivos meios, conquanto os campos elétricos sejam descontínuos entre regiões de permissividades diferentes.
Resumo:
Os estuários são ambientes altamente dinâmicos e concentram a maior parte da população mundial em seu entorno. São ambientes complexos que necessitam de uma gama de estudos. Nesse contexto, este trabalho visa contribuir para o entendimento dos estuários lagunares, tendo como objetivo comparar duas ferramentas geofísicas acústicas no mapeamento de uma porção submersa do Mar de Cananéia que está inserido no Sistema Estuarino Lagunar de Cananéia-Iguape (SP). Os equipamentos utilizados nesta pesquisa são o Sonar de Varredura Lateral e o Sistema Acústico de Classificação de Fundo RoxAnn, através da parametrização de amostras de fundo. A comparação do padrão acústico do Sonar de Varredura Lateral com as amostras de fundo da região permitiu o reconhecimento de 6 tipos distintos de padrões acústicos e a relação positiva com o diâmetro médio do grão foi de 50%. A comparação da resposta acústica do Sistema Acústico de Classificação de Fundo RoxAnn com o diâmetro médio do grão foi igualmente de 50%. Isto deve-se ao fato de que os valores produzidos pelo eco 1 e pelo eco 2 deste equipamento mostram que, por ser um mono-feixe e por analisar valores de intensidade do retorno acústico, o equipamento em questão pode responder a outros fatores ambientais que não seja somente o diâmetro médio do grão. Ao comparar a resposta acústica do Sonar de Varredura Lateral com o Sistema Acústico de Classificação de fundo RoxAnn obteve-se um resultado positivo de 93%. Isto pode ser explicado pelo fato de o Sonar de Varredura Lateral gerar uma imagem acústica do fundo. Em locais onde tem-se amostra e os valores do eco 1 e do eco 2 do Sistema Acústico de Classificação de Fundo RoxAnn são altos, pode-se associar a esses locais a influência da compactação dos sedimentos finos através da análise das imagens do Sonar de Varredura Lateral. Por meio da comparação destes dois métodos foi possível estabelecer um intervalo de valores para o eco 1 que pode ser associado ao diâmetro médio do grão. Assim, valores entre 0.170 a 0.484 milivolts podem ser associados a sedimentos finos com granulometria até areia fina. Valores entre 0.364 a 0.733 podem ser associados a sedimentos de granulometria entre areia fina a média. Valores acima de 0.805 milivolts até 1.585 milivolts podem ser associados a sedimentos mais grossos como carbonatos biodetríticos ou areias grossas. E, por fim, valores acima de 2.790 milivolts podem ser associados a afloramentos rochosos.
Resumo:
O cálculo de dispersão de plumas é uma ferramenta empregada para se estimar o alcance dos poluentes emitidos por uma chaminé nas suas redondezas. É empregada nos países desenvolvidos há alguns anos e recentemente vem sendo exigida pelas agências ambientais brasileiras como um dos requisitos para concessão das licenças de operação. Baseia-se em um cálculo gaussiano, onde os dados de entrada são as taxas de emissão, os dados físicos da chaminé, dados meteorológicos e topográficos. Como é uma técnica recente no Brasil, este trabalho se propõe a fazer uma descrição da metodologia e suas etapas, indicando quais são os dados mais relevantes e quais simplificações podem ser feitas. O estudo de caso foi realizado nas instalações das Indústrias Nucleares do Brasil (INB). Os resultados indicaram que a influência de edificações adjacentes à fonte emissora é um dos parâmetros mais importantes, seguido da influência do relevo da região. Foi também realizada uma comparação entre os dois softwares comerciais existentes, o ISCST3, de maior complexidade, e o SCREEN mais simplificado, e indicou que o SCREEN pode ser usado como uma ferramenta de avaliação inicial, quando todos os dados de entrada necessários para se usar o ISCST3 não estão disponíveis
Resumo:
Este trabalho tem por objetivo verificar se há diferença quanto ao nível de significância estatística no cálculo do retorno anormal realizado através de quatro modelos estatísticos utilizados em estudos de eventos, tendo como objeto de estudo empresas no mercado de ações no Brasil durante o período de março de 2003 até julho de 2010 na Bovespa. Considerando a importância do cálculo do retorno anormal nos estudos de eventos, bem como possíveis variações de resultados decorrentes da escolha do modelo de cálculo, este estudo utiliza um tema bastante conhecido, qual seja, o anúncio de recompra de ações feito pela própria companhia emissora dos títulos. A metodologia utilizada nesta pesquisa foi quantitativa, utilizando o estudo de corte transversal. Os resultados apontam que há diferença entre os níveis de significância encontrados. Ao analisar o gráfico dos modelos calculados no período da janela do evento, verificou-se que as empresas que recompraram ações a fizeram quando os papéis estavam com retorno anormal acumulado negativo e, após a recompra, os papéis tiveram retornos anormais acumulados positivos. Recalculou-se os dois modelos que utilizam o Ibovespa em sua fórmula de cálculo, através de um Ibovespa sem ponderação e conclui-se que os resultados apontam na direção de se evitar o uso de índices ponderados de mercado, preferindo a utilização de carteiras compostas apenas com uma ação para cada empresa componente da carteira de controle. Após este recálculo, verificou-se que o modelo que era menos próximo dos demais graficamente era o modelo de retorno ajustado ao mercado ponderado. Por fim, as evidências empíricas indicam que o mercado de capitais brasileiro ajusta tempestivamente os papéis das empresas que realizaram recompra de ações, em linha com o que prescreve a hipótese do mercado eficiente na sua forma semiforte.
Resumo:
Este trabalho de pesquisa descreve dois estudos de caso de métodos quimiométricos empregados para a quantificação de hidrocarbonetos policíclicos aromáticos HPAs (naftaleno, fluoreno, fenantreno e fluoranteno) em água potável usando espectroscopia de fluorescência molecular e a classificação e caracterização de sucos de uva e seus parâmetros de qualidade através de espectroscopia de infravermelho próximo. O objetivo do primeiro estudo é a aplicação combinada de métodos quimiométricos de segunda ordem (N-PLS, U-PLS, U-PLS/RBL e PARAFAC) e espectrofluorimetria para determinação direta de HPAs em água potável, visando contribuir para o conhecimento do potencial destas metodologias como alternativa viável para a determinação tradicional por cromatografia univariada. O segundo estudo de caso destinado à classificação e determinação de parâmetros de qualidade de sucos de uva, densidade relativa e teor de sólidos solúveis totais, foi medida por espectroscopia de infravermelho próximo e métodos quimiométricos. Diversos métodos quimiométricos, tais como HCA, PLS-DA, SVM-DA e SIMCA foram investigados para a classificação amostras de sucos de uva ao mesmo tempo que métodos de calibração multivariada de primeira ordem, tais como PLS, iPLS e SVM-LS foram usadas para a predição dos parâmetros de qualidade. O princípio orientador para o desenvolvimento dos estudos aqui descritos foi a necessidade de metodologias analíticas com custo, tempo de execução e facilidade de operação melhores e menor produção de resíduos do que os métodos atualmente utilizados para a quantificação de HPAs, em água de torneira, e classificação e caracterização das amostras de suco de uva e seus parâmetros de qualidade