397 resultados para Calibração fotométrica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes. As previsões de resultados a ensaios sob diferentes condições aos das calibrações mostraram resultados qualitativamente bons às freqüências de ciclo de 1 Hz, comprovados na comparação das curvas de deslocamentos normalizadas. Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes. Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A relação entre preços do mercado spot e do mercado futuro e a evidência de Mercado Invertido (backwardation) na estrutura a termo de commodities têm tido ênfase na literatura de economia e de finanças. O objetivo deste trabalho é apresentar as principais causas responsáveis pelo comportamento de Mercado Invertido e identificar as propriedades que caracterizam o equilíbrio de preços em commodities agrícolas. Seja pela existência de prêmio de risco ou do benefício de conveniência, o entendimento dos efeitos sobre a replicação do preço futuro e sobre a estrutura a termo de preços ainda permanece em aberto. A premissa de perfeita replicação de portfólios e a ausência de fricções de mercado implicam, por outro lado, que o entendimento do comportamento de Mercado Invertido advém da compreensão do processo estocástico do próprio ativo subjacente. O apreçamento neutro ao risco, amparado pelos sinais de reversão de preços, permite a modelagem de preços conforme o proposto em Schwartz e Smith (2000), cuja calibração e os resultados serão apresentados para a soja.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta tese realizamos três trabalhos que envolvem diferentes aspectos da espectroscopia resolvida no tempo. No primeiro discutimos brevemente a teoria e as principais técnicas para a caracterização de pulsos curtos. Analisamos detalhamente uma destas técnicas e propusemos modi cações que possibilitaram o barateamento dos custos da montagem e, além disso, introduziram novas características que sanaram alguns problemas que a montagem original apresentava e que também possibilitaram uma melhor caracterização da própria técnica. Descrevemos cuidadosamente as condições que devem ser satisfeitas pela geometria dos feixes e pelos componentes da montagem para obter uma caracterização correta dos pulsos curtos. Também apresentamos o procedimento de calibração do sistema. Pulsos com diferentes tempos e funções de fase foram caracterizados e os resultados foram validados por testes de con abilidade da informação recuperada. O trabalho seguinte foi o estudo da dinâmica molecular em líquidos puros e em misturas através da técnica efeito Kerr óptico resolvido no tempo, que é uma técnica do tipo bombeio e prova não ressonante, usando um sistema laser Ti:Sa ra com pulsos de 170 fs, centrados em 800 nm. As moléculas estudadas foram o dissulfeto de carbono (CS2), benzeno (C6H6), alilbenzeno (C9H10) e o poliestireno (PS). A teoria necessária para descrever os resultados medidos foi desenvolvida no regime temporal. O modelo de Debye para a relaxação difusiva da anisotropia orientacional descreve a componente de tempos longa, acima de um picosegundo. Partindo do Hamiltoniano de interação, desenvolvemos a teoria da função resposta linear, chegando a uma expressão para a relaxação da polarizabilidade anisotrópica, necessária para descrever os tempos curtos (subpicosegundos). Além disso, a passagem para o regime espectral utilizando somente dados experimentais, ou seja, sem a necessidade de levar em conta modelos especí cos, também foi discutida. Os resultados mostram que os tempos difusivos tanto nos líquidos puros quanto nas misturas seguem a equação de Debye-Stokes-Einstein que prevê um aumento deste tempo para viscosidades maiores. Os tempos curtos são analisados em termos da componente não difusiva da resposta espectral associada à dinâmica molecular. As alterações do espectro foram quanti cadas e a explicação para as mudanças observadas foi dada em termos das con gurações estruturais de interação que levam a uma alteração do potencial intermolecular dentro do qual as moléculas executam movimentos libracionais. Por último, investigamos a questão do modelamento de pulsos de luz incoerente. Para isto trabalhamos com um laser de corante banda larga sem elemento de seleção espectral intracavidade. A técnica utilizada foi o espalhamento forçado de luz ao qual foi acoplado um modelador composto por uma grade, uma lente e uma máscara que alterava a função de fase espectral relativa entre os feixes formadores da grade transiente na amostra de interesse. Realizamos uma análise detalhada desta montagem e obtivemos expressões para ajustar os dados medidos. Os resultados mostram que a função de correlação pode ser alterada de forma especí ca através da escolha de determinadas funções de fase espectrais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Segundo Sampaio (2002), os modelos intertemporais de equilíbrio começaram a ter a sua eficácia na determinação do retorno dos ativos questionada após a publicação do artigo de Mehra e Prescott em 1985. Tendo como objeto de análise os dados observados no mercado norte-americano, os autores não foram capazes de reproduzir a média histórica do prêmio do retorno das ações em relação ao retorno dos títulos públicos de curto prazo através de parâmetros comportamentais dentro de intervalos considerados plausíveis. Através das evidências, os autores, então, puderam verificar a necessidade de coeficientes exageradamente altos de aversão ao risco para equiparação do prêmio de risco histórico médio das ações norte-americanas, enigma que ficou conhecido como equity premium puzzle (EPP). Foi possível também a constatação de outro paradoxo: a necessidade de taxas de desconto intertemporais negativas para obtenção da média histórica da taxa de juros, o risk-free rate puzzle (RFP). Este trabalho tem como objetivo adaptar os dados do modelo proposto por Mehra e Prescott (2003) ao mercado brasileiro e notar se os puzzles apresentados anteriormente estão presentes. Testa-se o CCAPM com dados brasileiros entre 1995:1 e 2013:4 adotando preferências do tipo utilidade esperada e através da hipótese de log-normalidade conjunta dos retornos. Utiliza-se o método de calibração para avaliar se há EPP no Brasil. Em linha com alguns trabalhos prévios da literatura nacional, como Cysne (2006) e Soriano (2002) que mostraram a existência do puzzle nos períodos de 1992:1-2004:2 e 1980:1-1998:4, respectivamente, conclui-se que o modelo usado por Mehra e Prescott (2003) não é capaz de gerar o prêmio de risco observado na economia brasileira. Sampaio (2002), Bonomo e Domingues (2002) e Issler e Piqueira (2002), ao contrário, não encontram evidências da existência de um EPP brasileiro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Utilizando dados de mercado obtidos na BM&F Bovespa, este trabalho propõe uma possível variação do modelo Heath, Jarrow e Morton em sua forma discreta e multifatorial, com a introdução de jumps como forma de considerar o efeito das reuniões realizadas pelo Cômite de Políticas Monetárias (Copom). Através do uso da análise de componentes principais (PCA), é feita a calibração dos parâmetros do modelo, possibilitando a simulação da evolução da estrutura a termo de taxa de juros (ETTJ) da curva prefixada em reais via simulação de Monte Carlo (MCS). Com os cenários da curva simulada em vértices fixos (sintéticos), os resultados são comparados aos dados observados no mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presença de aminas biogénicas em alimentos é um ponto crítico da segurança alimentar dada a sua implicação em fenómenos de intoxicações alimentares. Com a realização deste trabalho pretendeu-se contribuir para um melhor esclarecimento desta temática, actuando-se a dois níveis: numa primeira fase procedeu-se ao desenvolvimento e validação de uma nova metodologia analítica para a determinação simultânea de quatro aminas biogénicas (histamina, cadaverina, tiramina e triptamina) presentes no pescado; numa segunda fase procedeu-se à quantificação dos teores das aminas biogénicas em amostras de tunídeos. O desenvolvimento da metodologia quantitativa baseou-se na utilização da técnica de cromatografia líquida acoplada à espectrometria de massa em tandem (LC-MS/MS), tendo a preparação dos extractos para análise envolvido a extracção das aminas biogénicas do músculo de tunídeos com ácido clorídrico e a purificação dos extractos obtidos por SPE. Como qualquer outro método cromatográfico, a metodologia de LC-MS/MS desenvolvida exigiu a optimização de vários parâmetros como: a concentração do padrão interno, a metodologia de extracção em fase sólida (SPE), composição e fluxo da fase móvel, volume de injecção, determinação dos tempos de retenção, condições de ionização e condições de fragmentação. A validação metodologia foi realizada através da avaliação de alguns parâmetros analíticos, tal como o ajuste do modelo de calibração, precisão (repetibilidade e precisão intermédia), limite de quantificação, limite de detecção e percentagem de recuperação. De modo a potenciar a sensibilidade e selectividade permitida pelo equipamento analítico e com o objectivo de efectuar a quantificação dos compostos em análise, a aquisição de dados foi realizada em modo MRM. Uma vez que se utilizou um padrão interno (heptilamina), a proporcionalidade da intensidade do sinal das aminas biogénicas em relação a uma determinada concentração foi dada em termos de áreas relativas, que corresponde à razão da intensidade do sinal da amina biogénica/intensidade do sinal do padrão interno (analito/P.I.). A metodologia analítica desenvolvida foi aplicada à determinação dos teores de aminas biogénicas nas amostras de músculo de tunídeos recolhidas, com uma regularidade semanal, em diferentes estabelecimentos comerciais no decorrer da época intensiva da sua captura (de Abril a Setembro de 2009). Os teores de aminas biogénicas encontrados, entre 2,63 mg/kg (triptamina) e 132,78 mg/kg (tiramina), não ultrapassaram os limites impostos pela Comunidade Europeia para os teores de histamina e para os teores de aminas totais; sendo que, em cerca de 87% das 59 amostras analisadas não foram encontrados teores quantificáveis para as quatro aminas biogénicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A procura de soluções de baixo custo é hoje em dia, uma exigência quando se fala em aquisição de equipamentos para empresas e instituições. Essa procura torna-se ainda mais premente quando as soluções disponíveis comercialmente são demasiado caras e não traduzem por completo os objectivos para as quais se destinam. Com o trabalho desenvolvido nesta tese de Mestrado pretendeu-se criar uma versão low cost de um sistema de medição de deformações em estruturas, para ser utilizado pelo laboratório de Engenharia Civil da Universidade da Madeira. Fazendo uso da filosofia low cost utilizada para o desenvolvimento do sistema de medição, utilizou-se um Arduíno Duemilanove como plataforma de interface com o LabVIEW, em detrimento das dispendiosas placas de aquisição de dados. De forma a tornar o sistema de medição funcionalmente mais completo, e aproveitando-se a interface criada, bem como os deflectómetros digitais pertencentes à instituição, criou-se um sistema de medição personalizado que consegue medir simultaneamente os dados de três extensómetros e os valores medidos por dois deflectómetros. Foram efectuados diversos testes no equipamento desenvolvido, permitindo não só a calibração do mesmo, mas também um estudo das suas capacidades e limitações. Por fim, e de forma a demonstrar a versatilidade da interface criada, procedeu-se a um teste final onde foi possível verificar-se que era possível obter-se uma taxa de amostragem de cerca de 408,3Hz, caso o sistema fosse utilizado para a aquisição de um só valor de tensão analógico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a evolução constante da tecnologia, também a ciência da medição, ou Metrologia, necessita de processos de medição mais exatos e fiáveis, por vezes automatizados, de modo a ser possível fornecer informações mais corretas sobre uma determinada grandeza física. Entre estas informações destaca-se a incerteza de medição, que permite ao utilizador ter uma estimativa sobre qual o valor final da grandeza física medida, que com processos de medição mais complexos, tornam a sua obtenção mais difícil, sendo necessário, por vezes, a utilização de métodos computacionais. Tendo isto em conta, com esta dissertação pretende-se abordar o problema da automatização de processos de medição, bem como da obtenção de incertezas de medição que reflitam a natureza da grandeza física medida através de métodos computacionais. De modo a automatizar um processo de medição, mais concretamente da calibração de manómetros, utilizou-se o LabView para criar um instrumento virtual que permitisse ao utilizador, de forma simples e intuitiva, realizar o procedimento de calibração. Também se realizou outro instrumento virtual, de modo a permitir a obtenção simultânea de dados provenientes de dois equipamentos diferentes. Relativamente às incertezas de medição, utilizou-se o Método de Monte Carlo, implementado em MATLAB e Excel, de modo a obter o valor destas para a calibração de manómetros, de uma câmara geradora de humidade relativa e de um higrómetro de ponto de orvalho, sendo que os dois últimos possuem um modelo matemático complexo, sendo a análise analítica mais complexa e morosa. Tendo em conta os resultados obtidos, é possível afirmar que a criação de instrumentação virtual permite a adaptação, de uma forma simples, de vários processos de medição, tornando-os mais eficientes para além de reduzirem o erro do operador. Por outro lado, também é possível observar que a utilização de métodos computacionais, neste caso o Método de Monte Carlo, para estudo de incertezas de medição é uma mais valia, comparativamente ao GUM, permitindo umaa análise rápida e fiável de modelos matemáticos complexos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Investigations in the field of pharmaceutical analysis and quality control of medicines require analytical procedures with good perfomance characteristics. Calibration is one of the most important steps in chemical analysis, presenting direct relation to parameters such as linearity. This work consisted in the development of a new methodology to obtain calibration curves for drug analysis: the stationary cuvette one. It was compared to the currently used methodology, and possible sources of variation between them were evaluated. The results demonstrated that the proposed technique presented similar reproducibility compared to the traditional methodology. In addition to that, some advantages were observed, such as user-friendliness, cost-effectiveness, accuracy, precision and robustness. Therefore, the stationary cuvette methodology may be considered the best choice to obtain calibration curves for drug analyis by spectrophotometry

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The ethanol is the most overused psychoactive drug over the world; this fact makes it one of the main substances required in toxicological exams nowadays. The development of an analytical method, adaptation or implementation of a method known, involves a process of validation that estimates its efficiency in the laboratory routine and credibility of the method. The stability is defined as the ability of the sample of material to keep the initial value of a quantitative measure for a defined period within specific limits when stored under defined conditions. This study aimed to evaluate the method of Gas chromatography and study the stability of ethanol in blood samples, considering the variables time and temperature of storage, and the presence of preservative and, with that check if the conditions of conservation and storage used in this study maintain the quality of the sample and preserve the originally amount of analyte present. Blood samples were collected from 10 volunteers to evaluate the method and to study the stability of ethanol. For the evaluation of the method, part of the samples was added to known concentrations of ethanol. In the study of stability, the other side of the pool of blood was placed in two containers: one containing the preservative sodium fluoride 1% and the anticoagulant heparin and the other only heparin, was added ethanol at a concentration of 0.6 g/L, fractionated in two bottles, one being stored at 4ºC (refrigerator) and another at -20ºC (freezer), the tests were performed on the same day (time zero) and after 1, 3, 7, 14, 30 and 60 days of storage. The assessment found the difference in results during storage in relation to time zero. It used the technique of headspace associated with gas chromatography with the FID and capillary column with stationary phase of polyethylene. The best analysis of chromatographic conditions were: temperature of 50ºC (column), 150ºC (jet) and 250ºC (detector), with retention time for ethanol from 9.107 ± 0.026 and the tercbutanol (internal standard) of 8.170 ± 0.081 minutes, the ethanol being separated properly from acetaldehyde, acetone, methanol and 2-propanol, which are potential interfering in the determination of ethanol. The technique showed linearity in the concentration range of 0.01 and 3.2 g/L (0.8051 x + y = 0.6196; r2 = 0.999). The calibration curve showed the following equation of the line: y = x 0.7542 + 0.6545, with a linear correlation coefficient equal to 0.996. The average recovery was 100.2%, the coefficients of variation of accuracy and inter intra test showed values of up to 7.3%, the limit of detection and quantification was 0.01 g/L and showed coefficient of variation within the allowed. The analytical method evaluated in this study proved to be fast, efficient and practical, given the objective of this work satisfactorily. The study of stability has less than 20% difference in the response obtained under the conditions of storage and stipulated period, compared with the response obtained at time zero and at the significance level of 5%, no statistical difference in the concentration of ethanol was observed between analysis. The results reinforce the reliability of the method of gas chromatography and blood samples in search of ethanol, either in the toxicological, forensic, social or clinic

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização correta de pneus em tratores, tanto em relação ao seu tipo quanto à calibração de sua pressão interna, e a lastragem ideal para cada condição de carga são fatores que influem significativamente no desempenho do trator. Esta pesquisa teve como objetivo comparar o desempenho de um trator equipado com pneus radiais e com pneus diagonais, para três condições de lastragem líquida (0%, 40% e 75% de água), em três condições superficiais de um Nitossolo Vermelho distrófico (superfície firme, preparada e com cobertura vegetal de resto de milho) e em três velocidades teóricas de deslocamento (4 km h-1, 5 km h-1 e 7 km h-1), informadas no painel do trator, correspondendo às marchas B1, B2 e C1. O melhor desempenho do trator, equipado com pneu diagonal, ocorreu na condição de 75% de água nos pneus, apresentando maior velocidade de deslocamento, menor patinhagem do trator, menor consumo horário de combustível e gerando maior potência na barra de tração. Com pneus radiais, o melhor desempenho do trator ocorreu na condição de 40% de água nos pneus, proporcionando maiores velocidades de deslocamento do trator, menores patinhagens, menores consumos, horário e específico de combustível, e maiores potência e rendimento na barra de tração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study developed software rotines, in a system made basically from a processor board producer of signs and supervisory, wich main function was correcting the information measured by a turbine gas meter. This correction is based on the use of an intelligent algorithm formed by an artificial neural net. The rotines were implemented in the habitat of the supervisory as well as in the habitat of the DSP and have three main itens: processing, communication and supervision

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work presents a set of intelligent algorithms with the purpose of correcting calibration errors in sensors and reducting the periodicity of their calibrations. Such algorithms were designed using Artificial Neural Networks due to its great capacity of learning, adaptation and function approximation. Two approaches willbe shown, the firstone uses Multilayer Perceptron Networks to approximate the many shapes of the calibration curve of a sensor which discalibrates in different time points. This approach requires the knowledge of the sensor s functioning time, but this information is not always available. To overcome this need, another approach using Recurrent Neural Networks was proposed. The Recurrent Neural Networks have a great capacity of learning the dynamics of a system to which it was trained, so they can learn the dynamics of a sensor s discalibration. Knowingthe sensor s functioning time or its discalibration dynamics, it is possible to determine how much a sensor is discalibrated and correct its measured value, providing then, a more exact measurement. The algorithms proposed in this work can be implemented in a Foundation Fieldbus industrial network environment, which has a good capacity of device programming through its function blocks, making it possible to have them applied to the measurement process