693 resultados para Calibração de camêra
Resumo:
Segundo Sampaio (2002), os modelos intertemporais de equilíbrio começaram a ter a sua eficácia na determinação do retorno dos ativos questionada após a publicação do artigo de Mehra e Prescott em 1985. Tendo como objeto de análise os dados observados no mercado norte-americano, os autores não foram capazes de reproduzir a média histórica do prêmio do retorno das ações em relação ao retorno dos títulos públicos de curto prazo através de parâmetros comportamentais dentro de intervalos considerados plausíveis. Através das evidências, os autores, então, puderam verificar a necessidade de coeficientes exageradamente altos de aversão ao risco para equiparação do prêmio de risco histórico médio das ações norte-americanas, enigma que ficou conhecido como equity premium puzzle (EPP). Foi possível também a constatação de outro paradoxo: a necessidade de taxas de desconto intertemporais negativas para obtenção da média histórica da taxa de juros, o risk-free rate puzzle (RFP). Este trabalho tem como objetivo adaptar os dados do modelo proposto por Mehra e Prescott (2003) ao mercado brasileiro e notar se os puzzles apresentados anteriormente estão presentes. Testa-se o CCAPM com dados brasileiros entre 1995:1 e 2013:4 adotando preferências do tipo utilidade esperada e através da hipótese de log-normalidade conjunta dos retornos. Utiliza-se o método de calibração para avaliar se há EPP no Brasil. Em linha com alguns trabalhos prévios da literatura nacional, como Cysne (2006) e Soriano (2002) que mostraram a existência do puzzle nos períodos de 1992:1-2004:2 e 1980:1-1998:4, respectivamente, conclui-se que o modelo usado por Mehra e Prescott (2003) não é capaz de gerar o prêmio de risco observado na economia brasileira. Sampaio (2002), Bonomo e Domingues (2002) e Issler e Piqueira (2002), ao contrário, não encontram evidências da existência de um EPP brasileiro.
Resumo:
Utilizando dados de mercado obtidos na BM&F Bovespa, este trabalho propõe uma possível variação do modelo Heath, Jarrow e Morton em sua forma discreta e multifatorial, com a introdução de jumps como forma de considerar o efeito das reuniões realizadas pelo Cômite de Políticas Monetárias (Copom). Através do uso da análise de componentes principais (PCA), é feita a calibração dos parâmetros do modelo, possibilitando a simulação da evolução da estrutura a termo de taxa de juros (ETTJ) da curva prefixada em reais via simulação de Monte Carlo (MCS). Com os cenários da curva simulada em vértices fixos (sintéticos), os resultados são comparados aos dados observados no mercado.
Resumo:
A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.
Resumo:
A presença de aminas biogénicas em alimentos é um ponto crítico da segurança alimentar dada a sua implicação em fenómenos de intoxicações alimentares. Com a realização deste trabalho pretendeu-se contribuir para um melhor esclarecimento desta temática, actuando-se a dois níveis: numa primeira fase procedeu-se ao desenvolvimento e validação de uma nova metodologia analítica para a determinação simultânea de quatro aminas biogénicas (histamina, cadaverina, tiramina e triptamina) presentes no pescado; numa segunda fase procedeu-se à quantificação dos teores das aminas biogénicas em amostras de tunídeos. O desenvolvimento da metodologia quantitativa baseou-se na utilização da técnica de cromatografia líquida acoplada à espectrometria de massa em tandem (LC-MS/MS), tendo a preparação dos extractos para análise envolvido a extracção das aminas biogénicas do músculo de tunídeos com ácido clorídrico e a purificação dos extractos obtidos por SPE. Como qualquer outro método cromatográfico, a metodologia de LC-MS/MS desenvolvida exigiu a optimização de vários parâmetros como: a concentração do padrão interno, a metodologia de extracção em fase sólida (SPE), composição e fluxo da fase móvel, volume de injecção, determinação dos tempos de retenção, condições de ionização e condições de fragmentação. A validação metodologia foi realizada através da avaliação de alguns parâmetros analíticos, tal como o ajuste do modelo de calibração, precisão (repetibilidade e precisão intermédia), limite de quantificação, limite de detecção e percentagem de recuperação. De modo a potenciar a sensibilidade e selectividade permitida pelo equipamento analítico e com o objectivo de efectuar a quantificação dos compostos em análise, a aquisição de dados foi realizada em modo MRM. Uma vez que se utilizou um padrão interno (heptilamina), a proporcionalidade da intensidade do sinal das aminas biogénicas em relação a uma determinada concentração foi dada em termos de áreas relativas, que corresponde à razão da intensidade do sinal da amina biogénica/intensidade do sinal do padrão interno (analito/P.I.). A metodologia analítica desenvolvida foi aplicada à determinação dos teores de aminas biogénicas nas amostras de músculo de tunídeos recolhidas, com uma regularidade semanal, em diferentes estabelecimentos comerciais no decorrer da época intensiva da sua captura (de Abril a Setembro de 2009). Os teores de aminas biogénicas encontrados, entre 2,63 mg/kg (triptamina) e 132,78 mg/kg (tiramina), não ultrapassaram os limites impostos pela Comunidade Europeia para os teores de histamina e para os teores de aminas totais; sendo que, em cerca de 87% das 59 amostras analisadas não foram encontrados teores quantificáveis para as quatro aminas biogénicas.
Resumo:
A procura de soluções de baixo custo é hoje em dia, uma exigência quando se fala em aquisição de equipamentos para empresas e instituições. Essa procura torna-se ainda mais premente quando as soluções disponíveis comercialmente são demasiado caras e não traduzem por completo os objectivos para as quais se destinam. Com o trabalho desenvolvido nesta tese de Mestrado pretendeu-se criar uma versão low cost de um sistema de medição de deformações em estruturas, para ser utilizado pelo laboratório de Engenharia Civil da Universidade da Madeira. Fazendo uso da filosofia low cost utilizada para o desenvolvimento do sistema de medição, utilizou-se um Arduíno Duemilanove como plataforma de interface com o LabVIEW, em detrimento das dispendiosas placas de aquisição de dados. De forma a tornar o sistema de medição funcionalmente mais completo, e aproveitando-se a interface criada, bem como os deflectómetros digitais pertencentes à instituição, criou-se um sistema de medição personalizado que consegue medir simultaneamente os dados de três extensómetros e os valores medidos por dois deflectómetros. Foram efectuados diversos testes no equipamento desenvolvido, permitindo não só a calibração do mesmo, mas também um estudo das suas capacidades e limitações. Por fim, e de forma a demonstrar a versatilidade da interface criada, procedeu-se a um teste final onde foi possível verificar-se que era possível obter-se uma taxa de amostragem de cerca de 408,3Hz, caso o sistema fosse utilizado para a aquisição de um só valor de tensão analógico.
Resumo:
Com a evolução constante da tecnologia, também a ciência da medição, ou Metrologia, necessita de processos de medição mais exatos e fiáveis, por vezes automatizados, de modo a ser possível fornecer informações mais corretas sobre uma determinada grandeza física. Entre estas informações destaca-se a incerteza de medição, que permite ao utilizador ter uma estimativa sobre qual o valor final da grandeza física medida, que com processos de medição mais complexos, tornam a sua obtenção mais difícil, sendo necessário, por vezes, a utilização de métodos computacionais. Tendo isto em conta, com esta dissertação pretende-se abordar o problema da automatização de processos de medição, bem como da obtenção de incertezas de medição que reflitam a natureza da grandeza física medida através de métodos computacionais. De modo a automatizar um processo de medição, mais concretamente da calibração de manómetros, utilizou-se o LabView para criar um instrumento virtual que permitisse ao utilizador, de forma simples e intuitiva, realizar o procedimento de calibração. Também se realizou outro instrumento virtual, de modo a permitir a obtenção simultânea de dados provenientes de dois equipamentos diferentes. Relativamente às incertezas de medição, utilizou-se o Método de Monte Carlo, implementado em MATLAB e Excel, de modo a obter o valor destas para a calibração de manómetros, de uma câmara geradora de humidade relativa e de um higrómetro de ponto de orvalho, sendo que os dois últimos possuem um modelo matemático complexo, sendo a análise analítica mais complexa e morosa. Tendo em conta os resultados obtidos, é possível afirmar que a criação de instrumentação virtual permite a adaptação, de uma forma simples, de vários processos de medição, tornando-os mais eficientes para além de reduzirem o erro do operador. Por outro lado, também é possível observar que a utilização de métodos computacionais, neste caso o Método de Monte Carlo, para estudo de incertezas de medição é uma mais valia, comparativamente ao GUM, permitindo umaa análise rápida e fiável de modelos matemáticos complexos.
Resumo:
Investigations in the field of pharmaceutical analysis and quality control of medicines require analytical procedures with good perfomance characteristics. Calibration is one of the most important steps in chemical analysis, presenting direct relation to parameters such as linearity. This work consisted in the development of a new methodology to obtain calibration curves for drug analysis: the stationary cuvette one. It was compared to the currently used methodology, and possible sources of variation between them were evaluated. The results demonstrated that the proposed technique presented similar reproducibility compared to the traditional methodology. In addition to that, some advantages were observed, such as user-friendliness, cost-effectiveness, accuracy, precision and robustness. Therefore, the stationary cuvette methodology may be considered the best choice to obtain calibration curves for drug analyis by spectrophotometry
Resumo:
The ethanol is the most overused psychoactive drug over the world; this fact makes it one of the main substances required in toxicological exams nowadays. The development of an analytical method, adaptation or implementation of a method known, involves a process of validation that estimates its efficiency in the laboratory routine and credibility of the method. The stability is defined as the ability of the sample of material to keep the initial value of a quantitative measure for a defined period within specific limits when stored under defined conditions. This study aimed to evaluate the method of Gas chromatography and study the stability of ethanol in blood samples, considering the variables time and temperature of storage, and the presence of preservative and, with that check if the conditions of conservation and storage used in this study maintain the quality of the sample and preserve the originally amount of analyte present. Blood samples were collected from 10 volunteers to evaluate the method and to study the stability of ethanol. For the evaluation of the method, part of the samples was added to known concentrations of ethanol. In the study of stability, the other side of the pool of blood was placed in two containers: one containing the preservative sodium fluoride 1% and the anticoagulant heparin and the other only heparin, was added ethanol at a concentration of 0.6 g/L, fractionated in two bottles, one being stored at 4ºC (refrigerator) and another at -20ºC (freezer), the tests were performed on the same day (time zero) and after 1, 3, 7, 14, 30 and 60 days of storage. The assessment found the difference in results during storage in relation to time zero. It used the technique of headspace associated with gas chromatography with the FID and capillary column with stationary phase of polyethylene. The best analysis of chromatographic conditions were: temperature of 50ºC (column), 150ºC (jet) and 250ºC (detector), with retention time for ethanol from 9.107 ± 0.026 and the tercbutanol (internal standard) of 8.170 ± 0.081 minutes, the ethanol being separated properly from acetaldehyde, acetone, methanol and 2-propanol, which are potential interfering in the determination of ethanol. The technique showed linearity in the concentration range of 0.01 and 3.2 g/L (0.8051 x + y = 0.6196; r2 = 0.999). The calibration curve showed the following equation of the line: y = x 0.7542 + 0.6545, with a linear correlation coefficient equal to 0.996. The average recovery was 100.2%, the coefficients of variation of accuracy and inter intra test showed values of up to 7.3%, the limit of detection and quantification was 0.01 g/L and showed coefficient of variation within the allowed. The analytical method evaluated in this study proved to be fast, efficient and practical, given the objective of this work satisfactorily. The study of stability has less than 20% difference in the response obtained under the conditions of storage and stipulated period, compared with the response obtained at time zero and at the significance level of 5%, no statistical difference in the concentration of ethanol was observed between analysis. The results reinforce the reliability of the method of gas chromatography and blood samples in search of ethanol, either in the toxicological, forensic, social or clinic
Resumo:
A utilização correta de pneus em tratores, tanto em relação ao seu tipo quanto à calibração de sua pressão interna, e a lastragem ideal para cada condição de carga são fatores que influem significativamente no desempenho do trator. Esta pesquisa teve como objetivo comparar o desempenho de um trator equipado com pneus radiais e com pneus diagonais, para três condições de lastragem líquida (0%, 40% e 75% de água), em três condições superficiais de um Nitossolo Vermelho distrófico (superfície firme, preparada e com cobertura vegetal de resto de milho) e em três velocidades teóricas de deslocamento (4 km h-1, 5 km h-1 e 7 km h-1), informadas no painel do trator, correspondendo às marchas B1, B2 e C1. O melhor desempenho do trator, equipado com pneu diagonal, ocorreu na condição de 75% de água nos pneus, apresentando maior velocidade de deslocamento, menor patinhagem do trator, menor consumo horário de combustível e gerando maior potência na barra de tração. Com pneus radiais, o melhor desempenho do trator ocorreu na condição de 40% de água nos pneus, proporcionando maiores velocidades de deslocamento do trator, menores patinhagens, menores consumos, horário e específico de combustível, e maiores potência e rendimento na barra de tração.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
This study developed software rotines, in a system made basically from a processor board producer of signs and supervisory, wich main function was correcting the information measured by a turbine gas meter. This correction is based on the use of an intelligent algorithm formed by an artificial neural net. The rotines were implemented in the habitat of the supervisory as well as in the habitat of the DSP and have three main itens: processing, communication and supervision
Resumo:
This work presents a set of intelligent algorithms with the purpose of correcting calibration errors in sensors and reducting the periodicity of their calibrations. Such algorithms were designed using Artificial Neural Networks due to its great capacity of learning, adaptation and function approximation. Two approaches willbe shown, the firstone uses Multilayer Perceptron Networks to approximate the many shapes of the calibration curve of a sensor which discalibrates in different time points. This approach requires the knowledge of the sensor s functioning time, but this information is not always available. To overcome this need, another approach using Recurrent Neural Networks was proposed. The Recurrent Neural Networks have a great capacity of learning the dynamics of a system to which it was trained, so they can learn the dynamics of a sensor s discalibration. Knowingthe sensor s functioning time or its discalibration dynamics, it is possible to determine how much a sensor is discalibrated and correct its measured value, providing then, a more exact measurement. The algorithms proposed in this work can be implemented in a Foundation Fieldbus industrial network environment, which has a good capacity of device programming through its function blocks, making it possible to have them applied to the measurement process
Resumo:
This work presents a cooperative navigation systemof a humanoid robot and a wheeled robot using visual information, aiming to navigate the non-instrumented humanoid robot using information obtained from the instrumented wheeled robot. Despite the humanoid not having sensors to its navigation, it can be remotely controlled by infra-red signals. Thus, the wheeled robot can control the humanoid positioning itself behind him and, through visual information, find it and navigate it. The location of the wheeled robot is obtained merging information from odometers and from landmarks detection, using the Extended Kalman Filter. The marks are visually detected, and their features are extracted by image processing. Parameters obtained by image processing are directly used in the Extended Kalman Filter. Thus, while the wheeled robot locates and navigates the humanoid, it also simultaneously calculates its own location and maps the environment (SLAM). The navigation is done through heuristic algorithms based on errors between the actual and desired pose for each robot. The main contribution of this work was the implementation of a cooperative navigation system for two robots based on visual information, which can be extended to other robotic applications, as the ability to control robots without interfering on its hardware, or attaching communication devices
Resumo:
This work proposes a method to determine the depth of objects in a scene using a combination between stereo vision and self-calibration techniques. Determining the rel- ative distance between visualized objects and a robot, with a stereo head, it is possible to navigate in unknown environments. Stereo vision techniques supply a depth measure by the combination of two or more images from the same scene. To achieve a depth estimates of the in scene objects a reconstruction of this scene geometry is necessary. For such reconstruction the relationship between the three-dimensional world coordi- nates and the two-dimensional images coordinates is necessary. Through the achievement of the cameras intrinsic parameters it is possible to make this coordinates systems relationship. These parameters can be gotten through geometric camera calibration, which, generally is made by a correlation between image characteristics of a calibration pattern with know dimensions. The cameras self-calibration allows the achievement of their intrinsic parameters without using a known calibration pattern, being possible their calculation and alteration during the displacement of the robot in an unknown environment. In this work a self-calibration method based in the three-dimensional polar coordinates to represent image features is presented. This representation is determined by the relationship between images features and horizontal and vertical opening cameras angles. Using the polar coordinates it is possible to geometrically reconstruct the scene. Through the proposed techniques combination it is possible to calculate a scene objects depth estimate, allowing the robot navigation in an unknown environment
Resumo:
Pipeline leak detection is a matter of great interest for companies who transport petroleum and its derivatives, in face of rising exigencies of environmental policies in industrialized and industrializing countries. However, existing technologies are not yet fully consolidated and many studies have been accomplished in order to achieve better levels of sensitivity and reliability for pipeline leak detection in a wide range of flowing conditions. In this sense, this study presents the results obtained from frequency spectrum analysis of pressure signals from pipelines in several flowing conditions like normal flowing, leakages, pump switching, etc. The results show that is possible to distinguish between the frequency spectra of those different flowing conditions, allowing recognition and announce of liquid pipeline leakages from pressure monitoring. Based upon these results, a pipeline leak detection algorithm employing frequency analysis of pressure signals is proposed, along with a methodology for its tuning and calibration. The proposed algorithm and its tuning methodology are evaluated with data obtained from real leakages accomplished in pipelines transferring crude oil and water, in order to evaluate its sensitivity, reliability and applicability to different flowing conditions