839 resultados para Polynomial Classifier


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Point pattern matching in Euclidean Spaces is one of the fundamental problems in Pattern Recognition, having applications ranging from Computer Vision to Computational Chemistry. Whenever two complex patterns are encoded by two sets of points identifying their key features, their comparison can be seen as a point pattern matching problem. This work proposes a single approach to both exact and inexact point set matching in Euclidean Spaces of arbitrary dimension. In the case of exact matching, it is assured to find an optimal solution. For inexact matching (when noise is involved), experimental results confirm the validity of the approach. We start by regarding point pattern matching as a weighted graph matching problem. We then formulate the weighted graph matching problem as one of Bayesian inference in a probabilistic graphical model. By exploiting the existence of fundamental constraints in patterns embedded in Euclidean Spaces, we prove that for exact point set matching a simple graphical model is equivalent to the full model. It is possible to show that exact probabilistic inference in this simple model has polynomial time complexity with respect to the number of elements in the patterns to be matched. This gives rise to a technique that for exact matching provably finds a global optimum in polynomial time for any dimensionality of the underlying Euclidean Space. Computational experiments comparing this technique with well-known probabilistic relaxation labeling show significant performance improvement for inexact matching. The proposed approach is significantly more robust under augmentation of the sizes of the involved patterns. In the absence of noise, the results are always perfect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho de conclusão tem como tema a relação entre as especificações de resinas alquídicas e de tintas preparadas com estas resinas, com foco nas características de teor de sólidos e viscosidade, fazendo uso das técnicas projeto de experimentos, superfície de resposta e análise de regressão. O objetivo principal é o estudo dos limites de especificação ideais para a resina alquídica, de forma que os lotes de tinta apresentem propriedades dentro da especificação já ao final do processamento, reduzindo a incidência de lotes fabris com necessidade de ajuste. Como conseqüência, temos redução de retrabalho e lead time fabril, adequação de custo de produtos, maior qualidade intrínseca e maior confiança na sistemática de desenvolvimento, produção e controle de qualidade. Inicialmente, foi realizada uma revisão bibliográfica sobre a tecnologia de tintas e resinas alquídicas, conceitos de controle de qualidade, planejamento de experimentos, análise por superfície de resposta e análise de regressão. Na seqüência, foi conduzido o estudo de caso, realizado na empresa Killing S.A. Tintas e Adesivos, planta localizada na cidade de Novo Hamburgo. Os resultados experimentais indicaram modelos de regressão polinomial válidos para as propriedades avaliadas. Foram tomadas as propriedades teor de sólidos e viscosidade Copo Ford #2 da mistura A+B como parâmetros para análise dos limites de especificação da resina alquídica, onde se comprovou que a variabilidade atualmente permitida é excessiva. A aplicação dos modelos de regressão indicou novos limites de especificação para a resina alquídica, mais estreitos, viabilizando a obtenção de tintas com propriedades especificadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present work aims to study the macroeconomic factors influence in credit risk for installment autoloans operations. The study is based on 4.887 credit operations surveyed in the Credit Risk Information System (SCR) hold by the Brazilian Central Bank. Using Survival Analysis applied to interval censured data, we achieved a model to estimate the hazard function and we propose a method for calculating the probability of default in a twelve month period. Our results indicate a strong time dependence for the hazard function by a polynomial approximation in all estimated models. The model with the best Akaike Information Criteria estimate a positive effect of 0,07% for males over de basic hazard function, and 0,011% for the increasing of ten base points on the operation annual interest rate, toward, for each R$ 1.000,00 on the installment, the hazard function suffer a negative effect of 0,28% , and an estimated elevation of 0,0069% for the same amount added to operation contracted value. For de macroeconomics factors, we find statistically significant effects for the unemployment rate (-0,12%) , for the one lag of the unemployment rate (0,12%), for the first difference of the industrial product index(-0,008%), for one lag of inflation rate (-0,13%) and for the exchange rate (-0,23%). We do not find statistic significant results for all other tested variables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

It is well known that cointegration between the level of two variables (labeled Yt and yt in this paper) is a necessary condition to assess the empirical validity of a present-value model (PV and PVM, respectively, hereafter) linking them. The work on cointegration has been so prevalent that it is often overlooked that another necessary condition for the PVM to hold is that the forecast error entailed by the model is orthogonal to the past. The basis of this result is the use of rational expectations in forecasting future values of variables in the PVM. If this condition fails, the present-value equation will not be valid, since it will contain an additional term capturing the (non-zero) conditional expected value of future error terms. Our article has a few novel contributions, but two stand out. First, in testing for PVMs, we advise to split the restrictions implied by PV relationships into orthogonality conditions (or reduced rank restrictions) before additional tests on the value of parameters. We show that PV relationships entail a weak-form common feature relationship as in Hecq, Palm, and Urbain (2006) and in Athanasopoulos, Guillén, Issler and Vahid (2011) and also a polynomial serial-correlation common feature relationship as in Cubadda and Hecq (2001), which represent restrictions on dynamic models which allow several tests for the existence of PV relationships to be used. Because these relationships occur mostly with nancial data, we propose tests based on generalized method of moment (GMM) estimates, where it is straightforward to propose robust tests in the presence of heteroskedasticity. We also propose a robust Wald test developed to investigate the presence of reduced rank models. Their performance is evaluated in a Monte-Carlo exercise. Second, in the context of asset pricing, we propose applying a permanent-transitory (PT) decomposition based on Beveridge and Nelson (1981), which focus on extracting the long-run component of asset prices, a key concept in modern nancial theory as discussed in Alvarez and Jermann (2005), Hansen and Scheinkman (2009), and Nieuwerburgh, Lustig, Verdelhan (2010). Here again we can exploit the results developed in the common cycle literature to easily extract permament and transitory components under both long and also short-run restrictions. The techniques discussed herein are applied to long span annual data on long- and short-term interest rates and on price and dividend for the U.S. economy. In both applications we do not reject the existence of a common cyclical feature vector linking these two series. Extracting the long-run component shows the usefulness of our approach and highlights the presence of asset-pricing bubbles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é composta de três artigos que analisam a estrutura a termo das taxas de juros usando diferentes bases de dados e modelos. O capítulo 1 propõe um modelo paramétrico de taxas de juros que permite a segmentação e choques locais na estrutura a termo. Adotando dados do tesouro americano, duas versões desse modelo segmentado são implementadas. Baseado em uma sequência de 142 experimentos de previsão, os modelos propostos são comparados à benchmarks e concluí-se que eles performam melhor nos resultados das previsões fora da amostra, especialmente para as maturidades curtas e para o horizonte de previsão de 12 meses. O capítulo 2 acrescenta restrições de não arbitragem ao estimar um modelo polinomial gaussiano dinâmico de estrutura a termo para o mercado de taxas de juros brasileiro. Esse artigo propõe uma importante aproximação para a série temporal dos fatores de risco da estrutura a termo, que permite a extração do prêmio de risco das taxas de juros sem a necessidade de otimização de um modelo dinâmico completo. Essa metodologia tem a vantagem de ser facilmente implementada e obtém uma boa aproximação para o prêmio de risco da estrutura a termo, que pode ser usada em diferentes aplicações. O capítulo 3 modela a dinâmica conjunta das taxas nominais e reais usando um modelo afim de não arbitagem com variáveis macroeconômicas para a estrutura a termo, afim de decompor a diferença entre as taxas nominais e reais em prêmio de risco de inflação e expectativa de inflação no mercado americano. Uma versão sem variáveis macroeconômicas e uma versão com essas variáveis são implementadas e os prêmios de risco de inflação obtidos são pequenos e estáveis no período analisado, porém possuem diferenças na comparação dos dois modelos analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo de transformação da pele em couro envolve uma seqüência complexa de reações químicas e processos mecânicos, no qual o curtimento representa fundamental estágio, por propiciar à pele características como qualidade, estabilidade hidrotérmica e excelentes propriedades para uso. O sulfato básico de cromo trivalente é o agente curtente predominantemente empregado no curtimento de peles em todo o mundo. É produzido a partir do cromato de sódio, industrialmente obtido do minério de cromo. Consideráveis quantidades de resíduos sólidos contendo cromo são geradas pelas indústrias coureira e calçadista. Estes resíduos tem sido motivo de preocupação constante, uma vez que são considerados perigosos devido a presença do cromo. O processo de incineração destes resíduos é uma importante alternativa a ser considerada, em decorrência de suas características de redução de massa, volume e possibilidade de aproveitamento da energia térmica dos gases de combustão. O processo de incineração dos resíduos das indústrias coureira e calçadista dá origem a cinzas contendo cerca de 40% de cromo que pode ser submetida a um processo de recuperação. Este trabalho apresenta os resultados da pesquisa sobre a utilização das cinzas, provenientes da incineração dos resíduos sólidos da indústria coureira e da indústria calçadista, para a produção de cromato de sódio(VI). No processo de planejamento e de condução dos experimentos foram utilizadas as técnicas de Planejamento Fatorial 2k, Metodologia de Superfície de Resposta e Análise de Variância na avaliação da produção de cromato de sódio(VI). Os fatores investigados foram: temperatura, taxa de aquecimento, tempo de reação, vazão de ar e quantidade de dolomita. A partir das variáveis selecionadas identificaram-se como parâmetros importantes a temperatura e a taxa de aquecimento. As superfícies de resposta tridimensionais obtidas a partir dos modelos de segunda ordem ajustados aos dados experimentais, apresentaram o comportamento do efeito conjugado dos fatores temperatura e taxa de aquecimento sobre a variável resposta grau de oxidação, desde a temperatura de inicio da reação química até a temperatura limite utilizada industrialmente. As condições de operação do processo de produção de cromato de sódio(VI) foram otimizadas. Os níveis ótimos dos fatores de controle aplicados as cinzas dos resíduos da indústria calçadista, geradas em uma planta piloto com incinerador de leito fixo, com tecnologia de gaseificação e combustão combinadas, apresentaram um grau de oxidação superior a 96% para as cinzas coletadas no ciclone e de 99,5% para as cinzas coletas no reator de gaseificação. Os resíduos sólidos, as cinzas e o produto de reação foram caracterizados por análises químicas, fluorescência de raio-X, microscopia eletrônica de varredura e difração de raio-X.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho visa comparar, estatisticamente, o desempenho de duas estratégias de imunização de carteiras de renda fixa, que são recalibradas periodicamente. A primeira estratégia, duração, considera alterações no nível da estrutura a termo da taxa de juros brasileira, enquanto a abordagem alternativa tem como objetivo imunizar o portfólio contra oscilações em nível, inclinação e curvatura. Primeiro, estimamos a curva de juros a partir do modelo polinomial de Nelson & Siegel (1987) e Diebold & Li (2006). Segundo, imunizamos a carteira de renda fixa adotando o conceito de construção de hedge de Litterman & Scheinkman (1991), porém assumindo que as taxas de juros não são observadas. O portfólio imunizado pela estratégia alternativa apresenta empiricamente um desempenho estatisticamente superior ao procedimento de duração. Mostramos também que a frequência ótima de recalibragem é mensal na análise empírica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis we study the invariant rings for the Sylow p-subgroups of the nite classical groups. We have successfully constructed presentations for the invariant rings for the Sylow p-subgroups of the unitary groups GU(3; Fq2) and GU(4; Fq2 ), the symplectic group Sp(4; Fq) and the orthogonal group O+(4; Fq) with q odd. In all cases, we obtained a minimal generating set which is also a SAGBI basis. Moreover, we computed the relations among the generators and showed that the invariant ring for these groups are a complete intersection. This shows that, even though the invariant rings of the Sylow p-subgroups of the general linear group are polynomial, the same is not true for Sylow p-subgroups of general classical groups. We also constructed the generators for the invariant elds for the Sylow p-subgroups of GU(n; Fq2 ), Sp(2n; Fq), O+(2n; Fq), O-(2n + 2; Fq) and O(2n + 1; Fq), for every n and q. This is an important step in order to obtain the generators and relations for the invariant rings of all these groups.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis presents a low cost non-intrusive home energy monitor built on top of Non-Intrusive Load Monitoring (NILM) concepts and techniques. NILM solutions are already considered low cost alternatives to the big majority of existing commercial energy monitors but the goal here is to make its cost even lower by using a mini netbook as a whole in one solution. The mini netbook is installed in the homes main circuit breaker and computes power consumption by reading current and voltage from the built-in sound card. At the same time, feedback to the users is provided using the 11’’ LCD screen as well as other built-in I/O modules. Our meter is also capable of detecting changes in power and tries to find out which appliance lead to that change and it is being used as part of an eco-feedback platform that was build to study the long terms of energy eco-feedback in individuals. In this thesis the steps that were taken to come up with such a system are presented, from the basics of AC power measurements to the implementation of an event detector and classifier that was used to disaggregate the power load. In the last chapter results from some validation tests that have been performed are presented in order to validate the experiment. It is believed that such a system will not only be important as an energy monitor, but also as an open system than can be easily changed to accommodate and test new or existing nonintrusive load monitoring techniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

BARBOSA, André F. ; SOUZA, Bryan C. ; PEREIRA JUNIOR, Antônio ; MEDEIROS, Adelardo A. D.de, . Implementação de Classificador de Tarefas Mentais Baseado em EEG. In: CONGRESSO BRASILEIRO DE REDES NEURAIS, 9., 2009, Ouro Preto, MG. Anais... Ouro Preto, MG, 2009

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hebb proposed that synapses between neurons that fire synchronously are strengthened, forming cell assemblies and phase sequences. The former, on a shorter scale, are ensembles of synchronized cells that function transiently as a closed processing system; the latter, on a larger scale, correspond to the sequential activation of cell assemblies able to represent percepts and behaviors. Nowadays, the recording of large neuronal populations allows for the detection of multiple cell assemblies. Within Hebb's theory, the next logical step is the analysis of phase sequences. Here we detected phase sequences as consecutive assembly activation patterns, and then analyzed their graph attributes in relation to behavior. We investigated action potentials recorded from the adult rat hippocampus and neocortex before, during and after novel object exploration (experimental periods). Within assembly graphs, each assembly corresponded to a node, and each edge corresponded to the temporal sequence of consecutive node activations. The sum of all assembly activations was proportional to firing rates, but the activity of individual assemblies was not. Assembly repertoire was stable across experimental periods, suggesting that novel experience does not create new assemblies in the adult rat. Assembly graph attributes, on the other hand, varied significantly across behavioral states and experimental periods, and were separable enough to correctly classify experimental periods (Naïve Bayes classifier; maximum AUROCs ranging from 0.55 to 0.99) and behavioral states (waking, slow wave sleep, and rapid eye movement sleep; maximum AUROCs ranging from 0.64 to 0.98). Our findings agree with Hebb's view that assemblies correspond to primitive building blocks of representation, nearly unchanged in the adult, while phase sequences are labile across behavioral states and change after novel experience. The results are compatible with a role for phase sequences in behavior and cognition.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Different levels of menthol as an anesthetic for dourado (Salminus brasiliensis) were evaluated in this study. Fish (n=32) with average weight of 194.13 +/- 9.06 g and total mean length of 25.30 +/- 0.90 cm were separated in four groups composed of 8 individuals. Each group was submitted to different menthol concentrations: 60, 90, 120 and 150 mg L(-1). Total induction time was analyzed by polynomial regression and other parameters by Tukey's test. All experimental fish exposed to different concentrations of menthol reached deep anesthesia stage without mortality. It was observed a negative linear effect (P<0.05) for total induction time. The longest recovery time (172.60 s) was observed for dourado treated with 120 mg. L(-1), which differed (P<0.05) from the 90 mg.L(-1) treatment (122.03 s). All levels evaluated in this study were safe and effective. A concentration of 60 mg L(-1) for dourado is suggested based on lower cost and adequate induction and recovery time responses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mimosa caesalpiniaefolia Benth. is a forest species of the Mimosaceae family, recommended for recovery of degraded areas. The evaluation of vigor by biochemical tests have been an important tool in the control of seed quality programs, and the electrical conductivity and potassium leaching the most efficient in the verifying the physiological potential. The objective, therefore, to adjust the methodology of the electrical conductivity test for seeds of M. caesalpiniaefolia, for then compare the efficiency of this test with the potassium in the evaluation of seed vigor of different lots of seeds M. caesalpiniaefolia. To test the adequacy of the electrical conductivity were used different combinations of temperatures , 25 °C and 30 ºC, number of seeds , 25 and 50, periods of imbibition , 4 , 8 , 12 , 16 and 24 hours , and volumes deionized water, 50 mL and 75mL. For potassium leaching test, which was conducted from the results achieved by the methodology of the adequacy of the electrical conductivity test, to compare the efficiency of both tests , in the classification of seeds at different levels of vigor, and the period 4 hours also evaluated because the potassium leaching test can be more efficient in the shortest time . The best combination obtained in experiment of electrical conductivity is 25 seeds soaked in 50 mL deionized or distilled water for 8 hours at a temperature of 30 ° C. Data were subjected to analysis of variance, the means were compared with each other by F tests and Tukey at 5 % probability, and when necessary polynomial regression analysis was performed. The electrical conductivity test performed at period eight hour proved to be more efficient in the separation of seed lots M. caesalpiniaefolia at different levels of vigor compared to the potassium test

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi avaliar o efeito da interação da deficiência hídrica e da toxicidade do alumínio no crescimento inicial e teores de prolina livre em duas cultivares de guandu, IAPAR 43-Aratã e IAC Fava Larga, cultivadas em hidroponia. As plântulas foram submetidas aos estresses em solução nutritiva (pH 3,8), nos potenciais osmóticos de 0, -0,004, -0,006, -0,008 e -0,010 MPa, com 0, 0,25, 0,50, 0,75 e 1 mmol dm-3 de Al3+. O experimento foi conduzido em sala de crescimento, sob luminária com irradiância média de 190 mmol m-2 s-1 , fotoperíodo de 12 horas e temperatura de 25+1ºC. O delineamento experimental foi inteiramente casualizado, em arranjo fatorial 2x5x5 (duas cultivares de guandu, cinco potenciais osmóticos e cinco níveis de alumínio), com quatro repetições. Os dados foram submetidos às análises de regressão polinomial, agrupamento e componentes principais. A deficiência hídrica causa redução do crescimento da parte aérea do guandu, e a toxicidade do alumínio provoca diminuição do crescimento radicular. Houve aumento nos teores de prolina livre nas duas cultivares sob deficiência hídrica, e apenas na IAC Fava Larga sob toxicidade de alumínio. Na análise multivariada, foi observada alta correlação no crescimento e no acúmulo de prolina na cultivar IAC Fava Larga, o que evidencia provável tolerância aos estresses associados.