621 resultados para Dimensionality
Resumo:
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.
Resumo:
Considerando os avanços da pesquisa e teoria da psicologia do risco e, em particular, da perspectiva do risco como sentimentos, ressaltando a interação entre cognição e emoção na análise de ameaças, esta tese propõe e testa um modelo conceitual sobre o efeito da vulnerabilidade (risco como sentimento) em intenções comportamentais de serviços relacionados a automóveis. Este estudo teve como hipótese que a autoeficácia percebida pelo consumidor diminui ou elimina o efeito da vulnerabilidade nas intenções comportamentais de perpetuidade de relacionamento com a empresa de serviço. Estimularam o interesse de pesquisa tanto a carência de pesquisas sobre o papel da vulnerabilidade no consumo de serviços não relacionados à área da saúde ou ao corpo do consumidor, quanto a carência de pesquisas sobre a relação entre a vulnerabilidade e as intenções comportamentais. Testou-se em um único modelo, o impacto previsto pelos processos cognitivos e afetivos que envolvem a análise de ameaça (sentimentos de vulnerabilidade, risco e severidade das falhas) e de capacidade de enfrentamento (autoeficácia) na intenção comportamental, no contexto específico de consumo de serviços relativos a automóveis. O modelo de mensuração proposto foi avaliado quanto à dimensionalidade, validade e confiabilidade pelo uso de análise fatorial confirmatória; posteriormente, avaliou-se a relação causal proposta nas hipóteses pelo modelo completo de equações estruturais. O modelo de mensuração proposto foi avaliado quanto à dimensionalidade, validade e confiabilidade pelo uso de análise fatorial confirmatória; posteriormente, avaliou-se a relação proposta nas hipóteses pelo modelo completo de equações estruturais, usando-se o software Amos e a estimativa por máxima verossimilhança. O modelo foi estimado em uma amostra de 202 respondentes. Os dados foram coletados por meio de um levantamento eletrônico transversal e os achados da pesquisa apontam para a confirmação das hipóteses de que (1) o risco percebido cognitivamente, sentimentos de vulnerabilidade e a autoeficácia influenciam as intenções comportamentais. Não foi possível suportar a hipótese de que (2) a severidade das possíveis falhas de serviço tem relação com risco ou com sentimentos de vulnerabilidade. Esses achados ajudam a compreender a relação entre intenções comportamentais e sentimentos de vulnerabilidade. Implicações para o desenvolvimento teórico da pesquisa na área e implicações gerenciais são discutidas. Os resultados auxiliam a compreensão dos resultados de estudos realizados nos EUA nas últimas décadas. Os achados oferecem uma contribuição teórica ao entendimento do fenômeno da vulnerabilidade, a adaptação de uma escala de medida para o fenômeno no contexto brasileiro e aplicado a serviços que não sejam de saúde e cuidados com o corpo. Do ponto de vista gerencial, o estudo alerta para o fato de a vulnerabilidade exercer influência no desempenho comercial de empresas de serviços automotivos, visto que ela influência negativamente a recomendação positiva e a manutenção de relacionamentos de negócios. Os achados sugerem que os gestores de empresas de serviços devem empreender esforços para reduzir a vulnerabilidade do consumidor por meio de informações que o auxiliem na negociação e avaliação do serviço ao minimizar incertezas.
Resumo:
This paper uses dynamic programming to study the time consistency of optimal macroeconomic policy in economies with recurring public deficits. To this end, a general equilibrium recursive model introduced in Chang (1998) is extended to include govemment bonds and production. The original mode! presents a Sidrauski economy with money and transfers only, implying that the need for govemment fmancing through the inflation tax is minimal. The extended model introduces govemment expenditures and a deficit-financing scheme, analyzing the SargentWallace (1981) problem: recurring deficits may lead the govemment to default on part of its public debt through inflation. The methodology allows for the computation of the set of alI sustainable stabilization plans even when the govemment cannot pre-commit to an optimal inflation path. This is done through value function iterations, which can be done on a computeI. The parameters of the extended model are calibrated with Brazilian data, using as case study three Brazilian stabilization attempts: the Cruzado (1986), Collor (1990) and the Real (1994) plans. The calibration of the parameters of the extended model is straightforward, but its numerical solution proves unfeasible due to a dimensionality problem in the algorithm arising from limitations of available computer technology. However, a numerical solution using the original algorithm and some calibrated parameters is obtained. Results indicate that in the absence of govemment bonds or production only the Real Plan is sustainable in the long run. The numerical solution of the extended algorithm is left for future research.
Resumo:
Self-organizing maps (SOM) are artificial neural networks widely used in the data mining field, mainly because they constitute a dimensionality reduction technique given the fixed grid of neurons associated with the network. In order to properly the partition and visualize the SOM network, the various methods available in the literature must be applied in a post-processing stage, that consists of inferring, through its neurons, relevant characteristics of the data set. In general, such processing applied to the network neurons, instead of the entire database, reduces the computational costs due to vector quantization. This work proposes a post-processing of the SOM neurons in the input and output spaces, combining visualization techniques with algorithms based on gravitational forces and the search for the shortest path with the greatest reward. Such methods take into account the connection strength between neighbouring neurons and characteristics of pattern density and distances among neurons, both associated with the position that the neurons occupy in the data space after training the network. Thus, the goal consists of defining more clearly the arrangement of the clusters present in the data. Experiments were carried out so as to evaluate the proposed methods using various artificially generated data sets, as well as real world data sets. The results obtained were compared with those from a number of well-known methods existent in the literature
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Wavelet functions have been used as the activation function in feedforward neural networks. An abundance of R&D has been produced on wavelet neural network area. Some successful algorithms and applications in wavelet neural network have been developed and reported in the literature. However, most of the aforementioned reports impose many restrictions in the classical backpropagation algorithm, such as low dimensionality, tensor product of wavelets, parameters initialization, and, in general, the output is one dimensional, etc. In order to remove some of these restrictions, a family of polynomial wavelets generated from powers of sigmoid functions is presented. We described how a multidimensional wavelet neural networks based on these functions can be constructed, trained and applied in pattern recognition tasks. As an example of application for the method proposed, it is studied the exclusive-or (XOR) problem.
Resumo:
Traditional applications of feature selection in areas such as data mining, machine learning and pattern recognition aim to improve the accuracy and to reduce the computational cost of the model. It is done through the removal of redundant, irrelevant or noisy data, finding a representative subset of data that reduces its dimensionality without loss of performance. With the development of research in ensemble of classifiers and the verification that this type of model has better performance than the individual models, if the base classifiers are diverse, comes a new field of application to the research of feature selection. In this new field, it is desired to find diverse subsets of features for the construction of base classifiers for the ensemble systems. This work proposes an approach that maximizes the diversity of the ensembles by selecting subsets of features using a model independent of the learning algorithm and with low computational cost. This is done using bio-inspired metaheuristics with evaluation filter-based criteria
Resumo:
In the world we are constantly performing everyday actions. Two of these actions are frequent and of great importance: classify (sort by classes) and take decision. When we encounter problems with a relatively high degree of complexity, we tend to seek other opinions, usually from people who have some knowledge or even to the extent possible, are experts in the problem domain in question in order to help us in the decision-making process. Both the classification process as the process of decision making, we are guided by consideration of the characteristics involved in the specific problem. The characterization of a set of objects is part of the decision making process in general. In Machine Learning this classification happens through a learning algorithm and the characterization is applied to databases. The classification algorithms can be employed individually or by machine committees. The choice of the best methods to be used in the construction of a committee is a very arduous task. In this work, it will be investigated meta-learning techniques in selecting the best configuration parameters of homogeneous committees for applications in various classification problems. These parameters are: the base classifier, the architecture and the size of this architecture. We investigated nine types of inductors candidates for based classifier, two methods of generation of architecture and nine medium-sized groups for architecture. Dimensionality reduction techniques have been applied to metabases looking for improvement. Five classifiers methods are investigated as meta-learners in the process of choosing the best parameters of a homogeneous committee.
Resumo:
Remote sensing is one technology of extreme importance, allowing capture of data from the Earth's surface that are used with various purposes, including, environmental monitoring, tracking usage of natural resources, geological prospecting and monitoring of disasters. One of the main applications of remote sensing is the generation of thematic maps and subsequent survey of areas from images generated by orbital or sub-orbital sensors. Pattern classification methods are used in the implementation of computational routines to automate this activity. Artificial neural networks present themselves as viable alternatives to traditional statistical classifiers, mainly for applications whose data show high dimensionality as those from hyperspectral sensors. This work main goal is to develop a classiffier based on neural networks radial basis function and Growing Neural Gas, which presents some advantages over using individual neural networks. The main idea is to use Growing Neural Gas's incremental characteristics to determine the radial basis function network's quantity and choice of centers in order to obtain a highly effective classiffier. To demonstrate the performance of the classiffier three studies case are presented along with the results.
Resumo:
Image segmentation is the process of labeling pixels on di erent objects, an important step in many image processing systems. This work proposes a clustering method for the segmentation of color digital images with textural features. This is done by reducing the dimensionality of histograms of color images and using the Skew Divergence to calculate the fuzzy a nity functions. This approach is appropriate for segmenting images that have colorful textural features such as geological, dermoscopic and other natural images, as images containing mountains, grass or forests. Furthermore, experimental results of colored texture clustering using images of aquifers' sedimentary porous rocks are presented and analyzed in terms of precision to verify its e ectiveness.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Cooper pairing in two dimensions is analyzed with a set of renormalized equations to determine its binding energy for any fermion number density and all coupling assuming a,generic pairwise residual interfermion interaction. Also considered are Cooper pairs (CP's) with nonzero center-of-mass momentum (CMM) and their binding energy is expanded analytically in powers of the CMM up to quadratic terms. A Fermi-sea-dependent linear term in the CMM dominates the pair excitation energy in weak coupling (also called the BCS regime) while the more familiar quadratic term prevails in strong coupling (the Bose regime). The crossover, though strictly unrelated to BCS theory per se, is studied numerically as it is expected to play a central role in a model of superconductivity as a Bose-Einstein condensation of CPs where the transition temperature vanishes for all dimensionality d less than or equal to 2 for quadratic dispersion, but is nonzero for all d greater than or equal to 1 for linear dispersion.
Resumo:
Recently it has been pointed out that no limits can be put on the scale of fermion mass generation (M) in technicolor models, because the relation between the fermion masses (m(f)) and M depends on the dimensionality of the interaction responsible for generating the fermion mass. Depending on this dimensionality it may happen that m(f) does not depend on M at all. We show that exactly in this case m(f) may reach its largest value, which is almost saturated by the top quark mass. We make a few comments on the question of how large a dynamically generated fermion mass can be.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)