975 resultados para Rainfall event classification
Resumo:
Este trabalho tem por objetivo verificar se há impacto das republicações das demonstrações contábeis das empresas com ações negociadas na Bovespa no período de 2000 a 2010, no preço de suas ações. O estudo parte do pressuposto de que o mercado Brasileiro de ações é semiforte. A metodologia utilizada nesta pesquisa foi em parte qualitativa ao descrever a amostra e suas características assim como quantitativa na forma dos testes de diferenças de média. Os resultados dos testes mostram que ao se analisar toda a amostra como um único grupo, os retornos anormais encontrados não mostraram diferença significativa em comparação com os valores esperados calculados, mas quando analisados em segmentações distintas pelo tipo de motivação à republicação, foram encontrados evidências de que há diferença significativa entre as amostras das republicações das demonstrações contábeis voluntárias e obrigatórias. Assim como também foram encontrados evidências de que pode haver diferença significativa entre as amostras segmentadas pela natureza do erro apresentado com justificativa para a republicação da demonstração contábil, tanto nos casos de mensuração, quanto classificação e reconhecimento. A mesma evidência é apresentada nos gráficos das médias dos retornos anormais calculados para este estudo.
Resumo:
We provide a comprehensive overview of many recent algorithms for approximate inference in Gaussian process models for probabilistic binary classification. The relationships between several approaches are elucidated theoretically, and the properties of the different algorithms are corroborated by experimental results. We examine both 1) the quality of the predictive distributions and 2) the suitability of the different marginal likelihood approximations for model selection (selecting hyperparameters) and compare to a gold standard based on MCMC. Interestingly, some methods produce good predictive distributions although their marginal likelihood approximations are poor. Strong conclusions are drawn about the methods: The Expectation Propagation algorithm is almost always the method of choice unless the computational budget is very tight. We also extend existing methods in various ways, and provide unifying code implementing all approaches.
Resumo:
A Presente dissertação apresenta uma aplicação de Inteligência Computacional na área de Geotecnia, com a utilização da Técnica de Neuro-Fuzzy para indicar a suscetibilidade de escorregamento de taludes no município do Rio de Janeiro, a partir de inspeção visual. Neste trabalho, a suscetibilidade corresponde à possibilidade de ocorrência de escorregamento sem considerar os danos relacionados ao evento. Adotou-se como variável de saída a Previsão de Escorregamento (PE) com três adjetivos que correspondem a Suscetibilidades Alta, Média e Baixa. A metodologia utilizada consistiu em, inicialmente, montar um banco de dados com informações preliminares de análise de estabilidade, com a indicação dos condicionantes de escorregamento relacionados à geomorfologia, pluviosidade, capacidade de drenagem, vegetação e ocupação com seus respectivos graus de suscetibilidades de escorregamento obtidos em um conjunto de Laudos de Vistoria da Geo Rio. O banco de dados foi aplicado em um algoritmo de Neuro-Fuzzy. Diversos testes foram realizados com as alterações dos parâmetros do modelo Neuro-Fuzzy para uma combinação de fatores condicionantes de escorregamento e refinamento do banco de dados. Os testes apresentaram diminuição do erro fornecido pelo programa com o aumento de tipos de condicionantes utilizados no treinamento, o que permite inferir que o escorregamento ocorre por uma complexa relação entre diversos fatores condicionantes. O banco de dados utilizado nos testes apresenta descontinuidades nas relações entre os diversos condicionantes, ou seja, para uma mesma faixa de valores de Altura do talude, não é possível obter uma relação para todas as faixas de outro condicionante e, até mesmo, para todas as faixas da Previsão de Escorregamento. As PEs obtidas na validação do modelo tiveram seus valores próximos aos desejados somente nos conjuntos de variáveis utilizadas para o treinamento. O modelo não foi capaz de apresentar valores de suscetibilidades dentro da faixa de valores utilizados no treinamento para combinação de variáveis com pequenos ruídos, o que indica a necessidade de ampliação do banco de dados tanto quantitativamente quanto qualitativamente de modo a cobrir as descontinuidades apresentadas nas relações entre as variáveis.
Resumo:
O estoque de matéria orgânica de superfície refere-se a todo material orgânico decomposto ou em decomposição sobreposto ao solo mineral, bem como ao material orgânico misturado às partículas minerais do horizonte A. Este serve como indicador da funcionalidade e integridade de ecossistemas florestais quando o analisamos sob a perspectiva das "Formas de Húmus". Nesta perspectiva o material orgânico se presenta como disposto em camadas internas que variam no peso e espessura de acordo com a atuação dos agentes decompositores locais, e expressa a ciclagem de nutrientes que se dá a partir dos dois principais processos que sintetizam e/ou modulam o funcionamento dos ecossistemas, a produção e a decomposição da matéria orgânica. O modelo de formas de húmus segue uma classificação desenvolvida na Europa que não se aplica perfeitamente às áreas tropicais pela alta variabilidade de ambientes. Estima-se que fatores locais e particulares como características edáficas, estrutura e composição da vegetação, relevo e o microclima podem distorcer esta classificação e diferir significativamente do modelo global. Esta pesquisa buscou o refinamento deste modelo, buscando entender de que modo a pluviosidade efetiva (chuva que atravessa a copa das árvores e chega ao solo), como fenômeno de natureza microclimática, se relaciona com o estoque de matéria orgânica de superfície (sob a perspectiva das formas de húmus) em ambiente de floresta ombrófila montanhosa urbana.Para tal foram executadas análises físicas sobre o estoque de matéria orgânica de superfície, monitoramento da pluviosidade efetiva com pluviômetro experimentais adaptados para esta demanda e análises químicas sobre a água da chuva após lixiviação da matéria orgânica. Foi montada uma estrutura composta de quinze pluviômetros experimentais em uma encosta florestada no Parque Nacional da Tijuca (Rio de Janeiro - RJ) e instalação de pluviômetros eletrônicos em ambientes de céu aberto em áreas adjacentes a esta encosta pertencentes à área do parque. Os resultados indicam que da chuva que cai na floresta, cerca de 15% é interceptada pelas copas e o restante, parte é interceptada pela matéria orgânica do solo. A camada MFB (ou H) é a que retém mais água, indicando que, florestas que a decomposição é rápida no processo de fragmentação e lenta na mineralização, terão mais água retida no estoque de matéria orgânica. As diferentes camadas vão nutrir o solo de maneira diferenciada quando este processo deriva da lixiviação, como o cálcio que é liberado em a maior quantidade pelas camadas mais fragmentadas como a F e a MFB, o potássio e magnésio têm maior disponibilização quando deriva da camada L, indicando que durante este processo estes nutrientes são mais consumidos do que liberados. Foi perceptível que o sódio é bastante abundante na chuva antes mesmo de atingir a matéria orgânica, confirmando estudos anteriores. A utilização deste sistema proposto de pluviômetros experimentais possibilitou entender como esta estratificação interna do estoque de matéria orgânica de superfície acumula água, pois os métodos tradicionais não se baseiam no modelo de formas de húmus, e possibilitou ainda, o a análise do processo de lixiviação e liberação de nutrientes para o solo.
Resumo:
Fundacion Zain is developing new built heritage assessment protocols. The goal is to objectivize and standardize the analysis and decision process that leads to determining the degree of protection of built heritage in the Basque Country. The ultimate step in this objectivization and standardization effort will be the development of an information and communication technology (ICT) tool for the assessment of built heritage. This paper presents the ground work carried out to make this tool possible: the automatic, image-based delineation of stone masonry. This is a necessary first step in the development of the tool, as the built heritage that will be assessed consists of stone masonry construction, and many of the features analyzed can be characterized according to the geometry and arrangement of the stones. Much of the assessment is carried out through visual inspection. Thus, this process will be automated by applying image processing on digital images of the elements under inspection. The principal contribution of this paper is the automatic delineation the framework proposed. The other contribution is the performance evaluation of this delineation as the input to a classifier for a geometrically characterized feature of a built heritage object. The element chosen to perform this evaluation is the stone arrangement of masonry walls. The validity of the proposed framework is assessed on real images of masonry walls.
Resumo:
In the problem of one-class classification (OCC) one of the classes, the target class, has to be distinguished from all other possible objects, considered as nontargets. In many biomedical problems this situation arises, for example, in diagnosis, image based tumor recognition or analysis of electrocardiogram data. In this paper an approach to OCC based on a typicality test is experimentally compared with reference state-of-the-art OCC techniques-Gaussian, mixture of Gaussians, naive Parzen, Parzen, and support vector data description-using biomedical data sets. We evaluate the ability of the procedures using twelve experimental data sets with not necessarily continuous data. As there are few benchmark data sets for one-class classification, all data sets considered in the evaluation have multiple classes. Each class in turn is considered as the target class and the units in the other classes are considered as new units to be classified. The results of the comparison show the good performance of the typicality approach, which is available for high dimensional data; it is worth mentioning that it can be used for any kind of data (continuous, discrete, or nominal), whereas state-of-the-art approaches application is not straightforward when nominal variables are present.