882 resultados para Conjunto de dados


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Essa pesquisa teve como objetivo analisar a aplicabilidade de uma metodologia de investigação das disfunções existentes no conjunto de dados eleitorais de uma eleição para cargo majoritário no Brasil. O desenvolvimento e a rápida expansão da teoria descoberta por Newcomb-Benford, conhecida como Lei de Benford, bastante difundida por Mark J. Nigrini, Ph.D. no meio contábil, com a utilização de testes estatísticos, despertou o interesse por esta pesquisa. Vislumbrou-se a possibilidade de reduzir o risco de fraude eleitoral através da utilização da análise digital. Entretanto, é necessário adotar procedimentos mais acurados para que possíveis erros de aplicação do método analisado não acabem inviabilizando os efeitos benéficos trazidos pelo mesmo. A probabilidade de ocorrência do erro tipo I alarme falso pode levar ao aumento de custo na análise dos dados. Um dos maiores problemas encontrados em auditorias, contábeis ou não, diz respeito à falha na obtenção de evidências. No Brasil, a partir da utilização de sistema de processamento eletrônico de votação, houve um aumento da preocupação com a fraude, visto que não existe ainda um procedimento que permita verificar, por trilha de auditoria, a confiabilidade dos dados eleitorais. Para atingir o objetivo da pesquisa, foi realizada a aplicação do método estudado em um conjunto de dados relativos à eleição para cargo majoritário Presidente da República do Brasil - no ano de 2010, e a posterior análise dos resultados obtidos. Então, a partir dos resultados obtidos, pode-se sugerir a aplicabilidade da Lei de Benford, em especial o teste do 2 dígito, para a detecção de manipulação ou fraude no conjunto de dados eleitorais.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Ao se realizar estudo em qualquer área do conhecimento, quanto mais dados se dispuser, maior a dificuldade de se extrair conhecimento útil deste banco de dados. A finalidade deste trabalho é apresentar algumas ferramentas ditas inteligentes, de extração de conhecimento destes grandes repositórios de dados. Apesar de ter várias conotações, neste trabalho, irá se entender extração de conhecimento dos repositórios de dados a ocorrência combinada de alguns dados com freqüência e confiabilidade que se consideram interessantes, ou seja, na medida e que determinado dado ou conjunto de dados aparece no repositório de dados, em freqüência considerada razoável, outro dado ou conjunto de dados irá aparecer. Executada sobre repositórios de dados referentes a informações georreferenciadas dos alunos da UERJ (Universidade do Estado do Rio de Janeiro), irá se analisar os resultados de duas ferramentas de extração de dados, bem como apresentar possibilidades de otimização computacional destas ferramentas.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Foi realizado um estudo de caráter expioratório-descritivo para verificar o uso dos dados e estatísticas coletados regularmente pelas bibliotecas universitárias brasileiras no processo decisório dentro da atividade de desenvolvimento de coleções. Tendo como base a abordagem sistêmica, a biblioteca universitária foi classificada como uma organização social de serviço em constante interação com o meio ambiente. A função e os objetivos da universidade e da biblioteca universitária, as necessidades informacionais dos usuários, os recursos bibliográficos e financeiros, o uso de coleções, a produção e o custo dos materiais bibliográficos foram identificados como os fatores ambientais que afetam a biblioteca universitária e a atividade de desenvolvimento de coleções, da coleta de dados e da implementação de um sisitema de informação gerencial. Foi sugerido um conjunto de dados, agrupados em categorias relacionadas aos fatores ambientais, como base para consttução de um sisitema de informação, assim como um referencial teórico para a coleta de dados a serem usados como insumos para a tomada de decisão na atividade de desenvolvimetno de coleções em bibliotecas universitárias. Os resultados da pesquisa revelaram que os dados e estatísticas coletadas regularmente pelas bibliotecas universitárias brasileiras não sao completos, tampouco suficientes para auxiliar na tomada de decisão.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

The main objective of this study is to apply recently developed methods of physical-statistic to time series analysis, particularly in electrical induction s profiles of oil wells data, to study the petrophysical similarity of those wells in a spatial distribution. For this, we used the DFA method in order to know if we can or not use this technique to characterize spatially the fields. After obtain the DFA values for all wells, we applied clustering analysis. To do these tests we used the non-hierarchical method called K-means. Usually based on the Euclidean distance, the K-means consists in dividing the elements of a data matrix N in k groups, so that the similarities among elements belonging to different groups are the smallest possible. In order to test if a dataset generated by the K-means method or randomly generated datasets form spatial patterns, we created the parameter Ω (index of neighborhood). High values of Ω reveals more aggregated data and low values of Ω show scattered data or data without spatial correlation. Thus we concluded that data from the DFA of 54 wells are grouped and can be used to characterize spatial fields. Applying contour level technique we confirm the results obtained by the K-means, confirming that DFA is effective to perform spatial analysis

Relevância:

70.00% 70.00%

Publicador:

Resumo:

This Master s Thesis proposes the application of Data Envelopment Analysis DEA to evaluate economies of scale and economies of scope in the performance of service teams involved with installation of data communication circuits, based on the study of a major telecommunication company in Brazil. Data was collected from the company s Operational Performance Division. Initial analysis of a data set, including nineteen installation teams, was performed considering input oriented methods. Subsequently, the need for restrictions on weights is analyzed using the Assurance Region method, checking for the existence of zero-valued weights. The resulting returns to scale are then verified. Further analyses using the Assurance Region Constant (AR-I-C) and Variable (AR-I-V) models verify the existence of variable, rather than constant, returns to scale. Therefore, all of the final comparisons use scores obtained through the AR-I-V model. In sequence, we verify if the system has economies of scope by analyzing the behavior of the scores in terms of individual or multiple outputs. Finally, conventional results, used by the company in study to evaluate team performance, are compared to those generated using the DEA methodology. The results presented here show that DEA is a useful methodology for assessing team performance and that it may contribute to improvements on the quality of the goal setting procedure.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

This master´s thesis presents a reliability study conducted among onshore oil fields in the Potiguar Basin (RN/CE) of Petrobras company, Brazil. The main study objective was to build a regression model to predict the risk of failures that impede production wells to function properly using the information of explanatory variables related to wells such as the elevation method, the amount of water produced in the well (BSW), the ratio gas-oil (RGO), the depth of the production bomb, the operational unit of the oil field, among others. The study was based on a retrospective sample of 603 oil columns from all that were functioning between 2000 and 2006. Statistical hypothesis tests under a Weibull regression model fitted to the failure data allowed the selection of some significant predictors in the set considered to explain the first failure time in the wells

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Self-organizing maps (SOM) are artificial neural networks widely used in the data mining field, mainly because they constitute a dimensionality reduction technique given the fixed grid of neurons associated with the network. In order to properly the partition and visualize the SOM network, the various methods available in the literature must be applied in a post-processing stage, that consists of inferring, through its neurons, relevant characteristics of the data set. In general, such processing applied to the network neurons, instead of the entire database, reduces the computational costs due to vector quantization. This work proposes a post-processing of the SOM neurons in the input and output spaces, combining visualization techniques with algorithms based on gravitational forces and the search for the shortest path with the greatest reward. Such methods take into account the connection strength between neighbouring neurons and characteristics of pattern density and distances among neurons, both associated with the position that the neurons occupy in the data space after training the network. Thus, the goal consists of defining more clearly the arrangement of the clusters present in the data. Experiments were carried out so as to evaluate the proposed methods using various artificially generated data sets, as well as real world data sets. The results obtained were compared with those from a number of well-known methods existent in the literature

Relevância:

70.00% 70.00%

Publicador:

Resumo:

The objective of this work is to identify, to chart and to explain the evolution of the soil occupation and the envirionment vulnerability of the areas of Canto do Amaro and Alto da Pedra, in the city of Mossoró-RN, having as base analyzes it multiweather of images of orbital remote sensors, the accomplishment of extensive integrated works of field to a Geographic Information System (GIS). With the use of inserted techniques of it analyzes space inserted in a (GIS), and related with the interpretation and analyzes of products that comes from the Remote Sensoriamento (RS.), make possible resulted significant to reach the objectives of this works. Having as support for the management of the information, the data set gotten of the most varied sources and stored in digital environment, it comes to constitute the geographic data base of this research. The previous knowledge of the spectral behavior of the natural or artificial targets, and the use of algorithms of Processing of Digital images (DIP), it facilitates the interpretation task sufficiently and searchs of new information on the spectral level. Use as background these data, was generated a varied thematic cartography was: Maps of Geology, Geomorfológicals Units soils, Vegetation and Use and Occupation of the soil. The crossing in environment SIG, of the above-mentioned maps, generated the maps of Natural and Vulnerability envirionmental of the petroliferous fields of I Canto do Amaro and Alto da Pedra-RN, working in an ambient centered in the management of waters and solid residuos, as well as the analysis of the spatial data, making possible then a more complex analysis of the studied area

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Pós-graduação em Ciências Cartográficas - FCT

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Esta dissertação apresenta um método para estimar a orientação de fratura de um meio partindo do pressuposto que este se comporta efetivamente como um meio transversalmente isotrópico (TI). Desta forma, a orientação de fratura é obtida a partir da estimativa do eixo de simetria de um meio TI. Esta estimativa é obtida a partir dos vetores de vagarosidade e polarização de ondas qP medidos em experimentos VSP Walkaway. O processo de inversão é baseado em equações linearizadas dos vetores de vagarosidade e polarização de ondas qP e os parâmetros fracamente anisotrópicos do meio. São apresentados testes numéricos, em que a sensibilidade a fatores como grau de anisotropia, geometria do levantamento, tipo de onda utilizado e nível de ruído são analisados. São também apresentados os resultados para um conjunto de dados reais.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Neste trabalho desenvolveu-se uma solução para o clássico problema da determinação automática de litologias. Construiu-se um banco de dados utilizando-se a técnica de análise discriminante aplicada sobre trechos testemunhados de poços perfilados de um campo situado em lâmina d'água profunda localizado na bacia de Campos. A técnica de análise de agrupamento, utilizada por um grande número de pesquisadores, foi testada para o mesmo conjunto de dados porém não forneceu resultados satisfatórios em comparação com os obtidos com a análise discriminante. Os dados de perfis, após sofrerem correções ambientais, são colocados em profundidade com os dados de testemunhagem e determina-se uma função discriminante que classifica as respostas dos perfis de acordo com as litofácies descritas nos testemunhos. Dessa forma obtém-se um banco de dados, a partir do qual se faz a discriminação de litologias em poços, testemunhados ou não, da mesma área. O banco de dados assim construído permite sua atualização através da incorporação de trechos testemunhados de novos poços. Mostra-se a necessidade de agrupar as litologias em quatro litofácies principais para este campo de maneira a padronizar os resultados, diminuir as indeterminações e melhorar a apresentação final. Como produto final obtém-se uma curva discriminada de eletrofácies que reproduz, com algum grau de certeza, as litofácies que reproduzem as litologias esperadas em subsuperfície. Como exemplo de aplicação deste método, utilizou-se as curvas discriminadas para correlacionar três poços, utilizando para isto um algoritmo de correlação automática.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Pós-graduação em Biometria - IBB

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Pós-graduação em Biometria - IBB

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Pós-graduação em Biometria - IBB