77 resultados para Autocorrelação
Resumo:
As empresas nacionais deparam-se com a necessidade de responder ao mercado com uma grande variedade de produtos, pequenas séries e prazos de entrega reduzidos. A competitividade das empresas num mercado global depende assim da sua eficiência, da sua flexibilidade, da qualidade dos seus produtos e de custos reduzidos. Para se atingirem estes objetivos é necessário desenvolverem-se estratégias e planos de ação que envolvem os equipamentos produtivos, incluindo: a criação de novos equipamentos complexos e mais fiáveis, alteração dos equipamentos existentes modernizando-os de forma a responderem às necessidades atuais e a aumentar a sua disponibilidade e produtividade; e implementação de políticas de manutenção mais assertiva e focada no objetivo de “zero avarias”, como é o caso da manutenção preditiva. Neste contexto, o objetivo principal deste trabalho consiste na previsão do instante temporal ótimo da manutenção de um equipamento industrial – um refinador da fábrica de Mangualde da empresa Sonae Industria, que se encontra em funcionamento contínuo 24 horas por dia, 365 dias por ano. Para o efeito são utilizadas medidas de sensores que monitorizam continuamente o estado do refinador. A principal operação de manutenção deste equipamento é a substituição de dois discos metálicos do seu principal componente – o desfibrador. Consequentemente, o sensor do refinador analisado com maior detalhe é o sensor que mede a distância entre os dois discos do desfibrador. Os modelos ARIMA consistem numa abordagem estatística avançada para previsão de séries temporais. Baseados na descrição da autocorrelação dos dados, estes modelos descrevem uma série temporal como função dos seus valores passados. Neste trabalho, a metodologia ARIMA é utilizada para determinar um modelo que efetua uma previsão dos valores futuros do sensor que mede a distância entre os dois discos do desfibrador, determinando-se assim o momento ótimo da sua substituição e evitando paragens forçadas de produção por ocorrência de uma falha por desgaste dos discos. Os resultados obtidos neste trabalho constituem uma contribuição científica importante para a área da manutenção preditiva e deteção de falhas em equipamentos industriais.
Resumo:
A Diabetes Mellitus Tipo2 é uma doença crónica que afecta sobretudo a população adulta e é responsável por mais de 90% dos casos de diabetes. A sua prevalência tem aumentado rapidamente, implicando elevados custos em saúde. Está normalmente associada a várias co-morbilidades e complicações, constituindo-se uma das principais causas de morbilidade e mortalidade no mundo. Em Portugal, dados dos Observatório Nacional da Diabetes revelam que, em 2012, cerca de 13% da população adulta sofria de diabetes (aproximadamente um milhão de pessoas), sendo a taxa de incidência anual de 500 novos casos por cada 100 000 habitantes. A amostra do estudo incluiu os doentes com DM2 com mais de 20 anos, num total de 205068 utentes registados nos centros de cuidados de saúde primários da ARSLVT e que residem na área de Lisboa e Vale do Tejo. O enfoque desta dissertação não é somente a exploração dos padrões geográficos da DM Tipo2 mas, sobretudo, a análise de sensibilidade e robustez das estatísticas espaciais utilizadas. Os objectivos são fundamentalmente metodológicos e passam pela aplicação de estatísticas espaciais, em ambiente ArcGIS®, GeoDaTM e linguagem de computação estatística R; pela reflexão em torno das medidas de dependência e de heterogeneidade geográfica e ainda pela análise quantitativa da irregularidade da distribuição espacial da DM Tipo2 na região de Lisboa, baseada em decisões decorrentes do estudo da sensibilidade e da robustez das estatísticas espaciais. A estrutura espacial dos dados foi estudada segundo matrizes de vizinhos mais próximos, fazendo variar o número de vizinhos (1 a 20). Uma vez definida a estrutura de vizinhança procurou-se traduzir o grau de similaridade espacial que existe entre áreas que são próximas, utilizando como medida o Índice Global de Moran. A identificação dos clusters espaciais foi feita através da aplicação das estatísticas de Anselin Local Moran´s I e Getis-Ord Gi*. Após aplicação das estatísticas referidas procurou-se avaliar, ao longo dos testes realizados, a percentagem de permanência das freguesias num cluster espacial. Da análise dos resultados, e tendo em conta os objectivos propostos, concluiu-se que o mapeamento de padrões espaciais é pouco sensível à variação dos parâmetros utilizados. As duas ferramentas de análise espacial utilizadas (análise de cluster e outlier - Anselin´s Local Moran´s I e análises de Hot spot - Getis-Ord Gi*), embora muito distintas, geraram resultados muito similares em termos de identificação da localização geográfica dos clusters para todas as variáveis. Desta forma, foi possível identificar alguns clusters, ainda que de um modo geral exista uma aleatoriedade espacial nos dados.
Resumo:
Em 2007-2008, o Rio de Janeiro viveu uma epidemia de dengue com 80.404 notificações, com 109 óbitos, 42% em < 15 anos. Objetivos: 1. Descrever a distribuição espacial e o perfil clínico-epidemiológico da epidemia de dengue por faixa etária no município do Rio de Janeiro. 2. Avaliar os fatores clínicos e laboratoriais preditivos de dengue grave em uma coorte de crianças internadas. Métodos: Esta tese foi formatada com dois artigos: 1) Distribuição espacial e caracterização clínico-epidemiológico do dengue no município do Rio de Janeiro; 2) Sinais clínicos e laboratoriais associados ao dengue grave em crianças hospitalizadas. Artigo 1: estudo ecológico com base no Sistema de Informação de Agravos de Notificação do município do Rio de Janeiro (2007-2008). Foram incluídos todos os casos de dengue confirmados pelo critério clínico-laboratorial dos residentes do município do Rio de Janeiro. Foram descritas as variáveis sócio demográficas e clínicas (classificação do caso, hospitalização e evolução) segundo a idade. Foi utilizado o critério de classificação de caso do Ministério da Saúde de 2005 (febre do dengue, dengue com complicações e febre hemorrágica do dengue - FHD). Autocorrelação espacial das taxas de incidência, mortalidade e letalidade foi verificada pelos índices de Moran e de Geary Artigo 2: coorte retrospectiva das hospitalizações por dengue (até 18 anos) em uma unidade de referência (2007-2008). Dengue grave foi definido pelo uso de terapia de suporte avançado de vida ou óbito. Diferenças de medianas e de proporções foram avaliadas, respectivamente, pelo teste de Mann-Whitney e pelo exato de Fisher (p<0,05). Foram calculados os parâmetros de acurácia dos sinais e sintomas. Resultados: Artigo 1: De 159887 notificações, 151527 eram residentes do município do Rio de Janeiro, 38.808 preencheram os critérios de inclusão. Destes, 8897 (22,9%) tiveram complicações e 1051 (2,7%) FHD; 16.436 (42,4%) eram < 18 anos e 15.288 (39,4%) foram confirmados laboratorialmente. A letalidade foi maior em lactentes (1,4%) e nos casos de FHD (7,7%). Extravasamento plasmático foi mais comum de 2 a 11 anos. Houve autocorrelação espacial global quanto à mortalidade e letalidade e autocorrelação local para os três índices (p<0,05). Artigo 2: De 145 pacientes, 53,1% eram do sexo feminino, com mediana de idade de 8,7 anos (IIQ=7,2-11,5); 15,9% evoluíram para gravidade A duração da febre em dias foi menor no grupo grave (G: Mediana Md=3,0, IIQ= 2,0\20134,5; NG: Md=4,0, IIQ=3,0\20135,0; p=0.062). Letargia, irritabilidade, sangramento, dispneia, ausculta pulmonar alterada, derrame pleural, distensão abdominal e edema foram associados à evolução para gravidade (p<0,05). Níveis de hematócrito (p=008) e de albumina sérica (p<0,001) foram menores nos graves. Letargia apresentou Valor Preditivo Negativo (VPN) > 90%, com Valor Preditivo Positivo (VPP) de 80%. As demais variáveis com p-valor <0,05 apresentaram VPN próximo ou > 90%, com baixo VPP. Conclusão: Apesar da incidência de FHD ter sido maior entre escolares, os lactentes tiveram maior letalidade. Extravasamento plasmático foi mais frequente em escolares e pré-escolares. Sangramento, sonolência e irritabilidade na admissão hospitalar associaram-se à gravidade e o derrame cavitário obteve maior acurácia do que a hemoconcentração como sinal de extravasamento plasmático
Resumo:
O presente estudo avalia a aplicação em ambiente de banhados, especificamente no Banhado do Taim, de metodologia existente de investigação da continuidade espacial de variáveis através da análise preliminar de variogramas experimentais de semivariância. A variável utilizada foi a Diferença Normalizada das bandas do infravermelho próximo e vermelho (Landsat TM) - NDVI, em 10 datas, de 1987 a 2003. A verificação de dependência espacial neste estudo teve por fim definir o melhor delineamento de amostragem, para caracterizar parâmetros de populações, de forma que os dados não sejam autocorrelacionados e possibilitem o tratamento estatístico adequado para a inferência. As áreas escolhidas para a análise foram a região central e sul do banhado. Os resultados mostraram a existência de gradientes e padrões em todas as regiões estudadas. Os alcances dos patamares, quando ocorreram, variaram de 450 a 1600m. Este estudo evidenciou que a variografia por análise de semivariância realiza um papel importante ao quantificar e identificar patamares de variância, o alcance em que eles ocorrem quando ocorrem, assim como também ao identificar as direções de anisotropia do processo. Conclui, neste sentido que um delineamento amostral que considere a autocorrelação dos dados no espaço pode ser efetivamente melhorado pela variografia preliminar da variável de interesse ou de variável bem correlacionada com esta como no caso do NDVI com aspectos de vegetação.
Resumo:
Este trabalho de estratigrafia quantitativa teve como objetivo o estudo de ciclos sedimentares em seqüências siliciclásticas. Para isso, utilizou-se ferramentas matemáticas e estatísticas, interpretando os resultados obtidos no contexto da estratigrafia de seqüências. Os padrões quase cíclicos de empilhamento sedimentar foram associados a padrões de ciclos de tempo conhecidos – os da banda de Milankovitch (Milankovitch, 1947). Para superar as dificuldades inerentes às medidas diretas em afloramentos e testemunhos, adotou-se o estudo das variações da distância entre marcas consecutivas, observadas na curva do perfil de raios gama de sondagens para petróleo ou carvão. Esta distância foi associada à espessura da camada sedimentar e a série de observações foi estudada pelos métodos de análise de séries temporais, empregando-se: estatísticas básicas, histogramas e distribuições de freqüência, diagramas de tempo (gráficos XY), gráficos de Fischer, autocorrelação e correlação cruzada e análise espectral. A abordagem do problema exigiu um tratamento matemático das observações estratigráficas, mantido de forma “orientada para a geologia”. Deu-se ênfase ao significado físico (geológico) dos resultados obtidos com as diversas análises. As variações nas espessuras das camadas permitiram reconhecer parasseqüências e suas geometrias internas, levando à identificação acurada dos ambientes deposicionais, das fácies e dos tratos de sistema, em um contexto de estratigrafia de seqüências. As razões entre os períodos encontrados nos ciclos sedimentares foram associadas com os ciclos astronômicos da banda de Milankovitch, produzindo estimativas do tempo de deposição e das taxas de acumulação e fornecendo a visão dos processos de preenchimento da bacia, das oscilações do nível do mar e do fluxo de sedimentos. O emprego desta metodologia de análise evidenciou seqüências de quinta e de quarta ordem (no sentido da Exxon) correlacionáveis, localmente. Em nível regional, mostrou ser possível a correlação de seqüências de terceira ordem, por distâncias consideráveis, permitindo correlações com a curva global de oscilações do nível do mar. Para ilustrar, foram discutidos exemplos de aplicação da metodologia, em seções do Permiano da Bacia do Paraná e do Andar Buracica (Barremiano), na Bacia do Recôncavo. A metodologia do trabalho foi desenvolvida pelo autor, junto aos participantes de pesquisas e de cursos do Laboratório de Análise de Bacias e Correlação Geológica (LABCG) da Faculdade de Geologia (FGEL) da UERJ - Universidade do Estado do Rio de Janeiro.
Resumo:
Faz revisão teórica dos modelos de value-at-risk (VAR). Revisa principais estudos anteriores sobre VAR no Brasil e no exterior. Testa o desempenho de cinco metodologias de VAR, a saber: metodologia Paramétrica com uso da Volatilidade Histórica, Paramétrica com uso da Volatilidade EWMA, Paramétrica• com uso da Volatilidade GARCH(1,1), Simulação Histórica e uma Metodologia Híbrida proposta por BOUDOUKH e taI (1998). Aplica as metodologias a carteiras teóricas compostas por proporções diversas de ações e títulos de renda fixa de 30 dias no mercado financeiro brasileiro. O trabalho encontra evidências da superioridade da Metodologia Híbrida com fator de caimento de 0,99 e da Simulação Histórica, sendo esta apenas marginalmente inferior, Estes resultados se coadunam com evidências encontradas nas séries em estudo de nãonormalidade, heterocedasticidade e autocorrelação
Resumo:
Apresenta o método value at risk (VaR) para se mensurar o risco de mercado, sob diferentes abordagens. Analisa a série histórica do índice Bovespa no período de 1995 a 1996 por meio de testes econométricos de normalidade, autocorrelação dos retornos e raiz unitária. Comparo valor obtido a partir dos diferentes modelos de estimação de volatilidade propostos e verifica qual dos modelos foi o mais adequado para o caso estudado
Resumo:
Esta dissertação examina soluções para o controle estatístico em sistemas de produção que utilizam meios contínuos, onde freqüentemente os dados de análise apresentam o fenômeno da autocorrelação. A princípio são abordadas as técnicas de CEP tradicional (gráficos de Shewhart) para meios discretos, mostrando-se que estas técnicas não dão o resultado esperado quando utilizadas em processos contínuos, tanto em relação à amostragem como ao problema da autocorrelação. Em seguida são apresentadas outras soluções baseadas em técnicas mais recentes como EWMA e modelos autorregressivos, que tem uma melhor performance em meios contínuos. Damos os aspectos teóricos e exemplos de aplicação de cada solução obtida por consulta bibliográfica. Finalmente, é feita uma simulação comparativa das soluções citadas, baseandose em programação de macros e uso de software, para verificar o escopo e desempenho das soluções, sendo dadas recomendações sobre o seu uso, bem como sugestões para futuras pesquisas.
Resumo:
Este trabalho tem como objetivo analisar a relação entre a remuneração da alta gerência e a evolução do desempenho das firmas brasileiras. Isto é, investigar até que ponto os aumentos da remuneração real da alta gerência estão realmente correlacionados de forma significativa ao desempenho da empresa. A análise foi feita sob a luz da teoria econômica, sobretudo a partir do modelo agente-principal. O estudo empírico foi implementado a partir de dados desagregados por sub-setor de atividade econômica, para o Brasil ao longo do período 2001-2006. As informações sobre a remuneração dos executivos foram obtidas através dos dados da Relação Anual de Informações Sociais (RAIS) do Ministério do Trabalho e Emprego. Já as informações sobre o lucro real de cada sub-setor foram colhidas das Pesquisas Anuais de Serviços (PAS), Comércio (PAC) e Indústria (PIA), realizadas pelo Instituto Brasileiro de Geografia e Estatística (IBGE). As regressões estimadas tiveram como objetivo verificar se a evolução da remuneração real média dos executivos de cada sub-setor tem correlação com a evolução do lucro real por trabalhador de cada sub-setor. Em particular, verificou-se se o aumento prévio da remuneração real dos executivos é seguido de um aumento do lucro real por trabalhador, controlados os fatores macroeconômicos, através da inclusão de variáveis binárias para cada ano, e controlada a autocorrelação da variável lucro real por trabalhador. De acordo com os dados analisados neste trabalho, conclui-se que há correlação contemporânea entre o rendimento real dos executivos e o desempenho das firmas, sugerindo que os executivos têm poder de barganha para se apropriar de parte dos lucros. Contudo, a correlação entre o aumento prévio da remuneração real dos executivos e o lucro no período seguinte, apesar de positiva, não é estatisticamente significativa. Assim sendo, a hipótese de que melhora da remuneração dos executivos pode influenciar positivamente o desempenho das empresas requer mais investigações para ser respondida com segurança.
Resumo:
As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.
Resumo:
Esta dissertação apresenta alguns critérios para avaliação de ameaças e risco geotécnico aplicados à estabilidade de taludes. Inicialmente apresenta-se uma visão geral dos problemas envolvidos com a análise de risco geotécnico, a importância da análise probabilística e a sua comparação com a determinística, e as opções de gerenciamento descritas na literatura. Estas análises envolvem conceitos de probabilidade, estatística, geotecnia, geologia, meio ambiente e legislação, além do interesse público e defesa civil. Assim, são definidos os conceitos estatísticos envolvidos nessa área multidisciplinar, como variabilidade espacial, coeficiente de correlação entre os parâmetros de entrada do modelo, distância de autocorrelação, escala de flutuação e incertezas (de parâmetros, humanas e dos modelos). Os métodos probabilísticos de cálculo do fator de segurança, a probabilidade de ruptura e o índice de confiabilidade são revisados. Utilizou-se o método de Monte Carlo nas análises através do uso de um programa comercial. O método tem sido adotado por diversos pesquisadores por ser direto, eficiente para problemas matematicamente complexos e não ter a complexidade matemática de outros métodos. A metodologia de análise de ameaças e risco geotécnico foi aplicada a um talude modelo, similar aos taludes de colúvio de basalto encontrados nas partes inferiores da Escarpa dos Aparados da Serra em Santa Catarina Os resultados obtidos, a partir de dados experimentais disponíveis, foram o fator de segurança determinístico mínimo (1,20) e o fator de segurança médio obtido pelo método de Monte Carlo (1,205), índice de confiabilidade de 2,64 e probabilidade de ruptura de 0,41%. Foi discutida também a aceitabilidade do fator de segurança médio da análise probabilística, comparando-se os resultados obtidos com valores aceitos em obras similares.
Resumo:
Este trabalho apresenta um estudo do impacto das negociações algorítmicas no processo de descoberta de preços no mercado de câmbio. Foram utilizados dados de negociação de alta frequência para contratos futuros de reais por dólar (DOL), negociados na Bolsa de Valores de São Paulo no período de janeiro a junho de 2013. No intuito de verificar se as estratégias algorítmicas de negociação são mais dependentes do que as negociações não algorítmicas, foi examinada a frequência em que algoritmos negociam entre si e comparou-se a um modelo benchmark que produz probabilidades teóricas para diferentes tipos de negociadores. Os resultados obtidos para as negociações minuto a minuto apresentam evidências de que as ações e estratégias de negociadores algorítmicos parecem ser menos diversas e mais dependentes do que aquelas realizadas por negociadores não algorítmicos. E para modelar a interação entre a autocorrelação serial dos retornos e negociações algorítmicas, foi estimado um vetor autorregressivo de alta frequência (VAR) em sua forma reduzida. As estimações mostram que as atividades dos algoritmos de negociação causam um aumento na autocorrelação dos retornos, indicando que eles podem contribuir para o aumento da volatilidade.
Resumo:
O presente estudo - até onde se sabe inédito no Brasil – possui como principal objetivo avaliar alguns determinantes das necessidades de capital de giro comumente estudados na literatura e analisar de que forma as empresas se movimentam em direção a uma meta (target) de Net Trade Cycle (similar ao Ciclo de Caixa - CCC). Sabemos que o tema capital de giro ainda carece de teorias mais robustas dentro da área de finanças, e poucos estudos ainda são encontrados na literatura. Aqueles que decidem estudá-lo, observam que dado o seu atual estágio, ele tem sido pesquisado com o suporte de bases teóricas mais consolidadas, como por exemplo estrutura de capitais. Esses estudos têm se utilizado muito do conceito de meta para determinar a estrutura ótima de capitais, e com qual velocidade de ajuste procura-se adequar essa estrutura como forma de otimizar seus recursos. O fato de ainda não existir definições e/ou teorias mais definidas sobre o tema foi o grande motivador para a realização desse estudo, que emprega a velocidade de ajuste em direção a uma meta de capital de giro, utilizando como técnica para suporte a esse objetivo o Modelo de Ajustamento Parcial (MAP) e o Generalized Method of Moments (GMM). Com essa combinação inédita no mercado brasileiro quando o assunto é capital de giro, esperamos trazer novas contribuições para as comunidades acadêmicas e empresariais. Para a obtenção dos dados que compõem esse estudo de caráter quantitativo, utilizamos informações existentes na Economatica® e BCB – Banco Central do Brasil. Nessas bases de dados utilizamos os demonstrativos financeiros trimestrais entre os períodos de 31/Dez./2007 a 30/Jun./2014 (ajustados por inflação – IPCA) das empresas listadas na BM&FBovespa que possuíssem pelos menos 15 períodos (trimestres) consecutivos de dados, com isso chegamos a um total de um pouco mais de 2 mil observações e 105 empresas. Quanto ao método, utilizamos Painel de Dados Dinâmico (desbalanceado) e as seguintes técnicas foram empregadas como forma de atender ao principal objetivo do estudo (“Qual é a velocidade de ajuste das Necessidades de Capital de Giro?”): Modelo de Ajustamento Parcial para a análise dos determinantes das necessidades de capital de giro e movimentação em direção a uma meta e; Generalized Method of Moments (GMM) como técnica de controle aos possíveis efeitos de endogeneidade (BLUNDELL e BOND, 1998) e solução para o problema de autocorrelação residual (PIRES, ZANI e NAKAMURA, 2013, p. 19).
Resumo:
In recent years, the DFA introduced by Peng, was established as an important tool capable of detecting long-range autocorrelation in time series with non-stationary. This technique has been successfully applied to various areas such as: Econophysics, Biophysics, Medicine, Physics and Climatology. In this study, we used the DFA technique to obtain the Hurst exponent (H) of the profile of electric density profile (RHOB) of 53 wells resulting from the Field School of Namorados. In this work we want to know if we can or not use H to spatially characterize the spatial data field. Two cases arise: In the first a set of H reflects the local geology, with wells that are geographically closer showing similar H, and then one can use H in geostatistical procedures. In the second case each well has its proper H and the information of the well are uncorrelated, the profiles show only random fluctuations in H that do not show any spatial structure. Cluster analysis is a method widely used in carrying out statistical analysis. In this work we use the non-hierarchy method of k-means. In order to verify whether a set of data generated by the k-means method shows spatial patterns, we create the parameter Ω (index of neighborhood). High Ω shows more aggregated data, low Ω indicates dispersed or data without spatial correlation. With help of this index and the method of Monte Carlo. Using Ω index we verify that random cluster data shows a distribution of Ω that is lower than actual cluster Ω. Thus we conclude that the data of H obtained in 53 wells are grouped and can be used to characterize space patterns. The analysis of curves level confirmed the results of the k-means
Resumo:
Stellar differential rotation is an important key to understand hydromagnetic stellar dynamos, instabilities, and transport processes in stellar interiors as well as for a better treatment of tides in close binary and star-planet systems. The space-borne high-precision photometry with MOST, CoRoT, and Kepler has provided large and homogeneous datasets. This allows, for the first time, the study of differential rotation statistically robust samples covering almost all stages of stellar evolution. In this sense, we introduce a method to measure a lower limit to the amplitude of surface differential rotation from high-precision evenly sampled photometric time series such as those obtained by space-borne telescopes. It is designed for application to main-sequence late-type stars whose optical flux modulation is dominated by starspots. An autocorrelation of the time series is used to select stars that allow an accurate determination of spot rotation periods. A simple two-spot model is applied together with a Bayesian Information Criterion to preliminarily select intervals of the time series showing evidence of differential rotation with starspots of almost constant area. Finally, the significance of the differential rotation detection and a measurement of its amplitude and uncertainty are obtained by an a posteriori Bayesian analysis based on a Monte Carlo Markov Chain (hereafter MCMC) approach. We apply our method to the Sun and eight other stars for which previous spot modelling has been performed to compare our results with previous ones. The selected stars are of spectral type F, G and K. Among the main results of this work, We find that autocorrelation is a simple method for selecting stars with a coherent rotational signal that is a prerequisite to a successful measurement of differential rotation through spot modelling. For a proper MCMC analysis, it is necessary to take into account the strong correlations among different parameters that exists in spot modelling. For the planethosting star Kepler-30, we derive a lower limit to the relative amplitude of the differential rotation. We confirm that the Sun as a star in the optical passband is not suitable for a measurement of the differential rotation owing to the rapid evolution of its photospheric active regions. In general, our method performs well in comparison with more sophisticated procedures used until now in the study of stellar differential rotation