999 resultados para Amostragem (Estatística)
Resumo:
Sob a premissa de que a geometria do perfil deposicional das clinoformas pode conter informações sobre a composição textural dos sedimentos que as compõem, bem como sobre a energia da coluna d’água, foi desenvolvido um modelo computacional para a análise teórica dos fatores controladores do tipo de curvatura dos foresets das clinoformas, e, por extensão dos taludes submarinos. Um modelo análogo de suspensão dinâmica foi implementado experimentalmente com um programa em código Matlab, denominado MAXWELL, e é classificado como um modelo estratigráfico, bidimensional, analítico, determinístico, dinâmico, parcialmente dedutivo e parcialmente baseado em regras. Contém um modelo de escoamento de fluido em linhas de corrente, e trata indiretamente a tensão de cisalhamento no domínio de um sistema fechado bifásico líquido-vapor análogo, a partir a proposta de analogias entre os processos de evaporação e de suspensão de sedimentos. É uma abordagem baseada na competência de transporte do fluxo d’água, pois considera temperatura e velocidade de fluxo combinado onda-corrente como variáveis controladoras análogas da intensidade de transferência de energia. Os processos deposicionais marinhos são reduzidos a um fenômeno da superfície deposicional, que é considerada análoga a uma interface líquidovapor dentro de um sistema fechado. A equação de distribuição estatística de velocidades moleculares de Maxwell é usada para calcular a proporção de moléculas na fase líquida, considerada análoga à proporção de sedimentos depositados, bem como a proporção na fase vapor, tomada como análoga à proporção de sedimentos em suspensão. O estado energético do sistema é parametrizado por três potenciais: energia interna, como função do tamanho de grão (areia, silte ou argila); energia térmica do meio, como função da energia hidrodinâmica, e energia gravitacional, como função do declive topográfico As simulações indicam que os principais fatores controladores do perfil deposicional das clinoformas, e por extensão, dos taludes submarinos em geral, são a energia hidrodinâmica da coluna d’água e a granulometria (ou coesão) do sedimento, que podem ser consideradas dois parâmetros comutáveis, isto é, grãos grossos ou coesos podem produzir sobre a geometria das clinoformas o mesmo efeito da baixa energia hidrodinâmica, e vice-versa. Com base no fator de decaimento da energia hidrodinâmica com o aumento da batimetria, foram definidas três ordens de grandeza da intensidade da energia da coluna d’água: baixa energia (10–1), alta x energia (10-2) e muito alta energia (10-3). Com base nesse critério, foram caracterizados quatro tipos de perfis deposicionais de clinoformas: dois tipos sigmoidais e dois tipos exponenciais. Os tipos sigmoidais podem ser de alta energia ou de muito alta energia, e distinguem-se pela granulometria do sedimento e pela distribuição de declividades em relação à dimensão na direção horizontal. Os perfis de tipo exponencial podem ser tanto de baixa energia, quanto de alta energia. A subida relativa do nível do mar afeta o tipo geométrico do perfil deposicional apenas de forma indireta, a partir da retenção da fração grossa do influxo sedimentar na plataforma ou topset. Os principais fatores controladores do ângulo de declividade do perfil das clinoformas são a granulometria do sedimento, a energia hidrodinâmica, a profundidade d’água da bacia e o desvio lateral da corrente de fundo. A dedução da litofácies a partir da geometria das clinoformas parece promissora apenas para os tipos teóricos sigmoidais, que são distintos na forma e no conteúdo sedimentar.
Resumo:
A partir da Constituição de 1988, houve crescimento expressivo na busca pela prestação jurisdicional, mas sem acréscimo proporcional na estrutura judiciária e sem a adequada alteração do sistema processual. O descompasso provocou o congestionamento da maioria dos órgãos judiciais. Atualmente, a morosidade é o problema mais grave enfrentado pelo Poder Judiciário brasileiro. Dentre as suas várias causas, somente as que têm relação com o modo de prestação do serviço podem ser enfrentadas internamente. Nesse contexto, a modernização da administração judiciária, baseada em informação estatística de qualidade, é a solução que se mostra viável. No Rio Grande do Sul, o aprimoramento do sistema de coleta de dados é condição indispensável para que o Tribunal de Justiça disponha de estatísticas adequadas de medição da produtividade individual e de indicadores de desempenho da instituição. A capacitação dos magistrados em técnicas estatísticas básicas também se faz necessária, a fim de que as informações fornecidas pelo sistema possam ser interpretadas corretamente, em benefício da administração do Poder Judiciário.
Resumo:
O trabalho aborda alguns aspectos referentes ao serviço de arquivo médico e estatística-SAME, organização, estrutura, finalidades, funções e funcionamento. Salienta-se a importância desse serviço para a administração geral do hospital como empresa, além do seu melhor conhecido papel de guardião dos prontuários dos pacientes e de processador de estatísticas médicas
Resumo:
Esta dissertação examina soluções para o controle estatístico em sistemas de produção que utilizam meios contínuos, onde freqüentemente os dados de análise apresentam o fenômeno da autocorrelação. A princípio são abordadas as técnicas de CEP tradicional (gráficos de Shewhart) para meios discretos, mostrando-se que estas técnicas não dão o resultado esperado quando utilizadas em processos contínuos, tanto em relação à amostragem como ao problema da autocorrelação. Em seguida são apresentadas outras soluções baseadas em técnicas mais recentes como EWMA e modelos autorregressivos, que tem uma melhor performance em meios contínuos. Damos os aspectos teóricos e exemplos de aplicação de cada solução obtida por consulta bibliográfica. Finalmente, é feita uma simulação comparativa das soluções citadas, baseandose em programação de macros e uso de software, para verificar o escopo e desempenho das soluções, sendo dadas recomendações sobre o seu uso, bem como sugestões para futuras pesquisas.
Resumo:
A intensificação do processo de terceirização de serviços, pelas empresas, nas duas últimas décadas, aumentou a importância da gestão de contratos para garantir total cumprimento do escopo contratado, e evitar co-responsabilização da contratante por não conformidades cometidas pelas contratadas, viabilizando ganho econômico e/ou de imagem à empresa contratante. Esse contexto suscitou iniciativas na área de Downstream da PETROBRAS visando aumentar a efetividade da atividade de fiscalização de contratos, entre as quais a proposta de revisar seu processo de seleção de Fiscais, incluindo a verificação de adequação do perfil comportamental do indivíduo à função. Assim, essa pesquisa objetivou testar a influência do nível de adequação do perfil comportamental do Fiscal de Contrato sobre seu desempenho profissional, de forma a orientar a possível remodelagem de processo seletivo proposta. A partir de um mapeamento do perfil comportamental “ideal” à fiscalização de contratos, foram diagnosticados os perfis comportamentais atuais de uma amostra de 13 Fiscais de Contrato da REVAP (uma das refinarias do Downstream da PETROBRAS, utilizada como contexto de teste nesse estudo), e os dados submetidos a análise estatística de seu determinismo do desempenho profissional desses indivíduos (tomando-se tal desempenho como medida de efetividade da gestão de contratos). Três técnicas de regressão múltipla demonstraram, para a amostra (não representativa da população por restrições orçamentárias do projeto), que o grau de desenvolvimento do Fiscal em cada competência comportamental “ideal” não é explicativo da efetividade da gestão de contratos. O resultado contribuiu para o não desperdício de recursos da empresa em remodelagem imediata dos critérios de seleção vigentes para a função, pelo menos até que as limitações da amostragem e da variável resposta desse estudo sejam solucionadas, e pesquisas científicas futuras provem preditividade do componente comportamental sobre a efetividade da gestão de contratos.
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
Resumo:
Este estudo teve como objetivo conhecer as expectativas dos servidores do Instituto Brasileiro de Geografia e Estatística (IBGE) em relação às políticas de recursos humanos, dada a elevação da faixa etária da população dos servidores desta instituição. Tomou como ponto de partida os resultados das pesquisas do IBGE - Censo Demográfico e a Pesquisa Nacional de Domicilio - que vêm demonstrando ao longo dos anos a tendência de aumento da esperança de vida da população brasileira. Tendência essa que se reflete na elevação da faixa etária média dos trabalhadores dentro dessa instituição. E ainda, considerou a evolução do papel da Área de Recursos Humanos ao longo dos anos e a sua importância dentro da gestão pública brasileira, dado que sempre teve um lugar de destaque nas diversas reformas administrativas implementadas. Assim, baseado em três vetores: elevação da expectativa de vida do brasileiro, administração de recursos humanos e administração pública brasileira, identificou como o IBGE e seus servidores têm vivenciado a realidade de um quadro de trabalhadores cada vez mais velhos. As entrevistas realizadas com os servidores, analisadas a partir do método da Análise de Conteúdo, revelaram que a questão do envelhecimento, apesar de ter reflexos fortes dentro da instituição, ainda não é claramente destacada dentro das políticas de recursos humanos, o que faz com que os servidores não consigam perceber políticas de RH focadas no envelhecimento do quadro, mostrando-se desmotivados e decepcionados quanto ao tema e ao mesmo tempo ansiosos por mudanças claras e radicais no que tange a gestão das políticas de RH.
Resumo:
Com o objetivo de avaliar o uso do consumo de energia elétrica como indicador socioeconômico, esta pesquisa analisa informações em dois níveis de agregação geográfica. No primeiro, sob perspectiva territorial, investiga indicadores de Renda e Consumo de Energia Elétrica agregados por áreas de ponderação (conjunto de setores censitários) do município de São Paulo e utiliza os microdados do Censo Demográfico 2000 em conjunto com a base de domicílios da AES Eletropaulo. Aplica modelos de Spatial Auto-Regression (SAR), Geographically Weighted Regression (GWR), e um modelo inédito combinado (GWR+SAR), desenvolvido neste estudo. Diversas matrizes de vizinhança foram utilizadas na avaliação da influência espacial (com padrão Centro-Periferia) das variáveis em estudo. As variáveis mostraram forte auto-correlação espacial (I de Moran superior a 58% para o Consumo de Energia Elétrica e superior a 75% para a Renda Domiciliar). As relações entre Renda e Consumo de Energia Elétrica mostraram-se muito fortes (os coeficientes de explicação da Renda atingiram valores de 0,93 a 0,98). No segundo nível, domiciliar, utiliza dados coletados na Pesquisa Anual de Satisfação do Cliente Residencial, coordenada pela Associação Brasileira dos Distribuidores de Energia Elétrica (ABRADEE), para os anos de 2004, 2006, 2007, 2008 e 2009. Foram aplicados os modelos Weighted Linear Model (WLM), GWR e SAR para os dados das pesquisas com as entrevistas alocadas no centróide e na sede dos distritos. Para o ano de 2009, foram obtidas as localizações reais dos domicílios entrevistados. Adicionalmente, foram desenvolvidos 6 algoritmos de distribuição de pontos no interior dos polígonos dos distritos. Os resultados dos modelos baseados em centróides e sedes obtiveram um coeficiente de determinação R2 em torno de 0,45 para a técnica GWR, enquanto os modelos baseados no espalhamento de pontos no interior dos polígonos dos distritos reduziram essa explicação para cerca de 0,40. Esses resultados sugerem que os algoritmos de alocação de pontos em polígonos permitem a observação de uma associação mais realística entre os construtos analisados. O uso combinado dos achados demonstra que as informações de faturamento das distribuidoras de energia elétrica têm grande potencial para apoiar decisões estratégicas. Por serem atuais, disponíveis e de atualização mensal, os indicadores socioeconômicos baseados em consumo de energia elétrica podem ser de grande utilidade como subsídio a processos de classificação, concentração e previsão da renda domiciliar.
Resumo:
O objetivo deste trabalho foi explorar a relação existente entre a literatura sobre técnicas de amostragem em auditoria e as técnicas efetivamente utilizadas pelas empresas de auditoria no Brasil. Procurou-se analisar quais os principais problemas encontrados na utilização dessas técnicas, além de verificar se havia diferença quanto ao uso de técnicas de amostragem mais sofisticadas pelas empresas de origem nacional ou estrangeiro e se o tamanho dessas influia em tais técnicas. (Capítulo I) A revisão de literatura buscou reunir e sumarizar algumas das diversas técnicas de amostragem, que as empresas de auditoria têm ã disposição. (Capítulo II) A seguir, evidenciou-se a metodologia utilizada na pesquisa e a respectiva razão de seu emprego. (Capítulo. IIl) A descrição dos casos, realizada através da aplicação do questionário em oito empresas de auditoria, está reunida neste capítulo onde cada caso é descrito individualmente. (Capítulo IV) Os resultados obtidos foram analisados de acordo com cada item do questionário e possibilitaram uma análise abrangente das técnicas de amostragem utilizadas pelas empresas de auditoria no Brasil. (Capítulo V) Finalmente são apresentados o sumário e as conclusões de pesquisa à luz dos fundamentos teóricos, sao formuladas recomendações e sugestões para novas nesquisas. (Capítulo VI)
Resumo:
O objetivo deste trabalho foi explorar a relação existente entre a literatura sobre técnicas de amostragem em auditoria e as técnicas efetivamente utilizadas pelos serviços de auditoria interna das empresas no Brasil. Procurou-se analisar quais os principais problemas encontrados na utilização dessas técnicas, além de verificar se havia diferença quanto ao uso de técnicas de amostragem mais sofisticadas pelas empresas de origem nacional privada, estatais e estrangeiras. (Capítulo I) A revisão de literatura buscou reunir e sumarizar algumas das diversas técnicas de amostragem, que as auditorias internas das empresas têm à disposição. (Capítulo II) A seguir, evidenciou-se a metodologia utilizada na pesquisa e a respectiva razão de seu emprego. (Capítulo Ill) A descrição dos casos, realizada através da aplicação do questionário em nove empresas, está reunida neste capítulo onde cada caso é descrito individualmente. (Capítulo IV) Os resultados obtidos foram analisados de acordo com cada item do questionário e possibilitaram uma análise abrangente das técnicas de amostragem utilizadas pelos serviços de auditoria interna das empresas no Brasil. (Capítulo V) Finalmente, são apresentados o sumário e as conclusões da pesquisa à luz dos fundamentos teóricos, formulando-se recomendações e sugestões para novas pesquisas. (Capítulo VI)
Resumo:
O objetivo do presente trabalho é investigar estatisticamente a influência de determinantes econômicos, tais como, PIB per capita, câmbio real, escolaridade, abertura comercial, peso do governo no produto e população, na perda de peso do setor industrial no produto. A regressão foi estruturada na forma de painel, com dimensão temporal, para capturar a evolução no tempo, e com 130 países, de forma a garantir heterogeneidade à amostra. O resultado indica uma forte influência do produto per capita na evolução do tamanho relativo do setor manufatureiro, o que reforça o ponto da transformação estrutural e estabelece uma relação positiva entre apreciação da taxa de câmbio real e o peso da indústria.
Resumo:
O presente trabalho relata um estudo sobre a aplicação de duas metodologias diferentes do processo ensino-aprendizagem da disciplina Estatística no curso de Formação de Psicologia da Faculdade de Humanidades Pedro II. O estudo empírico realizou-se no primeiro semestre letivo de 1984. Utilizou-se um plano de pesquisa quase-experimental, com o modelo pré-teste/pós-teste. Formaram-se dois grupos intactos. O primeiro grupo constava de 64 sujeitos e o segundo de 66 sujeitos. Foram aplicadas, respectivamente, a metodologia Renovadora, que tinha por objetivo a aprendizagem através da compreensão e da aplicabilidade de conceitos e princípios estatísticos, e a metodologia Tradicional que implicava na aprendizagem por memorização dos princípios e automatização na execução dos cálculos. Os resultados do tratamento estatístico, considerando-se o nível de significância de 0,05, evidenciou não haver diferença estatisticamente significativa entre as duas metodologias de ensino da disciplina Estatística, tanto no que se refere à atitude quanto no que se refere ao aproveitamento.
Resumo:
Aparentemente existe uma anomalia no mercado de ações, onde é possível prever excessos de retomo das ações baseando-se em dados passados de divulgação de lucro. Este fenômeno é estatisticamente significante e parece não ser um artefato de amostragem ou metodologia, mas de uma ineficiência de mercado. Estudos mostram uma tendência dos excessos de retornos acumulados das ações se movimentarem na direção da surpresa de lucro, e este movimento se estende por meses após a data de divulgação de lucro trimestral. Neste trabalho mostro que este fenômeno ocorre também no Brasil, mesmo utilizando uma amostra com especificidades do mercado brasileiro e utilizando dados de expectativas de lucro de analistas financeiros no lugar de previsão estatística.
Resumo:
Este trabalho primeiramente explora fundamentos teóricos básicos para análise e implementação de algoritmos para a modelagem de séries temporais. A finalidade principal da modelagem de séries temporais será a predição para utilizá-la na arbitragem estatística. As séries utilizadas são retiradas de uma base de histórico do mercado de ações brasileiro. Estratégias de arbitragem estatística, mais especificamente pairs trading, utilizam a característica de reversão à média dos modelos para explorar um lucro potencial quando o módulo do spread está estatisticamente muito afastado de sua média. Além disso, os modelos dinâmicos deste trabalho apresentam parâmetros variantes no tempo que aumentam a sua flexibilidade e adaptabilidade em mudanças estruturais do processo. Os pares do algoritmo de pairs trading são escolhidos selecionando ativos de mesma empresa ou índices e ETFs (Exchange Trade Funds). A validação da escolha dos pares é feita utilizando testes de cointegração. As simulações demonstram os resultados dos testes de cointegração, a variação no tempo dos parâmetros do modelo e o resultado de um portfólio fictício.
Resumo:
Com o objetivo de identificar oportunidades de arbitragem estatística no mercado de opções brasileiro, este trabalho utiliza o modelo de volatilidade incerta e o conceito de Hedging Estático, no apreçamento de um portfólio composto por diversas opções. São também incluídos os custos de transação relacionados a estruturação de um portfólio livre de risco, obtendo assim um modelo que pode ser facilmente implementado através da utilização do método de diferenças finitas explicito. Na aplicação do modelo ao mercado de opções sobre a ação preferencial da Petrobrás (PETR4), foi estabelecido um critério para estabelecer a frequência do ajuste do delta hedge do portfólio livre de risco de maneira a não incorrer em custos de transação elevados. Foi escolhido o período entre 19/05/08 e 20/01/14 para analisar o desempenho do modelo, selecionando-se em cada data de cálculo um conjunto de 11 opções de diferentes strikes e mesmo vencimento para compor o portfólio. O modelo apresentou um bom desempenho quando desconsiderados os custos de transação na apuração do resultado da estratégia de arbitragem, obtendo na maior parte dos casos resultados positivos. No entanto, ao incorporar os custos de transação, o desempenho obtido pelo modelo foi ruim, uma vez que na maior parte dos casos o resultado apresentado foi negativo.