994 resultados para dados estatísticos
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
The study of female broiler breeders is of great importance for the country as poultry production is one of the largest export items, and Brazil is the second largest broiler meat exporter. Animal behavior is known as a response to the effect of several interaction factors among them the environment. In this way the internal housing environment is an element that gives hints regarding to the bird s thermal comfort. Female broiler breeder behavior, expresses in form of specific pattern the bird s health and welfare. This research had the objective of applying predictive statistical models through the use of simulation, presenting animal comfort scenarios facing distinct environmental conditions. The research was developed with data collected in a controlled environment using Hybro - PG® breeding submitted to distinct levels of temperature, three distinct types of standard ration and age. Descriptive and exploratory analysis were proceeded, and afterwards the modeling process using the Generalized Estimation Equation (GEE). The research allowed the development of the thermal comfort indicators by statistical model equations of predicting female broiler breeder behavior under distinct studied scenarios.
Resumo:
A desintegração radioativa é um processo aleatório e a estimativa de todas as medidas associadas é governada por leis estatísticas. Os perfis de taxas de contagem são sempre "ruidosos" quando utilizados períodos curtos como um segundo para cada medida. Os filtros utilizados e posteriormente as correções feitas no processamento atual de dados gamaespectrométricos não são suficientes para remover ou diminuir, consideravelmente, o ruído oriundo do espectro. Dois métodos estatísticos que atuam diretamente nos dados coletados, isto é, nos espectros, vêm sendo sugeridos na literatura para remover e minimizar estes ruídos remanescentes o Noise-Adjusted Singular Value Decomposition - NASVD e Maximum Noise Fraction - MNF. Estes métodos produzem uma redução no ruído de forma significativa. Neste trabalho eles foram implementados dentro do ambiente de processamento do software Oasis Montaj e aplicados na área compreendida pelos blocos I e II do levantamento aerogeofísico que recobre a porção oeste da Província Mineral do Tapajós, entre os Estados do Pará e Amazonas. Os dados filtrados e não-filtrados com as técnicas de NASVD e MNF foram processados com os parâmetros e constantes fornecidos pela empresa Lasa Engenharia e Prospecções S.A., sendo estes comparados. Os resultados da comparação entre perfis e mapas apresentaram-se de forma promissora, pois houve um ganho na resolução dos produtos.
Resumo:
Este trabalho tem como objectivo a criação de modelos, resultantes da aplicação de algoritmos e técnicas de mineração de dados, que possam servir de suporte a um sistema de apoio à decisão útil a investidores do mercado de capitais. Os mercados de capitais, neste caso particular a Bolsa de Valores, são sistemas que gera diariamente grandes volumes de informação, cuja análise é complexa e não trivial para um investidor não profissional. Existem muitas variáveis que influenciam a decisão a tomar sobre a carteira de acções (vender, manter, comprar). Estas decisões têm como objectivo a maximização do lucro. Assim, um sistema que auxilie os investidores na tarefa de análise será considerado uma mais-valia. As decisões de um profissional são normalmente baseadas em dois tipos de análise: Fundamental e Técnica. A Análise Fundamental foca-se nos indicadores da “saúde financeira” da empresa, tendo como base a informação disponibilizada pela mesma. Por outro lado , a Análise Técnica, que será o foco deste trabalho, assenta na observação de indicadores estatísticos construídos com base no comportamento passado da acção. O recurso a estas análises permite aos investidores obterem alguma informação sobre a tendência da acção (subida ou descida). As análises apresentadas requerem um bom conhecimento do domínio do problema e tempo, o que as torna pouco acessíveis, sobretudo para os pequenos investidores. Com o intuito de democratizar o acesso a este tipo de investimentos, este trabalho, recorre a algoritmos de mineração de dados, tais como, árvores de classificação e redes neuronais que possam servir de base à construção de um modelo de suporte a obstáculos que podem impedir o investidor comum de entrar na Bolsa, designadamente o tempo gasto na análise e a complexidade da mesma, entre outros. Para a criação de modelos capazes de responder às expectativas, são realizados diversos ensaios recorrendo a vários algoritmos e conjuntos de dados, na busca do que melhor se adequa ao problema. Contudo é de ressalvar que a decisão de investimento estará sempre do lado do investidor, uma vez que o modelo deve permitir unicamente alimentar um sistema de apoio.
Resumo:
A larga difusão, nos últimos anos, de softwares estatísticos indicados para análises multivariadas, aliada à facilidade de seu manuseio, poderá conduzir os usuários à obtenção de estimativas enganosas caso não se conheçam os pressupostos teóricos necessários para o emprego destas técnicas. Com o propósito de se destacar alguns desses pressupostos, apresentam-se as etapas executadas para a análise dos dados de um estudo caso-controle, conduzido no Município de São Paulo, entre março de 1993 e fevereiro de 1994, cujo objetivo foi testar a associação do diabetes mellitus com a doença isquêmica do coração após o ajustamento para possíveis variáveis de confusão e/ou modificadoras de efeito. Para uma melhor visualização didática desses pressupostos metodológicos são destacadas quatro etapas fundamentais durante a fase de análise dos dados: a) construção do banco de dados; b) cálculo do poder estatístico; c) categorização e codificação das variáveis e d) a escolha do modelo de regressão logística multivariada.
Resumo:
A previsão das concentrações de ozono troposférico é importante devido aos impactos deste poluente na saúde humana e na vegetação. Neste contexto, o objectivo principal deste trabalho é a previsão de ozono na região de Lisboa e Vale do Tejo, através de métodos estatísticos com base em dados horários do próprio dia, para cada estação. A previsão foi dividida entre avaliação instantânea (previsão baseada em dados momentâneos) recorrendo a árvores de regressão, e previsão horária para um período horário de previsão específico (13:00 -17:00 horas UTC) utilizando modelos de regressão linear. A Avaliação instantânea foi dividida entre análise espacial e análise meteorológica e de precursores. Foram utilizadas séries temporais de dados de 2000 a 2005. No caso da previsão horária utilizaram-se, na fase de validação, dados de 2006. Concluiu-se que, para a avaliação instantânea, a análise espacial apresenta melhores resultados do que a meteorológica. Os modelos de regressão elaborados, para a previsão horária apresentam bons resultados na fase de treino, mas os índices de performance demonstram resultados menos bons na fase de validação. No geral, estes podem ser considerados bons a explicar o comportamento do ozono, contudo menos rigorosos na previsão de excedências. Foi constatada a existência de uma tendência geral para um decréscimo do coeficiente de determinação e um aumento do erro padrão ao longo do período de previsão. Assim os coeficientes de determinação mais elevados e os erros padrão menores verificam-se às 13:00 e o contrário verifica-se às 17:00 horas UTC.
Resumo:
Imbuídos da melhor das intenções, idealizamos um trabalho que contribuísse, ainda que modestamente, para melhorar a relação que alguns dos nossos colegas do curso de Ciências da Educação e Praxis Educativa, vertente Administração Escolar, tinham com a Estatística A tradução dessa ideia em algo concreto é este documento que agora apresentamos. Nele começamos por apresentar uma definição de Estatística, para logo a seguir apresentarmos algumas ferramentas estatísticas muito práticas, fáceis de entender e de utilização imediata na esfera de actuação do Administrador escolar e com exemplos de como manuseá-los. Depois apresentamos alguns indicadores que, em nosso entender, devem fazer parte não só do vocabulário de qualquer administrador escolar, como também do leque de factores que o orientam e nos quais deverão alicerçar-se as decisões que tiver que tomar. Finalmente fizemos uma análise dos dados recolhidos, seja através de questionários, seja através de entrevistas, junto dos directores das escolas secundárias, dados que espelham o relacionamento dos actuais detentores do cargo com a Estatística.
Resumo:
O objetivo deste trabalho foi avaliar os métodos estatísticos de análise da interação de genótipos com ambientes (GxA), enfatizando a adaptabilidade e a estabilidade fenotípica. Utilizaram-se dados de produtividade de grãos de soja de sete experimentos em Goiás, testando 28 genótipos, dos quais quatro cultivares comerciais. Avaliaram-se os métodos Tradicional, Plaisted & Peterson, Wricke, Finlay & Wilkinson, Eberhart & Russell, Verma, Chahal & Murty, Toler, AMMI (additive main effect and multiplicative interaction), Hühn, Annicchiarico e Lin & Binns. Avaliou-se a associação entre os métodos pela correlação de Spearman. Observou-se forte associação entre os de Plaisted & Peterson e Wricke, cujo uso concomitante foi contra-indicado. A mesma conclusão é atribuída aos métodos Annicchiarico e Lin & Binns, também fortemente associados, o que implica em classificações fenotípicas muito semelhantes. O uso de um deles, entretanto, é recomendado. Métodos baseados, exclusivamente, em coeficientes de regressão, devem ser utilizados em associação com outro, fundamentado na variância da interação GxA, ou em medidas estatísticas como a variância dos desvios da regressão. O uso combinado do método de Eberhart & Russell e AMMI é outra indicação, em razão de suas correlações significativas com a maioria dos outros métodos e uma associação relativamente fraca entre eles.
Resumo:
O estudo de reprodutoras de frangos de corte é de grande importância para o País, uma vez que o frango de corte é um dos maiores itens agropecuários em exportação, sendo o Brasil o segundo maior exportador mundial dessa carne. O comportamento animal é conceituado como reflexo do efeito da interação de diversos fatores, entre os quais o ambiental. Dessa forma, o ambiente interno do galpão de produção constitui um dos elementos que fornecem indicações sobre o conforto térmico das aves. O comportamento de matrizes expressa, sob a forma de padrões específicos, a saúde e o bem-estar dessas aves. Este trabalho teve como objetivo a aplicação dos modelos estatísticos preditivos, por meio da construção de cenários, apresentando resultados do conforto animal perante diversas condições ambientais. O trabalho foi desenvolvido com dados coletados em ambiente controlado, utilizando a linhagem Hybro-PG®, submetida a diferentes níveis de temperatura ambiente, tipos padronizados de ração e idade. Foram procedidas as análises descritiva e exploratória e, posteriormente, a modelagem, utilizando as Equações de Estimação Generalizadas (EEG). A pesquisa permitiu o desenvolvimento de indicadores de bem-estar térmico por meio das equações dos modelos estatísticos de predição, sob os distintos cenários estudados.
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
Trata do .problema de análise de dados na administração de negócios. Aborda as tecnologias de base estatística para análise de dados e informações e apoio ao processo decisório. Abrange o uso de tecnologia de delineamento de experimentos em diversas áreas da administração apresenta o uso de delineamento de experimentos (DOX) na filosofia de Taguchi, programa de qualidade Seis Sigma e na reengenharia de processos. Descreve a geração do conhecimento ou "inteligência" a partir da transformação de dados em informações e informações em conhecimento
Resumo:
Esta dissertação examina soluções para o controle estatístico em sistemas de produção que utilizam meios contínuos, onde freqüentemente os dados de análise apresentam o fenômeno da autocorrelação. A princípio são abordadas as técnicas de CEP tradicional (gráficos de Shewhart) para meios discretos, mostrando-se que estas técnicas não dão o resultado esperado quando utilizadas em processos contínuos, tanto em relação à amostragem como ao problema da autocorrelação. Em seguida são apresentadas outras soluções baseadas em técnicas mais recentes como EWMA e modelos autorregressivos, que tem uma melhor performance em meios contínuos. Damos os aspectos teóricos e exemplos de aplicação de cada solução obtida por consulta bibliográfica. Finalmente, é feita uma simulação comparativa das soluções citadas, baseandose em programação de macros e uso de software, para verificar o escopo e desempenho das soluções, sendo dadas recomendações sobre o seu uso, bem como sugestões para futuras pesquisas.
Resumo:
O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.
Resumo:
This master´s thesis presents a reliability study conducted among onshore oil fields in the Potiguar Basin (RN/CE) of Petrobras company, Brazil. The main study objective was to build a regression model to predict the risk of failures that impede production wells to function properly using the information of explanatory variables related to wells such as the elevation method, the amount of water produced in the well (BSW), the ratio gas-oil (RGO), the depth of the production bomb, the operational unit of the oil field, among others. The study was based on a retrospective sample of 603 oil columns from all that were functioning between 2000 and 2006. Statistical hypothesis tests under a Weibull regression model fitted to the failure data allowed the selection of some significant predictors in the set considered to explain the first failure time in the wells
Resumo:
Last century Six Sigma Strategy has been the focus of study for many scientists, between the discoveries we have the importance of data process for the free of error product manufactory. So, this work focuses on data quality importance in an enterprise. For this, a descriptive-exploratory study of seventeen pharmacies of manipulations from Rio Grande do Norte was undertaken with the objective to be able to create a base structure model to classify enterprises according to their data bases. Therefore, statistical methods such as cluster and discriminant analyses were used applied to a questionnaire built for this specific study. Data collection identified four group showing strong and weak characteristics for each group and that are differentiated from each other