1000 resultados para função densidade de probabilidade
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Uma das necessidades da agricultura de precisão é avaliar a qualidade dos mapas dos atributos dos solos. Neste sentido, o presente trabalho objetivou avaliar o desempenho dos métodos geoestatísticos: krigagem ordinária e simulação sequencial gaussiana na predição espacial do diâmetro médio do cristal da goethita com 121 pontos amostrados em uma malha de 1 ha com espaçamentos regulares de 10 em 10 m. Após a análise textural e da concentração dos óxidos de ferro, calcularam-se os valores do diâmetro médio do cristal da goethita os quais foram analisados pela estatística descritiva e geoestatística; em seguida, foram utilizadas a krigagem ordinária e a simulação sequencial gaussiana. Com os resultados avaliou-se qual foi o método mais fiel para reproduzir as estatísticas, a função de densidade de probabilidade acumulada condicional e a estatística epsilon εy da amostra. As estimativas E-Type foram semelhantes à krigagem ordinária devido à minimização da variância. No entanto, a krigagem deixa de apresentar, em locais específicos, o grau de cristalinidade da goethita enquanto o mapa E-Type indicou que a simulação sequencial gaussiana deve ser utilizada ao invés de mapas de krigagem. Os mapas E-type devem ser preferíveis por apresentar melhor desempenho na modelagem.
Resumo:
Knowing the annual climatic conditions is of great importance for appropriate planning in agriculture. However, the systems of climatic classification are not widely used in agricultural studies because of the wide range of scales in which they are used. A series with data from 20 years of observations from 45 climatological stations in all over the state of Pernambuco was used. The probability density function of the incomplete gamma distribution was used to evaluate the occurrence of dry, regular and rainy years. The monthly climatic water balance was estimated using the Thornthwaite and Mather method (1955), and based on those findings, the climatic classifications were performed using the Thornthwaite (1948) and Thornthwaite and Mather (1955) for each site. The method of Kriging interpolation was used for the spatialization of the results. The study classifications were very sensitive to the local reliefs, to the amount of rainfall, and to the temperatures of the regions resulting in a wide number of climatic types. The climatic classification system of Thornthwaite and Mather (1955) allowed efficient classification of climates and a clearer summary of the information provided. In so doing, it demonstrated its capability to determine agro climatic zones.
Resumo:
Apresenta·se um breve resumo histórico da evolução da amostragem por transectos lineares e desenvolve·se a sua teoria. Descrevemos a teoria de amostragem por transectos lineares, proposta por Buckland (1992), sendo apresentados os pontos mais relevantes, no que diz respeito à modelação da função de detecção. Apresentamos uma descrição do princípio CDM (Rissanen, 1978) e a sua aplicação à estimação de uma função densidade por um histograma (Kontkanen e Myllymãki, 2006), procedendo à aplicação de um exemplo prático, recorrendo a uma mistura de densidades. Procedemos à sua aplicação ao cálculo do estimador da probabilidade de detecção, no caso dos transectos lineares e desta forma estimar a densidade populacional de animais. Analisamos dois casos práticos, clássicos na amostragem por distâncias, comparando os resultados obtidos. De forma a avaliar a metodologia, simulámos vários conjuntos de observações, tendo como base o exemplo das estacas, recorrendo às funções de detecção semi-normal, taxa de risco, exponencial e uniforme com um cosseno. Os resultados foram obtidos com o programa DISTANCE (Thomas et al., in press) e um algoritmo escrito em linguagem C, cedido pelo Professor Doutor Petri Kontkanen (Departamento de Ciências da Computação, Universidade de Helsínquia). Foram desenvolvidos programas de forma a calcular intervalos de confiança recorrendo à técnica bootstrap (Efron, 1978). São discutidos os resultados finais e apresentadas sugestões de desenvolvimentos futuros. ABSTRACT; We present a brief historical note on the evolution of line transect sampling and its theoretical developments. We describe line transect sampling theory as proposed by Buckland (1992), and present the most relevant issues about modeling the detection function. We present a description of the CDM principle (Rissanen, 1978) and its application to histogram density estimation (Kontkanen and Myllymãki, 2006), with a practical example, using a mixture of densities. We proceed with the application and estimate probability of detection and animal population density in the context of line transect sampling. Two classical examples from the literature are analyzed and compared. ln order to evaluate the proposed methodology, we carry out a simulation study based on a wooden stakes example, and using as detection functions half normal, hazard rate, exponential and uniform with a cosine term. The results were obtained using program DISTANCE (Thomas et al., in press), and an algorithm written in C language, kindly offered by Professor Petri Kontkanen (Department of Computer Science, University of Helsinki). We develop some programs in order to estimate confidence intervals using the bootstrap technique (Efron, 1978). Finally, the results are presented and discussed with suggestions for future developments.
Resumo:
A distribuição dos diâmetros é uma das análises mais empregadas para retratar o comportamento estrutural de um povoamento. Assim, este estudo objetivou avaliar a estrutura diamétrica da comunidade e das principais espécies lenhosas por meio das funções de densidade probabilísticas em uma floresta de terra firme no módulo IV da Floresta Estadual do Amapá (FLOTA/AP) no Município de Calçoene/AP. Os dados de diâmetro à altura do peito (DAP) foram obtidos de um inventário realizado em uma área de 1 hectare (100 x 100 m). A estrutura diamétrica foi analisada para toda a comunidade e para as quatro principais espécies ranqueadas segundo seus índices de valor de importância. Para avaliação dos ajustes das funções: Normal, Log-normal, Gamma e Weibull 3P foi utilizado o teste de Kolmogorov-Smirnov (a = 0,05). A maioria das espécies apresentaram assimetria positiva e curtose do tipo platicúrtica, o que demonstra o padrão típico de floresta nativa em forma de "J" invertido. A função Weibull 3P e Gamma foram aderentes no teste K-S aos dados das quatro espécies analisadas, sendo a primeira a mais indicada para descrever a distribuição diamétrica de três das quatro espécies de maior IVI, e também da referida floresta de terra firme. Conclui-se, ainda, que estudos como este devem ser realizados constantemente visando introduzir e avaliar a eficiência de outras funções densidade de probabilidade para a descrição da distribuição diamétrica de povoamentos em florestas inequiâneas.
Resumo:
A deteção e seguimento de pessoas tem uma grande variedade de aplicações em visão computacional. Embora tenha sido alvo de anos de investigação, continua a ser um tópico em aberto, e ainda hoje, um grande desafio a obtenção de uma abordagem que inclua simultaneamente exibilidade e precisão. O trabalho apresentado nesta dissertação desenvolve um caso de estudo sobre deteção e seguimento automático de faces humanas, em ambiente de sala de reuniões, concretizado num sistema flexível de baixo custo. O sistema proposto é baseado no sistema operativo GNU's Not Unix (GNU) linux, e é dividido em quatro etapas, a aquisição de vídeo, a deteção da face, o tracking e reorientação da posição da câmara. A aquisição consiste na captura de frames de vídeo das três câmaras Internet Protocol (IP) Sony SNC-RZ25P, instaladas na sala, através de uma rede Local Area Network (LAN) também ele já existente. Esta etapa fornece os frames de vídeo para processamento à detecção e tracking. A deteção usa o algoritmo proposto por Viola e Jones, para a identificação de objetos, baseando-se nas suas principais características, que permite efetuar a deteção de qualquer tipo de objeto (neste caso faces humanas) de uma forma genérica e em tempo real. As saídas da deteção, quando é identificado com sucesso uma face, são as coordenadas do posicionamento da face, no frame de vídeo. As coordenadas da face detetada são usadas pelo algoritmo de tracking, para a partir desse ponto seguir a face pelos frames de vídeo subsequentes. A etapa de tracking implementa o algoritmo Continuously Adaptive Mean-SHIFT (Camshift) que baseia o seu funcionamento na pesquisa num mapa de densidade de probabilidade, do seu valor máximo, através de iterações sucessivas. O retorno do algoritmo são as coordenadas da posição e orientação da face. Estas coordenadas permitem orientar o posicionamento da câmara de forma que a face esteja sempre o mais próximo possível do centro do campo de visão da câmara. Os resultados obtidos mostraram que o sistema de tracking proposto é capaz de reconhecer e seguir faces em movimento em sequências de frames de vídeo, mostrando adequabilidade para aplicação de monotorização em tempo real.
Resumo:
Trabalho Final de Mestrado para a obtenção do grau de Mestre em Engenharia Mecânica /Energia
Resumo:
Riscos Industriais e Emergentes, 2009 pp. 827-844
Resumo:
Nesta Dissertação apresentam-se e estudam-se, de uma forma crítica, dois novos métodos de amostragem adaptativa e uma nova medida de desempenho de métodos de amostragem, no contexto do controlo estatístico da qualidade. Considerando como base uma carta de controlo para a média do tipo Shewhart, estudamos as suas propriedades estatísticas e realizamos estudos comparativos, em termos do seu desempenho estatístico, com alguns dos métodos mais referenciados na literatura.Inicialmente, desenvolvemos um novo método adaptativo de amostragem no qual os intervalos entre amostras são obtidos com base na função densidade da distribuição de Laplace reduzida. Este método revela-se, particularmente, eficiente na deteção de moderadas e grandes alterações da média, pouco sensível à limitação do menor intervalo de amostragem e robusto face a diferentes situações consideradas para a não normalidade da característica da qualidade. Em determinadas situações, este método é sempre mais eficiente do que o método com intervalos de amostragem adaptativos,dimensões amostrais fixas e coeficientes dos limites de controlo fixos. Tendo como base o método de amostragem definido no ponto anterior e um método no qual os intervalos de amostragem são definidos antes do início do controlo do processo com base na taxa cumulativa de risco do sistema, apresentamos um novo método de amostragem que combina o método de intervalos predefinidos com o método de intervalos adaptativos. Neste método, os instantes de amostragem são definidos pela média ponderada dos instantes dos dois métodos, atribuindo-se maior peso ao método adaptativo para alterações moderadas (onde o método predefinido é menos eficaz) e maior peso ao método predefinido nos restantes casos (onde o método adaptativo é menos eficaz). Desta forma, os instantes de amostragem, inicialmente calendarizados de acordo com as expectativas de ocorrência de uma alteração tomando como base a distribuição do tempo de vida do sistema, são adaptados em função do valor da estatística amostral calculada no instante anterior. Este método é sempre mais eficiente do que o método periódico clássico, o que não acontece com nenhum outro esquema adaptativo, e do que o método de amostragem VSI para alguns pares de amostragem, posicionando-se como uma forte alternativa aos procedimentos de amostragem encontrados na literatura. Por fim, apresentamos uma nova medida de desempenho de métodos de amostragem. Considerando que dois métodos em comparação têm o mesmo tempo médio de mau funcionamento, o desempenho dos métodos é comparado através do número médio de amostras recolhidas sob controlo. Tendo em conta o tempo de vida do sistema, com diferentes taxas de risco, esta medida mostra-se robusta e permite, num contexto económico, um melhor controlo de custos por unidade de tempo.
Resumo:
Os elevados custos associados à sua manutenção e o alto capital inactivo nele aplicado, têm levado as empresas a procurar estratégias com vista a cada vez mais reduzirem seus stocks. Alguns autores consideram mesmo que o objectivo que se pretende atingir com a gestão de stocks, é, sempre que possível atingir o stock zero. Porém, no mundo real, a taxa de consumo dos produtos não é totalmente previsível, e o lead time de reabastecimento pode variar, ocasionando atrasos na entrega. Assim, para se proteger destes efeitos inesperados, as empresas dimensionam stocks de segurança, em função de uma probabilidade aceitável de falta de produto em stock. Com isso, compreende-se facilmente a importância da gestão de stocks numa empresa. É neste âmbito então que se desenvolveu este trabalho de investigação, intitulado “Gestão de Stock e sua Importância nas Pequenas e Médias Empresas Comerciais de São Vicente” objetivando, de forma geral, analisar a importância da gestão de stock para a melhoria do desempenho e competitividade das pequenas e médias empresas comerciais de São Vicente, e para o caso particular, da empresa Mário Duarte Lopes & Filhos Lda. O estudo de caso foi o instrumento metodológico central utilizado. Este estudo de caso foi conduzido por uma entrevista e pela aplicação de um questionário a uma amostra de 150 clientes da empresa estudada (pessoas físicas), e foi apoiado por uma pesquisa bibliográfica e documental. Os resultados alcançados permitiram concluir que a gestão de stock desempenha um papel fundamental na definição dos níveis ótimos de stock a manter pela empresa, de forma a equilibrar os objetivos da redução dos custos logísticos e o nível de serviço desejado ao cliente; daí ser extremamente importante as empresas desenvolverem estratégias e ações no sentido da melhoraria da eficiência e eficácia dos seus processos e procedimentos, mormente nas empresas Cabo-verdianas, particularmente na empresa objeto de estudo, em que, dados os riscos acrescidos de rutura de stock, são muitas vezes forçados a manter stock em níveis altos.
Resumo:
O objetivo desta pesquisa foi estudar a dinâmica da distribuição diamétrica com relação à idade, em povoamentos nativos de bracatinga (Mimosa scabrella Benth.) localizados nos municípios da região metropolitana de Curitiba. Os dados utilizados provieram de um experimento de densidades iniciais, delineado em blocos ao acaso, constituído de cinco blocos e quatro tratamentos, perfazendo um total de 20 parcelas de 325 m², as quais foram remedidas às idades aproximadas de 4, 5, 6 e 7,5 anos. A densidade inicial sofreu redução para 2.000, 4.000 e 8.000 árvores por hectare quando o povoamento tinha 1 ano de idade. Deixou-se também uma parcela-testemunha em cada bloco, as quais não sofreram nenhum raleamento e tinham em média 25.000 árvores por hectare. Desses cinco blocos, um estava localizado na classe de sítio I, 2 na classe de sítio II e 2 blocos na classe de sítio III. Paralelamente, foram medidos os diâmetros e as alturas de todas as árvores em 124 parcelas temporárias distribuídas nos vários municípios da região metropolitana de Curitiba, representativos de povoamentos de bracatinga sob regime tradicional de cultivo e manejo, cobrindo idades de 3 a 18 anos, e as três classes de sítio. Dentre as funções de densidade de probabilidade testadas por Bartoszeck (2000), a S B de Johnson foi a de melhor desempenho, sendo, portanto, utilizada para a estimativa do número de árvores por classe diamétrica e por hectare e conseqüente construção das curvas de distribuição diamétrica para as inúmeras combinações de idade, sítio e densidades disponíveis. Através da observação visual das curvas sobrepostas, evidenciou-se que essas apresentaram assimetria para a direita e achatamento (curtose), com o aumento da idade. As curvas foram, então, comparadas analiticamente entre si, pelo teste qui-quadrado, o qual revelou a existência de diferenças significativas entre as curvas de distribuição diamétrica em diferentes idades.
Resumo:
O objetivo deste trabalho foi verificar a eficiência da Distribuição de Weber quando aplicada aos dados de frequências de pesos de pinhas. Foram coletadas e pesadas 40 pinhas verdes, na Região Metropolitana de Curitiba. Os pesos foram distribuídos em seis classes com intervalo de 90 g. A Distribuição de Weber ajustou-se aos dados dos pesos das pinhas, de acordo com o teste de Kolmogorov-Smirnov. Os valores esperados pela distribuição, a média e a moda calculadas resultaram em valores próximos aos observados, mostrando que as expressões desenvolvidas foram eficientes. A facilidade para ajustar o modelo ora apresentado, o cálculo da média, a variância, o desvio-padrão e os pontos de inflexão, por meio das expressões desenvolvidas, são vantagens dessa distribuição. Devido à sua flexibilidade, pode-se afirmar que essa técnica pode ser aplicada a diversas distribuições de dados do setor florestal, bem como a outras séries de dados biológicos.
Resumo:
Em um fragmento urbano de Floresta Ombrófila Densa Montana no Estado do Espírito Santo (Sudeste do Brasil), foram avaliados o padrão de frugivoria e as proporções de remoção, predação e armazenamento de frutos por Guerlinguetus ingrami, em relação a cinco espécies de palmeira (Syagrus pseudococos, S. ruschiana, Bactris setosa, Polyandrococos caudescens e Euterpe edulis). As espécies de Arecaceae enquadram-se na síndrome associada à dispersão por G. ingrami, na qual as espécies de plantas apresentam alta produção, grandes frutos com poucas sementes envolvidas por endocarpos resistentes e que não são usadas por outros predadores de sementes arborícolas. Os resultados apontaram que existem diferenças no padrão de frugivoria da espécie G. ingrami quando comparadas com as de espécies com a mesma síndrome; aquelas que possuem frutos maiores apresentaram maior taxa de remoção e de armazenamento de seus diásporos. E, devido à especificidade exibida por G. ingrami na atividade de dispersão de sementes, este roedor deverá atuar apenas em trocas compensatórias específicas em pequenos fragmentos defaunados. Portanto, a seletividade de G. ingrami poderia indicar que o seu papel como dispersor em pequenos fragmentos estaria restrito em função da maior probabilidade de mortalidade associada às plantas preferencialmente dispersas por essa espécie, e sua atuação como predador de sementes deve ser quantificada para que os seus efeitos, em pequenos fragmentos, sejam mais bem compreendidos.
Resumo:
Este trabalho teve como objetivo avaliar o desempenho das funções densidade de probabilidade (fdp) Weibull 3 Parâmetros (3P) e Beta ajustadas pelo método da Máxima Verossimilhança para descrever a distribuição diamétrica de espécies arbóreas de um fragmento de Floresta Ombrófila Mista. A área de estudo faz parte da Floresta Nacional de Irati (FLONA), onde foram instaladas 25 parcelas permanentes (100 m x 100 m) com área total amostrada de 25 ha e, para os ajustes, foram utilizados dados de todas as árvores com diâmetro à altura do peito (DAP) superior ou igual a 10 cm. Os ajustes foram feitos para as 20 espécies com maior valor de importância (VI) com dados agrupados em classes de 5 cm de DAP. A programação não linear (PNL) foi utilizada com o objetivo de minimizar os desvios entre valores observados e estimados. Para avaliação dos ajustes, foram utilizados os testes de aderência de Kolmogorov-Smirnov e de Hollander-Proschan, além do Erro-Padrão de Estimativa (%) e Índice de Reynolds. Os resultados indicaram que as funções Weibull 3P e Beta apresentaram resultados satisfatórios, que ambas poderiam ser recomendadas para avaliar a distribuição diamétrica das espécies consideradas e que o uso da PNL nem sempre melhorou os ajustes.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior