862 resultados para PROBABILIDADE E ESTATISTICA APLICADAS


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Métodos estocásticos oferecem uma poderosa ferramenta para a execução da compressão de dados e decomposições de matrizes. O método estocástico para decomposição de matrizes estudado utiliza amostragem aleatória para identificar um subespaço que captura a imagem de uma matriz de forma aproximada, preservando uma parte de sua informação essencial. Estas aproximações compactam a informação possibilitando a resolução de problemas práticos de maneira eficiente. Nesta dissertação é calculada uma decomposição em valores singulares (SVD) utilizando técnicas estocásticas. Esta SVD aleatória é empregada na tarefa de reconhecimento de faces. O reconhecimento de faces funciona de forma a projetar imagens de faces sobre um espaço de características que melhor descreve a variação de imagens de faces conhecidas. Estas características significantes são conhecidas como autofaces, pois são os autovetores de uma matriz associada a um conjunto de faces. Essa projeção caracteriza aproximadamente a face de um indivíduo por uma soma ponderada das autofaces características. Assim, a tarefa de reconhecimento de uma nova face consiste em comparar os pesos de sua projeção com os pesos da projeção de indivíduos conhecidos. A análise de componentes principais (PCA) é um método muito utilizado para determinar as autofaces características, este fornece as autofaces que representam maior variabilidade de informação de um conjunto de faces. Nesta dissertação verificamos a qualidade das autofaces obtidas pela SVD aleatória (que são os vetores singulares à esquerda de uma matriz contendo as imagens) por comparação de similaridade com as autofaces obtidas pela PCA. Para tanto, foram utilizados dois bancos de imagens, com tamanhos diferentes, e aplicadas diversas amostragens aleatórias sobre a matriz contendo as imagens.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Processos de produção precisam ser avaliados continuamente para que funcionem de modo mais eficaz e eficiente possível. Um conjunto de ferramentas utilizado para tal finalidade é denominado controle estatístico de processos (CEP). Através de ferramentas do CEP, o monitoramento pode ser realizado periodicamente. A ferramenta mais importante do CEP é o gráfico de controle. Nesta tese, foca-se no monitoramento de uma variável resposta, por meio dos parâmetros ou coeficientes de um modelo de regressão linear simples. Propõe-se gráficos de controle χ2 adaptativos para o monitoramento dos coeficientes do modelo de regressão linear simples. Mais especificamente, são desenvolvidos sete gráficos de controle χ2 adaptativos para o monitoramento de perfis lineares, a saber: gráfico com tamanho de amostra variável; intervalo de amostragem variável; limites de controle e de advertência variáveis; tamanho de amostra e intervalo de amostragem variáveis; tamanho de amostra e limites variáveis; intervalo de amostragem e limites variáveis e por fim, com todos os parâmetros de projeto variáveis. Medidas de desempenho dos gráficos propostos foram obtidas através de propriedades de cadeia de Markov, tanto para a situação zero-state como para a steady-state, verificando-se uma diminuição do tempo médio até um sinal no caso de desvios pequenos a moderados nos coeficientes do modelo de regressão do processo de produção. Os gráficos propostos foram aplicados a um exemplo de um processo de fabricação de semicondutores. Além disso, uma análise de sensibilidade dos mesmos é feita em função de desvios de diferentes magnitudes nos parâmetros do processo, a saber, no intercepto e na inclinação, comparando-se o desempenho entre os gráficos desenvolvidos e também com o gráfico χ2 com parâmetros fixos. Os gráficos propostos nesta tese são adequados para vários tipos de aplicações. Neste trabalho também foi considerado características de qualidade as quais são representadas por um modelo de regressão não-linear. Para o modelo de regressão não-linear considerado, a proposta é utilizar um método que divide o perfil não-linear em partes lineares, mais especificamente, um algoritmo para este fim, proposto na literatura, foi utilizado. Desta forma, foi possível validar a técnica proposta, mostrando que a mesma é robusta no sentido que permite tipos diferentes de perfis não-lineares. Aproxima-se, portanto um perfil não-linear por perfis lineares por partes, o que proporciona o monitoramento de cada perfil linear por gráficos de controle, como os gráficos de controle desenvolvidos nesta tese. Ademais apresenta-se a metodologia de decompor um perfil não-linear em partes lineares de forma detalhada e completa, abrindo espaço para ampla utilização.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

We presented in this work two methods of estimation for accelerated failure time models with random e_ects to process grouped survival data. The _rst method, which is implemented in software SAS, by NLMIXED procedure, uses an adapted Gauss-Hermite quadrature to determine marginalized likelihood. The second method, implemented in the free software R, is based on the method of penalized likelihood to estimate the parameters of the model. In the _rst case we describe the main theoretical aspects and, in the second, we briey presented the approach adopted with a simulation study to investigate the performance of the method. We realized implement the models using actual data on the time of operation of oil wells from the Potiguar Basin (RN / CE).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Coffee is one of the main products of Brazilian agriculture, the country is currently the largest producer and exporter. Knowing the growth pattern of a fruit can assist in the development of culture indicating for example, the times of increased fruit weight and its optimum harvest, essential to improve the management and quality of coffee. Some authors indicate that the growth curve of the coffee fruit has a double sigmoid shape. However, it consists of just a visual observation without exploring the use of regression models. The aims of this study were: i) determine if the growth pattern of the coffee fruit is really double sigmoidal; ii) to propose a new approach in weighted importance re-sampling to estimate the parameters of regression models and select the most suitable double sigmoidal model to describe the growth of coffee fruits; iii) to study the spatial distribution effect of the crop in the growth curve of coffee fruits. In the first article the aim was determine if the growth pattern of the coffee fruit is really double sigmoidal. The models double Gompertz and double Logistic showed significantly superior fit to models of simple sigmoid confirming that the standard of coffee fruits growth is really double sigmoidal. In the second article we propose to consider an approximation of the likelihood as the candidate distribution of the weighted importance resampling, aiming to facilitate the process of obtaining samples of marginal distributions of each parameter. This technique was effective since it provided parameters with practical interpretation and low computational effort, therefore, it can be used to estimate parameters of double sigmoidal growth curves. The nonlinear model double Logistic was the most appropriate to describe the growth curve of coffee fruits. In the third article aimed to verify the influence of different planting alignments and sun exposure faces in the fruits growth curve. A difference between the growth rates in the two stages of fruit development was identified, regardless the side. Although it has been proven differences in productivity and quality of coffee, there was no difference between the growth curves in the different planting alignments herein studied.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In the composition of this work are present two parts. The first part contains the theory used. The second part contains the two articles. The first article examines two models of the class of generalized linear models for analyzing a mixture experiment, which studied the effect of different diets consist of fat, carbohydrate, and fiber on tumor expression in mammary glands of female rats, given by the ratio mice that had tumor expression in a particular diet. Mixture experiments are characterized by having the effect of collinearity and smaller sample size. In this sense, assuming normality for the answer to be maximized or minimized may be inadequate. Given this fact, the main characteristics of logistic regression and simplex models are addressed. The models were compared by the criteria of selection of models AIC, BIC and ICOMP, simulated envelope charts for residuals of adjusted models, odds ratios graphics and their respective confidence intervals for each mixture component. It was concluded that first article that the simplex regression model showed better quality of fit and narrowest confidence intervals for odds ratio. The second article presents the model Boosted Simplex Regression, the boosting version of the simplex regression model, as an alternative to increase the precision of confidence intervals for the odds ratio for each mixture component. For this, we used the Monte Carlo method for the construction of confidence intervals. Moreover, it is presented in an innovative way the envelope simulated chart for residuals of the adjusted model via boosting algorithm. It was concluded that the Boosted Simplex Regression model was adjusted successfully and confidence intervals for the odds ratio were accurate and lightly more precise than the its maximum likelihood version.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Part of the work of an insurance company is to keep claims reserves, which is known as the technical reserves, in order to mitigate the risk inherent in their activities and comply with the legal obligations. There are several methods for estimate the claims reserves, deterministics and stochastics methods. One of the most used method is the deterministic method Chain Ladder, of simple application. However, the deterministics methods produce only point estimates, for which the stochastics methods have become increasingly popular because they are capable of producing interval estimates, measuring the variability inherent in the technical reserves. In this study the deterministics methods (Grossing Up, Link Ratio and Chain Ladder) and stochastics (Thomas Mack and Bootstrap associated with Overdispersed Poisson model) will be applied to estimate the claims reserves derived from automobile material damage occurred until December 2012. The data used in this research is based on a real database provided by AXA Portugal. The comparison of results obtained by different methods is hereby presented.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A avaliação de risco sísmico, fundamental para as decisões sobre as estruturas de obras de engenharia e mitigação de perdas, envolve fundamentalmente a análise de ameaça sísmica. Calcular a ameaça sísmica é o mesmo que calcular a probabilidade de que certo nível de determinada medida de intensidade em certo local durante um certo tempo seja excedido. Dependendo da complexidade da atividade geológica essas estimativas podem ser bas- tante sofisticadas. Em locais com baixa sismicidade, como é o caso do Brasil, o pouco tempo (geológico) de observação e a pouca quantidade de informação são fontes de muitas incer- tezas e dificuldade de análise pelos métodos mais clássicos e conhecidos que geralmente consideram, através de opiniões de especialistas, determinadas zonas sísmicas. Serão discutidas algumas técnicas de suavização e seus fundamentos como métodos al- ternativos ao zoneamento, em seguida se exemplifica suas aplicações no caso brasileiro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O trabalho aplica estudos de genética quantitativa aos registros de búfalos do Estado do Pará, gerando respostas auxiliares aos criadores para a seleção e acasalamento dos animais. A análise de pedigree para estudo da variabilidade genética nos rebanhos participantes do Programa de Melhoramento Genético foi estimada por meio dos cálculos dos parâmetros baseados na probabilidade de origem de gene, coeficiente de endogamia, parentesco e intervalo médio entre gerações, pelo software PEDIG®; do número efetivo de fundadores (Nfun), número efetivo de ancestrais (Na) e intervalo de gerações pelo software PROB_ORIG.exe presente no pacote PEDIG®; do número efetivo de genomas remanescentes (Ng), calculado pelo software SEGREG.exe. Foram calculadas as estatísticas descritivas, a análise de variância e realizado o teste de Normalidade de Shapiro-Wilk por meio do pacote estatístico Statistical Analisys System. As estimativas de herdabilidade para a característica Peso ao Nascer (PN) foram obtidas por meio de inferência Bayesiana pelo programa GIBBS2F90.exe. Os valores genéticos foram obtidos por meio do programa BLUPF90.exe e a regressão das Diferenças Esperadas na Progênie sobre o ano de nascimento foi realizada pelo Excel for Windows para obtenção da tendência genética do PN. O Nfun foi igual a 28,6, o Na igual a 22,8, o Ng igual a 11,2, a razão Nfun/Na foi 1,25, indicando a diminuição do número de reprodutores ao longo dos períodos e a razão Ng/Nfun foi de 0,39. Apesar do intervalo de gerações de 12,5 anos, o número efetivo de gerações foi próximo a cinco. O número total de animais estudados considerados endogâmicos foi 33,4%, sendo a máxima encontrada de 40,8%, a média da endogamia entre os animais endogâmicos foi 10,4%, e o valor médio da endogamia no arquivo total foi 3,5%. O PN de bezerros bubalinos apresentou média e desvio padrão de 36,6 ± 4,7 kg. A característica PN não apresentou distribuição Normal, com valor de W=0,976271 e Pe mostrou o teste de normalidade de Shapiro-Wilk. O modelo considerado na Análise de Variância mostrou-se significativo a P<0,0001, onde 30% da variação existente no PN pode ser explicada pelos efeitos considerados no modelo, e os outros 70% correspondem a diferenças genéticas e ambientais não consideradas no estudo. Somente os efeitos de composição racial, sexo e ano de nascimento foram significativos (P<0,01) sobre a característica PN. A distribuição da estimativa de herdabilidade direta apresentou-se platicúrtica e com maior assimetria, tendo uma distribuição bimodal com a primeira moda próxima a 0,10 e a segunda próxima a 0,30; a materna apresentou-se trimodal, com picos bem próximos ao valor de 0,15 e outro menos evidente próximo a 0,20. A tendência genética do PN mostrou-se negativa (-0,008kg/ano), porém próxima a zero, ainda que a tendência fenotípica tenha sido positiva (0,156kg/ano). A adoção de acasalamentos otimizados com controle de parentesco seria uma saída para controlar endogamia e, consequentemente, a perda de variabilidade genética, que deve ser trabalhada com base nas estimativas de herdabilidade direta e materna.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this work, it is presented a novel method for calculating some intrinsic parameters such as capture mean time, thermic emission mean time, capture probability and noise gain on quantum well infrared photodetectors. Such devices are built by depositing layers of semiconductors of different energy gap, forming quantum wells. The present method uses rate equations to describe the occupation of discrete states of the quantum wells, that together with noise gain equations given in literature, are solved self consistently. The input data of the method is experimental measurement of dark current (current measured with no relevant incident photon) versus applied bias. In order to validate this approach, the values obtained were compared with results from literature

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen: Se realiza una revisión sobre los antecedentes de las Redes Neuronales Artificiales (RNA) como método de análisis de bases de datos medioambientales, aplicado en las diversas áreas de la Ingeniería Ambiental en general y de Impacto Ambiental en particular. Se describe como ejemplo, la aplicación de RNA en los algoritmos de inversión de datos obtenidos por sensado remoto satelital, para la medición de variables geofísicas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Discute a funcionalidade dos softwares específicos de auditoria e as técnicas de auditoria a eles associados e captura a essência de sua aplicação em órgãos de controle interno da administração pública federal. Primeiramente, com fulcro em pesquisas bibliográficas, chega-se ao entendimento de como são aplicadas essas ferramentas e quais são suas vantagens competitivas em relação aos procedimentos tradicionais de auditoria. Posteriormente, por meio de pesquisa com abordagem qualitativa, busca-se corroborar os estudos e conclusões acadêmicas com as melhores práticas desenvolvidas por outros órgãos de controle interno. Dessa forma, foi possível obter um quadro claro sobre a aplicabilidade de ferramentas computacionais aos trabalhos executados por órgãos de controle interno da administração pública federal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[ES]Con este trabajo se procedió a determinar la fidelidad con la que la cinematografía española recoge la esencia de la asistencia de enfermería teniendo en cuenta el modelo de Virginia Henderson. Para llevar a cabo la investigación del papel de enfermería se analizaron siete película con origen español cuya filmación transcurre en centros sanitarios. Tras analizar los largometrajes se llegó a la conclusión de que la cinematografía española recoge con fidelidad la esencia de las necesidades básicas de Virginia Henderson.