945 resultados para estimador de máxima verossimilhança


Relevância:

100.00% 100.00%

Publicador:

Resumo:

A tradicional técnica de regressão logística, muito conhecida e utilizada em estudos médicos, permitia apenas a modelagem de variáveis-resposta binárias. A extensão do modelo logístico para variáveis-resposta multinominais ampliou em muito as áreas de aplicação de regressão logística. Na área de reconhecimento de padrões o modelo logístico multinominal recebeu a denominação de discriminação logística apresenta aparentes vantagens em relação a métodos convencionais de classificação. O método da máxima verossimilhança gaussiana, amplamente difundido e utilizado, necessita da estimação de um número muito grande de parâmetros, pois supõe que as distribuições subjacentes de cada classe sejam normais multivariadas. A discriminação logística por sua vez, não faz restrições quanto a forma funcional das variáveis, e o número de parâmetros do modelo é relativamente pequeno. Nesse estudo, os princípios da técnica de discriminação logística são apresentados detalhadamente, bem como aplicações práticas de classificação de imagens Landsat-TM e AVIRIS. Os procedimentos de discriminação logística e da máxima verossimilhança gaussiana foram comparados a partir de dados reais e simulados. Os resultados sugerem que a discriminação logística seja considerada como uma alternativa ao método da máximaverossimilhança gaussiana, principalmente quando os dados apresentarem desvios da normalidade.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O varejo online vem apresentando volumes cada vez maiores em vendas. Esse volume de negócios em crescimento, transacionados em ambiente virtual, apresenta maior desafio à fidelização do seu consumo em relação aos apresentados nas transações realizadas em lojas físicas. No Brasil, os propulsores do crescimento do varejo online estão, principalmente, entre os consumidores pertencentes à baixa renda, mais conhecida como classe C, mas pouco se conhece a respeito desse segmento no varejo online. Essa pesquisa se propôs a avaliar o fenômeno de e-Lealdade, com consumidores brasileiros de ambos os estratos de renda (superior e inferior), em duas etapas: qualitativa exploratória e quantitativa. Na etapa exploratória da pesquisa foram entrevistados 16 consumidores e foi realizada análise de conteúdo. Na etapa quantitativa foram avaliados dados coletados de 1.020 consumidores, via websurvey, e analisados com o emprego de equações estruturais (estimador de máxima verossimilhança). A investigação foi norteada pela identificação, através de revisão de literatura, do que se denominou “modelo Clássico de e-Lealdade”. Nesse modelo, a e-Lealdade é construída pela relação entre as dimensões de e-Qualidade, e-Satisfação e e-Confiança. Essa pesquisa se propôs a avaliar essas relações, no mercado brasileiro, entre diferentes estratos de renda dos consumidores. Esse objetivo foi motivado pelo crescimento da participação de consumidores pertencentes à classe C no comércio on-line brasileiro, além de indícios de comportamento distinto entre os estratos. Entre os principais resultados, verificou-se que consumidores pertencentes a estratos superiores de renda valorizam mais a qualidade da informação do website, ao passo que consumidores de estratos de renda inferiores ressaltam a importância da garantia de entrega. Tanto para consumidores do estrato superior quanto para o inferior, a e-Satisfação tem peso muito maior do que a e-Confiança na determinação da e-Lealdade. Esse destaque da importância da e-Satisfação (em relação à e-Confiança) é ainda mais acentuado no segmento inferior de renda. Apesar do seu menor peso, a relevância da e-Confiança é maior no segmento superior do que no inferior. Tais diferenças atestaram a moderação da variável renda nas relações definidoras de e-Lealdade, esperando ter contribuído para o estudo do fenômeno.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Considerando a importância sócio-econômica da região de Presidente Prudente, este estudo teve como objetivo estimar a precipitação pluvial máxima esperada para diferentes níveis de probabilidade e verificar o grau de ajuste dos dados ao modelo Gumbel, com as estimativas dos parâmetros obtidas pelo método de máxima verossimilhança. Pelos resultados, o teste de Kolmogorov-Sminorv (K-S) mostrou que a distribuição Gumbel testada se ajustou com p-valor maior que 0.28 para todos os períodos de tempo considerados, comprovando que a distribuição Gumbel apresenta um bom ajustamento aos dados observados para representar as precipitações pluviais máximas. As estimativas de precipitação obtidas pelo método de máxima verossimilhança são consistentes, conseguindo reproduzir com bastante fidelidade o regime de chuvas da região de Presidente Prudente. Assim, o conhecimento da distribuição da precipitação pluvial máxima mensal e das estimativas das precipitações diárias máximas esperadas, possibilita um planejamento estratégico melhor, minimizando assim o risco de ocorrência de perdas econômicas para essa região.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This dissertation deals with the problem of making inference when there is weak identification in models of instrumental variables regression. More specifically we are interested in one-sided hypothesis testing for the coefficient of the endogenous variable when the instruments are weak. The focus is on the conditional tests based on likelihood ratio, score and Wald statistics. Theoretical and numerical work shows that the conditional t-test based on the two-stage least square (2SLS) estimator performs well even when instruments are weakly correlated with the endogenous variable. The conditional approach correct uniformly its size and when the population F-statistic is as small as two, its power is near the power envelopes for similar and non-similar tests. This finding is surprising considering the bad performance of the two-sided conditional t-tests found in Andrews, Moreira and Stock (2007). Given this counter intuitive result, we propose novel two-sided t-tests which are approximately unbiased and can perform as well as the conditional likelihood ratio (CLR) test of Moreira (2003).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nos diversos segmentos da Geotecnia e em especial na área de fundações, o engenheiro se depara com uma série de incertezas. Algumas destas incertezas são inerentes à variabilidade local do solo, às condições de carregamento, aos efeitos do tempo, às diferenças nos processos executivos, erros de sondagens, que influenciam diretamente a estimativa da capacidade de carga da fundação, seja por ocasião de seu carregamento estático, seja durante ou logo após a cravação. O objetivo desta dissertação é a adaptação, a estacas em terra (onshore), de um procedimento concebido originalmente para emprego em estacas offshore, que trata da atualização da estimativa da resistência durante a cravação, com base em registros documentados durante a execução. Neste procedimento a atualização é feita através da aplicação dos conceitos da análise Bayesiana, assumindo que os parâmetros da distribuição probabilística utilizada sejam variáveis randômicas. A incerteza dos parâmetros é modelada por distribuições a priori e a posteriori. A distribuição a posteriori é calculada pela atualização da distribuição a priori, utilizando uma função de máxima verossimilhança, que contém a observação obtida dos registros de cravação. O procedimento é aplicado a um conjunto de estacas de um extenso estaqueamento executado na Zona Oeste do Rio de Janeiro. As estimativas atualizadas são posteriormente comparadas aos resultados dos ensaios de carregamento dinâmico. Várias aplicações podem surgir com o emprego deste procedimento, como a seleção das estacas que, por apresentarem reduzido valor de estimativa atualizada de resistência, ou uma maior incerteza desta estimativa, devam ser submetidas a provas de carga. A extensão deste estudo a diferentes tipos de estacas em perfis de solo de natureza distintos poderá levar ao desenvolvimento de sistemas mais adequados de controle de execução, capazes de identificar as principais incertezas presentes nos diferentes tipos de execução de estacas, contribuindo assim para a otimização de futuros projetos de fundações.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

As crenças conjugais podem ser entendidas como um conjunto de ideias acerca de como o casamento e o cônjuge devem ser. Observa-se que os padrões de crenças mantidos em relação ao casamento interferem na qualidade conjugal, de modo que crenças realistas estariam vinculadas a relações mais satisfatórias e crenças irrealistas estariam associadas à insatisfação com o casamento. Assim, evidencia-se a importância de conhecer quais os estilos de crenças mantidos no casamento, o que traz à tona a questão da avaliação. Em âmbito internacional foram identificados alguns instrumentos criados e validados para a avaliação de elementos cognitivos influentes nas relações entre casais. Todavia, no cenário nacional verificou-se a ausência de instrumentos sobre crenças no casamento construídos e validados para a população brasileira. Dessa lacuna metodológica surgiu o interesse de criar um instrumento de avaliação das crenças no casamento. Desse modo, o presente estudo objetivou a construção e a validação da Escala de Crenças Conjugais (ECC). Para tanto, esta pesquisa foi composta por dois estudos: 1) Estudo I Construção da Escala de Crenças Conjugais (ECC); 2) Estudo II Validação da Escala de Crenças Conjugais (ECC). O Estudo I correspondeu à criação da ECC, com a realização de entrevistas e pesquisa na literatura para obtenção das crenças mais comuns sobre o casamento, seguida pela avaliação da validade de conteúdo dos itens da ECC. Desse primeiro estudo, resultou uma versão da ECC composta por 33 itens, dentre crenças conjugais realistas e irrealistas. O Estudo II correspondeu à validação de construto da ECC. Para tanto a versão da escala resultante do Estudo I foi aplicada numa amostra de 333 participantes, com escolaridade a partir do ensino fundamental completo, dentre homens e mulheres, solteiros e casados. Para verificar a validade de construto da ECC foram realizados testes de análise fatorial (AF), em que o método escolhido para este estudo foi o método de máxima verossimilhança com rotação quartimax. Os resultados da AF revelaram a existência de dois Fatores para a ECC identificados como Comunicação Interpessoal e Compromisso (CIC) e Papéis Sociais (PS). Após a obtenção dos Fatores foi realizada a análise da consistência interna de cada Fator por meio do cálculo do coeficiente alfa de Cronbach (α), em que constatou-se que ambos os Fatores apresentaram níveis satisfatórios de confiabilidade: CIC (α = 0,81) e PS (α = 0,70). Testes adicionais acerca de eventuais contrastes nos resultados de acordo com as características da amostra também foram realizados, por meio do Teste t de Student, verificando-se que na amostra deste estudo, os indivíduos mais jovens apresentaram níveis mais elevados no Fator 2 (PS), os indivíduos que haviam concluído um curso superior possuíam níveis mais elevados no Fator 1 (CIC) e os indivíduos solteiros apresentaram níveis mais elevados no Fator 2 (PS). Os dois estudos resultaram numa medida inédita de avaliação das crenças conjugais a ser utilizada em pesquisas brasileiras. Espera-se que a ECC possa ser útil no estudo das relações entre casais, possibilitando a realização de novas pesquisas e quiçá novas intervenções terapêuticas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A tecnologia de sensoriamento remoto é uma das mais importantes fontes de informação para subsídios na identificação e no monitoramento de mudanças na cobertura da Terra. Objeto dessa tecnologia, a classificação supervisionada, por meio do algoritmo da máxima verossimilhança, tem sido um dos métodos mais utilizados para a extração de informações, principalmente em imagens de média resolução espacial. Utilizando parâmetros estatísticos, esse algoritmo pressupõe a ponderação das distâncias entre as médias dos níveis digitais das classes. Este trabalho objetivou a aplicação desse algoritmo em imagem de satélite de alta resolução. Para isso, foi necessário minimizar a intensidade de informações disponibilizadas por esses sensores, alterando a resolução espacial para 4 m e a radiométrica para 8 bit e, ainda, fazer uma filtragem pós-processamento. O presente trabalho, parte integrante de um projeto de monitoramento orbital de grandes obras de engenharia em infraestrutura, avaliou um método para a extração de informações para o monitoramento dessas obras, inseridas em meio rural ou urbano. A finalidade desse procedimento é subsidiar a análise da dinâmica de desenvolvimento dessas obras em relação a situações precedentes, assim como a possíveis intervenções no seu entorno. O projeto de monitoramento dessas obras utiliza imagens de satélites de vários sensores de alta resolução espacial, captadas em diferentes datas. No entanto, a aplicação do método apresentado neste trabalho exemplifica a utilização de imagem do satélite Ikonos 2 em uma única data. Para a imagem Ikonos 2, foi obtido um índice Kappa geral de 0,84 e apenas a classe caracterizada como Pastagem apresentou concordância relativamente mais baixa (0,71) em comparação a outras classes, mas ainda assim considerada uma boa classificação. Diante disso, a padronização proposta com a finalidade de minimizar as informações em imagens de alta resolução juntamente com o algoritmo da máxima verossimilhança e a posterior filtragem mostraram-se eficientes como suporte para a avaliação da ocupação das terras tomadas pelas obras (área de influência direta) e do seu entorno.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo deste trabalho foi determinar as chuvas intensas para o Estado de Mato Grosso do Sul. Séries com os valores máximos anuais da precipitação de um dia de 106 postos pluviométricos, localizados em 54 municípios de Mato Grosso do Sul foram ajustadas à Distribuição de Gumbel. Os parâmetros da distribuição foram estimados pelo método de máxima verossimilhança. Houve ajuste de todas as séries de intensidade máxima anual à distribuição Gumbel, de acordo com o teste Kolmogorov-Smirnov. Através das distribuições ajustadas foram calculados os valores de precipitação máxima de um dia para períodos de retorno de 2, 3, 4, 5, 10, 15, 20 e 50 anos. Utilizando o método de desagregação de chuvas, estimou-se a precipitação máxima com duração de 5, 10, 15, 20, 25, 30 minutos e 1, 6, 8, 10, 12 e 24 horas. Foram confeccionados mapas de isolinhas com os dados de chuva intensa com duração de 5, 10, e 30 minutos e 1, 6 e 24 horas para períodos de retorno de 4, 10, 15, 20 anos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

As técnicas estatísticas são fundamentais em ciência e a análise de regressão linear é, quiçá, uma das metodologias mais usadas. É bem conhecido da literatura que, sob determinadas condições, a regressão linear é uma ferramenta estatística poderosíssima. Infelizmente, na prática, algumas dessas condições raramente são satisfeitas e os modelos de regressão tornam-se mal-postos, inviabilizando, assim, a aplicação dos tradicionais métodos de estimação. Este trabalho apresenta algumas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, em particular na estimação de modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. A investigação é desenvolvida em três vertentes, nomeadamente na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, na estimação do parâmetro ridge em regressão ridge e, por último, em novos desenvolvimentos na estimação com máxima entropia. Na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, o trabalho desenvolvido evidencia um melhor desempenho dos estimadores de máxima entropia em relação ao estimador de máxima verosimilhança. Este bom desempenho é notório em modelos com poucas observações por estado e em modelos com um grande número de estados, os quais são comummente afetados por colinearidade. Espera-se que a utilização de estimadores de máxima entropia contribua para o tão desejado aumento de trabalho empírico com estas fronteiras de produção. Em regressão ridge o maior desafio é a estimação do parâmetro ridge. Embora existam inúmeros procedimentos disponíveis na literatura, a verdade é que não existe nenhum que supere todos os outros. Neste trabalho é proposto um novo estimador do parâmetro ridge, que combina a análise do traço ridge e a estimação com máxima entropia. Os resultados obtidos nos estudos de simulação sugerem que este novo estimador é um dos melhores procedimentos existentes na literatura para a estimação do parâmetro ridge. O estimador de máxima entropia de Leuven é baseado no método dos mínimos quadrados, na entropia de Shannon e em conceitos da eletrodinâmica quântica. Este estimador suplanta a principal crítica apontada ao estimador de máxima entropia generalizada, uma vez que prescinde dos suportes para os parâmetros e erros do modelo de regressão. Neste trabalho são apresentadas novas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, tendo por base o estimador de máxima entropia de Leuven, a teoria da informação e a regressão robusta. Os estimadores desenvolvidos revelam um bom desempenho em modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. Por último, são apresentados alguns códigos computacionais para estimação com máxima entropia, contribuindo, deste modo, para um aumento dos escassos recursos computacionais atualmente disponíveis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

As comunicações quânticas aplicam as leis fundamentais da física quântica para codificar, transmitir, guardar e processar informação. A mais importante e bem-sucedida aplicação é a distribuição de chaves quânticas (QKD). Os sistemas de QKD são suportados por tecnologias capazes de processar fotões únicos. Nesta tese analisamos a geração, transmissão e deteção de fotões únicos e entrelaçados em fibras óticas. É proposta uma fonte de fotões única baseada no processo clássico de mistura de quatro ondas (FWM) em fibras óticas num regime de baixas potências. Implementamos essa fonte no laboratório, e desenvolvemos um modelo teórico capaz de descrever corretamente o processo de geração de fotões únicos. O modelo teórico considera o papel das nãolinearidades da fibra e os efeitos da polarização na geração de fotões através do processo de FWM. Analisamos a estatística da fonte de fotões baseada no processo clássico de FWM em fibras óticas. Derivamos um modelo teórico capaz de descrever a estatística dessa fonte de fotões. Mostramos que a estatística da fonte de fotões evolui de térmica num regime de baixas potências óticas, para Poissoniana num regime de potências óticas moderadas. Validamos experimentalmente o modelo teórico, através do uso de fotodetetores de avalanche, do método estimativo da máxima verossimilhança e do algoritmo de maximização de expectativa. Estudamos o processo espontâneo de FWM como uma fonte condicional de fotões únicos. Analisamos a estatística dessa fonte em termos da função condicional de coerência de segunda ordem, considerando o espalhamento de Raman na geração de pares de fotões, e a perda durante a propagação de fotões numa fibra ótica padrão. Identificamos regimes apropriados onde a fonte é quase ideal. Fontes de pares de fotões implementadas em fibras óticas fornecem uma solução prática ao problema de acoplamento que surge quando os pares de fotões são gerados fora da fibra. Exploramos a geração de pares de fotões através do processo espontâneo de FWM no interior de guias de onda com suceptibilidade elétrica de terceira ordem. Descrevemos a geração de pares de fotões em meios com elevado coeficiente de absorção, e identificamos regimes ótimos para o rácio contagens coincidentes/acidentais (CAR) e para a desigualdade de Clauser, Horne, Shimony, and Holt (CHSH), para o qual o compromisso entre perda do guia de onda e não-linearidades maximiza esses parâmetros.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Atualmente, pesquisadores das mais diversas áreas, tais como: Geologia, Física, Cartografia, Oceanografia, entre outras, utilizam imagens de satélite como uma fonte valiosa para a extração de informações sobre a superfície terrestre. Muitas vezes, a análise (classificação) destas imagens é realizada por métodos tradicionais sejam eles supervisionados (como o Método de Máxima Verossimilhança Gaussiana) ou nãosupervisionados (como o Método de Seleção pelo Pico do Histograma). Entretanto, pode-se utilizar as Redes Neurais Artificiais como uma alternativa para o aumento da acurácia em classificações digitais. Neste trabalho, utilizou-se imagens multi-espectrais do satélite LANDSAT 5-TM para a identificação de espécies vegetais (Mata Nativa, Eucalyptus e Acácia) em uma região próxima aos municípios de General Câmara, Santo Amaro e Taquari, no Estado do Rio Grande do Sul, Brasil. Comparou-se qualitativamente e quantitativamente os resultados obtidos pelo método de Máxima Verossimilhança Gaussiana e por uma Rede Neural Artificial Multinível com BackPropagation na classificação da área de estudo. Para tanto, parte desta área foi mapeada através de uma verificação de campo e com o auxílio de classificadores nãosupervisionados (Kohonen, que é uma Rede Neural, e o método de Seleção pelo Pico do Histograma). Com isto, foi possível coletar dois conjuntos de amostras, sendo que um deles foi utilizado para o treinamento dos métodos e o outro (conjunto de reconhecimento) serviu para a avaliação das classificações obtidas. Após o treinamento, parte da área de estudo foi classificada por ambos os métodos. Em seguida, os resultados obtidos foram avaliados através do uso de Tabelas de Contingência, considerando um nível de significância de 5%. Por fim, na maior parte dos testes realizados, a Rede Neural Artificial Multinível com BackPropagation apresentou valores de acurácia superiores ao Método de Máxima Verossimilhança Gaussiana. Assim, com este trabalho observou-se que não há diferença significativa de classificação para as espécies vegetais, ao nível de 5%, para a área de estudo considerada, na época de aquisição da imagem, para o conjunto de reconhecimento.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Um total de 201 seqüências de DNA, de 50 espécies pertencentes a 32 gêneros e 12 famílias, foi investigado através do método da máxima verossimilhança para identificar, nas proteínas respectivas, possíveis códons nos quais estivesse ocorrendo seleção positiva. Foram considerados 15 tipos de proteínas relacionadas à patogênese (PR1-PR15), quanto a 14 modelos diferentes de seleção. Tanto quanto se possa avaliar, não há qualquer estudo disponível na literatura que tenha examinado de maneira homogênea tal número de seqüências de forma tão abrangente.