950 resultados para máxima verossimilhança
Resumo:
A tradicional técnica de regressão logística, muito conhecida e utilizada em estudos médicos, permitia apenas a modelagem de variáveis-resposta binárias. A extensão do modelo logístico para variáveis-resposta multinominais ampliou em muito as áreas de aplicação de regressão logística. Na área de reconhecimento de padrões o modelo logístico multinominal recebeu a denominação de discriminação logística apresenta aparentes vantagens em relação a métodos convencionais de classificação. O método da máxima verossimilhança gaussiana, amplamente difundido e utilizado, necessita da estimação de um número muito grande de parâmetros, pois supõe que as distribuições subjacentes de cada classe sejam normais multivariadas. A discriminação logística por sua vez, não faz restrições quanto a forma funcional das variáveis, e o número de parâmetros do modelo é relativamente pequeno. Nesse estudo, os princípios da técnica de discriminação logística são apresentados detalhadamente, bem como aplicações práticas de classificação de imagens Landsat-TM e AVIRIS. Os procedimentos de discriminação logística e da máxima verossimilhança gaussiana foram comparados a partir de dados reais e simulados. Os resultados sugerem que a discriminação logística seja considerada como uma alternativa ao método da máximaverossimilhança gaussiana, principalmente quando os dados apresentarem desvios da normalidade.
Resumo:
Pós-graduação em Engenharia Civil - FEIS
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Nos diversos segmentos da Geotecnia e em especial na área de fundações, o engenheiro se depara com uma série de incertezas. Algumas destas incertezas são inerentes à variabilidade local do solo, às condições de carregamento, aos efeitos do tempo, às diferenças nos processos executivos, erros de sondagens, que influenciam diretamente a estimativa da capacidade de carga da fundação, seja por ocasião de seu carregamento estático, seja durante ou logo após a cravação. O objetivo desta dissertação é a adaptação, a estacas em terra (onshore), de um procedimento concebido originalmente para emprego em estacas offshore, que trata da atualização da estimativa da resistência durante a cravação, com base em registros documentados durante a execução. Neste procedimento a atualização é feita através da aplicação dos conceitos da análise Bayesiana, assumindo que os parâmetros da distribuição probabilística utilizada sejam variáveis randômicas. A incerteza dos parâmetros é modelada por distribuições a priori e a posteriori. A distribuição a posteriori é calculada pela atualização da distribuição a priori, utilizando uma função de máxima verossimilhança, que contém a observação obtida dos registros de cravação. O procedimento é aplicado a um conjunto de estacas de um extenso estaqueamento executado na Zona Oeste do Rio de Janeiro. As estimativas atualizadas são posteriormente comparadas aos resultados dos ensaios de carregamento dinâmico. Várias aplicações podem surgir com o emprego deste procedimento, como a seleção das estacas que, por apresentarem reduzido valor de estimativa atualizada de resistência, ou uma maior incerteza desta estimativa, devam ser submetidas a provas de carga. A extensão deste estudo a diferentes tipos de estacas em perfis de solo de natureza distintos poderá levar ao desenvolvimento de sistemas mais adequados de controle de execução, capazes de identificar as principais incertezas presentes nos diferentes tipos de execução de estacas, contribuindo assim para a otimização de futuros projetos de fundações.
Resumo:
As crenças conjugais podem ser entendidas como um conjunto de ideias acerca de como o casamento e o cônjuge devem ser. Observa-se que os padrões de crenças mantidos em relação ao casamento interferem na qualidade conjugal, de modo que crenças realistas estariam vinculadas a relações mais satisfatórias e crenças irrealistas estariam associadas à insatisfação com o casamento. Assim, evidencia-se a importância de conhecer quais os estilos de crenças mantidos no casamento, o que traz à tona a questão da avaliação. Em âmbito internacional foram identificados alguns instrumentos criados e validados para a avaliação de elementos cognitivos influentes nas relações entre casais. Todavia, no cenário nacional verificou-se a ausência de instrumentos sobre crenças no casamento construídos e validados para a população brasileira. Dessa lacuna metodológica surgiu o interesse de criar um instrumento de avaliação das crenças no casamento. Desse modo, o presente estudo objetivou a construção e a validação da Escala de Crenças Conjugais (ECC). Para tanto, esta pesquisa foi composta por dois estudos: 1) Estudo I Construção da Escala de Crenças Conjugais (ECC); 2) Estudo II Validação da Escala de Crenças Conjugais (ECC). O Estudo I correspondeu à criação da ECC, com a realização de entrevistas e pesquisa na literatura para obtenção das crenças mais comuns sobre o casamento, seguida pela avaliação da validade de conteúdo dos itens da ECC. Desse primeiro estudo, resultou uma versão da ECC composta por 33 itens, dentre crenças conjugais realistas e irrealistas. O Estudo II correspondeu à validação de construto da ECC. Para tanto a versão da escala resultante do Estudo I foi aplicada numa amostra de 333 participantes, com escolaridade a partir do ensino fundamental completo, dentre homens e mulheres, solteiros e casados. Para verificar a validade de construto da ECC foram realizados testes de análise fatorial (AF), em que o método escolhido para este estudo foi o método de máxima verossimilhança com rotação quartimax. Os resultados da AF revelaram a existência de dois Fatores para a ECC identificados como Comunicação Interpessoal e Compromisso (CIC) e Papéis Sociais (PS). Após a obtenção dos Fatores foi realizada a análise da consistência interna de cada Fator por meio do cálculo do coeficiente alfa de Cronbach (α), em que constatou-se que ambos os Fatores apresentaram níveis satisfatórios de confiabilidade: CIC (α = 0,81) e PS (α = 0,70). Testes adicionais acerca de eventuais contrastes nos resultados de acordo com as características da amostra também foram realizados, por meio do Teste t de Student, verificando-se que na amostra deste estudo, os indivíduos mais jovens apresentaram níveis mais elevados no Fator 2 (PS), os indivíduos que haviam concluído um curso superior possuíam níveis mais elevados no Fator 1 (CIC) e os indivíduos solteiros apresentaram níveis mais elevados no Fator 2 (PS). Os dois estudos resultaram numa medida inédita de avaliação das crenças conjugais a ser utilizada em pesquisas brasileiras. Espera-se que a ECC possa ser útil no estudo das relações entre casais, possibilitando a realização de novas pesquisas e quiçá novas intervenções terapêuticas.
Resumo:
A tecnologia de sensoriamento remoto é uma das mais importantes fontes de informação para subsídios na identificação e no monitoramento de mudanças na cobertura da Terra. Objeto dessa tecnologia, a classificação supervisionada, por meio do algoritmo da máxima verossimilhança, tem sido um dos métodos mais utilizados para a extração de informações, principalmente em imagens de média resolução espacial. Utilizando parâmetros estatísticos, esse algoritmo pressupõe a ponderação das distâncias entre as médias dos níveis digitais das classes. Este trabalho objetivou a aplicação desse algoritmo em imagem de satélite de alta resolução. Para isso, foi necessário minimizar a intensidade de informações disponibilizadas por esses sensores, alterando a resolução espacial para 4 m e a radiométrica para 8 bit e, ainda, fazer uma filtragem pós-processamento. O presente trabalho, parte integrante de um projeto de monitoramento orbital de grandes obras de engenharia em infraestrutura, avaliou um método para a extração de informações para o monitoramento dessas obras, inseridas em meio rural ou urbano. A finalidade desse procedimento é subsidiar a análise da dinâmica de desenvolvimento dessas obras em relação a situações precedentes, assim como a possíveis intervenções no seu entorno. O projeto de monitoramento dessas obras utiliza imagens de satélites de vários sensores de alta resolução espacial, captadas em diferentes datas. No entanto, a aplicação do método apresentado neste trabalho exemplifica a utilização de imagem do satélite Ikonos 2 em uma única data. Para a imagem Ikonos 2, foi obtido um índice Kappa geral de 0,84 e apenas a classe caracterizada como Pastagem apresentou concordância relativamente mais baixa (0,71) em comparação a outras classes, mas ainda assim considerada uma boa classificação. Diante disso, a padronização proposta com a finalidade de minimizar as informações em imagens de alta resolução juntamente com o algoritmo da máxima verossimilhança e a posterior filtragem mostraram-se eficientes como suporte para a avaliação da ocupação das terras tomadas pelas obras (área de influência direta) e do seu entorno.
Resumo:
O objetivo deste trabalho foi determinar as chuvas intensas para o Estado de Mato Grosso do Sul. Séries com os valores máximos anuais da precipitação de um dia de 106 postos pluviométricos, localizados em 54 municípios de Mato Grosso do Sul foram ajustadas à Distribuição de Gumbel. Os parâmetros da distribuição foram estimados pelo método de máxima verossimilhança. Houve ajuste de todas as séries de intensidade máxima anual à distribuição Gumbel, de acordo com o teste Kolmogorov-Smirnov. Através das distribuições ajustadas foram calculados os valores de precipitação máxima de um dia para períodos de retorno de 2, 3, 4, 5, 10, 15, 20 e 50 anos. Utilizando o método de desagregação de chuvas, estimou-se a precipitação máxima com duração de 5, 10, 15, 20, 25, 30 minutos e 1, 6, 8, 10, 12 e 24 horas. Foram confeccionados mapas de isolinhas com os dados de chuva intensa com duração de 5, 10, e 30 minutos e 1, 6 e 24 horas para períodos de retorno de 4, 10, 15, 20 anos.
Resumo:
As comunicações quânticas aplicam as leis fundamentais da física quântica para codificar, transmitir, guardar e processar informação. A mais importante e bem-sucedida aplicação é a distribuição de chaves quânticas (QKD). Os sistemas de QKD são suportados por tecnologias capazes de processar fotões únicos. Nesta tese analisamos a geração, transmissão e deteção de fotões únicos e entrelaçados em fibras óticas. É proposta uma fonte de fotões única baseada no processo clássico de mistura de quatro ondas (FWM) em fibras óticas num regime de baixas potências. Implementamos essa fonte no laboratório, e desenvolvemos um modelo teórico capaz de descrever corretamente o processo de geração de fotões únicos. O modelo teórico considera o papel das nãolinearidades da fibra e os efeitos da polarização na geração de fotões através do processo de FWM. Analisamos a estatística da fonte de fotões baseada no processo clássico de FWM em fibras óticas. Derivamos um modelo teórico capaz de descrever a estatística dessa fonte de fotões. Mostramos que a estatística da fonte de fotões evolui de térmica num regime de baixas potências óticas, para Poissoniana num regime de potências óticas moderadas. Validamos experimentalmente o modelo teórico, através do uso de fotodetetores de avalanche, do método estimativo da máxima verossimilhança e do algoritmo de maximização de expectativa. Estudamos o processo espontâneo de FWM como uma fonte condicional de fotões únicos. Analisamos a estatística dessa fonte em termos da função condicional de coerência de segunda ordem, considerando o espalhamento de Raman na geração de pares de fotões, e a perda durante a propagação de fotões numa fibra ótica padrão. Identificamos regimes apropriados onde a fonte é quase ideal. Fontes de pares de fotões implementadas em fibras óticas fornecem uma solução prática ao problema de acoplamento que surge quando os pares de fotões são gerados fora da fibra. Exploramos a geração de pares de fotões através do processo espontâneo de FWM no interior de guias de onda com suceptibilidade elétrica de terceira ordem. Descrevemos a geração de pares de fotões em meios com elevado coeficiente de absorção, e identificamos regimes ótimos para o rácio contagens coincidentes/acidentais (CAR) e para a desigualdade de Clauser, Horne, Shimony, and Holt (CHSH), para o qual o compromisso entre perda do guia de onda e não-linearidades maximiza esses parâmetros.
Resumo:
Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.
Resumo:
Atualmente, pesquisadores das mais diversas áreas, tais como: Geologia, Física, Cartografia, Oceanografia, entre outras, utilizam imagens de satélite como uma fonte valiosa para a extração de informações sobre a superfície terrestre. Muitas vezes, a análise (classificação) destas imagens é realizada por métodos tradicionais sejam eles supervisionados (como o Método de Máxima Verossimilhança Gaussiana) ou nãosupervisionados (como o Método de Seleção pelo Pico do Histograma). Entretanto, pode-se utilizar as Redes Neurais Artificiais como uma alternativa para o aumento da acurácia em classificações digitais. Neste trabalho, utilizou-se imagens multi-espectrais do satélite LANDSAT 5-TM para a identificação de espécies vegetais (Mata Nativa, Eucalyptus e Acácia) em uma região próxima aos municípios de General Câmara, Santo Amaro e Taquari, no Estado do Rio Grande do Sul, Brasil. Comparou-se qualitativamente e quantitativamente os resultados obtidos pelo método de Máxima Verossimilhança Gaussiana e por uma Rede Neural Artificial Multinível com BackPropagation na classificação da área de estudo. Para tanto, parte desta área foi mapeada através de uma verificação de campo e com o auxílio de classificadores nãosupervisionados (Kohonen, que é uma Rede Neural, e o método de Seleção pelo Pico do Histograma). Com isto, foi possível coletar dois conjuntos de amostras, sendo que um deles foi utilizado para o treinamento dos métodos e o outro (conjunto de reconhecimento) serviu para a avaliação das classificações obtidas. Após o treinamento, parte da área de estudo foi classificada por ambos os métodos. Em seguida, os resultados obtidos foram avaliados através do uso de Tabelas de Contingência, considerando um nível de significância de 5%. Por fim, na maior parte dos testes realizados, a Rede Neural Artificial Multinível com BackPropagation apresentou valores de acurácia superiores ao Método de Máxima Verossimilhança Gaussiana. Assim, com este trabalho observou-se que não há diferença significativa de classificação para as espécies vegetais, ao nível de 5%, para a área de estudo considerada, na época de aquisição da imagem, para o conjunto de reconhecimento.
Resumo:
Um total de 201 seqüências de DNA, de 50 espécies pertencentes a 32 gêneros e 12 famílias, foi investigado através do método da máxima verossimilhança para identificar, nas proteínas respectivas, possíveis códons nos quais estivesse ocorrendo seleção positiva. Foram considerados 15 tipos de proteínas relacionadas à patogênese (PR1-PR15), quanto a 14 modelos diferentes de seleção. Tanto quanto se possa avaliar, não há qualquer estudo disponível na literatura que tenha examinado de maneira homogênea tal número de seqüências de forma tão abrangente.
Resumo:
No processo de classificação de uma imagem digital, o atributo textura pode ser uma fonte importante de informações. Embora o processo de caracterização da textura em uma imagem seja mais difícil, se comparado ao processo de caracterização de atributos espectrais, sabe-se que o emprego daquele atributo pode aumentar significativamente a exatidão na classificação da imagem. O objetivo deste trabalho de pesquisa consiste em desenvolver e testar um método de classificação supervisionado em imagens digitais com base em atributos de textura. O método proposto implementa um processo de filtragem baseado nos filtros de Gabor. Inicialmente, é gerado um conjunto de filtros de Gabor adequados às freqüências espaciais associadas às diferentes classes presentes na imagem a ser classificada. Em cada caso, os parâmetros utilizados por cada filtro são estimados a partir das amostras disponíveis, empregando-se a transformada de Fourier. Cada filtro gera, então, uma imagem filtrada que quantifica a freqüência espacial definida no filtro. Este processo resulta em um certo número de imagens filtradas as quais são denominadas de "bandas texturais". Desta forma, o problema que era originalmente unidimensional passa a ser multi-dimensional, em que cada pixel passa a ser definido por um vetor cuja dimensionalidade é idêntica ao número de filtros utilizados. A imagem em várias "bandas texturais" pode ser classificada utilizando-se um método de classificação supervisionada. No presente trabalho foi utilizada a Máxima Verossimilhança Gaussiana. A metodologia proposta é então testada, utilizandose imagens sintéticas e real. Os resultados obtidos são apresentados e analisados.
Resumo:
O presente trabalho estima por máxima verossimilhança um modelo de ciclos reais para as economias brasileira americana. Os parâmetros são estimados partir de um VAR na forma estrutural obtido de um modelo macroeconômico de horizonte infinito com agente representativo choque tecnológico. Como algumas variáveis necessárias para estimação do modelo não são observadas emprega-se, na rotina computacional escrita em Matlab, método de Filtro de Kalman. Desta forma, enfoque adotado apresenta-se como opção metodologia de calibração, bem como metodologia de modelos VAR com imputação ad hoc de condições de identificação. Para estimação do modelo construiu-se uma base de dados de tributação para o Brasil, desagregando em impostos sobre absorção, sobre rendimento do fator capital sobre fator trabalho para período 1949-1995. Também empreende-se ao longo da dissertação, um detalhamento minucioso da técnica econométrica empregada dos procedimentos computacionais adotados.
Resumo:
O presente trabalho é parte integrante de um projeto multidisciplinar cujo objetivo é construir uma ferramenta computacional capaz de simular a operação de uma Usina Termoelétrica tratando, especificamente, da câmara de reação (local da caldeira onde se desenvolve a queima do combustível). Foi desenvolvido um modelo matemático dinâmico, pseudo-homogêneo, unidimensional e, com propriedades físicas variáveis, com o objetivo de descrever a conversão do calor gerado pela combust em energia térmica, que está baseado em balanços de massa e energia. Este modelo foi implementado no simulador gPROMS e seus parâmetros foram estimados utilizando o módulo gEST deste software (método da máxima verossimilhança), com base em dados de operação da Usina e dados cinéticos de literatura. Para a simulação dinâmica da câmara de reação foi utilizado um método de integração implícita de passos múltiplos com ordem e passo variáveis. A câmara de combustão foi dividida em três zonas, sendo realizados, em cada zona, os balanços de massa e energia, adotando-se a hipótese de mistura perfeita. O modelo desenvolvido prevê o perfil de temperatura ao longo da câmara, as correntes de saída e a composição dos gases de combustão em cada zona; incluindo uma previsão aproximada da concentração dos poluentes formados, principalmente monóxido de nitrogênio e dióxido de enxofre. Os resultados apresentados mostraram que o modelo prediz satisfatoriamente a composição do gás de combustão na saída da câmara de reação e que a divisão da câmara em diferentes zonas de combustão é apropriada para avaliar a geração e o aproveitamento energético na caldeira.
Resumo:
Este trabalho examinou as características de carteiras compostas por ações e otimizadas segundo o critério de média-variância e formadas através de estimativas robustas de risco e retorno. A motivação para isto é a distribuição típica de ativos financeiros (que apresenta outliers e mais curtose que a distribuição normal). Para comparação entre as carteiras, foram consideradas suas propriedades: estabilidade, variabilidade e os índices de Sharpe obtidos pelas mesmas. O resultado geral mostra que estas carteiras obtidas através de estimativas robustas de risco e retorno apresentam melhoras em sua estabilidade e variabilidade, no entanto, esta melhora é insuficiente para diferenciar os índices de Sharpe alcançados pelas mesmas das carteiras obtidas através de método de máxima verossimilhança para estimativas de risco e retorno.