990 resultados para Combinações (Matematica)
Resumo:
A modelagem matemática de problemas importantes e significativos da engenharia, física e ciências sociais pode ser formulada por um conjunto misto de equações diferenciais e algébricas (EADs). Este conjunto misto de equações deve ser previamente caracterizado quanto a resolubilidade, índice diferencial e condições iniciais, para que seja possível utilizar um código computacional para resolvê-lo numericamente. Sabendo-se que o índice diferencial é o parâmetro mais importante para caracterizar um sistema de EADs, neste trabalho aplica-se a redução de índice através da teoria de grafos, proposta por Pantelides (1988). Este processo de redução de índice é realizado numericamente através do algoritmo DAGRAFO, que transforma um sistema de índice superior para um sistema reduzido de índice 0 ou 1. Após esta etapa é necessário fornecer um conjunto de condições inicias consistentes para iniciar o código numérico de integração, DASSLC. No presente trabalho discute-se três técnicas para a inicialização consistente e integração numérica de sistemas de EADs de índice superior. A primeira técnica trabalha exclusivamente com o sistema reduzido, a segunda com o sistema reduzido e as restrições adicionais que surgem após a redução do índice introduzindo variáveis de restrição, e a terceira técnica trabalha com o sistema reduzido e as derivadas das variáveis de restrição. Após vários testes, conclui-se que a primeira e terceira técnica podem gerar um conjunto solução mesmo quando recebem condições iniciais inconsistentes. Para a primeira técnica, esta característica decorre do fato que no sistema reduzido algumas restrições, muitas vezes com significado físico importante, podem ser perdidas quando as equações algébricas são diferenciadas. Trabalhando com o sistema reduzido e as derivadas das variáveis de restrição, o erro da inicialização é absorvido pelas variáveis de restrição, mascarando a precisão do código numérico. A segunda técnica adotada não tem como absorver os erros da inicialização pelas variáveis de restrição, desta forma, quando as restrições adicionais não são satisfeitas, não é gerada solução alguma. Entretanto, ao aplicar condições iniciais consistentes para todas as técnicas, conclui-se que o sistema reduzido com as derivadas das variáveis restrição é o método mais conveniente, pois apresenta melhor desempenho computacional, inclusive quando a matriz jacobiana do sistema apresenta problema de mau condicionamento, e garante que todas as restrições que compõem o sistema original estejam presentes no sistema reduzido.
Resumo:
Resumo não disponível.
Resumo:
A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.
Resumo:
O estudo visou determinar os resultados atuais da pecuária de corte gaúcha, determinando os custos limites para a adoção de práticas que conduzam a atividade a melhores níveis de produtividade e rentabilidade. Com este propósito, simulou-se, utilizando programação matemática (multiperiódica), a transição do sistema de criação tradicional ao sistema “dois anos”, determinando o seu custo limite e testando-se vinte e sete combinações tecnológicas, a fim de verificar sua viabilidade econômica e financeira. Concluiu-se que a maioria das inovações tecnológicas testadas (dezesseis das vinte e sete), não traz benefício econômico para a atividade. Os melhores resultados estavam sempre associados ao uso de pastagens consorciadas hibernais (gramíneas e leguminosas), e que é determinante para a viabilidade econômica das mesmas a capacidade de suporte das pastagens, sendo necessário trabalhar-se com mais de 810 kg/ha de carga animal, para atingir-se resultados econômicos satisfatórios para a atividade.
Resumo:
Nesta tese mostramos que uma função de custo contínua e uma tecnologia uniproduto, convexa, monôtona não-crescente e regular implicam que a função de custo mínimo é semicontínua superior em relação ao produto e que a demanda por insumos é fechada. Se a imagem da tecnologia for compacta então a função de custo mínimo é contínua e a demanda por insumos é hemicontínua superior e valor-compacto em relação ao produto. Se a tecnologia possuir a propriedade de ser localmente não-disjunta então a função de custo mínimo é contínua e a demanda por insumos é hemicontínua superior e valorcompacto em relação ao produto. Se a função de custo for monôtona não-decrescente, semicontínua inferior em relação aos contornos inferiores e a tecnologia for uniproduto, convexa, monótona não-crescente, regular, fechada com imagem compacta então a função de custo mínimo é semicontínua inferior em relação ao produto e a demanda ampliada por insumos é hemicontínua superior e valor-compacto em relação ao produto. Se a tecnologia possuir a propriedade de ser localmente não-disjunta então o mesmo resultado é válido. Introduzimos as noções de função monótona não-decrescente e semicontínua inferior em relação aos contornos num espaço topológico ordenado, de correspondência localmente não-disjunta e de demanda ampliada. Mostramos que funções com a propriedade anterior são semicontínuas inferiores e que correspondências convexas localmente não-disjuntas são hemicontínuas inferiores.
Resumo:
A reciclagem de resíduos sólidos industriais tem-se tornado uma prática indispensável na preservação de recursos naturais, minimização de custos e redução de impacto ambiental. Dentro deste contexto destaca-se a indústria da construção civil, com enorme potencial de reciclagem, tendo em vista o grande volume de materiais consumidos. A utilização de materiais alternativos neste setor é uma prática economicamente atraente e ambientalmente correta. Sendo assim, o emprego de escórias como matéria-prima em estradas, aterro, concreto e cimento já é uma prática corrente, onde o destino mais nobre destes materiais recicláveis depende da existência de características adequadas ao uso proposto. A escória granulada de fundição (EGF) é um resíduo gerado no processo de fusão de sucatas de ferro fundido via forno cubilô. Ensaios realizados mostram que esta escória, quando finamente moída, apresenta propriedades pozolânicas. Além disso, sua estrutura amorfa, resultante do processo de geração através de resfriamento brusco e composição química adequada podem permitir uma aplicação nobre deste resíduo, como substituição ao cimento. Este trabalho tem como objetivo estudar a viabilidade da utilização de escória granulada de fundição como substituição de parte do cimento em concreto, através da avaliação de suas propriedades mecânicas. Para tanto foram moldados corpos-de-prova de concreto com diferentes combinações de teores de substituição de cimento por escória granulada de fundição (10%, 30% e 50%), em volume, e relações água/aglomerante (0,40; 0,55 e 0,70), comparando-se com o concreto referência. Para cada idade do concreto (7, 28 e 91 dias) realizaram-se ensaios mecânicos, tais como, resistência à compressão uniaxial, resistência à tração por compressão diametral e resistência à tração na flexão. Além disso, foram realizadas avaliação da microestrutura e caracterização ambiental de concretos com EGF, comparativamente ao concreto referência. Os resultados mostram que o teor de 10% de substituição de cimento por escória granulada de fundição, em volume, apresentou desempenho mecânico similar ao concreto referência. A caracterização ambiental dos concretos com EGF mostra que este material é considerado inerte (NBR 10004).
Resumo:
O câncer colorretal é um dos tumores humanos mais freqüentes e a terceira causa de morte relacionada ao câncer no mundo. Apesar de importantes progressos terapêuticos, os resultados na doença avançada ainda são muito modestos. Isto deve-se ao fato de que a droga mais utilizada nesta neoplasia, o antimetabólito 5-fluorouracil (5-FU), foi desenvolvido a mais de 40 anos produzindo taxas de respostas de somente 10-15%. Recentemente, o inibidor da topoisomerase I irinotecan (CPT-11) demonstrou, em carcinoma de cólon avançado, respostas comparáveis tanto em pacientes não tratados quanto naqueles que tiveram recaída após terapia com 5-FU. Estes resultados justificam a avaliação da combinação 5-FU/CPT-11 nesta doença. Apesar das respostas dos estudos clínicos serem promissoras, a melhor seqüência de administração destes agentes ainda não foi determinada. Neste estudo, avaliamos a combinação CPT-11/5-FU quanto ao aumento da inibição do crescimento celular quando comparada com os agentes sozinhos nas linhagens celulares de carcinoma de cólon humano SW620, HT-29 e SNU-C4. Para isto, as células foram expostas às drogas sozinhas ou a várias combinações e seqüências de dose baixa e fixa (IC20) de um dos agentes na presença de dose alta e seriada do outro. As células foram avaliadas imediatamente após os tratamentos e/ou cultivadas por mais 2 dias em meio de cultura sem drogas através de coloração com sulforodamina B. As interações entre CPT-11 e 5-FU foram avaliadas por um programa de computador que permite calcular os índices de combinação (CIs) das drogas indicando sinergismo, adição, ou antagonismo (CI < 1, = 1, ou > 1, respectivamente). As respostas celulares foram relacionadas com as atividades das enzimas timidilato sintase, topoisomerase I e carboxil esterase, que foram determinadas através de ensaio que mede os sítios de ligação e atividade catalítica da enzima, ensaio de decatenação do DNA e método espectrofotométrico, respectivamente. Estando a toxicidade no DNA envolvida no mecanismo de ação das duas drogas, também relacionamos as respostas celulares com a introdução de danos ao DNA por método fluorescente. Para melhor entendermos as interações entre as drogas, examinamos os efeitos da exposição à IC20, IC50 e/ou IC80 do CPT-11 ou 5-FU por 2 h ou 24 h em alvos celulares possivelmente relacionados com a citotoxicidade destes agentes. Estes incluem: capacidade de reparo por excisão do 10 DNA, distribuição das células nas fases do ciclo celular, integridade da membrana plasmática e formação de complexos DNA-topoisomerase I. Para isto, utilizamos método de incorporação de [3H-metil]timidina, citometria de fluxo, liberação de lactato desidrogenase (LDH) no meio de cultura e ensaio de precipitação com SDS, respectivamente. Os estudos de inibição do crescimento celular revelaram valores de IC50 do 5-FU nas linhagens SW620, HT-29 e SNU-C4 de aproximadamente 15, 8 e 2 µM, respectivamente, e do CPT-11 próximos a 2, 2 e 4 µM, respectivamente. As diferentes sensibilidades ao 5-FU nas três linhagens foram determinadas principalmente pela diferença na afinidade ao substrato. As respostas comparáveis obtidas pela exposição ao CPT-11 podem ser explicadas pelo equilíbrio entre as diferentes atividades das enzimas topoisomerase I e carboxil esterase, entre as linhagens. O programa de análise da combinação das drogas mostrou adição ou sinergismo após exposição a IC20 do CPT-11 seguido do 5-FU, nas três linhagens celulares. Por outro lado, o pré-tratamento com IC20 do 5-FU antagonizou a inibição do crescimento mediada pelo CPT-11. Nenhum dos tratamentos simultâneos determinou um aumento na inibição do crescimento nas linhagens SW620 e HT-29; mas mostraram adição ou antagonismo na linhagem SNU-C4. Observamos um significativo acréscimo na introdução de danos ao DNA nas linhagens celulares SW620 e HT-29 somente quando a IC20 do CPT-11 precedeu a IC50 do 5-FU. Já na linhagem SNU-C4, não somente este tratamento, mas também a utilização simultânea dos agentes introduziu mais dano ao DNA. Os tratamentos por 2 h ou 24 h com IC20, IC50, e/ou IC80 do 5-FU ou CPT-11 não causaram mudanças significativas na distribuição das células nas fases do ciclo celular, concentração de LDH no meio de cultura, ou formação de complexos DNA-topoisomerse I. Indicando que alterações nestes processos não estão envolvidas com os efeitos modulatórios dos pré-tratamentos na citotoxicidade das drogas. Entretanto, a incorporação de [3H-metil]timidina no DNA de células tratadas com CPT-11, aumentou em função da dose e tempo de exposição à droga. Este resultado sugere que o dano ao DNA introduzido pelo CPT-11 depende da dose e tempo de exposição podendo ser reparado por mecanismos de excisão. Somente foi observada significativa incorporação de [3H-metil]timidina em células tratadas com IC20 do 5-FU por 2 h, sugerindo que o reparo por excisão só ocorre após exposição por curto período e à doses baixas deste agente. Juntos, os resultados deste estudo mostraram que tanto os efeitos anti-proliferativos quanto a introdução de danos ao DNA pela combinação CPT-11/5-FU em dose baixa e fixa de um agente junto com dose alta do outro, nas linhagens celulares de carcinoma de cólon humano SW620, HT-29 e SNU-C4, dependem da seqüência de administração das drogas. Estes achados podem ter sido determinados pelos diferentes efeitos do tratamento com uma dose baixa dos agentes nos mecanismos de reparo por excisão do DNA.
Resumo:
As técnicas utilizadas em sistemas de reconhecimento automático de locutor (RAL) objetivam identificar uma pessoa através de sua voz, utilizando recursos computacionais. Isso é feito a partir de um modelamento para o processo de produção da voz. A modelagem detalhada desse processo deve levar em consideração a variação temporal da forma do trato vocal, as ressonâncias associadas à sua fisiologia, perdas devidas ao atrito viscoso nas paredes internas do trato vocal, suavidade dessas paredes internas, radiação do som nos lábios, acoplamento nasal, flexibilidade associada à vibração das cordas vocais, etc. Alguns desses fatores são modelados por um sistema que combina uma fonte de excitação periódica e outra de ruído branco, aplicadas a um filtro digital variante no tempo. Entretanto, outros fatores são desconsiderados nesse modelamento, pela simples dificuldade ou até impossibilidade de descrevê-los em termos de combinações de sinais, filtros digitais, ou equações diferenciais. Por outro lado, a Teoria dos Sistemas Dinâmicos Não-Lineares ou Teoria do Caos oferece técnicas para a análise de sinais onde não se sabe, ou não é conhecido, o modelo detalhado do mecanismo de produção desses sinais. A análise através dessa teoria procura avaliar a dinâmica do sinal e, assumindo-se que tais amostras provêm de um sistema dinâmico não-linear, medidas qualitativas podem ser obtidas desse sistema. Essas medidas não fornecem informações precisas quanto ao modelamento do processo de produção do sinal avaliado, isto é, o modelo analítico é ainda inacessível. Entretanto, pode-se aferir a respeito de suaO problema analisado ao longo deste trabalho trata da busca de novos métodos para extrair informações úteis a respeito do locutor que produziu um determinado sinal de voz. Com isso, espera-se conceber sistemas que realizem a tarefa de reconhecer um pessoa automaticamente através de sua voz de forma mais exata, segura e robusta, contribuindo para o surgimento de sistemas de RAL com aplicação prática. Para isso, este trabalho propõe a utilização de novas ferramentas, baseadas na Teoria dos Sistemas Dinâmicos Não-Lineares, para melhorar a caracterização de uma pessoa através de sua voz. Assim, o mecanismo de produção do sinal de voz é analisado sob outro ponto de vista, como sendo o produto de um sistema dinâmico que evolui em um espaço de fases apropriado. Primeiramente, a possibilidade de utilização dessas técnicas em sinais de voz é verificada. A seguir, demonstra-se como as técnicas para estimação de invariantes dinâmicas não-lineares podem ser adaptadas para que possam ser utilizadas em sistemas de RAL. Por fim, adaptações e automatizações algorítmicas para extração de invariantes dinâmicas são sugeridas para o tratamento de sinais de voz. A comprovação da eficácia dessa metodologia se deu pela realização de testes comparativos de exatidão que, de forma estatisticamente significativa, mostraram o benefício advindo das modificações sugeridas. A melhora obtida com o acréscimo de invariantes dinâmicas da forma proposta no sistema de RAL utilizado nos testes resultou na diminuição da taxa de erro igual (EER) em 17,65%, acarretando um intrínseco aumento de processamento. Para sinais de voz contaminados com ruído, o benefício atingido com o sistema proposto foi verificado para relações sinal ruído (SNRs) maiores que aproximadamente 5 dB. O avanço científico potencial advindo dos resultados alcançados com este trabalho não se limita às invariantes dinâmicas utilizadas, e nem mesmo à caracterização de locutores. A comprovação da possibilidade de utilização de técnicas da Teoria do Caos em sinais de voz permitirá expandir os conceitos utilizados em qualquer sistema que processe digitalmente sinais de voz. O avanço das técnicas de Sistemas Dinâmicos Não-Lineares, como a concepção de invariantes dinâmicas mais representativas e robustas, implicará também no avanço dos sistemas que utilizarem esse novo conceito para tratamento de sinais vocais.
Resumo:
Neste trabalho utiliza-se como sistema dinâmico o circuito eletrônico que integra o sistema de equações acopladas de Rossler modificado. Este sistema possui uma nãolinearidade dada por uma função linear por partes e apresenta comportamento caótico para certos valores dos seus parâmetros. Isto e evidenciado pela rota de dobramento de período obtida variando-se um dos parâmetros do sistema. A caracterização experimental da dinâmica do sistema Rossler modificado e realizada através do diagrama de bifurcações. Apresenta-se uma fundamentação teórica de sistemas dinâmicos introduzindo conceitos importantes tais como atratores estranhos, variedades invariantes e tamb em uma análise da estabilidade de comportamentos assintóticos como pontos fixos e ciclos limites. Para uma caracterização métrica do caos, apresenta-se a definção dos expoentes de Lyapunov. São introduzidos também os expoentes de Lyapunov condicionais e transversais, que estão relacionados com a teoria de sincronizção de sistemas caóticos. A partir de uma montagem mestre-escravo, onde dois osciladores de Rossler estão acoplados unidirecionalmente, introduz-se a de nição de sincronização idêntica, sincronização de fase e variedade de sincronização. Demonstra-se a possibilidade de sincronização em uma rede de osciladores caóticos de Rossler, acoplados simetricamente via acoplamento de primeiros vizinhos. A rede composta por seis osciladores mostrou ser adequada pelo fato de apresentar uma rica estrutura espacial e, ao mesmo tempo, ser experimentalmente implementável. Além da sincronização global (osciladores identicamente sincronizados), obtém-se a sincronização parcial, onde parte dos osciladores sincronizam entre si e a outra parte não o faz. Esse tipo de sincronização abre a possibilidade da formação de padrões de sincronização e, portanto, exibe uma rica estrutura de comportamentos dinâmicos. A sincronização parcial e investigada em detalhes e apresentam-se vários resultados. A principal ferramenta utilizada na análise experimental e numérica e a inspeção visual do gráfico yi yj , fazendo todas as combinações entre elementos diferentes (i e j) da rede. Na análise numérica obtém-se como resultado complementar o máximo expoente de Lyapunov transversal, que descreve a estabilidade da variedade de sincronização global.
Resumo:
Este estudo de caráter descritivo teve como objetivo investigar a qualidade e cinesfera dos movimentos dos membros superiores de jogadores de basquete em cadeira de rodas da Associação Rio-grandense de Paralíticos e Amputados. A revisão de literatura destacou a caracterização da pessoa portadora de deficiência motora e o basquete em cadeira de rodas, assim como o significado, a qualidade e cinesfera do movimento humano. Não tendo sido encontrada literatura sobre pesquisas realizadas a respeito desse assunto quanto ao usuário da cadeira de rodas, a coleta dos dados ocorreu através de entrevistas, filmagens e fichas de observação, o que possibilitou a análise e interpretação da qualidade e cinesfera dos indivíduos da amostra. Com os resultados obtidos, foi possível verificar que, em todos os movimentos locomotores, manipulativos, estabilizantes e expressivos, os indivíduos apresentaram uma qualidade própria dentro dos fatores do movimento (peso, tempo, espaço e fluência); foram também identificadas combinações entre estes fatores (caracterizando ações básicas de esforço). Quanto à cinesfera dos movimentos dos membros superiores, os indivíduos observados, portadores de deficiência motora, demonstraram explorar diferentes direções espaciais (dimensionais, diametrais e diagonais), predominando a direção espacial diametral, denominada de movimento das ações práticas.
Resumo:
Esta tese propõe o desenvolvimento de um método de estimativa de capacitâncias e de potência consumida nos circuitos combinacionais CMOS, no nível de portas lógicas. O objetivo do método é fazer uma previsão do consumo de potência do circuito na fase de projeto lógico, o que permitirá a aplicação de técnicas de redução de potência ou até alteração do projeto antes da geração do seu leiaute. A potência dinâmica consumida por circuitos CMOS depende dos seguintes parâmetros: tensão de alimentação, freqüência de operação, capacitâncias parasitas e atividades de comutação em cada nodo do circuito. A análise desenvolvida na Tese, propõe que a potência seja dividida em duas componentes. A primeira componente está relacionada ao consumo de potência devido às capacitâncias intrínsecas dos transistores, que por sua vez estão relacionadas às dimensões dos transistores. Estas capacitâncias intrínsecas são concentradas nos nodos externos das portas e manifestam-se em função das combinações dos vetores de entrada. A segunda componente está relacionada às interconexões entre as células do circuito. Para esta etapa utiliza-se a estimativa do comprimento médio das interconexões e as dimensões tecnológicas para estimar o consumo de potência. Este comprimento médio é estimado em função do número de transistores e fanout das várias redes do circuito. Na análise que trata das capacitâncias intrínsecas dos transistores os erros encontrados na estimativa da potência dissipada estão no máximo em torno de 11% quando comparados ao SPICE. Já na estimativa das interconexões a comparação feita entre capacitâncias de interconexões estimadas no nível lógico e capacitâncias de interconexões extraídas do leiaute apresentou erros menores que 10%.
Resumo:
As empresas do setor de vestuário estão passando por um novo paradigma influenciado por diversos fatores tais como: acirramento da competitividade resultado da internacionalização das empresas; abertura econômica; novos conceitos gerenciais e de gestão; investimentos em marca; consumidores cada vez mais exigentes e informados e principalmente a questão da moda que, influencia pela necessidade de investimento constante em inovação. Esse dinamismo observado no setor de vestuário induz os agentes participantes desse mercado a desenvolver estratégias competitivas que os diferenciem dos concorrentes e gerem um posicionamento na mente dos consumidores através de ações inovadoras. Neste sentido, este trabalho se concentra em observar como as empresas estão trabalhando no processo de geração e implementação das estratégias genéricas sob a luz das teorias sobre o assunto. O estudo visa ainda, identificar se as organizações estão alinhadas com as principais tendências competitivas e, para tanto, utiliza-se do estudo realizado pela equipe do Núcleo de Gestão da Inovação Tecnológica da Universidade Federal do Rio Grande do Sul (NITEC/UFRGS, 2002) que identificou quatro grandes tendências competitivas, cujas combinações acabam por definir as estratégias operacionais do negócio neste setor. O trabalho utiliza-se do método do estudo de caso e restringe a amostra a empresas gaúchas, produtoras de calças em jeans, que tenham mais de 50% de sua produção no estado do Rio Grande do Sul.
Resumo:
Data available on continuos-time diffusions are always sampled discretely in time. In most cases, the likelihood function of the observations is not directly computable. This survey covers a sample of the statistical methods that have been developed to solve this problem. We concentrate on some recent contributions to the literature based on three di§erent approaches to the problem: an improvement of the Euler-Maruyama discretization scheme, the use of Martingale Estimating Functions and the application of Generalized Method of Moments (GMM).
Resumo:
Data available on continuous-time diffusions are always sampled discretely in time. In most cases, the likelihood function of the observations is not directly computable. This survey covers a sample of the statistical methods that have been developed to solve this problem. We concentrate on some recent contributions to the literature based on three di§erent approaches to the problem: an improvement of the Euler-Maruyama discretization scheme, the employment of Martingale Estimating Functions, and the application of Generalized Method of Moments (GMM).