730 resultados para estimação viesada
Resumo:
Este trabalho avalia o comportamento dos multiplicadores fiscais no Brasil entre 1999-2012. Para tanto, utiliza a metodologia desenvolvida por Sims, Waggoner e Zha (2008), que é um procedimento Bayesiano de estimação no qual os parâmetros do modelo mudam com alterações no estado da economia e os estados (regimes) seguem um processo de mudança de regime markoviano. Ou seja, foi estimado um modelo VAR Estrutural Bayesiano com mudança de regimes Markoviana (Markov Switching Structural Bayesian Vector Autoregression - MS-SBVAR). A base de dados é composta pelo consumo da administração pública, pela formação bruta de capital fixo da administração pública, pela carga tributária líquida e pelo Produto Interno Bruto (PIB), das três esferas do governo (federal, estadual, incluindo o Distrito Federal, e municipal). O software MATLAB/Dynare foi utilizado na estimação dos modelos e os resultados sugerem a ocorrência de 2 ou 3 regimes nos dois modelos que melhor se ajustaram aos dados. Os multiplicadores estimados apresentaram os sinais esperados e os diferentes tipos de multiplicadores fiscais calculados apresentaram valores maiores para a resposta do PIB a choques na formação bruta de capital fixo da administração pública que são eficazes, uma vez que possuem valores maiores do que um e impacto de longo prazo no PIB - quando comparado aos choques no consumo da administração pública, que possuem pouca persistência e são ineficazes (menores do que um), além de uma resposta negativa e persistente do PIB a choques na carga tributária líquida. Os resultados obtidos não indicam, ainda, multiplicadores fiscais maiores em regimes com maior variância nos resíduos do modelo.
Resumo:
Esta dissertação tem por objetivo analisar o comportamento da balança comercial no Brasil no período de 1999 a 2006 e buscar compreender os fatores que contribuíram positivamente para a evolução das exportações, compensando os efeitos negativos advindos do movimento de apreciação da taxa de câmbio ocorrido a partir de 2003. Para tanto, a partir da adaptação de um modelo de oferta e demanda das exportações, elaborado por Goldstein e Khan (1978), utiliza-se dois métodos de estimação para a obtenção das elasticidades com relação às variáveis explicativas do modelo. O primeiro método consiste na estimação de um modelo simultâneo de oferta e demanda das exportações e o segundo método consiste no modelo de cointegração proposto por Engle e Granger. Em ambos os casos, as exportações foram desagregadas por classes de produtos (manufaturados, semimanufaturados e básicos), além do total das exportações.Do lado da demanda, os resultados estimados em ambos os métodos de estimação, tanto para o longo como para o curto prazo, confirmam as hipóteses levantadas ao longo do estudo ou seja, o crescimento dos preços dos produtos exportados, assim como o crescimento da renda mundial, foram bastante relevantes para o crescimento das exportações em todas as classes de produtos analisadas. Em relação à oferta de exportação, a taxa de utilização da capacidade produtiva e os preços dos produtos exportados estiveram co-relacionados positivamente com o quantum ofertado, enquanto que a taxa de câmbio, ao contrário do esperado, apresentou elasticidades negativas.
Resumo:
Métodos para GWS; Teoria dos métodos de regressão; Computação do método Random (Ridge) Regression BLUP (RR-BLUP/GWS); Fenótipos corrigidos; Frequências alélicas, variância dos marcadores e herdabilidade; Marcadores codominantes (SNP) ? Modelo genotípico; Marcadores dominantes (DArT) - Modelo genotípico; Marcadores codominantes (SNP) ? Modelo gamético ou alélico; Número de marcadores com efeitos significativos; Populações de estimação, validação e seleção; População de validação e Jacknife; Correlação e regressão entre valores genéticos preditos e fenótipos na população de validação; Análise de associação na GWAS; Software Selegen Genômica: Random (Ridge) Regression BLUP: RR-BLUP/GWS; Exemplo aplicado ao melhoramento do eucalipto.
Resumo:
Neste trabalho procurou-se apresentar e discutir, de forma ampla, o uso da biotecnologia e seu potencial para os programas de melhoramento de forrageiras tropicais realizados na Embrapa Gado de Corte. O uso da biotecnologia nesses programas é uma atividade recente, mas importantes resultados vêm sendo gerados a fim de auxiliar o processo de obtenção de novas cultivares forrageiras. A maioria dos trabalhos apresentados utiliza marcadores Random Amplification of Polymorphic DNA (RAPD) para aplicações em curto prazo: estudos de diversidade em acessos de bancos de germoplasma, identificação de híbridos e estimação da taxa de cruzamento. Aplicações em médio e longo prazos do uso de marcadores, como mapeamento genético e seleção auxiliada por marcadores moleculares (SAMM), ainda necessitam de maiores investimentos, tanto na busca de novos marcadores, quanto no desenvolvimento de populações adequadas para esses estudos. Em 2007, teve início uma nova linha de pesquisa nessa unidade, a prospecção de genes com características econômicas. Genes para a tolerância ao alumínio são o foco dessa pesquisa que pretende explorar a sintenia entre os genomas de gramíneas, visando ao desenvolvimento de cultivares de braquiária mais tolerantes ao alumínio. A Embrapa Gado de Corte vem investindo em pessoal e aquisição de equipamentos para avançar não só na produção de cultivares de forrageiras mais adaptadas às necessidades de um mercado cada vez mais exigente, como também no crescimento institucional do setor de biotecnologia.
Resumo:
Taxas de crescimento populacional são importantes indicadores em estudos sobre a eficiência de espécies de artrópodes como agentes de controle biológico e aspectos de biossegurança relacionados ao possível impacto de agentes biológicos sobre artrópodes não alvo (MAIA et al., 2000). Nesses estudos, dados de oviposição e sobrevivência de cada um dos tratamentos avaliados são condensados em tabelas de vida e fertilidade (TBVF), para posterior estimação dos parâmetros populacionais: taxa líquida de reprodução (Ro), taxas intrínsecas de crescimento (Rm), tempo de duplicação (Dt), intervalo entre geraçãoes (T) e razão finita de crescimento (Lambda). Os testes estatísticos para comparação de grupos com relação a esses parâmetros requerem a quantificação das incertezas (variância, erro padrão, intervalos de confiança) associada às suas respectivas estimativas, em cada grupo. As estimativas dessas incertezas são tradicionalmente obtidas utilizando o método jackknife. Como alternativa aos testes que utilizam estimativas jackknife da variância, propomos o uso de testes permutacionais (MANLY, 1991). Os testes permutacionais (TP) utilizam distribuições empíricas, geradas via alocações aleatórias das unidades experimentais aos tratamentos (grupos). Tais distribuições empíricas são utilizadas testar hipóteses sobre os parâmetros de interesse.
Resumo:
O objetivo deste trabalho é comparar o método de estimação dos mínimos quadrados ponderados para ajuste de modelos ao semivariograma com o método de tentativa e erro, muito usado na prática, pela técnica de auto-validação "jack- knifing".
Resumo:
O sismo, ocorrido em 6 de Abril de 2009 (Mw 6,3) junto à cidade de Áquila (Itália), provocou uma grande destruição. Uma das consequências deste evento foi o impacto na opinião pública em torno da capacidade científica para a estimação da perigosidade sísmica e a necessidade de criação de sistemas de alerta sísmico. A determinação dos mecanismos de fonte sísmica de eventos sísmicos ocorridos e registados permite melhores caracterizações dos movimentos sísmicos para uma determinada área de estudo e consequentemente melhores cenários de risco. Se a região em estudo possuir propriedades físicas específicas e muito distintas de local para local, capazes de provocar alterações locais dos movimentos sísmicos (efeitos de sítio), torna-se imperativo uma caracterização bem definida do meio de propagação das ondas sísmicas de forma a poder sintetizar informação capaz de contribuir para a boa estimação da perigosidade sísmica. No âmbito deste trabalho pretende-se estudar a influência do mecanismo de fonte sísmica e da estrutura na modelação de movimentos sísmicos no caso de Áquila. A metodologia adoptada consiste na determinação da distribuição de deslizamentos sobre o plano de falha e utilização desta informação na modelação de sismogramas sintéticos (com recurso ao algoritmo E3D). Será igualmente estabelecida uma comparação de resultados considerando-se um meio com e sem bacia e considerando-se uma fonte pontual e uma fonte extensa.
Resumo:
O presente trabalho aborda o problema da estimação de canal e da estimação de desvio de frequência em sistemas OFDM com múltiplas configurações de antenas no transmissor e no receptor. Nesta tese é apresentado o estudo teórico sobre o impacto da densidade de pilotos no desempenho da estimação de canal em sistemas OFDM e são propostos diversos algoritmos para estimação de canal e estimação de desvio de frequência em sistemas OFDM com antenas únicas no transmissor e receptor, com diversidade de transmissão e MIMO. O estudo teórico culmina com a formulação analítica do erro quadrático médio de um estimador de canal genérico num sistema OFDM que utilize pilotos dedicados, distribuidos no quadro transmitido em padrões bi-dimensionais. A formulação genérica é concretizada para o estimador bi-dimensional LS-DFT, permitindo aferir da exactidão da formulação analítica quando comparada com os valores obtidos por simulação do sistema abordado. Os algoritmos de estimação investigados tiram partido da presença de pilotos dedicados presentes nos quadros transmitidos para estimar com precisão os parâmetros pretendidos. Pela sua baixa complexidade, estes algoritmos revelam-se especialmente adequados para implementação em terminais móveis com capacidade computacional e consumo limitados. O desempenho dos algoritmos propostos foi avaliado por meio de simulação do sistema utilizado, recorrendo a modelos aceites de caracterização do canal móvel multipercurso. A comparação do seu desempenho com algoritmos de referência permitir aferir da sua validade. ABSTRACT: The present work focus on the problem of channel estimation and frequency offset estimation in OFDM systems, with different antenna configurations at both the transmitter and the receiver. This thesis presents the theoretical study of the impact of the pilot density in the performance of the channel estimation in OFDM systems and proposes several channel and frequency offset algorithms for OFDM systems with single antenna at both transmitter and receiver, with transmitter diversity and MIMO. The theoretical study results in the analytical formulation of the mean square error of a generic channel estimator for an OFDM system using dedicated pilots, distributed in the transmitted frame in two-dimensional patterns. The generic formulation is implemented for the two-dimensional LS-DFT estimator to verify the accuracy of the analytical formulation when compared with the values obtained by simulation of the discussed system. The investigated estimation algorithms take advantage of the presence of dedicated pilots present in the transmitted frames to accurately estimate the required parameters. Due to its low complexity, these algorithms are especially suited for implementation in mobile terminals with limited processing power and consumption. The performance of the proposed algorithms was evaluated by simulation of the used system, using accepted multipath mobile channel models. The comparison of its performance with the one of reference algorithms measures its validity.
Resumo:
O objectivo principal da presente tese consiste no desenvolvimento de estimadores robustos do variograma com boas propriedades de eficiência. O variograma é um instrumento fundamental em Geoestatística, pois modela a estrutura de dependência do processo em estudo e influencia decisivamente a predição de novas observações. Os métodos tradicionais de estimação do variograma não são robustos, ou seja, são sensíveis a pequenos desvios das hipóteses do modelo. Essa questão é importante, pois as propriedades que motivam a aplicação de tais métodos, podem não ser válidas nas vizinhanças do modelo assumido. O presente trabalho começa por conter uma revisão dos principais conceitos em Geoestatística e da estimação tradicional do variograma. De seguida, resumem-se algumas noções fundamentais sobre robustez estatística. No seguimento, apresenta-se um novo método de estimação do variograma que se designou por estimador de múltiplos variogramas. O método consiste em quatro etapas, nas quais prevalecem, alternadamente, os critérios de robustez ou de eficiência. A partir da amostra inicial, são calculadas, de forma robusta, algumas estimativas pontuais do variograma; com base nessas estimativas pontuais, são estimados os parâmetros do modelo pelo método dos mínimos quadrados; as duas fases anteriores são repetidas, criando um conjunto de múltiplas estimativas da função variograma; por fim, a estimativa final do variograma é definida pela mediana das estimativas obtidas anteriormente. Assim, é possível obter um estimador que tem boas propriedades de robustez e boa eficiência em processos Gaussianos. A investigação desenvolvida revelou que, quando se usam estimativas discretas na primeira fase da estimação do variograma, existem situações onde a identificabilidade dos parâmetros não está assegurada. Para os modelos de variograma mais comuns, foi possível estabelecer condições, pouco restritivas, que garantem a unicidade de solução na estimação do variograma. A estimação do variograma supõe sempre a estacionaridade da média do processo. Como é importante que existam procedimentos objectivos para avaliar tal condição, neste trabalho sugere-se um teste para validar essa hipótese. A estatística do teste é um estimador-MM, cuja distribuição é desconhecida nas condições de dependência assumidas. Tendo em vista a sua aproximação, apresenta-se uma versão do método bootstrap adequada ao estudo de observações dependentes de processos espaciais. Finalmente, o estimador de múltiplos variogramas é avaliado em termos da sua aplicação prática. O trabalho contém um estudo de simulação que confirma as propriedades estabelecidas. Em todos os casos analisados, o estimador de múltiplos variogramas produziu melhores resultados do que as alternativas usuais, tanto para a distribuição assumida, como para distribuições contaminadas.
Resumo:
A análise das séries temporais de valores inteiros tornou-se, nos últimos anos, uma área de investigação importante, não só devido à sua aplicação a dados de contagem provenientes de diversos campos da ciência, mas também pelo facto de ser uma área pouco explorada, em contraste com a análise séries temporais de valores contínuos. Uma classe que tem obtido especial relevo é a dos modelos baseados no operador binomial thinning, da qual se destaca o modelo auto-regressivo de valores inteiros de ordem p. Esta classe é muito vasta, pelo que este trabalho tem como objectivo dar um contributo para a análise estatística de processos de contagem que lhe pertencem. Esta análise é realizada do ponto de vista da predição de acontecimentos, aos quais estão associados mecanismos de alarme, e também da introdução de novos modelos que se baseiam no referido operador. Em muitos fenómenos descritos por processos estocásticos a implementação de um sistema de alarmes pode ser fundamental para prever a ocorrência de um acontecimento futuro. Neste trabalho abordam-se, nas perspectivas clássica e bayesiana, os sistemas de alarme óptimos para processos de contagem, cujos parâmetros dependem de covariáveis de interesse e que variam no tempo, mais concretamente para o modelo auto-regressivo de valores inteiros não negativos com coeficientes estocásticos, DSINAR(1). A introdução de novos modelos que pertencem à classe dos modelos baseados no operador binomial thinning é feita quando se propõem os modelos PINAR(1)T e o modelo SETINAR(2;1). O modelo PINAR(1)T tem estrutura periódica, cujas inovações são uma sucessão periódica de variáveis aleatórias independentes com distribuição de Poisson, o qual foi estudado com detalhe ao nível das suas propriedades probabilísticas, métodos de estimação e previsão. O modelo SETINAR(2;1) é um processo auto-regressivo de valores inteiros, definido por limiares auto-induzidos e cujas inovações formam uma sucessão de variáveis independentes e identicamente distribuídas com distribuição de Poisson. Para este modelo estudam-se as suas propriedades probabilísticas e métodos para estimar os seus parâmetros. Para cada modelo introduzido, foram realizados estudos de simulação para comparar os métodos de estimação que foram usados.
Resumo:
Os sistemas compartimentais são frequentemente usados na modelação de diversos processos em várias áreas, tais como a biomedicina, ecologia, farmacocinética, entre outras. Na maioria das aplicações práticas, nomeadamente, aquelas que dizem respeito à administração de drogas a pacientes sujeitos a cirurgia, por exemplo, a presença de incertezas nos parâmetros do sistema ou no estado do sistema é muito comum. Ao longo dos últimos anos, a análise de sistemas compartimentais tem sido bastante desenvolvida na literatura. No entanto, a análise da sensibilidade da estabilidade destes sistemas na presença de incertezas tem recebido muito menos atenção. Nesta tese, consideramos uma lei de controlo por realimentação do estado com restrições de positividade e analisamos a sua robustez quando aplicada a sistemas compartimentais lineares e invariantes no tempo com incertezas nos parâmetros. Além disso, para sistemas lineares e invariantes no tempo com estado inicial desconhecido, combinamos esta lei de controlo com um observador do estado e a robustez da lei de controlo resultante também é analisada. O controlo do bloqueio neuromuscular por meio da infusão contínua de um relaxante muscular pode ser modelado como um sistema compartimental de três compartimentos e tem sido objecto de estudo por diversos grupos de investigação. Nesta tese, os nossos resultados são aplicados a este problema de controlo e são fornecidas estratégias para melhorar os resultados obtidos.
Resumo:
Tendo em conta que um dos principais objectivos da União Europeia é a aproximação dos níveis de vida dos cidadãos europeus, este trabalho testa a hipótese de convergência entre as regiões NUTS II da União Europeia no período de 1990 a 2001, através da análise da dispersão e estimação de regressões “tipo Barro” que relacionam o crescimento com o nível de rendimento inicial e outras variáveis. Identifica os factores que explicam as diferenças regionais no produto per capita, produtividade e produto por pessoa com idade para trabalhar, mostrando as diferenças de resultados consoante a variável utilizada. Os resultados mostram a existência de convergência do produto per capita e do produto por trabalhador, mas não do produto por pessoa com idade para trabalhar, uma vez que a evolução da demografia tem-se mostrado favorável à redução das disparidades, mas o emprego não. Procura também avaliar se a eligibilidade das regiões como “objectivo 1”, no âmbito da política comunitária, permitiu um maior crescimento das mesmas. Encontra ainda evidência de convergência condicional entre as regiões da UE, com o dinamismo das regiões vizinhas a terem um impacto positivo na velocidade de convergência regional, mostrando-nos a importância do investimento em acessibilidades que tornem as regiões periféricas cada vez mais próximas dos grandes centros económicos.
Resumo:
As técnicas estatísticas são fundamentais em ciência e a análise de regressão linear é, quiçá, uma das metodologias mais usadas. É bem conhecido da literatura que, sob determinadas condições, a regressão linear é uma ferramenta estatística poderosíssima. Infelizmente, na prática, algumas dessas condições raramente são satisfeitas e os modelos de regressão tornam-se mal-postos, inviabilizando, assim, a aplicação dos tradicionais métodos de estimação. Este trabalho apresenta algumas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, em particular na estimação de modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. A investigação é desenvolvida em três vertentes, nomeadamente na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, na estimação do parâmetro ridge em regressão ridge e, por último, em novos desenvolvimentos na estimação com máxima entropia. Na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, o trabalho desenvolvido evidencia um melhor desempenho dos estimadores de máxima entropia em relação ao estimador de máxima verosimilhança. Este bom desempenho é notório em modelos com poucas observações por estado e em modelos com um grande número de estados, os quais são comummente afetados por colinearidade. Espera-se que a utilização de estimadores de máxima entropia contribua para o tão desejado aumento de trabalho empírico com estas fronteiras de produção. Em regressão ridge o maior desafio é a estimação do parâmetro ridge. Embora existam inúmeros procedimentos disponíveis na literatura, a verdade é que não existe nenhum que supere todos os outros. Neste trabalho é proposto um novo estimador do parâmetro ridge, que combina a análise do traço ridge e a estimação com máxima entropia. Os resultados obtidos nos estudos de simulação sugerem que este novo estimador é um dos melhores procedimentos existentes na literatura para a estimação do parâmetro ridge. O estimador de máxima entropia de Leuven é baseado no método dos mínimos quadrados, na entropia de Shannon e em conceitos da eletrodinâmica quântica. Este estimador suplanta a principal crítica apontada ao estimador de máxima entropia generalizada, uma vez que prescinde dos suportes para os parâmetros e erros do modelo de regressão. Neste trabalho são apresentadas novas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, tendo por base o estimador de máxima entropia de Leuven, a teoria da informação e a regressão robusta. Os estimadores desenvolvidos revelam um bom desempenho em modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. Por último, são apresentados alguns códigos computacionais para estimação com máxima entropia, contribuindo, deste modo, para um aumento dos escassos recursos computacionais atualmente disponíveis.
Resumo:
Esta tese apresenta algoritmos que estimam o espetro de um sinal não periódico a partir de um numero finito de amostras, tirando partido da esparsidade do sinal no domínio da frequência. Trata-se de um problema em que devido aos efeitos de leakage, o sucesso dos algoritmos tradicionais esta limitado. Para ultrapassar o problema, os algoritmos propostos transformam a base DFT numa frame com um maior numero de colunas, inserindo um numero reduzido de colunas entre algumas das iniciais. Estes algoritmos são baseados na teoria do compressed sensing, que permite obter e representar sinais esparsos e compressíveis, utilizando uma taxa de amostragem muito inferior à taxa de Nyquist. Os algoritmos propostos apresentam um bom desempenho em comparação com os algoritmos existentes, destacando-se na estimação do espetro de sinais compostos por sinusóides com frequências muito próximas, com amplitudes diferentes e na presença de ruído, situação particularmente difícil e perante a qual os restantes algoritmos falham.
Resumo:
This work investigates new channel estimation schemes for the forthcoming and future generation of cellular systems for which cooperative techniques are regarded. The studied cooperative systems are designed to re-transmit the received information to the user terminal via the relay nodes, in order to make use of benefits such as high throughput, fairness in access and extra coverage. The cooperative scenarios rely on OFDM-based systems employing classical and pilot-based channel estimators, which were originally designed to pointto-point links. The analytical studies consider two relaying protocols, namely, the Amplifyand-Forward and the Equalise-and-Forward, both for the downlink case. The relaying channels statistics show that such channels entail specific characteristics that comply to a proper filter and equalisation designs. Therefore, adjustments in the estimation process are needed in order to obtain the relay channel estimates, refine these initial estimates via iterative processing and obtain others system parameters that are required in the equalisation. The system performance is evaluated considering standardised specifications and the International Telecommunication Union multipath channel models.