36 resultados para Estimação

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho estima uma nova relação entre emprego e inflação para o Brasil, tendo como pano de fundo hipóteses propostas pelo arcabouço neo-keynesiano. Quatro hipóteses são testadas e sustentadas ao longo de todo o trabalho: i) os agentes não possuem racionalidade perfeita; ii) a imperfeição no processo de formação das expectativas dos agentes pode ser um fator determinante no componente inercial da inflação brasileira; iii) a inflação possui um componente inercial autônomo, que não depende de choques verificados em mercados isolados; e, iv) relações não-lineares entre inflação e desemprego são capazes de fornecer melhores explicações para o comportamento da economia nos últimos 12 anos. Enquanto as duas primeiras hipóteses são verificadas através de um modelo com mudanças markovianas, as duas últimas são testadas a partir da estimação de uma Curva de Phillips convexa, estimadas pelo Filtro de Kalman. Entretanto, mesmo fazendo uso destas estimativas, as funções de resposta da política monetária apresentam as mesmas propriedades de estimativas tradicionais para o Brasil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho analisamos processos estocásticos com decaimento polinomial (também chamado hiperbólico) da função de autocorrelação. Nosso estudo tem enfoque nas classes dos Processos ARFIMA e dos Processos obtidos à partir de iterações da transformação de Manneville-Pomeau. Os objetivos principais são comparar diversos métodos de estimação para o parâmetro fracionário do processo ARFIMA, nas situações de estacionariedade e não estacionariedade e, além disso, obter resultados similares para o parâmetro do processo de Manneville-Pomeau. Entre os diversos métodos de estimação para os parâmetros destes dois processos destacamos aquele baseado na teoria de wavelets por ser aquele que teve o melhor desempenho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tarefa de estimação de movimento, utilizada na compressão de vídeo digital, é normalmente realizada em hardware por processador dedicado, uma vez que demanda expressiva capacidade computacional. Este trabalho propõe e desenvolve uma arquitetura de hardware para realizar o cálculo dos vetores de movimento no contexto de compressão de vídeo digital. Essa arquitetura para estimação de movimento é composta pelos blocos: interface de entrada e saída (E/S), matriz de processamento com 64 elementos de processamento, unidade de comparação e unidade de controle. A arquitetura foi descrita em linguagem VHDL de maneira que o número de bits utilizados para representação da luminância dos pontos é configurável. A partir desta descrição, foi gerado um protótipo para dados representados em 4 bits utilizando um kit de desenvolvimento baseado no dispositivo FPGA XC2S150 da Xilinx. Para validação do algoritmo e da arquitetura implementada, além da simulação, foi desenvolvido um software para plataforma PC capaz de exercitar as funcionalidades do protótipo. O PC é utilizado como dispositivo controlador de E/S para esta validação, na qual uma implementação do algoritmo em software e outra em linguagem de descrição de hardware são comparadas. A máxima freqüência de trabalho do protótipo, estimada por simulação da arquitetura mapeada no FPGA XC2S150, é de 33 MHz. A esta freqüência o núcleo da arquitetura paralela de 64 elementos de processamento realiza cerca de 2,1 GOps (bilhões de operações inteiras por segundo). Esta arquitetura de hardware calcula os vetores de movimento para vídeo no formato 640x480 pontos à taxa de 107,32 quadros por segundo, ou um quadro a cada 9,3 ms. A arquitetura implementada para luminânica em 4 bits ocupa 16 pinos de E/S, 71,1% dos blocos lógicos do FPGA e 83,3% dos blocos de memória disponíveis no dispositivo XC2S150.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A comparação de dados de mercado é o método mais empregado em avaliação de imóveis. Este método fundamenta-se na coleta, análise e modelagem de dados do mercado imobiliário. Porém os dados freqüentemente contêm erros e imprecisões, além das dificuldades de seleção de casos e atributos relevantes, problemas que em geral são solucionados subjetivamente. Os modelos hedônicos de preços têm sido empregados, associados com a análise de regressão múltipla, mas existem alguns problemas que afetam a precisão das estimativas. Esta Tese investigou a utilização de técnicas alternativas para desenvolver as funções de preparação dos dados e desenvolvimento de modelos preditivos, explorando as áreas de descobrimento de conhecimento e inteligência artificial. Foi proposta uma nova abordagem para as avaliações, consistindo da formação de uma base de dados, ampla e previamente preparada, com a aplicação de um conjunto de técnicas para seleção de casos e para geração de modelos preditivos. Na fase de preparação dos dados foram utilizados as técnicas de regressão e redes neurais para a seleção de informação relevante, e o algoritmo de vizinhança próxima para estimação de valores para dados com erros ou omissões. O desenvolvimento de modelos preditivos incluiu as técnicas de regressão com superficies de resposta, modelos aditivos generalizados ajustados com algoritmos genéticos, regras extraídas de redes neurais usando lógica difusa e sistemas de regras difusas obtidos com algoritmos genéticos, os quais foram comparados com a abordagem tradicional de regressão múltipla Esta abordagem foi testada através do desenvolvimento de um estudo empírico, utilizando dados fornecidos pela Prefeitura Municipal de Porto Alegre. Foram desenvolvidos três formatos de avaliação, com modelos para análise de mercado, avaliação em massa e avaliação individual. Os resultados indicaram o aperfeiçoamento da base de dados na fase de preparação e o equilíbrio das técnicas preditivas, com um pequeno incremento de precisão, em relação à regressão múltipla.Os modelos foram similares, em termos de formato e precisão, com o melhor desempenho sendo atingido com os sistemas de regras difusas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Setor Metal-Mecânico da indústria de Caxias do Sul, a exemplo da indústria nacional, apresentou variações positivas de produtividade da mão-de-obra para todos os seus gêneros produtivos, no período 1995/2000. No entanto, as taxas de crescimento oscilaram significativamente entre os gêneros, indicando a existência de diferenças de desempenho entre eles. O desempenho das empresas depende da eficiência do emprego da tecnologia de produção e as diferenças podem estar associadas às mudanças organizacionais, decorrentes da reestruturação produtiva motivada pela abertura comercial, e levadas a cabo pela adoção de medidas que busquem a qualificação dos processos produtivos das empresas para aumentar a competitividade nos mercados interno e externo. Buscou-se, nesse estudo, mensurar a eficiência técnica do setor Metal- Mecânico de Caxias do Sul, analisando a evolução dos seus níveis, no período 1995/2000, e a capacidade das medidas de qualificação adotadas em aumentar a eficiência das empresas. Para tanto, utilizou-se a técnica da estimação da função de produção de fronteira, a partir da qual se estimaram os níveis de eficiência técnica dos gêneros produtivos do Setor. Além disso, avaliou-se a capacidade das medidas de qualificação em aumentar a probabilidade das empresas obterem eficiência, através da estimação de um modelo probit. Constatou-se que a eficiência técnica dos gêneros produtivos do Setor é alta e seus níveis se elevaram, significativamente, no período 1995/2000. Ao mesmo tempo, constatou-se que o treinamento de mão-de-obra, a busca de assessoria/consultoria externa, a exigência de certificação de qualidade para fornecedores e a importação de matérias-primas são medidas que aumentam a probabilidade das empresas do Setor se tornarem mais eficientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento tecnológico, aliado à grande competitividade do mercado em escala mundial, tem como conseqüências diretas a elevação dos padrões de consumo e o aumento da diversidade de opções de compra por parte dos consumidores. Desta forma as empresas têm se empenhado em desenvolver sistemas de gestão robustos, porém flexíveis, que lhes proporcionem produzir bens de melhor qualidade, com diferenciais em relação aos concorrentes. A confiabilidade de um produto apresenta, sob diferentes aspectos, impacto na satisfação do consumidor, resultando como fator fundamental na decisão de compra. Além disso, as empresas têm procurado desenvolver mecanismos que propiciem criar um canal de relacionamento mais amplo junto aos seus consumidores, utilizando-se dos programas de fidelidade que têm como uma das suas principais ferramentas a extensão da garantia de produtos. Para implementar um programa de extensão de garantia, a empresa deve estar produzindo com alto nível de confiabilidade e estar em acompanhamento contínuo do desempenho destes produtos no campo. Este acompanhamento pode ser feito a partir dos dados de falha dos produtos em garantia, que possibilitam estabelecer indicadores de performance e avaliar custos relacionados às não-conformidades observadas. Este trabalho propõe, a partir de um estudo de caso, realizar a modelagem para análise da confiabilidade de um produto refrigerador freezer, com o objetivo de identificar a distribuição das falhas e estimar a confiabilidade do produto para um período de 2 (dois) anos de uso, possibilitando assim à empresa estabelecer os custos adicionais com a extensão da garantia do produto que atualmente é de 1 (um) ano. O estudo foi delineado em duas alternativas de modelagem, sendo a primeira através da adequação, estimação e simulação do modelo de distribuição de falhas e a segunda por meio da análise bayesiana de confiabilidade envolvendo o uso de distribuições a priori e a posteriori. Os resultados observados demonstram que apesar das técnicas serem distintas, as modelagens convergiram para estimativas similares e qualitativamente coerentes com os pressupostos estabelecidos pela empresa pesquisada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudamos neste trabalho, o nível de significância empírico dos testes portmanteau baseados nas estatísticas propostas por Ljung e Box (1978), Monti (1994) e Pe˜na e Rodríguez (2002) nos processos ARFIMA(p; d; q). Consideramos o processo ARFIMA(p; d; q) nas situações adequadas para representar séries temporais com características de longa dependência. Para estimar o parâmetro de diferenciação d utilizamos os métodos de estimação propostos por Geweke e Porter-Hudak (1983), Reisen (1994), Robinson (1994) e Fox e Taqqu (1983).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho trata da verificação empírica da relação de estrutura-conduta-desempenho para o Brasil. Suas principais diferenças dos estudos anteriores sobre este tema para o país são o uso de dados de firmas e a técnica econométrica utilizada na estimação, além da inclusão de novas variáveis explicativas. Os resultados obtidos indicam um comportamento pró-cíclico das margens de lucro, conforme previsto no modelo de Green e Porter. Além disso são identificados como fatores importantes do desempenho das firmas, a lucratividade defasada (persistência nos lucros) e a intensidade de importação (concorrência externa).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As técnicas utilizadas em sistemas de reconhecimento automático de locutor (RAL) objetivam identificar uma pessoa através de sua voz, utilizando recursos computacionais. Isso é feito a partir de um modelamento para o processo de produção da voz. A modelagem detalhada desse processo deve levar em consideração a variação temporal da forma do trato vocal, as ressonâncias associadas à sua fisiologia, perdas devidas ao atrito viscoso nas paredes internas do trato vocal, suavidade dessas paredes internas, radiação do som nos lábios, acoplamento nasal, flexibilidade associada à vibração das cordas vocais, etc. Alguns desses fatores são modelados por um sistema que combina uma fonte de excitação periódica e outra de ruído branco, aplicadas a um filtro digital variante no tempo. Entretanto, outros fatores são desconsiderados nesse modelamento, pela simples dificuldade ou até impossibilidade de descrevê-los em termos de combinações de sinais, filtros digitais, ou equações diferenciais. Por outro lado, a Teoria dos Sistemas Dinâmicos Não-Lineares ou Teoria do Caos oferece técnicas para a análise de sinais onde não se sabe, ou não é conhecido, o modelo detalhado do mecanismo de produção desses sinais. A análise através dessa teoria procura avaliar a dinâmica do sinal e, assumindo-se que tais amostras provêm de um sistema dinâmico não-linear, medidas qualitativas podem ser obtidas desse sistema. Essas medidas não fornecem informações precisas quanto ao modelamento do processo de produção do sinal avaliado, isto é, o modelo analítico é ainda inacessível. Entretanto, pode-se aferir a respeito de suaO problema analisado ao longo deste trabalho trata da busca de novos métodos para extrair informações úteis a respeito do locutor que produziu um determinado sinal de voz. Com isso, espera-se conceber sistemas que realizem a tarefa de reconhecer um pessoa automaticamente através de sua voz de forma mais exata, segura e robusta, contribuindo para o surgimento de sistemas de RAL com aplicação prática. Para isso, este trabalho propõe a utilização de novas ferramentas, baseadas na Teoria dos Sistemas Dinâmicos Não-Lineares, para melhorar a caracterização de uma pessoa através de sua voz. Assim, o mecanismo de produção do sinal de voz é analisado sob outro ponto de vista, como sendo o produto de um sistema dinâmico que evolui em um espaço de fases apropriado. Primeiramente, a possibilidade de utilização dessas técnicas em sinais de voz é verificada. A seguir, demonstra-se como as técnicas para estimação de invariantes dinâmicas não-lineares podem ser adaptadas para que possam ser utilizadas em sistemas de RAL. Por fim, adaptações e automatizações algorítmicas para extração de invariantes dinâmicas são sugeridas para o tratamento de sinais de voz. A comprovação da eficácia dessa metodologia se deu pela realização de testes comparativos de exatidão que, de forma estatisticamente significativa, mostraram o benefício advindo das modificações sugeridas. A melhora obtida com o acréscimo de invariantes dinâmicas da forma proposta no sistema de RAL utilizado nos testes resultou na diminuição da taxa de erro igual (EER) em 17,65%, acarretando um intrínseco aumento de processamento. Para sinais de voz contaminados com ruído, o benefício atingido com o sistema proposto foi verificado para relações sinal ruído (SNRs) maiores que aproximadamente 5 dB. O avanço científico potencial advindo dos resultados alcançados com este trabalho não se limita às invariantes dinâmicas utilizadas, e nem mesmo à caracterização de locutores. A comprovação da possibilidade de utilização de técnicas da Teoria do Caos em sinais de voz permitirá expandir os conceitos utilizados em qualquer sistema que processe digitalmente sinais de voz. O avanço das técnicas de Sistemas Dinâmicos Não-Lineares, como a concepção de invariantes dinâmicas mais representativas e robustas, implicará também no avanço dos sistemas que utilizarem esse novo conceito para tratamento de sinais vocais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo o desenvolvimento de um modelo dinâmico genérico para reatores de polimerização em leito fluidizado com capacidade de predizer produção, condições de operação e propriedades do produto, como o índice de fluidez e densidade. Este modelo genérico é então aplicado ao caso específico da polimerização de eteno em reatores do processo UNIPOL, utilizando catalisador de óxido de cromo. De modo a obter um modelo validado, os parâmetros cinéticos são estimados utilizando experimentos realizados em uma planta piloto UNIPOL. Também é apresentado um modelo simplificado em relação ao modelo proposto inicialmente, cujo objetivo é remover as interações dos parâmetros das malhas de controle com os parâmetros cinéticos a serem estimados, aproveitando medidas de planta não utilizadas pelo outro modelo. Junto com a parte de estimação de parâmetros é apresentada a metodologia da análise de sensibilidade para o planejamento de experimentos e estimação de parâmetros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo Spheripol é, atualmente, um dos mais utilizados na produção industrial de polipropileno e seus copolímeros. É composto por dois reatores tipo loop em série e, em alguns casos, um ou dois reatores tipo fase gás também em série. Neste trabalho é apresentado um modelo para os reatores loop do processo Spheripol. Os reatores loop são modelados como CSTR não ideais. O esquema cinético implementado é relativamente amplo, sendo capaz de englobar copolimerizações multisítio. Uma análise qualitativa do modelo é feita utilizando parâmetros cinéticos presentes na literatura e uma análise quantitativa do modelo é feita com base em dados reais de planta industrial. Ainda com base em dados de planta é feita uma estimação de parâmetros e a validação do modelo. Finalmente, o modelo com parâmetros estimados é aplicado num estudo de caso no qual também é criado um modelo de equilíbrio termodinâmico para a mistura reacional baseado na lei de Henry e na equação de estado de Peng-Robinson.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma atividade com a magnitude da avicultura, que usa equipamentos de última geração e serviços atualizados, é levada, na maioria dos casos, a tomar decisões que envolvem todos aspectos de produção, apoiada em critérios subjetivos. A presente tese objetivou estudar a utilização das redes neurais artificiais na estimação dos parâmetros de desempenho de matrizes pesadas, pertencentes a uma integração avícola sul-brasileira. Foram utilizados os registros de 11 lotes em recria, do período compreendido entre 09/11/97 a 10/01/99 e de 21 lotes em produção, do período compreendido entre 26/04/98 a 19/12/99, para a análise por redes neurais artificiais. Os dados utilizados corresponderam a 273 linhas de registros semanais, do período de recria e 689 linhas de registros semanais, do período de produção. Os modelos de redes neurais foram comparados e selecionados como melhores, baseados no coeficiente de determinação múltipla (R2), Quadrado Médio do Erro (QME), bem como pela análise de gráficos, plotando a predição da rede versus a predição menos o real (resíduo). Com esta tese foi possível explicar os parâmetros de desempenho de matrizes pesadas, através da utilização de redes neurais artificiais. A técnica permite a tomada de decisões por parte do corpo técnico, baseadas em critérios objetivos obtidos cientificamente. Além disso, este método permite simulações das conseqüências de tais decisões e fornece a percentagem de contribuição de cada variável no fenômeno em estudo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A preocupação com os ciclos econômicos induzidos por eleições não é meramente uma curiosidade científica. Já se pode dizer que há consenso na literatura que um comportamento ciclicamente endógeno da política econômica contribui para a volatilidade nos países latinoamericanos, de modo que isto tem efeitos significativamente prejudiciais sobre o desenvolvimento destes países. Em particular o ciclo na política fiscal, não estando associado à tentativa de compensar o ciclo econômico, mas sincronizado com o calendário eleitoral leva a uma alocação intertemporal ineficiente dos recursos. Pela importância do ciclo e pela investigação empírica da teoria no país, ao longo deste trabalho, buscou-se avançar na agenda de pesquisa sobre ciclo político no Brasil. Aqui se procurou cobrir a área referente aos efeitos de políticas oportunistas de caráter eleitoral sobre a execução orçamentária nos estados brasileiros. Investigou-se a existência de ciclos eleitorais nas variáveis orçamentárias, visando fornecer uma idéia minimamente clara do comportamento destas ao longo dos mandatos e identificar como algumas características políticoeleitorais dos estados poderiam afetar as receitas e despesas públicas. Para tanto se utilizou um modelo de painel dinâmico, que permitiu que se analisasse uma amostra na sua dimensão temporal capaz de abranger o período 1983-2000. Os resultados da estimação acabaram confirmando de maneira contundente as suposições teóricas, e mesmo do senso comum, que se tinha em relação ao ciclo político nas variáveis orçamentárias. Para a maioria absoluta das variáveis analisadas não se pode negar a existência de um efeito do período eleitoral sobre o seu comportamento, sendo que para aquelas associadas à despesa pública e ao resultado orçamentário, o comportamento no ano eleitoral em particular, confirmou o sugerido pela teoria e pelos resultados de outros trabalhos aplicados a países em desenvolvimento, desenvolvidos e mesmo para Brasil.