999 resultados para medidas de incerteza
Resumo:
Com o crescente uso das teorias e métodos vindos das áreas de economia regional e urbana, economia e econometria espacial na fronteira entre as áreas de economia e políticas públicas, estudar esse arcabouço teórico e metodológico torna-se relevante no campo da análise de políticas públicas. O objetivo geral dessa dissertação é discutir de modo crítico aspectos da literatura de econometria espacial e sua aplicabilidade, com especial foco na comparação entre os diferentes modelos e matrizes de ponderação espacial. Esse estudo procura analisar diferentes formas de medidas que permitem a construção de uma matriz de ponderação espacial, bem como testar por meio de simulação experimental e em uma aplicação empírica a robustez de algumas dessas matrizes e de diferentes modelos. Dadas as indicações da literatura e as evidências mostradas nessa dissertação, a estratégia mais confiável para a busca de um modelo parece ser utilizar as estimativas dos modelos, em conjunto com as estatísticas de Moran, para identificar presença de algum tipo de correlação espacial, e do teste LM da variável dependente, para indicar esse tipo de correlação especificamente. Observa-se que, de modo geral, não há muita diferença em termos de esperança dos parâmetros não espaciais, quando comparadas a estimações tradicionais com as que utilizam as técnicas espaciais. Com isso, a indicação que se pode fazer é que o uso das ferramentas de econometria espacial deve ser aplicado quando o interesse da análise é justamente na estimação dos parâmetros de correlação espacial. Comparando o uso da matriz de contigüidade no lugar da matriz de distâncias, é possível notar que a matriz de contigüidade não é, de forma geral, uma boa substituição para a matriz de distâncias. Ela capta parcialmente o efeito de rho e lambda, além de captar erroneamente lambda, quando este inexiste.
Resumo:
Este trabalho visa investigar o analfabetismo no Brasil a partir do uso de novas medidas de alfabetização inicialmente desenvolvidas por Basu e Foster (1998). Para tanto, primeiro se avalia o perfil de alfabetização da população brasileira de acordo com a definição de analfabetismo isolado. Entende-se por analfabetos isolados aqueles indivíduos analfabetos que não convivem com pessoas alfabetizadas em nível domiciliar. Segundo, busca-se evidências de externalidades domiciliares da alfabetização de filhos em aspectos relacionados a salários e à participação no mercado de trabalho de pais analfabetos. Devido à suspeita de causalidade reversa nas estimações por Mínimos Quadrados Ordinários (MQO) das equações que relacionam as variáveis de interesse dos pais com as alfabetizações dos filhos, utiliza-se as ofertas municipais de escolas e professores de primeiro grau como variáveis instrumentais para a alfabetização. Da investigação do perfil de alfabetização constata-se que a região Nordeste é a que apresenta os piores resultados entre as regiões do país, uma vez que é a que tem a maior parcela de analfabetos isolados do total. Tal resultado condiciona políticas públicas de alfabetização para essa região. As aplicações das medidas indicam que os rankings de alfabetização por estados são sensíveis às diferentes medidas. Os resultados encontrados das estimações por MQO indicam haver correlação positiva entre as variáveis dependentes dos pais e alfabetização dos filhos. Entretanto, a aplicação da metodologia de variáveis instrumentais não confirma os resultados das estimações por MQO. Contudo, devido à fragilidade dos resultados das estimações do primeiro estágio, não se pode afirmar que não há externalidades da alfabetização dos filhos para os pais.
Resumo:
Leilão é um procedimento de alocação de recursos com boas propriedades. Apresento a literatura teórica de leilões a qual demonstra, que sob diversas condições, leilões levam à alocação eficiente de recursos e maximização da receita do leiloeiro. Entretanto estes resultados valem apenas se os participantes do leilão não estejam organizados em cartéis. Um Cartel é uma organização que inibe a concorrência entre firmas. A atuação de um cartel pode ou não levar a uma alocação eficiente de recursos, mas a receita do leiloeiro será sempre prejudicada. Analiso a literatura teórica de cartel em leilões de objeto único que caracteriza formas de coordenação do cartel, estratégias de atuação e sua sustentabilidade. Apresento os desafios que o cartel deve superar. Mais ainda, proponho medidas que devem ser tomadas, caso haja suspeita de existência de cartel. O leilão de primeiro preço é o menos suscetível a ação de cartéis, pois nele há incentivo para as firmas desviarem das orientações do cartel. O combate a cartéis é avaliado por meio da taxa de desconto necessária para o cartel existir. Se a taxa de desconto necessária é menor significa um cartel mais difícil de ser sustentado. Demonstro que o preço de reserva randômico é melhor para combater cartéis do que o preço de reserva fixo em leilões de primeiro preço que se repetem.
Resumo:
Neste trabalho é proposto um modelo de construção de superfície de volatilidade de opções pouco líquidas de ações listadas em bolsa. O modelo é uma função matemática que transforma a superfície de volatilidade de uma opção líquida de ação em uma superfície de volatilidade de opção pouco líquida de ação. O modelo apresenta alta sensibilidade em relação aos parâmetros da função matemática utilizada. Logo, podem ser obtidos resultados bem distintos, caso se utilize, por exemplo, a superfície de opção de Ibovespa ou de Vale como possíveis parâmetros da função. Neste caso, também é proposta uma metodologia para a decisão sobre a escolha do parâmetro de volatilidade mais adequado, tomando-se por base um backtest das diferenças observadas entre volatilidade realizada e proposta. A principal hipótese assumida no modelo é que a diferença calculada entre a volatilidade implícita da opção e a volatilidade histórica de seu ativo-objeto é uma medida que possui proporção entre mesmas medidas de todos os ativos-objetos. Assim, se conhecidas essa medida e a volatilidade histórica de um determinado ativo-objeto, calcula-se a volatilidade “implícita” da opção desse mesmo ativo-objeto. Assim como a incerteza relacionada à hipótese descrita acima, existem outras relacionadas à seleção de parâmetros no modelo e à própria iliquidez da opção e de seu ativo-objeto. O impacto dessas incertezas reflete-se no resultado financeiro da opção. Assim, propõe-se um modelo de gestão financeira conservadora baseada em reserva de resultado financeiro como provisão dessas incertezas. Neste trabalho, apresentam-se testes para algumas opções, mostrando as provisões hipoteticamente necessárias em termos de vegas das opções para cada subjacente.
Resumo:
O presente trabalho busca testar a validade da Regra de Taylor no controle da inflação em sete países emergentes que adotam o sistema de metas inflação: Brasil, Colômbia, México, Polônia, Turquia, África do Sul e Filipinas. A estimação e inferência são realizadas a partir de um modelo de estado espaço para determinar os períodos em que os países seguiram a regra. Em seguida é realizado um teste de raiz unitária com threshold para verificar se o desvio da inflação em relação a meta depende (ou não) da indicação dada pela Regra de Taylor. Os resultados obtidos indicam que em países que seguem a Regra de Taylor, o desvio da expectativa de inflação em relação a meta é estacionário, em todos os casos. Em contrapartida, na maioria dos casos em que a Regra de Taylor não é respeitada, o desvio da expectativa de inflação em relação à meta é não-estacionário.
Resumo:
O grau de liberdade da política monetária é uma questão muito relevante em um país que decide adotar um regime de metas inflacionárias e câmbio flutuante. Caso a autoridade monetária desse país não tenha liberdade para atuar, o regime de metas pode ser ineficiente. Em especial, caso esse país se encontre numa situação de Dominância Fiscal, a política monetária pode ter efeitos perversos sobre a relação dívida/PIB, aumentando seu prêmio de risco soberano e causando um aumento na probabilidade de default implícita em seus títulos soberanos. O intuito desse trabalho é realizar o teste de dominância a partir de um modelo proposto por Olivier Blanchard em 2004, e testar primeiro se o país se encontrava em dominância em 2002, 2003 e depois analisar o resultado desse modelo até novembro de 2005. Algumas modificações de variáveis utilizadas, medidas de risco e taxa de juros são propostas e é acrescido ao modelo um teste de estabilidade de coeficientes e a incerteza causada no período eleitoral em 2002. Além disso, é analisada a reação do Banco Central no período, para identificar se sua reação compartilhava da visão de dominância que o modelo original apresentava ou não. A conclusão é que o Brasil, mesmo após as alterações sugeridas, ainda se encontra numa situação de dominância fiscal segundo a descrição do modelo. Porém, o resultado final é cerca de 20% do originalmente observado em 2004, resultando em uma liberdade de atuação significativamente maior para a autoridade monetária no Brasil em 2002 e 2003. O Banco Central parece ter reagido a mudanças de expectativa de inflação e não parecia compartilhar um diagnóstico de dominância fiscal ao longo de 2002. As eleições foram significativas para explicar aumento da probabilidade de default, mas não alteram significativamente o resultado do teste após as mudanças de variáveis. A medida de risco proposta resulta em um modelo melhor para medir dominância no Brasil. A mensagem final é que o Brasil ainda precisa se preocupar com as restrições fiscais, mas elas são menores que o modelo original propunha.
Resumo:
Esta tese é composta por três artigos, nos quais são apresentadas extensões e aplicações da Teoria das Opções Reais, todas de interesse para formuladores de política econômica no Brasil. O primeiro faz uma análise original da questão da bioprospecção, ou a exploração da diversidade biológica para fins econômicos. Duas estruturas alternativas para o desenho do mecanismo de concessão, visando o uso sustentável da biodiversidade brasileira, são sugeridas: (i) um modelo de projetos de P&D com maturidade incerta, no qual a intensidade do processo de Poisson que governa o tempo de maturação é explicitamente dependente do nível da biodiversidade no local concedido; (ii) um modelo de Agente-Principal, onde o Estado delega o exercício da opção de investimento à empresa de pesquisa biotecnológica. O segundo artigo avança a analogia entre opções de venda (“put options”) e cotas de importação. Os parâmetros relevantes para apreçar as licenças são agora obtidos endogenamente, a partir da interação entre a firma importadora e os produtores domésticos. Por fim, no terceiro, é feita análise pioneira do mercado paralelo de títulos precatórios no Brasil. Um modelo para a valoração de tais títulos é construído e proposto, tendo por base o arcabouço institucional existente sobre o assunto, tanto no governo central, como nos estados e municípios.
Resumo:
A modelagem de um depósito mineral é realizada por meio da combinação de diversas fontes de informações. Dentre estas fontes pode-se citar a sísmica de reflexão. A sísmica de reflexão fornece dados de tempos de propagação de ondas sísmicas até essas serem refletidas pelas estruturas dos depósitos minerais. As profundidades dessas estruturas podem ser obtidas multiplicando-se os tempos pelas velocidades de propagação das ondas sísmicas. Normalmente, a velocidade de uma onda sísmica é determinada indiretamente por meio do processamento dos próprios dados sísmicos, o que pode gerar erros na interpretação de seções geológicas. A perfilagem geofísica é uma alternativa na determinação dessa velocidade, uma vez que a velocidade de onda acústica é obtida ao longo do furo perfilado e a velocidade de onda acústica pode ser relacionada com a velocidade de onda sísmica. As estimativas de valores de velocidade na região entre os furos perfilados permite as estimativas de valores de profundidade nessa região. Neste estudo, foram analisadas possibilidades de se estimar, em um grid, valores de velocidade e incertezas associadas a esses valores, utilizando-se ferramentas geoestatísticas. A simulação seqüencial Gaussiana, dentre as ferramentas analisadas, pareceu ser a mais adequada para obtenção de velocidades e incerteza dos valores estimados em cada nó do grid considerado. Para o caso abordado, alguns valores de profundidade da estrutura de interesse apresentaram variações significativas em função da incerteza de velocidade. Essas variações são muito importantes na execução de certos métodos de lavra subterrânea, o que enfatiza a importância da determinação da incerteza das velocidades estimadas. A metodologia é apresentada e ilustrada em um importante depósito de carvão em Queensland, Austrália.
Resumo:
O presente trabalho apresenta um estudo detalhado da monitoração de energia durante a cravação do amostrador no ensaio SPT, bem como da identificação dos fatores que influenciam estas medidas. Para tanto foi desenvolvido um equipamento para a aquisição dos sinais de força e de aceleração que consta de uma célula de carga, amplificadores e condicionadores de sinais de força e aceleração, sistema de aquisição de sinal e tratamento numérico dos registros. Paralelamente foi implementado um programa embasado na técnica de diferenças finitas que simula numericamente o ensaio, inclusive o balanço das distintas energias ao longo do processo. De posse dessas ferramentas e tecnologia efetuou-se uma extensa campanha de ensaios totalmente controlados. Os resultados da campanha experimental, associados aos fundamentados e princípios básicos da física, permitiram o entendimento do processo de cravação do amostrador no solo com a determinação das perdas (eficiências) ocorridas ao longo do processo e a proposição de uma nova abordagem de interpretação fundamentada no trabalho efetivamente consumido na cravação do amostrador no solo. O conhecimento deste trabalho abre uma gama de alternativas para a estimativa de propriedades de comportamento de solos com base em resultados de medidas de SPT. Exemplos da aplicação destas alternativas são apresentados Ao longo do trabalho verificou-se que: O intervalo de integração utilizado na apropriação da energia deve ser tal que leva em consideração os golpes subseqüentes mesmo em se tratando de hastes longas; A energia assim determinada é dependente da resistência do solo; Existem perdas de energia ao longo das hastes; Estas perdas são diretamente proporcionais ao comprimento das hastes; O ensaio é um fenômeno de grandes deslocamentos e, portanto, deve ser interpretado com a adoção de um referencial fixo e fora do sistema; A variação da energia potencial das hastes deve ser considerada no computo da energia consumida na cravação do amostrador no solo e esta variação da energia é diretamente proporcional à massa das hastes.
Resumo:
Este trabalho apresenta o desenvolvimento de uma ferramenta computacional de apoio ao diagnóstico através de imagens ecocardiográficas, denominada de “Echo Offline”. O “Echo Offline” foi projetado para mensuração de grandezas lineares em imagens ecocardiográficas digitais, possibilitando a realização de diagnósticos pós-exame e a integração dos dados colhidos no banco de dados da instituição médica. Um estudo transversal contemporâneo e aleatório foi realizado com uma população de quarenta e nove pacientes submetidos a exames ecocardiográficos, as imagens resultantes deste exame foram digitalizadas e um médico especialista mensurou um conjunto de variáveis pré-definidas utilizando o método convencional, ou seja, usando as facilidades oferecidas pelo equipamento de ultra-som comercial. Um segundo médico especialista produziu outros dois conjuntos de dados utilizando o “Echo offline” e desta forma foi possível avaliar a exatidão e a repetibilidade das medidas realizadas pela ferramenta “Echo offline”. O “Echo offline” apresentou uma elevada concordância com o método convencional e apresentou significativa redução no tempo de realização das medidas.
Resumo:
Este trabalho tem como objetivo principal analisar as relações entre variáveis que influenciam o processo de estabelecimento dos sistemas de controle gerencial e orçamento, assim como os mecanismos de mensuração e avaliação de desempenho nas organizações, tendo como referencial básico a Teoria da Agência. As variáveis analisadas foram: folga orçamentária, incerteza e estratégia. O problema de pesquisa apresentado visa encontrar evidências acerca dos relacionamentos entre estas variáveis, tendo como pressuposto a função chave desempenhada pelo orçamento nos processos em questão. Entre os principais autores que compõem o referencial da pesquisa, destacamos diversos estudos que buscaram explicar relações entre as variáveis em foco e outras, visando compreender os antecedentes que definem os desenhos dos sistemas de controle e avaliação de desempenho. Assim, a partir da compreensão dos conceitos básicos envolvidos neste estudo – Teoria da Agência, sistemas de controle gerenciais, indicadores de desempenho e orçamento, os quais compõem o referencial teórico da pesquisa, foram propostas hipóteses para se tentar responder ao problema de pesquisa. Estas relacionam-se com a existência de folga orçamentária no orçamento de resultado da empresa em estudo, e com a influência do ambiente de incerteza e da estratégia associada ao negócio, no processo de criação de folga orçamentária. Desta forma, estas hipóteses foram testadas em um estudo de caso em uma corporação familiar, que é composta por três empresas de capital fechado, que atuam na importação, industrialização e comercialização de insumos, partes e peças e produtos. Para realizar os testes estatísticos, foi feito um corte longitudinal nos dados do orçamento de indicadores de desempenho do tipo Accounting Performance Measure (APM), formando uma série histórica de 36 meses. Dentre as principais conclusões do estudo, que permitiram uma análise ampla dos aspectos relacionados aos antecedentes ambientais internos e externos que levam a comportamentos disfuncionais entre os agentes, foi evidenciada a existência da folga orçamentária e a influencia da incerteza em sua criação, porém não se pode afirmar que a estratégia tenha influência neste processo, no caso em questão.
Resumo:
Introdução e Objetivo: Há evidências crescentes na literatura sobre a associação entre a disfunção erétil (DE) e a obesidade. O objetivo deste estudo é correlacionar os diferentes índices antropométricos de obesidade central com a DE. Métodos: Realizou-se um estudo transversal envolvendo 256 homens consecutivos com idade igual ou superior a 40 anos e que não apresentavam condições clínicas associadas à presença de DE. A função erétil foi avaliada em todos eles através do preenchimento do Índice Internacional de Função Erétil (IIEF), seguida de avaliação antropométrica com pesquisa do índice de massa corporal (IMC), circunferência da cintura, índice cintura-quadril, índice cintura-coxa, índice cintura-altura, diâmetro abdominal sagital, índice diâmetro abdominal sagital-coxa, índice diâmetro abdominal sagital-altura e circunferência abdominal máxima. Em todos, realizou-se avaliação dos níveis séricos de glicose, lipídios e testosterona. Pesquisou-se a associação entre a DE (escore ≤ 25 no domínio da ereção do IIEF) e as medidas antropométricas estudadas, considerando-se estatisticamente significativo um valor de p<0,05. Em modelo de regressão logística, avaliou-se as razões de chances (RC) para o diagnóstico de DE, após a padronização do efeito das medidas antropométricas para condições sócio-demográficas, laboratoriais e IMC, considerando-se em separado os homens com idades entre 40 e 60 anos e com mais de 60 anos. Resultados: Nos homens com 40 a 60 anos de idade, os diferentes índices antropométricos de obesidade central não mostraram correlação com a presença de DE (p>0,05). Já no grupo de homens com idade superior a 60 anos (41%, variando de 61 a 81 anos) demonstrou-se uma associação entre DE e o índice cintura-quadril (p=0,04), índice cintura-coxa (p=0,02), diâmetro abdominal sagital (p=0,03), índice diâmetro abdominal sagital-altura (p=0,02) e circunferência abdominal máxima (p=0,04). Após análise de regressão logística, um efeito independente na predição de DE foi observado com a circunferência da cintura (RC: 16,86, IC95%: 1,05-270,75), índice cinturaquadril (RC: 5,05 (IC95%: 1,04-24,67), diâmetro abdominal sagital (RC: 8,55, IC95%: 1,34-54,38), índice diâmetro abdominal sagital-altura (RC: 13,01, IC95%: 1,05-160,65), e circunferência abdominal máxima (RC: 12,25, IC95%: 1,83-81,91). Conclusão: Sugere-se que a presença de obesidade central, detectada por antropometria, está associada à presença de DE em homens com idade entre 61 e 81 anos. Algumas dessas medidas antrométricas, tais como o diâmetro abdominal sagital, índice diâmetro abdominal sagital-altura, circunferência abdominal máxima, circunferência da cintura e índice cinturaquadril, mostraram-se particularmente úteis na predição da DE.
Resumo:
A análise cefalométrica é utilizada pelos cirurgiões-dentistas como auxiliar no diagnóstico, planejamento e acompanhamento do tratamento de seus pacientes ortodônticos, cirúrgicos e ortopédicos. No entanto, não é uma ferramenta tão precisa, pois erros significantes estão presentes nas medidas obtidas pelo mesmo ou diferentes examinadores. Assim, faz-se necessário um maior controle dos erros implicados na identificação dos pontos cefalométricos. O objetivo deste estudo foi avaliar a reprodutibilidade de medidas cefalométricas obtidas de cefalogramas realizados por três especialistas em radiologia e compará-la aos resultados obtidos por três clínicas de radiologia odontológica. Para tanto, os examinadores realizaram cefalogramas de 39 telerradiografias pertencentes à amostra de Silveira, 2003. Através do teste ANOVA, verificou-se reprodutibilidade para 17 dos 32 valores dos fatores cefalométricos analisados, o que corresponde a uma concordância em 53,1% dos fatores, enquanto as clínicas de radiologia concordaram em apenas 12,5% destes. A partir dos resultados encontrados, concluiu-se que os três especialistas em radiologia apresentaram maior reprodutibilidade nos traçados cefalométricos do que as clínicas de radiologia estudadas.