978 resultados para Macro-econometric model


Relevância:

80.00% 80.00%

Publicador:

Resumo:

The Brazilian tax structure has specific characteristics and the performance level of government. The autonomy given to municipalities to manage their activities after the 1988 Constitution, made them highly dependent on intergovernmental transfers of resources, revealing the fragility of the administrative capacity of these entities. The vertical gap revealed by the constitutional structure of the Brazilian fiscal federalism model contributes to the formation of this specific feature that you are eroding the tax base and the ability of municipal own revenues. Although there was a better regulation of these transfers after the enactment of the Fiscal Responsibility Law, it is observed that the amount of resources transferred to the municipalities of Rio Grande do Norte is very high and is the main source of revenue of municipalities. In light of the theory of federalism and fiscal decentralization, in particular, the theories related to intergovernmental transfers, we seek to diagnose the transfers from the systematization of information on the origin, destination and value. We used the econometric model of System Dynamic Panel GMM in making the diagnosis and verification of the impact of transfers on public finances of the municipalities of the newborn, associated with a review in light of the theory of fiscal federalism and intergovernmental transfers. The paper presents some proposals for the transfer system and the composition of spending in order to contribute to greater tax efficiency

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Saneamento básico e saúde são inseparáveis. Sob esta premissa, é conduzida a investigação contida neste estudo, que busca contribuir oferecendo à sociedade um ponto de vista interdisciplinar na formulação e acompanhamento das políticas públicas de saneamento básico urbano. O uso de indicadores urbanos é fator de melhoria no planejamento e gestão das cidades, e matéria atualíssima. Há fartura deles, entretanto este estudo busca a simplicidade cognitiva, embora sem reducionismo, e aí reside a preocupação com a interdisciplinaridade contida na abordagem desta investigação, que culmina com a proposição de modelo econométrico relacionando dados censitários sociais e sanitários. São estudadas as relações entre mortalidade na infância, população urbana, provisão de serviços urbanos de abastecimento de água, esgotamento sanitário e coleta de lixo. São verificadas as relações explicativas entre a variável de dependente constituída pelo produto mortalidade na infância x população urbana e as variáveis independentes populações urbanas atendidas com abastecimento de água, rede de esgoto e coleta de lixo. Consideradas as políticas de investimentos em saneamento expressas no Orçamento Geral do Estado do Pará para o ano de 2006 como usuais, e a partir do modelo desenvolvido, a mortalidade na infância é inferida para o ano de 2015, e comparada com a Meta dos Objetivos de Desenvolvimento do Milênio da ONU, a qual consiste na redução da mortalidade na infância em 2/3 entre os anos de 1990 e 2015. As estimativas de recursos para o atingimento dessa Meta indicam a necessidade de manter os investimentos em abastecimento de água, coleta de lixo e incrementálos em esgotamento sanitário. Como conseqüência lógica do raciocínio e das análises contidas no trabalho, é sugerido como critério de priorização no planejamento e alocação de recursos para ampliação da provisão de serviços urbanos de saneamento básico a mortalidade na infância.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O principal objetivo da dissertação é analisar os efeitos que a política cambial brasileira promoveu nas exportações F.O.B. de bauxita, alumínio primário, minério de ferro e caulim. Para tal, é desenvolvido um modelo econométrico, Modelo de ajustamento parcial de Nerlove, procurando avaliar os padrões de reação das exportações no curto e longo prazos. Os dados utilizados são trimestrais e cobrem o período de 1990 a 2003. As regressões foram estimadas através do método dos Mínimos Quadrados Ordinários (MQO). As variáveis elegidas como explicativas foram a taxa de câmbio real efetiva brasileira, a renda mundial, a capacidade produtiva da indústria brasileira, o produto interno bruto da indústria brasileira e uma variável dummy (que capta a influência da lei Kandir). Os resultados das regressões mostram que: as exportações são relativamente sensíveis ao crescimento da economia brasileira e mundial; e, a taxa de câmbio real efetiva brasileira (proxy da política cambial) produziu efeitos importantes na evolução das exportações do setor mínero-metalúrgico paraense.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo do presente trabalho é, portanto, apresentar uma análise dos efeitos das desigualdades econômicas inter-regionais sobre as desigualdades inter-regionais da arrecadação tributária estadual na esfera do federalismo fiscal. O problema da desigualdade interregional entre as regiões e os estados brasileiros sempre foi o principal foco de atenção dos economistas regionais. Entretanto, são relativamente escassos os estudos e as pesquisas que visam estudar os efeitos das desigualdades econômicas inter-regionais sobre as desigualdades tributárias inter-regionais da arrecadação efetiva e potencial entre os estados federativos brasileiros. Por resolveu-se analisar os resultados da medição da capacidade da arrecadação tributária dos estados brasileiros, com destaque para os estados da região Norte, para os anos de 1970 até 2006. A metodologia utilizada para estimar a capacidade de arrecadação tributária e determinar o esforço fiscal dos governos estaduais foi o modelo econométrico de fronteira estocástica, adaptado para esse fim.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta Tese tem como objetivo principal corroborar a teoria Neo-Schumpeteriana , que envolve as mudanças técnicas nos processos produtivos das empresas estabelecidas no Pólo Industrial de Manaus – PIM, no que tange a influencia da introdução das inovações e, em particular, das inovações ambientais sobre a medida de concentração de cada pólo industrial (indústria) que compõem o PIM. Os dados da pesquisa compreenderam dois níveis: dados secundários, levantados junto Superintendência da Zona Franca de Manaus – SUFRAMA – e que se referem à indicadores econômicos de desempenho das empresas, situadas no âmbito do PIM; e dados primários, coletados a partir da aplicação de um questionário às empresas do PIM cadastradas nessa Instituição. Na junção desses dois conjuntos de dados foi elaborada uma análise descritiva referente às variáveis qualitativas abordadas no questionário, além, da aplicação de modelo econométrico – Modelo de Equações Simultâneas – com os dados do questionário e dos indicadores econômicos selecionados. Os resultados obtidos corroboram a hipótese principal levantada no estudo de que as inovações e, em especial aquelas de caráter ambiental, têm efeito significativo e positivo no índice de concentração calculado. Ademais, foi constatado que as empresas consideradas, pela literatura, como poluidoras, são as que mais inovam do ponto de vista ambiental.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho apresenta resultados práticos de uma atenção sistemática dada ao processamento e à interpretação sísmica de algumas linhas terrestres do conjunto de dados do gráben do Tacutu (Brasil), sobre os quais foram aplicadas etapas fundamentais do sistema WIT de imageamento do empilhamento CRS (Superfície de Reflexão Comum) vinculado a dados. Como resultado, esperamos estabelecer um fluxograma para a reavaliação sísmica de bacias sedimentares. Fundamentado nos atributos de frente de onda resultantes do empilhamento CRS, um macro-modelo suave de velocidades foi obtido através de inversão tomográfica. Usando este macro-modelo, foi realizado uma migração à profundidade pré- e pós-empilhamento. Além disso, outras técnicas baseadas no empilhamento CRS foram realizadas em paralelo como correção estática residual e migração de abertura-limitada baseada na zona de Fresnel projetada. Uma interpretação geológica sobre as seções empilhadas e migradas foi esboçada. A partir dos detalhes visuais dos painéis é possível interpretar desconformidades, afinamentos, um anticlinal principal falhado com conjuntos de horstes e grábens. Também, uma parte da linha selecionada precisa de processamento mais detalhado para evidenciar melhor qualquer estrutura presente na subsuperfície.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este artigo analisa o desenvolvimento da Amazônia no período compreendido entre o último quartel do século XX e os anos iniciais do século XXI, demonstrando que a evolução econômica regional decorreu de um modelo desenvolvimentista desequilibrado em termos espaciais e setoriais, e que por conta disto o desenvolvimento atual se mantém heterogêneo e desigual no espaço intra-regional, com a coexistência de eixos dinâmicos de desenvolvimento e áreas sem perspectivas de desenvolvimento na Amazônia.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A simulação de uma seção sísmica de afastamento-nulo (ZO) a partir de dados de cobertura múltipla para um meio 2-D, através do empilhamento, é um método de imageamento de reflexão sísmica muito utilizado, que permite reduzir a quantidade de dados e melhorar a relação sinal/ruído. Segundo Berkovitch et al. (1999) o método Multifoco está baseado na Teoria do Imageamento Homeomórfico e consiste em empilhar dados de cobertura múltipla com distribuição fonte-receptor arbitrária de acordo com uma nova correção de sobretempo, chamada Multifoco. Esta correção de sobretempo esta baseada numa aproximação esférica local da frente de onda focalizante na vizinhança da superfície da terra. Este método permite construir uma seção sísmica no domínio do tempo de afastamento nulo aumentando a relação sinal/ruído. A técnica Multifoco não necessita do conhecimento a priori de um macro-modelo de velocidades. Três parâmetros são usados para descrever a aproximação de tempo de trânsito, Multifoco, os quais são: 1) o ângulo de emergência do raio de afastamento nulo ou raio de reflexão normal (β0), 2) a curvatura da frente de onda no Ponto de Incidência Normal (RNIP) e 3) curvatura da frente de Onda Normal (RN). Sendo também necessário a velocidade próximo a superfície da terra. Neste trabalho de tese aplico esta técnica de empilhamento Multifoco para dados de cobertura múltipla referidos a modelos de velocidade constante e modelo heterogêneos, com o objetivo de simular seções sísmicas afastamento-nulo. Neste caso, como se trata da solução de um problema direto, o macro-modelo de velocidades é considerado conhecido a priori. No contexto do problema inverso tem-se que os parâmetros RNIP, RN e β0 podem ser determinados a partir da análise de coerência aplicada aos dados sísmicos de múltipla cobertura. Na solução deste problema a função objetivo, a ser otimizada, é definida pelo cálculo da máxima coerência existente entre os dados na superfície de empilhamento sísmico. Neste trabalho de tese nos discutimos a sensibilidade da aproximação do tempo de trânsito usado no empilhamento Multifoco, como uma função dos parâmetros RNIP, RN e β0. Esta análise de sensibilidade é feita de três diferentes modos: 1) a primeira derivada da função objetivo, 2) a medida de coerência, denominada semelhança, e 3) a sensibilidade no Empilhamento Multifoco.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O trabalho aqui apresentado visa o estudo da migração 3D no tempo, em amplitudes verdadeiras, de dados da seção afastamento nulo ("zero-offset"), usando a aproximação de segunda ordem do tempo de trânsito de difração. O processo de migração no tempo usa a função difração determinada, corretamente, através de mesmos parâmetros que controlam a função tempo de trânsito de reflexão, além do auxílio dos raios paraxiais. Os parâmetros que controlam a função tempo de trânsito de reflexão são determinados através de pelo menos nove medidas de tempo de trânsito, obtidas a partir de dados pré-empilhados (tiro comum, ponto médio comum - CMP, etc.). Determinada a função difração, pode-se fazer a migração sem a necessidade de que se conheça o modelo de velocidades, pois a função tempo de trânsito de difração, como definido neste trabalho, não necessita do mesmo. O espalhamento geométrico é removido através do processo de migração e aplicação de uma função peso aos dados da seção afastamento nulo. Juntamente com a função peso, aplicou-se um filtro objetivando a recuperação da fase do sinal, ocorrida como consequência do processo de migração. Devido a limitação computacional, fez-se testes com dados sintéticos, em 2D, objetivando verificar a eficiência do programa. Os resultados obtidos foram satisfatórios, mostrando a eficiência e confiabilidade do processo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho tem por objetivo a aplicação de um método de migração com amplitudes verdadeiras, considerando-se um meio acústico onde a velocidade de propagação varia linearmente com a profundidade. O método de migração é baseado na teoria dos raios e na integral de migração de Kirchhoff, procurando posicionar de forma correta os refletores e recuperar os respetivos coeficientes de reflexão. No processo de recuperação dos coeficientes de reflexão, busca-se corrigir o fator de espalhamento geométrico de reflexões sísmicas primárias, sem o conhecimento a priori dos refletores procurados. Ao considerar-se configurações fonte-receptor arbitrárias, as reflexões primárias podem ser imageadas no tempo ou profundidade, sendo as amplitudes do campo de ondas migrado uma medida dos coeficientes de reflexão (função do ângulo de incidência). Anteriormente têm sido propostos alguns algoritmos baseados na aproximação de Born ou Kirchhoff. Todos são dados em forma de um operador integral de empilhamento de difrações, que são aplicados à entrada dos dados sísmicos. O resultado é uma seção sísmica migrada, onde cada ponto de reflexão é imageado com uma amplitude proporcional ao coeficiente de reflexão no ponto. No presente caso, o processo de migração faz uso de um modelo com velocidade que apresenta uma distribuição que varia linearmente com a profundidade, conhecido também como gradiente constante de velocidade. O esquema de migração corresponde a uma versão modificada da migração de empilhamento por difração e faz uso explícito da teoria do raio, por exemplo, na descrição de tempos de trânsito e amplitudes das reflexões primárias, com as quais a operação de empilhamento e suas propriedades podem ser entendidas geometricamente. Efeitos como o espalhamento geométrico devido à trajetória do raio levam a distorção das amplitudes. Estes efeitos têm que ser corregidos durante o processamento dos dados sísmicos. Baseados na integral de migração de Kirchhoff e na teoria paraxial dos raios, foi derivada a função peso e o operador da integral por empilhamento de difrações para um modelo sísmico 2,5-D, e aplicado a uma serie de dados sintéticos em ambientes com ruído e livre de ruído. O resultado mostra a precisão e estabilidade do método de migração em um meio 2,5-D como ferramenta para obter informação sobre as propriedades de refletividade da subsuperfície da terra. Neste método não são levados em consideração a existência de caústicas nem a atenuação devido a fricção interna.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper addresses the investment decisions considering the presence of financial constraints of 373 large Brazilian firms from 1997 to 2004, using panel data. A Bayesian econometric model was used considering ridge regression for multicollinearity problems among the variables in the model. Prior distributions are assumed for the parameters, classifying the model into random or fixed effects. We used a Bayesian approach to estimate the parameters, considering normal and Student t distributions for the error and assumed that the initial values for the lagged dependent variable are not fixed, but generated by a random process. The recursive predictive density criterion was used for model comparisons. Twenty models were tested and the results indicated that multicollinearity does influence the value of the estimated parameters. Controlling for capital intensity, financial constraints are found to be more important for capital-intensive firms, probably due to their lower profitability indexes, higher fixed costs and higher degree of property diversification.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le scelte di asset allocation costituiscono un problema ricorrente per ogni investitore. Quest’ultimo è continuamente impegnato a combinare diverse asset class per giungere ad un investimento coerente con le proprie preferenze. L’esigenza di supportare gli asset manager nello svolgimento delle proprie mansioni ha alimentato nel tempo una vasta letteratura che ha proposto numerose strategie e modelli di portfolio construction. Questa tesi tenta di fornire una rassegna di alcuni modelli innovativi di previsione e di alcune strategie nell’ambito dell’asset allocation tattica, per poi valutarne i risvolti pratici. In primis verificheremo la sussistenza di eventuali relazioni tra la dinamica di alcune variabili macroeconomiche ed i mercati finanziari. Lo scopo è quello di individuare un modello econometrico capace di orientare le strategie dei gestori nella costruzione dei propri portafogli di investimento. L’analisi prende in considerazione il mercato americano, durante un periodo caratterizzato da rapide trasformazioni economiche e da un’elevata volatilità dei prezzi azionari. In secondo luogo verrà esaminata la validità delle strategie di trading momentum e contrarian nei mercati futures, in particolare quelli dell’Eurozona, che ben si prestano all’implementazione delle stesse, grazie all’assenza di vincoli sulle operazioni di shorting ed ai ridotti costi di transazione. Dall’indagine emerge che entrambe le anomalie si presentano con carattere di stabilità. I rendimenti anomali permangono anche qualora vengano utilizzati i tradizionali modelli di asset pricing, quali il CAPM, il modello di Fama e French e quello di Carhart. Infine, utilizzando l’approccio EGARCH-M, verranno formulate previsioni sulla volatilità dei rendimenti dei titoli appartenenti al Dow Jones. Quest’ultime saranno poi utilizzate come input per determinare le views da inserire nel modello di Black e Litterman. I risultati ottenuti, evidenziano, per diversi valori dello scalare tau, extra rendimenti medi del new combined vector superiori al vettore degli extra rendimenti di equilibrio di mercato, seppur con livelli più elevati di rischio.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Metals price risk management is a key issue related to financial risk in metal markets because of uncertainty of commodity price fluctuation, exchange rate, interest rate changes and huge price risk either to metals’ producers or consumers. Thus, it has been taken into account by all participants in metal markets including metals’ producers, consumers, merchants, banks, investment funds, speculators, traders and so on. Managing price risk provides stable income for both metals’ producers and consumers, so it increases the chance that a firm will invest in attractive projects. The purpose of this research is to evaluate risk management strategies in the copper market. The main tools and strategies of price risk management are hedging and other derivatives such as futures contracts, swaps and options contracts. Hedging is a transaction designed to reduce or eliminate price risk. Derivatives are financial instruments, whose returns are derived from other financial instruments and they are commonly used for managing financial risks. Although derivatives have been around in some form for centuries, their growth has accelerated rapidly during the last 20 years. Nowadays, they are widely used by financial institutions, corporations, professional investors, and individuals. This project is focused on the over-the-counter (OTC) market and its products such as exotic options, particularly Asian options. The first part of the project is a description of basic derivatives and risk management strategies. In addition, this part discusses basic concepts of spot and futures (forward) markets, benefits and costs of risk management and risks and rewards of positions in the derivative markets. The second part considers valuations of commodity derivatives. In this part, the options pricing model DerivaGem is applied to Asian call and put options on London Metal Exchange (LME) copper because it is important to understand how Asian options are valued and to compare theoretical values of the options with their market observed values. Predicting future trends of copper prices is important and would be essential to manage market price risk successfully. Therefore, the third part is a discussion about econometric commodity models. Based on this literature review, the fourth part of the project reports the construction and testing of an econometric model designed to forecast the monthly average price of copper on the LME. More specifically, this part aims at showing how LME copper prices can be explained by means of a simultaneous equation structural model (two-stage least squares regression) connecting supply and demand variables. A simultaneous econometric model for the copper industry is built: {█(Q_t^D=e^((-5.0485))∙P_((t-1))^((-0.1868) )∙〖GDP〗_t^((1.7151) )∙e^((0.0158)∙〖IP〗_t ) @Q_t^S=e^((-3.0785))∙P_((t-1))^((0.5960))∙T_t^((0.1408))∙P_(OIL(t))^((-0.1559))∙〖USDI〗_t^((1.2432))∙〖LIBOR〗_((t-6))^((-0.0561))@Q_t^D=Q_t^S )┤ P_((t-1))^CU=e^((-2.5165))∙〖GDP〗_t^((2.1910))∙e^((0.0202)∙〖IP〗_t )∙T_t^((-0.1799))∙P_(OIL(t))^((0.1991))∙〖USDI〗_t^((-1.5881))∙〖LIBOR〗_((t-6))^((0.0717) Where, Q_t^D and Q_t^Sare world demand for and supply of copper at time t respectively. P(t-1) is the lagged price of copper, which is the focus of the analysis in this part. GDPt is world gross domestic product at time t, which represents aggregate economic activity. In addition, industrial production should be considered here, so the global industrial production growth that is noted as IPt is included in the model. Tt is the time variable, which is a useful proxy for technological change. A proxy variable for the cost of energy in producing copper is the price of oil at time t, which is noted as POIL(t ) . USDIt is the U.S. dollar index variable at time t, which is an important variable for explaining the copper supply and copper prices. At last, LIBOR(t-6) is the 6-month lagged 1-year London Inter bank offering rate of interest. Although, the model can be applicable for different base metals' industries, the omitted exogenous variables such as the price of substitute or a combined variable related to the price of substitutes have not been considered in this study. Based on this econometric model and using a Monte-Carlo simulation analysis, the probabilities that the monthly average copper prices in 2006 and 2007 will be greater than specific strike price of an option are defined. The final part evaluates risk management strategies including options strategies, metal swaps and simple options in relation to the simulation results. The basic options strategies such as bull spreads, bear spreads and butterfly spreads, which are created by using both call and put options in 2006 and 2007 are evaluated. Consequently, each risk management strategy in 2006 and 2007 is analyzed based on the day of data and the price prediction model. As a result, applications stemming from this project include valuing Asian options, developing a copper price prediction model, forecasting and planning, and decision making for price risk management in the copper market.