919 resultados para 220106 Ondas de choque


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste artigo é desenvolvido um modelo de equilíbrio das firmas a dois setores, mineral e não mineral, que possibilita a construção da trajetória da produtividade total dos fatores setorial. A partir dessa modelagem, o estudo tem dois objetivos: Primeiro, testar a influência da dotação de recursos minerais no desempenho macroeconômico dos países, via PTF. Segundo, testar a dinâmica macroeconômica, PTF, PIB e inflação, gerada por um choque no preço das commodities minerais. Os resultados sugerem a presença da doença holandesa, países com grande dotação de recurso mineral têm um pior desempenho econômico, e que um choque no preço das commodities minerais leva a um aumento da taxa de crescimento do PIB, no curto prazo, e a elevação da inflação mais adiante, em países ricos nesse recurso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo apresenta a minha versão da história da inflação inercial. A primeira formulação completa dessa teoria está num artigo meu e de Nakano, de 1983; e o primeiro artigo que propôs um choque de preços combinado com uma tabela de conversão é de 1984, também dos mesmos autores. Resende e Arida escreveram em 1984 o primeiro trabalho propondo uma moeda indexada para neutralizar a inércia; Francisco Lopes, também em 1984, relacionou a inflação inercial com hiperinflação. As principais referências estão aqui claramente apresentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em economias caracterizadas por choques agregados e privados, mostramos que a alocação ótima restrita pode depender de forma não-trivial dos choques agregados. Usando versões dos modelos de Atkeson e Lucas (1992) e Mirrlees (1971) de dois períodos, é mostrado que a alocação ótima apresenta memória com relação aos choques agregados mesmo eles sendo i.i.d. e independentes dos choques individuais, quando esses últimos choques não são totalmente persistentes. O fato de os choques terem efeitos persistentes na alocação mesmo sendo informação pública, foi primeiramente apresentado em Phelan (1994). Nossas simulações numéricas indicam que esse não é um resultado pontual: existe uma relação contínua entre persistência de tipos privados e memória do choque agregado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A motivação para este trabalho vem dos principais resultados de Carvalho e Schwartzman (2008), onde a heterogeneidade surge a partir de diferentes regras de ajuste de preço entre os setores. Os momentos setoriais da duração da rigidez nominal são su cientes para explicar certos efeitos monetários. Uma vez que concordamos que a heterogeneidade é relevante para o estudo da rigidez de preços, como poderíamos escrever um modelo com o menor número possível de setores, embora com um mínimo de heterogeneidade su ciente para produzir qualquer impacto monetário desejado, ou ainda, qualquer três momentos da duração? Para responder a esta questão, este artigo se restringe a estudar modelos com hazard-constante e considera que o efeito acumulado e a dinâmica de curto-prazo da política monetária são boas formas de se resumir grandes economias heterogêneas. Mostramos que dois setores são su cientes para resumir os efeitos acumulados de choques monetários, e economias com 3 setores são boas aproximações para a dinâmica destes efeitos. Exercícios numéricos para a dinâmica de curto prazo de uma economia com rigidez de informação mostram que aproximar 500 setores usando apenas 3 produz erros inferiores a 3%. Ou seja, se um choque monetário reduz o produto em 5%, a economia aproximada produzirá um impacto entre 4,85% e 5,15%. O mesmo vale para a dinâmica produzida por choques de nível de moeda em uma economia com rigidez de preços. Para choques na taxa de crescimento da moeda, a erro máximo por conta da aproximação é de 2,4%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aborda o tema da negociação comercial internacional e a influência da cultura nacional. Justifica-se a importância deste estudo pelo aumento da competitividade internacional, não somente no aspecto comercial, mas também no que se refere à competitividade pessoal. Este tema proporciona à academia e às empresas, especialmente aos negociadores, relevantes aspectos teóricos e demonstra uma realidade prática, apresentando importantes considerações à devida preparação da negociação. No atual contexto, conhecer as diferenças culturais, respeitando-as e possuir informações sobre o possível comportamento do interlocutor tornam-se um diferencial estratégico para a empresa e para o negociador e, como conseqüência, minimiza o choque cultural, proporcionando melhores resultados na negociação.Para responder às questões desta pesquisa, o objetivo geral consiste em analisar a existência de diferenças culturais entre executivos brasileiros e italianos nas negociações comerciais internacionais. Esta é uma pesquisa de caráter exploratório - descritivo, com uma abordagem multimétodo: o qualitativo e o quantitativo. O primeiro consiste em entrevistas em profundidade, que proporcionaram importantes contribuições à formulação do instrumento de pesquisa: o questionário, sendo que através deste foram coletadas as informações da etapa quantitativa. A aplicação do questionário deu-se no sul do Brasil, nos estados do Rio Grande do Sul, Santa Catarina e Paraná e no norte da Itália, nas regiões do Vêneto, da Lombardia e de Trento, totalizando uma amostra de 200 respondentes (100 executivos em cada país). A presente pesquisa está estruturada seguindo a ordem teórica, ou seja, a negociação comercial internacional, a cultura nacional e os valores pessoais. De forma geral, os resultados obtidos demonstram as diferenças culturais na negociação comercial internacional, proporcionando um “retrato” das características culturais do executivo italiano e brasileiro, segundo as dimensões culturais propostas por Hofstede (1997), e os valores pessoais, identificados pela Escala de Valores de Rokeach (RVS) (1973).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho elaboramos cinco atividades experimentais que envolvem o uso do microcomputador como instrumento de medida no laboratório didático de Física. As atividades são do tipo aberto, de modo que os alunos tenham a oportunidade de explorar, testar e discutir soluções para todo o processo de medida, desde o uso de sensores nos sistemas de detecção, à conversão analógica/digital, passando pelos softwares. Somente depois de medidas manuais, o aluno passa à aquisição automática. Há guias impressos para alunos, com questões, desafios e sugestões de tarefas a serem executadas, e um texto de apoio para professores, contendo embasamento teórico e técnico indispensáveis para a compreensão do processo de aquisição automática. Os tópicos tratados são: sensores, medidas de tempo, e ondas mecânicas transversais (em cordas) e longitudinais (sonoras). O embasamento teórico para o desenvolvimento da proposta está apoiado na teoria sócio-interacionista de Vigotsky, na qual o desenvolvimento cognitivo não pode ser entendido sem referência ao contexto social, seus signos e instrumentos. Todas atividades foram testadas em condições de sala de aula em turmas de ensino médio e tecnológico da Unidade de Ensino do CEFET/RS, em 2003, e no curso de extensão Física para o Ensino Médio II, do Instituto de Física da UFRGS, em 2004. O produto educacional deste trabalho consiste em um texto de apoio para professores do ensino médio sobre o uso do microcomputador como um instrumento de medida, guias para alunos das cinco atividades experimentais envolvendo aquisição automática de dados e um hipertexto, disponível na web, baseado em animações do tipo Java Applet (Physlet).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o emprego do modelo de dois setores de acumulação ótima de capital em economia aberta, determina-se o impacto sobre a trajetória do câmbio, dos salários, do investimento, da poupança e, portanto, da dívida externa e do estoque de capital, de uma elevação permanente e não antecipada da produtividade da economia. Em geral, após um choque positivo permanente de produtividade há redução da poupança, piora do balanço de pagamentos em transações correntes e valorização do câmbio. Todos fenômenos que do ponto de vista do modelo são de equilíbrio intertemporal, conseqüência da elevação da renda permanente e do excesso de demanda por bens domésticos que sucede o ganho de produtividade. Supondo que os programas de estabilização elevaram a produtividade da economia é possível com a estrutura analítica construída racionalizar qualitativamente os fenômenos observados após estes planos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work is analyzing the challenges which the National Petrol Agency is facing to regulate the Petrol industry in Brazil after the Monopoly crash in the period between 1997 until 2005. Due to the necessities of adaptation of its political strategies to the rules which determine the international economic flows, Brazil was forced to use the Economic Regulation in order to control the market. The regulation established in Brazil is not indifferent to imperfect markets. Thus can be find a conflict of interests among companies, the government and consumers within this process of regulation. The established agency does not have enough autonomy for administrating a regulation. The State with its paternalism power does not allow the agency to fulfill its function for which it was established, even though its function was established by law. A regulating policy which is clearly defined will establish a strong and independent agency with a clear limitation of its competences, avoiding divergent interpretation which prioritizes investments and promotes economic development. The agency will have the challenge to regulate the companies that enter the sector, allowing the opening of the market for new initiatives of investments which contribute to the welfare of the country and breaking at the same time the monopoly that is lead by Petrobras since 1953. Combining a stable set of rules with agility in order to adapt to changes will provide the regulator with a great decision-making power. The flexibility in the regulation will improve the correcting of the rules that were set in the beginning, being more efficient, which are based on acquired experience and achieved results. The structure of the agency and the flexibility of the regulation should be orientated on the promotion of competition in order to achieve economic and social development.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho (artístico) com o vídeo (e com a videoinstalação) se dá no cruzamento de diversos tempos. De um lado as determinações temporais implicadas na tecnologia do vídeo, a partir de sua origem (ondas eletromagnéticas). De outro as temporalidades que pertencem ao campo da videoinstalação (e sua história), suas relações com o espaço (de exibição) e com o espectador. Na ponta deste processo, o universo poético das imagens e suas relações entre si. O tempo distendido, contraído, desdobrado. Em meus trabalhos se destacam a virtualidade, a multiplicidade e as imagens da memória (ou a memória das imagens).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trata-se de um estudo sobre a cultura organizacional em uma empresa coreana, a Samsung Eletrônica Amazônia S.A,. afiliada da Samsung Corporation, implantada no Distrito Industrial de Manaus, Estado do Amazonas, a partir de 1986, atraída pelos incentivos da Zona Franca de Manaus. A partir de uma pesquisa extensa, realizada em junho de 2001, pelo Setor de Recursos Humanos da empresa, foram selecionadas vinte e seis matrizes cujos resultados comprov_ lm a principal hipótese do trabalho: a de que a cultura da empresa pode ser a responsável pelos problemas existentes em sua área de produção, interferindo na qualidade de seus produtos. Das conclusões da pesquisa, portanto, infere-se que os dirigentes da empresa, todos coreanos, entram em choque com a cultura dos empregados na linha de produção, todos de naturalidade amazonense. Assim, os problemas entre essas duas culturas interferem negativamente em todos os indicadores da pesquisa, a saber: identidade, comunicação, liderança, percepção e interação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O dimensionamento de pilares em minas de carvão é fortemente influenciado pelas condições geomecânicas do depósito mineral e pelo método de lavra utilizado. No desmonte de rochas com utilização de explosivos, os danos provocados podem ser significativos e influenciar diretamente no dimensionamento e segurança dos pilares. Essa dissertação tem como meta estudar os danos nos pilares provocados pelo desmonte com explosivos em camadas de carvão tendo como hipótese de estudo que os danos no pilares diminuem em profundidade no interior do pilar, devendo ocorrer aumento na integridade da rocha desde as bordas até o núcleo do pilar. A validade da hipótese de estudo foi vericada em testemunhos de rocha obtidos por sondagem horizontal, nos quais foram feitos ensaios de resistência (carga pontual, tração (brasileiro), compressão uniaxial), ensaios de medição de velocidade ultrasônica e de velocidade de partícula (medição de vibração), além da descrição detalhada dos pedaços de testemunhos com a técnica de avaliação da integridade do maciço denominada . RQD Com a única excessão do ensaio de carga pontual, as outras técnicas utilizadas forneceram resultados úteis e indispensáveis aos cálculos que se fizeram a partir dos parâmetros obtidos com o RQD e vibração (as duas técnicas consideradas fundamentais na dissertação). Nessa dissertação, ficou comprovada a hipótese de estudo e o dano no pilar foi dividido em zonas de rocha com índices de fraturamento decrescente no sentido do núcleo do pilar: uma primeira zona com fragmentação intensa por compressão e duas outras, seguintes, fraturadas por cisalhamento, efeito das ondas sísmicas da detonação do explosivo. Os resultados obtidos nessa dissertação mostraram que os danos no pilar podem ser bem avaliados, que existem zonas distintas de fragmentação, as quais podem ser incorporadas no dimensionamento de pilares. As técnicas utilizadas ( RQD e vibração) foram eficientes na determinação dos danos provocados pelo explosivo, sendo, no entanto, necessário a introdução de modificações na padronização dos ensaios para melhor adaptá-los às condições de amostragem de campo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho de tese investigamos o papel de dinâmica perturbativa e não-perturbativa da Cromodinâmica Quântica, a teoria das interações fortes, em processos de produção de quarks pesados e de quarkonium-estados ligados de um par de quarks pesados. Um aspecto importante na produção de quarks pesados consiste no tratamento de ordens mais altas em QCD perturbativa, que abordamos por meio de elementos de matriz QCD em segunda ordem dominante (NLO) e através de um gerador de eventos Monte Carlo, mais útil fenomenologicamente, onde a produção perturbativa de pares Q Q e obtida utilizando elementos de matriz em ordem dominante e a aproximação de chuveiros partônicos de processos em ordens mais altas. Os processos suaves formando estados ligados de quarkonium são descritos em termos do modelo de evaporação de cor (CEM), ou alternativamente através do modelo de interações suaves de cor (SCI) e do modelo da lei das áreas generalizado (GAL). Neste trabalho, calculamos as distribuições em xF e p? para o J= e 0 em hadroprodução em alvo xo e no colisionador p p do Tevatron. Outros observáveis como a seção de choque total para J= , 0 e charme aberto tamb em são reproduzidos. Além disso, extrapolamos os modelos para descrever a produção de J= e no futuro colisionador LHC, onde as taxas de produção de J= estão at e uma ordem de magnitude acima de outra predição da literatura, o qual pode implicar em J= ser um ru do não negligenciável para estudos de violação da simetria CP no LHC. Além disso, com o objetivo de descrever as taxas de produção relativas entre os vários estados de charmonium, desenvolvemos um modelo para o mapeamento do espectro contínuo de massas do par c c produzido perturbativamente, nas ressonâncias de charmonium, onde introduzimos uma correlação entre a massa invariante do par produzido perturbativamente e a massa física do estado de charmonium. Outra abordagem importante ao estudo dos aspectos perturbativos e não-perturbativos da QCD na produção de quarks pesados e o formalismo de fatorização k?, o qual investigamos em processos de fotoprodução de charme e bottom, com ênfase em resultados de um modelo de saturação. Efeitos de evolução DGLAP tamb em são estudados, considerando a derivada da distribuição de glíuons. Analisamos em detalhe seções de choque totais e distribuições em pT , mostrando as regiões de validade de cada descrição. Através do estudo de vários aspectos perturbativos e não-perturbativos da QCD, este trabalho de tese contribui para um melhor entendimento da conexão entre essas duas dinâmicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A supressão da produção do méson J/Ψ em colisões de íons pesados tem sido apontada como um sinal da formação de um estado desconfinado da matéria - o Plasma de Quarks e Glúons. Este sinal, por em, não e inequívoco e muitos modelos, que não assumem a formação do plasma, podem descrever igualmente bem os resultados da colaboração NA50, no CERN, que apontou uma supressão anômala, não explicada pela absorção nuclear, nas colisões mais centrais entre íons de chumbo. De modo geral, estes modelos, considerando ou não a formação do plasma, procuram explicar os resultados experimentais através de mecanismos que causam a supressão no estado final da colisão, isto e, mecanismos que agem sobre as partículas produzidas na colisão. Por outro lado, para núcleos pesados e em processos envolvendo altas energias, as distribuições partônicas nucleares são alteradas em relação as distribuições para nucleons livres. Estas alterações ocorrem devido ao fato das dimensões do nucleon serem um limite geométrico para o crescimento das distribuições - seu vínculo de unitariedade - pois o meio nuclear, em altas energias, apresenta uma alta densidade partônica. A existência deste vínculo de unitariedade requer modificações das distribuições partônicas, o que deve ser considerado nos cálculos das seções de choque nucleares. Tais modificações afetam a produção de hádrons no estado final, diminuindo sua taxa de produção. Nesse trabalho, investigamos a inclusão dos efeitos de alta densidade nas distribuições partônicas para o tratamento da supressão de J/Ψ em colisões envolvendo alvos nucleares. Estes efeitos são decorrentes do aumento da distribuição de glúions na região de pequeno x (altas energias). A evolução DGLAP, que considera apenas a emissão de pártons, prevê um crescimento ilimitado da distribuição de glúons nesta região, quebrando assim o vínculo da unitariedade. Por isso, o mecanismo de recombinação partônica passa a contribuir para restaurar a unitariedade. Estes efeitos de recombinação, basicamente, são tratados como os efeitos de alta densidade referidos nesse trabalho, alterando as distribuições partônicas nucleares. Utilizamos processos próton-núcleo para estimar a magnitude destes efeitos, uma vez que estes processos não apresentam um meio nuclear tão denso quanto o proporcionado por colisões núcleo-núcleo. Esta premissa torna os processos próton-núcleo testes mais confiaveis para a investigação dos efeitos de alta densidade. Analisamos em especial a razão entre as taxas de produção do méson J/Ψ e do par de léptons, via processo Drell- Yan, uma vez que este observável e utilizado para apontar a supressão na produção de J/Ψ . Estendemos esta análise para processos núcleo-núcleo, onde novos mecanismos de supressão, entre eles a formação do Plasma de Quarks e Glúons são esperados. Os resultados aqui apresentados mostram que a inclusão dos efeitos de alta densidade introduz uma supressão adicional na produção de J/Ψ , que se torna mais significativa com o aumento da energia do processo. Nossa conclusão e, portanto, que estes efeitos devem ser incorporados na análise deste sinal em experimentos realizados em RHIC e LHC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo analisa a relação causal entre Gestão por Resultados, eficiência e “accountability”, subjacente ao receituário da Nova Gestão Pública. Para isso fazemos uma discussão teórica que visa a definir o conceito de eficiência, principalmente para incorporar sua dimensão política, os limites políticos e organizacionais à sua realização, e os contornos de um modelo normativo de Gestão por Resultados, este elaborado à luz dos conceitos de coordenação intragovernamental da tomada de decisão e da implementação, mecanismos de coordenação e indicadores de resultados. As implicações dessa discussão são então ilustradas e complementadas a partir da análise do Choque de Gestão de Minas Gerais, experiência importante no âmbito da NGP, particularmente no tocante à contratualização de resultados. Como conclusões, a constatação que a experiência mineira ainda é tímida na orientação para resultados entendidos como efeitos, embora tenha avançado no controle por produtos, e que o próprio modelo de Gestão por Resultados apresenta alta probabilidade de incorrer em déficits de responsividade e de “accountability” e mesmo em ineficiência. Finalmente, argumenta-se que iniciativas devem ser empreendidas no sentido do estudo e do desenvolvimento de métodos de coordenação por valores e habilidades.