1000 resultados para Cálculo diferencial


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi avaliar a hipótese da paridade de poder de compra em sua forma absoluta no Brasil entre 1980 e 2006. Para testar a paridade de poder de compra (PPC) em sua forma absoluta foram realizados, inicialmente, os tradicionais testes de raiz unitária. As alterações nas condições macroeconômicas das séries brasileiras podem ter alterado as propriedades estocásticas das séries de câmbio e de nível de preços, o que pode ter viesado os resultados dos testes ADF do segundo capítulo. Os testes de raiz unitária com quebra estrutural foram realizados para reavaliar os resultados dos testes sem quebra estrutural e as conclusões acerca da validade da PPC absoluta no Brasil. Os resultados dos testes de raiz unitária sobre a taxa de câmbio real indicaram a presença de uma raiz unitária quando o câmbio real foi calculado através de índices de preços ao atacado, IPA –DI para o Brasil e PPI para os EUA. Quando foram utilizados índices de preços ao consumidor, IPC – FIPE para o Brasil e CPI para os EUA, a taxa de câmbio real tornou-se estacionária. Esse é um resultado contra-intuitivo pois a paridade de poder de compra absoluta deveria ser válida justamente quando no cálculo da taxa de câmbio real são utilizados índices de preços ao atacado dado que a maioria dos bens que compõe a cesta desses índices tem seus preços determinados pelo comércio internacional. Em seguida, no mesmo capítulo, foi realizada análise de cointegração conforme o procedimento de Johansen e Juselius (1988) para determinar se existe uma relação de longo prazo entre taxa de câmbio nominal, índice de preço externo e interno. Os resultados para a amostra completa (1980:2006) foram desfavoráveis à aceitação da paridade de poder de compra absoluta e também na sub-amostra de 1994 a 2006. Nesse sub-período foi possível notar que a taxa de câmbio estava desalinhada em relação ao comportamento do diferencial de preços externo e interno. No capítulo três foram realizados testes sobre a PPC utilizando procedimentos que levam em conta a presença de quebras estruturais. Primeiramente, foram realizados testes de raízes unitárias utilizando-se o teste de Perron e Vogelsang (1998). O ano de 1998 foi o que apresentou com maior freqüência a menor estatística t, mas para nenhum dos modelos desenvolvidos por Perron e Vogelsang (1998) foi possível encontrar indícios da validade da PPC absoluta. Finalmente, foram realizados testes de cointegração com quebra estrutural utilizandose a metodologia de Gregory e Hansen (1996). O teste desenvolvido por esses autores utiliza como base o teste de cointegração de Engle e Granger (1987) para determinar a menor estatística t para uma determinada amostra. Os anos de 1983 e 2003 foram os que apresentaram com maior freqüência a menor estatística t para os modelos desenvolvidos por Gregory e Hansen (1996), mas em nenhum dos casos foi possível aceitar a hipótese de validade da PPC absoluta. A paridade de poder de compra absoluta foi testada de diversas formas ao longo do trabalho, mas na maioria dos casos, como foi dito acima, não foi possível aceitar sua validade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho aplica a teoria de cópulas à mensuração do risco de mercado, através do cálculo do Value at Risk (VaR). A função de cópula oferece uma maior flexibilidade para a agregação de riscos quando comparada com abordagens tradicionais de mensuração de risco. A teoria de cópulas permite a utilização de distribuições de probabilidade diferentes da normal para a modelagem individual dos fatores de risco. Além disso, diferentes estruturas de associação entre eles podem ser aplicadas sem que restrições sejam impostas às suas distribuições. Dessa forma, premissas como a normalidade conjunta dos retornos e a linearidade na dependência entre fatores de risco podem ser dispensadas, possibilitando a correta modelagem de eventos conjuntos extremos e de assimetria na relação de dependência. Após a apresentação dos principais conceitos associados ao tema, um modelo de cópula foi desenvolvido para o cálculo do VaR de três carteiras, expostas aos mercados brasileiros cambial e acionário. Em seguida, a sua precisão foi comparada com a das metodologias tradicionais delta-normal e de simulação histórica. Os resultados mostraram que o modelo baseado na teoria de cópulas foi superior aos tradicionais na previsão de eventos extremos, representados pelo VaR 99%. No caso do VaR 95%, o modelo delta-normal apresentou o melhor desempenho. Finalmente, foi possível concluir que o estudo da teoria de cópulas é de grande relevância para a gestão de riscos financeiros. Fica a sugestão de que variações do modelo de VaR desenvolvido neste trabalho sejam testadas, e que esta teoria seja também aplicada à gestão de outros riscos, como o de crédito, operacional, e até mesmo o risco integrado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A abordagem do Value at Risk (VAR) neste trabalho será feita a partir da análise da curva de juros por componentes principais (Principal Component Analysis – PCA). Com essa técnica, os movimentos da curva de juros são decompostos em um pequeno número de fatores básicos independentes um do outro. Entre eles, um fator de deslocamento (shift), que faz com que as taxas da curva se movam na mesma direção, todas para cima ou para baixo; de inclinação (twist) que rotaciona a curva fazendo com que as taxas curtas se movam em uma direção e as longas em outra; e finalmente movimento de torção, que afeta vencimentos curtos e longos no mesmo sentido e vencimentos intermediários em sentido oposto. A combinação destes fatores produz cenários hipotéticos de curva de juros que podem ser utilizados para estimar lucros e perdas de portfolios. A maior perda entre os cenários gerados é uma maneira intuitiva e rápida de estimar o VAR. Este, tende a ser, conforme verificaremos, uma estimativa conservadora do respectivo percentual de perda utilizado. Existem artigos sobre aplicações de PCA para a curva de juros brasileira, mas desconhecemos algum que utilize PCA para construção de cenários e cálculo de VAR, como é feito no presente trabalho.Nesse trabalho, verificaremos que a primeira componente principal produz na curva um movimento de inclinação conjugado com uma ligeira inclinação, ao contrário dos resultados obtidos em curvas de juros de outros países, que apresentam deslocamentos praticamente paralelos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação procura examinar a relação entre taxas de juros e os movimentos da taxa de câmbio, a partir da paridade descoberta de juros (PDJ). Foi utilizado o procedimento pressupondo expectativas racionais e foi testada a validade da PDJ com dados da economia brasileira desde o Plano Real (julho de 1994) até agosto de 2006. Encontramos evidências que levam à rejeição da PDJ no longo prazo. Além disso, foi examinada a validade da PDJ sem a necessidade de utilizar a hipótese de expectativas racionais, foram utilizadas as previsões de câmbio dos analistas financeiros, publicadas no Boletim Focus de novembro de 2001 a novembro de 2006. Também encontramos evidências que levam à rejeição da PDJ no Brasil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A armazenagem de grãos é atualmente um importante tópico a ser explorado na região sul do Brasil, e vem se desenvolvendo consideravelmente nos últimos anos. Atualmente a armazenagem é feita através de silos cilíndricos que podem ser de grandes diâmetros ou elevados. Na área da armazenagem é importante implantar novas tecnologias como o caso de silos multicelulares prismáticos que são bastante difundidos nos Estados Unidos. Para estudar estes silos propõe-se analisar um caso real sob a ótica morfológica e dimensional. O estudo baseia-se na comparação entre métodos de análise estrutural analítica convencional com análise numérica através do cálculo por elementos finitos, além de testar as análises de cálculo mais avançadas. Para estudar um caso real buscaram-se informações detalhadas através de desenhos fornecidos por empresas que fabricam estes tipos de silos. Adotando um caso prático como padrão, na seqüência fez-se a análise da interação entre o número de módulos do silo com o objetivo de verificar a influência do número de módulos no dimensionamento dos componentes do silo. Analisou-se o referido projeto utilizando procedimentos clássicos de análise de dimensionamento (métodos analíticos) e compararam-se os mesmos com a análise utilizando o método dos elementos finitos. Adicionalmente executaram-se análises mais avançadas utilizando o método dos elementos finitos como não linearidade geométrica e física, flambagem e análise de freqüências e modos.Após as referidas análises pôde-se concluir que analisando dimensionalmente somente um módulo do silo, pode-se obter resultados que representam todo o conjunto de módulos. Além disso, verificou-se que a análise por elementos finitos é mais apropriada, pois permite menos simplificações de cálculo, apresentando assim resultados mais reais. Quanto às análises adicionais, verificou-se que a carga crítica de flambagem considerando a análise não linear geométrica por elementos finitos é maior do que a carga crítica obtida por análises convencionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We study the determinants of the public-private earning gap for different levels of schooling of Brazilian workers. First, using the current earnings as the variable of interest, it is estimated an earnings gap favorable to the less educated workers from the public sector. On the other hand, for workers with higher qualification the earnings gap disappears or becomes favorable to the private sector. Further, we considerate the different regimes of retirement in Brazil by creating the variable Present Value of Work Contract (PVWC). This variable is a measure of the life time earnings for each individual of our database. Different from the results of the current earnings, we found that the PVWC gap is favorable to the public sector even for the most schooling group of workers.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho propõe para o cálculo VaR o modelo de simulação histórica, com os retornos atualizados pela volatilidade realizada calculada a partir de dados intradiários. A base de dados consiste de cinco ações entre as mais líquidas do Ibovespa de distintos segmentos. Para a metodologia proposta utilizamos duas teorias da literatura empírica – simulação histórica ajustada e volatilidade realizada. Para análise e verificação do desempenho da metodologia proposta utilizamos o Teste de Kupiec e o Teste de Christoffersen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo o estudo e o desenvolvimento de um transdutor magnético de posição, cujo princípio de funcionamento é baseado na relação entre a distribuição do fluxo magnético em sua estrutura, provido por uma fonte de fluxo magnético constante, c.c. ou c.a., e a posição linear da parte móvel do transdutor ao longo de sua direção de deslocamento ou excursão. O transdutor pode ter entreferros de medição para medir a indução magnética nas culatras laterais, com fluxo magnético de excitação constante, c.c. ou c.a., ou não ter entreferros de medição, caso em que apenas fluxo magnético de excitação c.a. é empregado. Em ambos os casos, com fluxo magnético de excitação c.a., bobinas exploradoras foram usadas para medir o fluxo magnético estabelecido nas culatras de acordo com a posição da parte móvel do transdutor. Para o primeiro caso foi desenvolvido um protótipo no qual o material das culatras é aço maciço. Para o segundo foram desenvolvidos dois protótipos, um com barra de aço maciça, e o outro com núcleo de lâminas de Fe-Si. Além de se desenvolver uma modelagem analítica para estudar o transdutor, empregou-se, como ferramenta auxiliar de simulação, uma modelagem eletromagnética por elementos finitos. Os resultados teóricos, simulados e experimentais são esclarecedores e demonstram que o transdutor confeccionado com lâminas de Fe-Si e excitação através de fluxo magnético c.a. apresenta uma saída linear. É demonstrado também que a metodologia proposta e utilizada na modelagem e na concepção do transdutor são adequadas e indicam o domínio da teoria e da tecnologia propostas. As configurações sugeridas são extensivamente analisadas por este trabalho No caso do transdutor com fluxo magnético c.a. proposto e resultante desse estudo, sua topologia pode ser considerada inovadora, não sofrendo um efeito de histerese no seu sinal de saída devido à histerese magnética de suas culatras ferromagnéticas como acontece no transdutor com fluxo magnético c.c.. Isso, entre outras razões, ensejou o depósito de sua patente. Adicionalmente, é robusto, de fácil confecção, com enrolamentos que não requerem uma montagem de precisão como em outros transdutores eletromagnéticos de posição, e de baixo custo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modulação fenotípica da célula estrelada hepática (CEH) é um dos eventos primários do processo de fibrose hepática. Durante este evento, a CEH modifica seu fenótipo lipocítico (quiescente) para miofibroblástico (ativado), fenômeno chamado de ativação. Estudos recentes sugerem que fatores de transcrição adipogênicos atuam no processo de ativação das CEH, e conseqüentemente teriam um papel chave na evolução do processo fibrótico. Neste estudo analisamos a expressão gênica de vários fatores de transcrição adipogênicos, como os receptores ativados por proliferadores de peroxissomos (RAPP), receptor X do fígadoα (RXFα), proteína ligante de CCAAT/enhancerα (PLCEα) e proteína ligante do elemento regulatório de esteróis-1 (PLERE-1), em uma linhagem representativa de CEH, a GRX. A linhagem GRX, é capaz de ser induzida in vitro a expressar o fenótipo quiescente através do tratamento com indometacina ou retinol. Após 24 horas ou 7 dias de tratamento, a expressão gênica foi analisada através de PCR em tempo real. Tratamento com indometacina aumentou a expressão de todos os genes avaliados, exceto PLCEα e RAPPβ. O mesmo resultado obtido com desmetil indometacina (LM 4511) sobre RAPPα e γ sugere que a ação da indometacina sobre a diferenciação fenotípica da GRX é independente de sua ação inibitória sobre ciclooxigenase, já que a LM 4511 não possui esta atividade. Tratamento com retinol levou à modulação de um número menor de genes, diminuindo a expressão de PLCEα e aumentando a de RAPPγ, e RAPPβ. Adipsina, gene característico de adipócitos, teve sua expressão induzida apenas nas células tratadas com indometacina. Pex16 e catalase, genes modulados pelos RAPPs, foram diferencialmente expressos, dependendo do tratamento. Os resultados apresentados sugerem que a linhagem representativa de CEH, GRX, tem sua indução fenotípica modulada por fatores de transcrição adipogênicos, que são diferencialmente expressos dependendo do tratamento de conversão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A falta de eficiência das organizações compromete no longo prazo o desenvolvimento de toda a economia. No caso do mercado de saúde ambiental, uma maior coordenação entre os programas públicos e privados aumentaria a universalização do serviço de controle de endemias para a sociedade. A falta do domínio da tecnologia (como produzir; como atender à preferência do consumidor; como obter ganho de escala; como coordenar e motivar os públicos envolvidos e como fortalecer as instituições de longo prazo) gera perdas de até 49% segundo esta estimativa. Para contribuir com a hipótese acima e para incentivar e promover a eficiência das empresas deste setor, este trabalho calcula a eficiência na prestação de serviço com o método de fronteira estocástica de produção com dados em painel (2005-2008) para a atividade de imunização e controle de pragas. A fronteira de produção retraiu-se neste período. As variáveis: idade da empresa, foco da formação do líder e meta de lucratividade mostram-se significativas para a eficiência da amostra.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente tese engloba três artigos sobre diferencial de salários e estimação de demanda no Brasil. O primeiro artigo investiga o diferencial de salários entre os trabalhadores dos setores público e privado. A principal contribuição deste estudo é a estimação de um modelo de regressão com mudança endógena (endogenous switching regression model), que corrige o viés de seleção no processo de escolha setorial realizada pelos trabalhadores e permite a identificação de fatores determinantes na entrada do trabalhador no mercado de trabalho do setor público. O objetivo do segundo trabalho é calcular a elasticidade-preço e a elasticidade-despesa de 25 produtos alimentares das famílias residentes nas áreas rurais e urbanas do Brasil. Para tanto, foram estimados dois sistemas de equações de demanda por alimentos, um referente às famílias residentes nas áreas rurais do país e o outro sistema associado às famílias residentes nas áreas urbanas. O terceiro artigo busca testar a validade do modelo unitário para solteiros(as) e a validade do modelo de racionalidade coletiva de Browning e Chiappori (1998) para casais no Brasil. Para tanto, foi estimado um sistema de demanda do consumo brasileiro com base no modelo QUAIDS, que apresenta uma estrutura de preferências flexível o suficiente para permitir curvas de Engel quadráticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta relações entre a produtividade do trabalho e as capacitações que ocorreram nas Organizações Militares (OM) de telemática do Exército Brasileiro (EB), que representam o Sistema de Telemática do Exército (SisTEx). O período do estudo se dá entre janeiro de 2010 e julho de 2011. O SisTEx é melhor caracterizado pelo Centro Integrado de Telemática do Exército (CITEx), pelos Centros de Telemática de Área (CTA) e pelos Centros de Telemática (CT), subordinados ao Departamento de Ciência e Tecnologia (DCT) e dispostos ao longo de todo o território nacional. O estudo trata do conceito de produtividade do trabalho e do processo de capacitação no SisTEx. Fala sobre as áreas do conhecimento de interesse sistêmico e das áreas estratégicas que devem ser atendidas com capacitações, mostrando os resultados que surgiram em função das capacitações realizadas. Propõe sugestões para alinhar as necessidades de capacitação com as áreas estratégicas, destacando a importância das capacitações no planejamento estratégico, passando pelos interesses individuais. Relaciona estratégias que representam um diferencial competitivo na agregação de valor aos usuários. Traz comentários sobre a utilização do ensino a distância(EAD) e presencial para realização das capacitações. Trata da interferência das capacitações na produtividade e na percepção sobre o retorno do investimento (ROI). Relaciona, ainda, as capacidades do SisTEx com os estudos de inovação tecnológica no setor de serviços. Destaca as capacitações realizadas na áreas da segurança da informação e defesa cibernética. Considera que é possível melhorar a produtividade do trabalho em função das capacitações que ocorrem no SisTEx, que contribuem como um vetor de modernidade e transformação que agem diretamente no processo produtivo, proporcionando assim uma aceleração no desenvolvimento da qualidade dos serviços de TI prestados. Traz recomendações de estudos futuros para verificar a velocidade de acumulação das capacidades tecnológicas, o uso do EAD para capacitações de maior complexidade técnica e a criação de métricas para cálculo efetivo do ROI. Para tal, foi feito um estudo bibliográfico sobre a produtividade do trabalho e o processo de capacitação do SisTEx. O método adotado foi o do estudo de caso. Foram feitos questionamentos (survey) e enquetes/votações (poll) que foram aplicados nos chefes, exchefes de CTA/CT e nos discentes do SisTEx, militares que realizaram capacitações no período considerado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper provides new information about inter-industry wage di§erentials in Brazil. Using data from the National Survey Sample of Households, we can see that from 1983 to 1995 the relative average wage of the service sector compared to the goods sector decreased, whereas from 1995 to 2007 it increased at a higher level than the previous decrease. After controlling for a variety of work characteristics, we can still see the positive evolution of rel- ative ages in the service sector. We conclude that this development has some explanations: the period of economic growth and stabilization that started after 1994 generated a positive income e§ect, and the service sector beneÖted more from it. Also, the structural transfor- mation that the developed countries already went through still hasn¥t Önished in Brazil. That probably helped improving relative wages in the service sector and it¥s expected the continuation of this process, so as the structural transformation evolves inter-industry wage di§erentials will converge.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresentamos três métodos distintos provando que S(n) = +1 X k=−1 (4k + 1)−n é um múltiplo racional de n para todos os inteiros n = 1, 2, 3, . . . O primeiro utiliza a teoria das função analíticas e funções geradoras. No segundo reduzimos o problema, via mudança de variável devida a E. Calabi, ao cálculo do volume de certos politopos em Rn enquanto que no terceiro usamos a teoria dos operadores integrais compactos. Cada um dos métodos tem um interesse intrínsico e está sujeito a generalizações para aplicações em novas situações.