960 resultados para Taxas de cesárea


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta uma comparação das eficiências energética e exergética de três alternativas diferentes de montagem de sistemas de co-geração de energia que empregam o gás natural como combustível. O caso estudado é uma situação real de um curtume que utiliza lenha como combustível para geração de sua energia térmica e compra energia elétrica da distribuidora. A primeira alternativa é composta por um motor de combustão interna a ciclo Otto, a segunda emprega uma turbina a gás a ciclo Brayton e a terceira usa um gerador de vapor superaquecido juntamente com uma turbina a vapor em contrapressão. Para simulação das plantas é utilizado um software comercial que foi alterado, ficando capacitado para calcular exergias físicas e químicas de plantas de utilidades, cálculos exergoeconômicos, tais como taxas de custo das correntes e eixos, e também de determinar para cada equipamento os valores das variáveis usadas para a avaliação e o melhoramento do desempenho de plantas. Após as modificações o programa foi testado resolvendo um problema conhecido e cuja solução encontrada foi comparada com o da bibliografia. Foram obtidos resultados muito próximos ao padrão usado para comparação, os desvios encontrados são desprezíveis para os objetivos deste trabalho. A planta com melhor eficiência energética e exergética é aquela com motor ciclo Otto, seguida pela montagem que emprega a turbina a gás e finalmente, o conjunto gerador de vapor e turbina a vapor. São calculados os custos de insumos: investimentos necessários para construção das plantas, os custos de operação e manutenção e os custos com combustível. A partir destes valores são resolvidos os sistemas de equações para determinar as taxas de custos das correntes e eixos. Para as três plantas as variáveis de decisão são modificadas buscando aumentar a eficiência exergética e diminuir os custos dos produtos de co-geração. A metodologia para avaliação e melhoramento do desempenho das plantas é empregada e observa-se que é na terceira configuração é onde as modificações tiveram maior impacto, seguida pela primeira planta e por último a segunda alternativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As modernas aplicações em diversas áreas como multimídia e telecomunicações exigem arquiteturas que ofereçam altas taxas de processamento. Entretanto, os padrões e algoritmos mudam com incrível rapidez o que gera a necessidade de que esses sistemas digitais tenham também por característica uma grande flexibilidade. Dentro desse contexto, tem-se as arquiteturas reconfiguráveis em geral e, mais recentemente, os sistemas reconfiguráveis em um único chip como soluções adequadas que podem oferecer desempenho, sendo, ao mesmo tempo, adaptáveis a novos problemas e a classes mais amplas de algoritmos dentro de um dado escopo de aplicação. Este trabalho apresenta o estado-da-arte em relação a arquiteturas reconfiguráveis nos meios acadêmcio e industrial e descreve todas as etapas de desenvolvimento do processador de imagens reconfigurável DRIP (Dynamically Reconfigurable Image Processor), desde suas origens como um processador estático até sua última versão reconfigurável em tempo de execução. O DRIP possui um pipeline composto por 81 processadores elementares. Esses processadores constituem a chave do processo de reconfiguração e possuem a capacidade de computar um grande número de algoritmos de processamento de imagens, mais específicamente dentro do domínio da filtragem digital de imagens. Durante o projeto, foram desenvolvidos uma série de modelos em linguagem de descrição de hardware da arquitetura e também ferramentas de software para auxiliar nos processos de implementação de novos algorimos, geração automática de modelos VHDL e validação das implementações. O desenvolvimento de mecanismos com o objetivo de incluir a possibilidade de reconfiguração dinâmica, naturalmente, introduz overheads na arquitetura. Contudo, o processo de reconfiguração do DRIP-RTR é da ordem de milhões de vezes mais rápido do que na versão estaticamente reconfigurável implementada em FPGAs Altera. Finalizando este trabalho, é apresentado o projeto lógico e elétrico do processador elementar do DRIP, visando uma futura implementação do sistema diretamente como um circuito VLSI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Após a crise financeira de 2008, é perceptível a intensificação de esforços globais para aperfeiçoar métodos de avaliação de risco e ajuste de exposição de capital para tornar o sistema financeiro mundial mais sólido e consistente. O objetivo deste trabalho é propor um modelo de estimação de curvas de crédito privado no Brasil, aplicando a modelagem paramétrica de Nelson & Siegel (1987) a uma amostra de preços de debêntures. Os resultados obtidos poderão ser utilizados para auxiliar reguladores e profissionais de mercado com análises de risco, apreçamento de ativos ilíquidos e percepção de expectativas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A forte apreciação cambial que o Brasil sofreu na última década se traduziu em um novo debate acerca da hipótese de Doença Holandesa no país. Como a queda da taxa de câmbio real ocorreu em um período de alta de preços de commodities e nos últimos anos, especialmente após a crise de 2008, vimos uma maior concentração da pauta exportadora em produtos primários, muitos economistas argumentam que a apreciação foi consequência do boom de commodities e que, em razão disso, o Brasil poderia estar sofrendo da Doença Holandesa. Este trabalho mostra que o boom de commodities não foi a principal causa da apreciação da taxa de câmbio real e não representou uma maior dependência destas mercadorias. A mudança do perfil de risco da economia brasileira foi um dos fatores mais importante para a queda da taxa de câmbio. Concluímos, portanto, que a recente perda de competitividade dos demais setores exportadores não pode ser atribuída exclusivamente à valorização das commodities.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo teve por objetivo examinar a influência dos fatores macroeconômicos (câmbio, inflação e diferença das taxas de financiamento) e risco político na estrutura de capital das Subsidiárias das Multinacionais Estrangeiras no Brasil (SME) comparando-as com as Empresas Brasileiras Locais (EBL). Durante o período analisado (1998 – 2008) verificou-se que a média de alavancagem das SME foi superior ao das EBL. Foi possível também notar que existiu uma mudança de tendência na qual as EBL passaram a ser mais alavancadas do que as SME a partir de 2003, mesmo quando pareadas pelo tamanho aproximado. A variação cambial possui uma associação positiva com a alavancagem evidenciando a hipótese de hedge das receitas no contexto de exposição estrangeira da matriz. Contrapondo a hipótese inicial, o risco político representado pela corrupção diminui a alavancagem das SME. Por fim, a diferença as taxas de financiamento entre o Brasil e país da matriz da SME teve relação negativa com a alavancagem externa (dívida com terceiros). No entanto, a associação positiva com alavancagem intercompany (com a matriz) ocorreu apenas após 2003.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma vez que as perspectivas de crescimento económico nos países mais desenvolvidos, como a Europa, os EUA eo Japão estão diminuindo, os mercados emergentes têm se tornado cada vez mais importante para muitas empresas multinacionais. Brasil, Rússia, Índia e China (BRICs) são agora os principais mercados em crescimento em todo o mundo e as empresas estão buscando estratégias para explorar ao máximo o potencial de consumo promissor nessas regiões. Um dos modos mais elaborados de prosseguir essa estratégia é conhecida como "localização" - uma adaptação das práticas de negócios (ao longo de toda a cadeia de suprimentos) com as preferências e condições locais. Este artigo é projetado para analisar as atividades de localização de empresas multinacionais no Brasil. O foco da análise é o de investigar as características do mercado brasileiro, que induzem as multinacionais a localizar o seu marketing mix (composto de produto, preço, colocação e promoção). Em dois estudos de casos com a empresa Suiça Nestlé e a empresa Alemã Volkswagen vários padrões de localização foram no mercado consumidor brasileiro. Os quatro resultados mais significativos da análise são os diferentes padrões sociais o Brasil, que forçar as empresas a reformular certas funções do seu mix de marketing (por exemplo, a colocação no caso da Nestlé), a aceitação dos consumidores brasileiros a pagar preços relativamente elevados (por exemplo, taxas de Volkswagen até 100% mais por seus produtos em relação à Alemanha); o enorme tamanho do Brasil ea infra-estrutura deficiente, que exigem uma abordagem de distribuição localizada; eo caráter atualmente ainda menos exigente dos estratos de consumidores brasileiros emergentes, que permitem às empresas oferecer produtos menos sofisticados em comparação aos mercados europeus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em redes de inovação baseadas em trocas de informação, o agente orquestrador se apropria das informações dos atores periféricos, gera inovação e distribui em forma de valor agregado. É sua função promover a estabilidade na rede fazendo com que a mesma tenha taxas não negativas de crescimento. Nos mercados de análise de crédito e fraude, por exemplo, ou bureaus funcionam como agentes orquestradores, concentrando as informações históricas da população que são provenientes de seus clientes e fornecendo produtos que auxiliam na tomada de decisão. Assumindo todas as empresas do ecossistema como agentes racionais, a teoria dos jogos se torna uma ferramenta apropriada para o estudo da precificação dos produtos como mecanismo de promoção da estabilidade da rede. Este trabalho busca identificar a relação de diferentes estruturas de precificação promovidas pelo agente orquestrador com a estabilidade e eficiência da rede de inovação. Uma vez que o poder da rede se dá pela força conjunta de seus membros, a inovação por esta gerada varia de acordo com a decisão isolada de cada agente periférico de contratar o agente orquestrador ao preço por ele estipulado. Através da definição de um jogo teórico simplificado onde diferentes agentes decidem conectar-se ou não à rede nas diferentes estruturas de preços estipuladas pelo agente orquestrador, o estudo analisa as condições de equilíbrio conclui que o equilíbrio de Nash implica em um cenário de estabilidade da rede. Uma conclusão é que, para maximizar o poder de inovação da rede, o preço a ser pago por cada agente para fazer uso da rede deve ser diretamente proporcional ao benefício financeiro auferido pela inovação gerada pela mesma. O estudo apresenta ainda uma simulação computacional de um mercado fictício para demonstração numérica dos efeitos observados. Através das conclusões obtidas, o trabalho cobre uma lacuna da literatura de redes de inovação com agentes orquestradores monopolistas em termos de precificação do uso da rede, servindo de subsídio de tomadores de decisão quando da oferta ou demanda dos serviços da rede.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O padrão H.264 foi desenvolvido pelo JVT, que foi formado a partir de uma união entre os especialistas do VCEG da ITU-T e do MPEG da ISO/IEC. O padrão H.264 atingiu seu objetivo de alcançar as mais elevadas taxas de processamento dentre todos os padrões existentes, mas à custa de um grande aumento na complexidade computacional. Este aumento de complexidade impede, pelo menos na tecnologia atual, a utilização de codecs H.264 implementados em software, quando se deseja a decodi cação dedeos de alta de nição em tempo real. Essa dissertação propõe uma solução arquitetural de hardware, denominada MoCHA, para compensação de movimento do decodi cador dedeo de alta de nição, segundo o padrão H.264/AVC. A MoCHA está dividida em três blocos principais, a predição dos vetores de movimento, o acesso à memória e o processamento de amostras. A utilização de uma cache para explorar a redundância dos dados nos acessos à mem ória, em conjunto com melhorias propostas, alcançou economia de acessos à memória superior a 60%, para os casos testados. Quando uma penalidade de um ciclo por troca de linha de memória é imposta, a economia de ciclos de acesso supera os 75%. No processamento de amostras, a arquitetura realiza o processamento dos dois blocos, que dão origem ao bloco bi-preditivo, de forma serial. Dessa forma, são economizados recursos de hardware, uma vez que a duplicação da estrutura de processamento não é requerida. A arquitetura foi validada a partir de simulações, utilizando entradas extraídas de seqüências codi cadas. Os dados extraídos, salvos em arquivos, serviam de entrada para a simulação. Os resultados da simulação foram salvos em arquivos e comparados com os resultados extraídos. O processador de amostras do compensador de movimento foi prototipado na placa XUP Virtex-II Pro. A placa possui um FPGA VP30 da família Virtex-II PRO da Xilinx. O processador PowerPC 405, presente no dispositivo, foi usado para implementar um test bench para validar a operação do processador de amostras mapeado para o FPGA. O compensador de movimento para o decodi cador dedeo H.264 foi descrito em VHDL, num total de 30 arquivos e cerca de 13.500 linhas de código. A descrição foi sintetizada pelo sintetizador Syplify Pro da Symplicity para o dispositivo XC2VP30-7 da Xilinx, consumindo 8.465 slices, 5.671 registradores, 10.835 LUTs, 21 blocos de memó- ria interna e 12 multiplicadores. A latência mínima para processar um macrobloco é de 233 ciclos, enquanto a máxima é de 590, sem considerar misses na cache. A freqüência máxima de operação foi de 100,5 MHz. A arquitetura projetada é capaz de processar, no pior caso, 36,7 quadros HDTV de 1080 por 1920, inteiramente bi-preditivos, por segundo. Para quadros do tipo P, que não utilizam a bi-predição, a capacidade de processamento sobe para 64,3 quadros por segundo. A arquitetura apresentada para o processamento de quadros bi-preditivos e a hierarquia de memória são, até o momento, inéditas na literatura. Os trabalhos relativos a decodi cadores completos não apresentam a solução para esse processamento. Os resultados apresentados tornam a MoCHA uma solução arquitetural capaz de fazer parte de um decodi cador para vídeos de alta definição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Autoridades chinesas tem buscado agir com rapidez, mas com costumeira cautela, para que sua moeda seja capaz de adquirir status de moeda internacional de reserva. Embora tal objetivo exija eliminação ou considerável relaxamento dos controles de capitais, estes ainda existem e geram significativas distorções entre os mercados de câmbio e juros em Renminbi onshore, na China Continental, e offshore, em Hong Kong. Este trabalho descreve algumas destas distorções através da análise de instrumentos financeiros operados nos mercados à vista de moeda (Renminbi spot), forward de moeda (NDF de Renminbi), e de dívida governamental e corporativa em Hong Kong (Dim Sum Bonds).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O mercado bancário brasileiro aparenta se organizar sob a forma de oligopólio, sobretudo por conta da presença de um número reduzido de grandes instituições. A teoria microeconômica nos sugere, no entanto, que mercado oligopolizado não é sinônimo de ausência de competição. A partir disso, conclui-se que não é evidente que os bancos privados domésticos não compitam entre si (claro, tampouco o contrário é evidente). Neste trabalho analisamos a evolução do grau de competitividade da indústria bancária brasileira, entre janeiro de 2001 e dezembro de 2012, utilizando a estatística-H de Panzar & Rosse. A mensuração da competição para a amostra completa continuou a indicar que os bancos brasileiros operam em regime de concorrência monopolística. Não obstante, a evolução trimestral da estatística-H aponta para períodos de significativa redução da competitividade na indústria bancária brasileira, que coincidem com momentos importantes em termos de fusões e aquisições dentro deste setor. Como complemento às conclusões obtidas através do cálculo da estatística-H, e à luz da recente intensiva do governo de “forçar” uma queda do spread bancário via instituições públicas, foram executados testes de causalidade (de Granger) entre as taxas de juros cobradas pelos bancos públicos e privados. Os resultados indicam que as instituições bancárias aparentemente levam em conta, dentre outros fatores, as decisões dos seus concorrentes na hora de definir as taxas de juros que serão cobradas, sugerindo que a estratégia do governo pode contribuir para a continuidade do processo de convergência do spread bancário para patamares internacionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa busca testar a eficácia de uma estratégia de arbitragem de taxas de juros no Brasil baseada na utilização do modelo de Nelson-Siegel dinâmico aplicada à curva de contratos futuros de taxa de juros de 1 dia da BM&FBovespa para o período compreendido entre 02 de janeiro de 2008 e 03 de dezembro de 2012. O trabalho adapta para o mercado brasileiro o modelo original proposto por Nelson e Siegel (1987), e algumas de suas extensões e interpretações, chegando a um dos modelos propostos por Diebold, Rudebusch e Aruoba (2006), no qual estimam os parâmetros do modelo de Nelson-Siegel em uma única etapa, colocando-o em formato de espaço de estados e utilizando o Filtro de Kalman para realizar a previsão dos fatores, assumindo que o comportamento dos mesmos é um VAR de ordem 1. Desta maneira, o modelo possui a vantagem de que todos os parâmetros são estimados simultaneamente, e os autores mostraram que este modelo possui bom poder preditivo. Os resultados da estratégia adotada foram animadores quando considerados para negociação apenas os 7 primeiros vencimentos abertos para negociação na BM&FBovespa, que possuem maturidade máxima próxima a 1 ano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, propusemos um modelo DSGE que busca responder algumas questões sobre políticas de afrouxamento monetário (Quantitative Easing - QE) recentemente implementadas em resposta à crise de 2008. Desenvolvemos um modelo DSGE com agentes heterogêneos e preferred-habitat nas compras de títulos do governo. Nosso modelo permite o estudo da otimalidade da compra de portfolio (em termos de duration dos títulos) para os bancos centrais quando estão implementando a política. Além disso, a estrutura heterogênea nos permite olhar para distribuição de renda provocada pelas compras de títulos. Nossos resultados preliminares evidenciam o efeito distributivo do QE. No entanto, nosso modelo expandido apresentou alguns problemas de estabilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho investiga como os controles de capitais praticados no Brasil através da imposição do Imposto sobre Operações Financeiras (IOF) sobre empréstimos externos em 2011 e 2012 afetaram decisões em âmbito financeiro empresarial. As principais questões abordadas são: As empresas brasileiras com financiamento de curto prazo em moeda estrangeira investiram menos após a imposição do IOF sobre empréstimo externo? Elas alongaram suas dívidas em moeda estrangeira, ou seja, mudaram a composição, mas não o total de dívida? Elas reduziram a dívida externa total, aumentando a dívida doméstica? Para responder a essas perguntas, foi adotado o método de diferenças-em-diferenças. Os resultados encontrados sustentam que as empresas brasileiras que tinham passivos externos de curto prazo antes da adoção do IOF não diminuíram seus investimentos significativamente mais do que as empresas que não foram diretamente afetadas por tal medida de controle, nem alteraram mais a proporção de endividamento externo sobre dívida total. Não obstante, os resultados apontam para um maior alongamento das dívidas em moeda estrangeira.