950 resultados para Banco : Dados
Resumo:
Este trabalho apresenta um estudo experimental das características do escoamento turbulento nas primeiras fileiras de bancos de tubos. São estudados os escoamentos sobre três geometrias de arranjos de tubos: dois tubos posicionados lado a lado normais ao escoamento, uma fileira de tubos transversal ao escoamento e bancos de tubos de configuração quadrangular, com três razões de espaçamento diferentes. O objetivo é entender o comportamento das instabilidades e fenômenos aleatórios e transientes que ocorrem nas primeiras fileiras de bancos de tubos e se propagam para o seu interior. Os resultados experimentais são obtidos através de medições em túnel de vento e visualizações em canal de água. Para a obtenção dos campos de velocidade é utilizada a técnica de anemometria de fio quente e para as medições de pressão é utilizado um transdutor de pressão piezo resistivo. Os dados experimentais obtidos são analisados por ferramentas estatísticas, espectrais e de ondaletas. As visualizações são feitas através da técnica de injeção de tinta diretamente no escoamento. Os resultados mostram a presença de instabilidades geradas a partir da segunda fileira do banco de tubos, que se propagam para o interior, gerando um comportamento onde as três componentes ortogonais do escoamento são igualmente importantes. O comportamento tridimensional do escoamento é responsável por uma redistribuição de massa dentro do banco de tubos que leva a valores de velocidade e números de Strouhal não esperados para a geometria estudada.
Resumo:
O entendimento da manufatura celular passa pelo estudo das rotas de fabricação e pelos métodos de agrupamento de máquinas e de peças. Neste contexto, o objetivo principal deste trabalho é a implemetação de uma ferramenta de auxílio ao projeto de células de manufatura, abordando uma metodologia fundamentada na Tecnologia de Grupo para agrupamento de máquinas em células de manufatura com as respectivas famílias de peças. A base de dados com as informações das peças, das máquinas e das rotas que compõe o fluxo de produção é implementada em um banco de dados relacional. A matriz incidência peça-máquina é montada a partir das rotas armazenadas no banco de dados através de um aplicativo desenvolvido em Visual Basic. Os agrupamentos em famílias de peças e células de manufatura são gerados por três diferentes algoritmos: o Rank Order Clustering (ROC), o Close Neighbor Algorithm (CNA) e um algoritmo heurístico (HEU). São aplicadas restrições referentes a limite de carregamento, tamanho de célula e resolução de situações de “gargalo”. Processados os algoritmos de agrupamento, são analisados os resultados em função da densidade e da eficiência do agrupamento. O sistema apresenta o resultado final em planilhas no formato MS Excel. A primeira planilha, chamada resultados, exibe os valores das restrições de projeto das células (número de máquinas por célula, tempo limite de carregamento e tempo limite para duplicação da máquina), o número de peças (colunas) e de máquinas (linhas) da matriz incidência, os valores de eficiência do agrupamento de peças, do agrupamento de máquinas e do aproveitamento dos recursos, bem como o número de células independentes e a quantidade de máquinas duplicadas, obtidos por cada algoritmo no sistema, destacando os melhores resultados. A segunda planilha mostra a matriz incidência peça-máquina. As demais planilhas apresentam, respectivamente, a matriz diagonalizada com o algoritmo original (ROC e CNA), a matriz diagonalizada levando-se em consideração as restrições de projeto das células (análise ROC, análise CNA e HEU) e por fim, uma planilha relatório. A planilha relatório tabula os mesmos valores citados na primeira planilha e lista as peças associadas a cada família, as máquinas associadas a cada célula, as peças rejeitadas, por não se enquadrarem nos agrupamentos, e que devem ser tratadas fora do ambiente celular e as máquinas duplicadas. A comparação dos resultados é efetuada considerando as características adicionadas aos algoritmos originais. Dos três estudados, as restrições de projeto são tratadas na implementação do HEU. Os demais, ROC e CNA, têm incorporado um pós processamento. Em análises comparativas observa-se a superioridade dos algoritmos ROC e HEU em relação ao CNA e os resultados do ROC são melhores ou iguais aos demais, dificilmente inferiores.
Resumo:
Com a implementação do sistema de metas de inflação no Brasil, o Banco Central desenvolveu uma pesquisa de coleta de expectativas do mercado para a inflação e outras variáveis macroeconômicas, como uma das ferramentas para guiar a política monetária. O ranking Top 5 com as melhores projeções vem sendo publicado desde 2001. Este trabalho analisa a estrutura de premiação do ranking Top 5 como um mecanismo de incentivo para (i) obter projeções atualizadas do mercado e (ii) estimular as instituições participantes da pesquisa a aprimorar suas projeções. A análise baseia-se na literatura desenvolvida na área de torneios e na investigação dos dados disponíveis na pesquisa de expectativas e na premiação Top 5. Encontra-se alguma evidência de heterogeneidade entre os participantes da pesquisa, que pode estar relacionada tanto a características intrínsecas de cada instituição com relação à habilidade quanto ao nível de esforço e estratégia escolhidos.
Resumo:
Cláusulas de fidelidade e políticas de fidelização são elementos comuns nos debates sobre como intensificar o comprometimento dos associados com sua cooperativa. A literatura acadêmica já apresentou diversos fatores que podem influenciar o comprometimento/fidelidade dos associados. Entretanto, poucas respostas foram dadas quanto à influência que o desenho institucional da cooperativa pode ter no comprometimento ou na fidelidade dos seus associados. Por meio das informações disponíveis no banco de dados do PDICOOPs – que conta com dados em formato de painel para os anos de 1989, 1992 e 2000 -, esta dissertação avalia empiricamente os determinantes do comprometimento dos associados com a cooperativa, tendo como foco os efeitos dos custos e benefícios da ação coletiva, propósito da organização cooperativa. Adicionalmente, esta dissertação investiga se o nível de comprometimento dos associados tem efeitos sobre o desempenho da cooperativa.
Resumo:
Com a implementação do Acordo de Basiléia II no Brasil, os grandes conglomerados bancários poderão utilizar o chamado modelo IRB (Internal Ratings Based) para cômputo da parcela de risco de crédito da exigência de capital. O objetivo desta dissertação é mensurar a diferença entre o capital mínimo exigido (e, conseqüentemente, do Índice de Basiléia) calculado pela abordagem IRB em relação à regulamentação atual. Para isso, foram estimadas probabilidades de inadimplência (PD) utilizando matrizes de transição construídas a partir dos dados da Central de Risco de Crédito (SCR) do Banco Central do Brasil. Os resultados indicam aumento da exigência de capital, ao contrário do ocorrido nos países do G-10.
Resumo:
O objetivo deste trabalho é investigar as motivações e a dinâmica no uso de derivativos de moedas por parte de empresas não-financeiras brasileiras, em contratos de balcão, a partir de um banco de dados único, que contém operações efetivamente contratadas por estas empresas junto a um grande banco internacional de 2003 a 2008. Embora pesquisas em outros países apontem para a influência de um componente especulativo (resultado de uma tentativa de previsão de mercado) nas decisões dos gestores, o efetivo impacto disto nas decisões da empresa ainda é pouco conhecido, bem como suas implicações para a gestão financeira de riscos e governança corporativa. Os resultados do presente estudo revelam que existem fortes indícios de que as decisões de tomada e desmonte de posições em derivativos sejam bastante influenciadas por uma visão especulativa. Mais ainda, tais situações são difíceis de serem identificadas a priori por confundirem-se com as operações destinadas à redução de risco da companhia.
Resumo:
Este trabalho procura verificar empiricamente se, no caso brasileiro, o sinal da covariância entre surpresas de inflação e variações da taxa nominal de câmbio podem indicar de que forma a política monetária é conduzida. Trabalhos anteriores que consideraram economias desenvolvidas constataram empiricamente que más notícias para a inflação (ou seja, inflação divulgada maior que a inflação esperada) podem ser boas notícias para o câmbio (ou seja, apreciação cambial ante a notícia) se o banco central adota um regime de metas de inflação e o implementa com uma regra de Taylor. A partir de séries intradiárias do primeiro dólar futuro BM&F e a diferença entre os dados divulgados e esperados para o IPCA e o IPCA15, analisam-se as variações nominais de câmbio em uma janela de 10 minutos ao redor das divulgações de índices de inflação. O período considerado vai de agosto de 1999 até outubro de 2007. Não se encontra evidência estatística significativa de que variações nominais de câmbio reajam à surpresas inflacionárias em uma base intradiária no caso brasileiro e que, quando há evidencia, ela é fraca e tem o sentido “tradicional”, ou seja, más notícias para a inflação são más notícias para o câmbio. Diversos trabalhos afirmam que o Banco Central do Brasil implementa uma Regra de Tayor agressiva na condução da política monetária. Ponderam-se então alguns fatores específicos de uma economia emergente, como ambiente macroeconômico sujeito a maior volatilidade e curto histórico de credibilidade da autoridade monetária.
Resumo:
O presente trabalho utiliza a “Contabilidade do crescimento” para analisar e explicar as diferenças nas taxas de crescimento do PIB per capita dos países Brasil, Chile, China, Índia e Coréia no período compreendido entre os anos 1960 e 2000. Descrevendo os quatro fatos estilizados do crescimento econômico, a “Contabilidade do crescimento de Solow”, bem como a função de produção Cobb-Douglas, buscou-se dar o embasamento teórico para o modelo utilizado de fato no presente trabalho, que decompôs o crescimento dos diferentes países para identificar qual fator mais contribuiu ou quais fatores de produção mais contribuíram para os diferentes níveis de crescimento econômico dos países analisados. A metodologia utilizada no trabalho baseia-se em pesquisas bibliográficas, que visam primordialmente a fundamentação conceitual e teórica de alguns conceitos utilizados e em pesquisas às diferentes bases de dados históricos referentes aos países e variáveis analisadas. Pode-se afirmar que as principais fontes de consulta foram a “Penn World Table” da Universidade da Pensilvânia e o Banco Mundial. O estudo irá demonstrar, além dos diferentes níveis de cada um dos fatores (capital humano, físico e progresso tecnológico ou “TFP – Total Factor Productivity” ) nos países, como cada um desses fatores evoluiu ao longo dos anos e qual a contribuição de cada um nas taxas de crescimento do PIB per capita de cada um dos países analisados. É feito um estudo da variância do crescimento do PIB per capita, onde ficará claro que boa parte das diferenças apresentadas nas taxas de crescimento dos países vem do progresso tecnológico ou da covariância dos fatores, que são progresso tecnológico e o agrupamento do capital físico e humano. Também verificou-se a correlação existente entre a variação do PIB per capita e as variáveis que o compõe, permitindo a visualização do alto grau de correlação existente, principalmente com o progresso tecnológico ou “TFP”.
Resumo:
As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.
Resumo:
O objetivo do trabalho é investigar a relação de longo prazo entre capital e inovação, utilizando técnicas econométricas mais recentes, com dados em painel. Diversos testes alternativos de cointegração foram utilizados, como testes com coeficientes comuns e idiossincráticos entre os cross-sections (testes de Pedroni, de Kao e de Fischer), e testes onde a hipótese de cointegração é nula (teste de McCoskey e Kao), incluindo testes com quebras estruturais (teste de Westerlund). As conclusões principais são a evidência forte de que estoque de capital humano afeta de forma significativa o número de inovações. Tabém foram encontradas evidências de que a hierarquia de educação importe para o aumento de inovações.
Resumo:
A alta gerência do banco de varejo (PRINCIPAL) necessita delegar autoridade a gerentes de níveis inferiores (AGENTES) sob a existência de interesses conflitantes, informações assimétricas e a impossibilidade de monitoração completa. Um sistema de metas e incentivos é adotado de modo a induzir estes agentes na direção dos interesses do principal. O objetivo deste trabalho é avaliar a relação causal existente entre o chamado “contrato de salário variável garantido” e o desempenho dos agentes. Isto é, investigar de que forma a aplicação deste contrato implícito, que promove uma substancial mudança no sistema de incentivos diretos, afeta o desempenho destes agentes. Analisamos econometricamente dados de jan.2007 a jun.2009 obtidos junto a um grande banco de varejo nacional através de um estimador de efeitos fixos para um painel de dados não balanceado. Os resultados indicam que os agentes sujeitos ao contrato de salário variável garantido têm um desempenho inferior aos agentes sujeitos a remuneração variável. Concluímos que não podemos descartar existência do problema de risco moral no comportamento dos agentes sujeitos a este contrato.
Resumo:
O objetivo desse trabalho é apresentar revisão da literatura empírica sobre a racionalidade das expectativas e eficiência do mercado de câmbio e aplicar essa revisão sobre o mercado de câmbio brasileiro entre 2002 e 2007 em três horizontes distintos de tempo, utilizando-se (i) de dados da pesquisa Focus do Banco Central do Brasil para podermos identificar se o viés de predição do forward é devido ao prêmio de risco cambial ou a formação das expectativas e (ii) dos métodos dos mínimos quadrados ordinários e do vetor auto-regressivo. No curto prazo o mercado é eficiente e irracional, enquanto que, no longo prazo, o forward não está relacionado com o câmbio à vista. Além disso, constatamos que a heterogeneidade dos agentes nesse mercado influencia a variação cambial no curto prazo, e as expectativas possuem uma persistência após um choque estrutural.
Resumo:
Os sistemas computacionais estão tomando proporções cada vez maiores envolvendo situações bastante complexas, onde muitas vezes erros são inaceitáveis, como em sistemas bancários, sistemas de controle de tráfego aéreo, etc... Para obter software confiável e com desempenho aceitável, pode-se aliar técnicas de desenvolvimento formal de software a técnicas de simulação de sistemas. O ambiente PLATUS reúne essas duas áreas: modelos de simulação são descritos usando gramáticas de grafos uma linguagem de especificação formal. Gramáticas de grafos são uma generalização de gramáticas de Chomsky, substituindo strings por grafos. Neste trabalho, serão tratadas gramáticas de grafos baseados em objetos, um modelo onde vértices e arcos são tipados, e as especificações são modulares (a especificação de um sistema consiste em várias gramáticas de grafos combinadas). Assim, o modelo de um sistema pode ser descrito de forma precisa, e a linguagem de especificação é bastante abstrata e expressiva. Num ambiente de simulação a questão da recuperação de dados merece uma atenção especial, uma vez que a eficiência do simulador está diretamente ligada a agilidade na obtenção das informações. Neste trabalho, o objetivo principal é definir uma representação para gramáticas de grafos que facilite o armazenamento, a recuperação e análise das estruturas identificadas no ambiente PLATUS, ou seja, gramáticas de grafos baseadas em objetos. São definidas também funções que implementam os procedimentos necessários, para a recuperação de dados durante a simulação. A eficiência dessas funções é demonstrada através do cálculo de sua ordem de complexidade. As estruturas são validadas através da implementação de um protótipo de banco de dados.
Resumo:
Campanhas de amostragem são indispensáveis para o desenvolvimento da pesquisa e do planejamento de lavra. A perfilagem geofísica é um método de amostragem indireta, que vem se mostrando muito eficaz com o desenvolvimento de novas tecnologias para medições de grandezas físicas. Com baixo custo de operação e versatilidade de manuseio a perfilagem geofísica pode ser realizada concomitantemente com as operações de lavra, proporcionando reposta imediata do parâmetro medido. No entanto os métodos geofísicos de prospecção, por serem indiretos, não apresentam uma grande precisão e devido a isso os dados obtidos por perfilagem geofísica não podem ter a mesma importância que as informações obtidas por testemunhos de sondagem. O conceito de informação primária e secundária vem sendo amplamente discutido e aplicado devido à necessidade de uma melhoria do conhecimento do atributo geológico principal, desde que o mesmo se correlacione com algum outro parâmetro secundário. A redução de custos via aproveitamento de informações secundárias e métodos alternativos de amostragem também são fatores que influenciam essa aplicação Por este motivo, essa dissertação levanta o tema da aplicação de perfilagem geofísica de poço em depósitos de carvão para obtenção de informações secundárias. Concomitantemente a isso foram aplicadas metodologias capazes de combinar informações adquiridas por perfilagem geofísica, ou por um outro método, a um banco de dados obtido por amostragem com recuperação de testemunho. Concluiu-se que independente do método empregado para incorporação de informação secundária, as estimativas apresentam melhorias significativas quando comparadas com as estimativas sem a contemplação de informações secundárias. Conseqüentemente a aplicação de perfilagem pode ser uma ferramenta de extrema importância e confiável para obtenção de informação secundária e também para melhoria do planejamento de lavra para curto prazo.
Resumo:
Após a adoção do sistema de metas para a inflação, o Banco Central do Brasil aumentou a sua preocupação em estabelecer uma comunicação mais clara e transparente com o público para ajudar a atingir os seus objetivos. Este trabalho analisa o impacto das divulgações da Ata do Comitê de Política Monetária (COPOM) e do Relatório Trimestral de Inflação sobre a estrutura a termo da taxa de juros brasileira através de um modelo E-GARCH. Os resultados apontam uma redução da volatilidade das taxas de juros após as divulgações, sugerindo que a comunicação do Banco Central do Brasil é eficaz em reduzir as incertezas do mercado.