950 resultados para Banco : Dados
Resumo:
Neste trabalho é investigada uma abordagem para extração de feições baseada na otimização da distância de Bhattacharyya em um classificador hierárquico de estrutura binária. O objetivo é mitigar os efeitos do fenômeno de Hughes na classificação de dados imagem hiper-espectrais. A utilização de um classificador em múltiplo-estágio, analisando um sub-conjunto de classes em cada etapa ao invés do conjunto total, permite modos mais eficientes para extrair as feições mais adequadas em cada etapa do procedimento de classificação. Em uma abordagem de árvore binária, somente duas classes são consideradas em cada etapa, permitindo a implementação da distância de Bhattacharyya como um critério para extração de feições em cada nó da árvore. Experimentos foram realizados utilizando dados imagem do sensor AVIRIS. A performance da metodologia proposta é comparada com métodos tradicionais para extração e seleção de feições.
Resumo:
A dissertação tem como objetivo analisar dois aspectos do processo de bookbuilding nas emissões de debêntures no mercado brasileiro. O primeiro aspecto é verificar se o underwriter utiliza, a exemplo do que ocorre no Initial Public Offering (IPO) de ações, o poder discricionário nas alocações das debêntures entre os investidores. O segundo consiste em encontrar as características, tanto do emissor quanto do investidor, que influenciam na eficiência do bidder no processo de bookbuilding. Para realizar os testes empíricos foi utilizada uma base de dados composta por 40 books1 (totalizando 727 bids) fornecidos por um banco de investimento.Verifica-se que o underwriter não beneficia nenhum investidor na alocação final das debêntures. Essa afirmação fica evidenciada quando se calcula a diferença entre alocação final (efetivamente recebida pelo investidor) e alocação teórica (estimada com base no método pro-rata) para os 27 books (totalizando 557 bids) que apresentam demanda superior a oferta. A diferença é nula para 96.6% da amostra, sendo que das 19 observações não nulas, 15 possuem diferença absoluta de uma debênture entre a alocação teórica e a final, resultado explicado em função do arredondamento das alocações.Contrariando a teoria de leilão de titulos públicos, onde autores, como Scott and Wolf (1979), defendem que os investidores devem utilizar o step bid como estratégia ótima de bid, este trabalho verificou que no caso de bookbuilding de debêntures no mercado brasileiro, os investidores usuários de step bid posssuem menos chances de ter seu bid atendido plenamente pelo underwriter. Quando o investidor é um gestor de recursos de terceiros (asset management), aumenta-se a possibilidade de ter sua demanda atendida. O maior sucesso do asset management no bookbuilding deve-se às peculiaridades do mercado brasileiro: (i) somente investidores locais participam dos bookbuilding, já que investidores estrangeiros possuem preferência e incentivos por títulos públicos; (ii) gestores de recursos de terceiros representam 75% da demanda por debêntures; (iii) o mercado de gestão de recursos é concentrado: os 5 maiores gestores concentram 60% da indústria. Com isso os gestores de recursos podem desenvolver uma expertise própria, já que são os principais demandadores e frequentemente participam dos bookbuilding. As características do emissor também influenciam no desempenho dos bidders: as debêntures de baixo e médio risco aumentam a possibilidade do bidder ter seu pedido atendido na íntegra. Além disso, como era esperado, quanto maior for a demanda do título, mais dificil é para o investor conseguir a quantidade desejável.
Resumo:
Dados volumétricos temporais são usados na representação de fenômenos físicos em várias aplicações de visualização científica, pois tais fenômenos são complexos, alteram-se com o tempo e não possuem uma forma de representação definida. Uma solução é usar amostragens sobre um espaço de forma geométrica simples que contém o fenômeno (um cubo, por exemplo), discretizado ao longo de uma grade em células de mesmo formato e usualmente chamado de volume de amostragem. Este volume de amostragem representa um instante da representação do fenômeno e, para representar dados temporais, simplesmente enumera-se tantos volumes quanto forem as diferentes instâncias de tempo. Esta abordagem faz com que a representação seja extremamente custosa, necessitando de técnicas de representação de dados para comprimir e descomprimir os mesmos. Este trabalho apresenta uma nova abordagem para compressão de volumes de dados temporais que permite a visualização em tempo real destes dados usando hardware gráfico. O método de compressão usa uma representação hierárquica dos vários volumes de dados dentro da memória do hardware gráfico, referenciados pelo hardware como texturas 3D. O método de compressão tem melhor desempenho para dados volumétricos esparsos e com alto grau de coerência (espacial e temporal). A descompressão destes dados é feita por programas especiais que são executados no próprio hardware gráfico. Um estudo de caso usando o método de compressão/descompressão proposto é apresentado com dados provenientes do Projeto MAPEM (Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima). O objetivo do projeto é propor uma metodologia para o monitoramento dos efeitos das descargas de materiais no ecossistema marinho durante a perfuração de um poço de petróleo. Para estimar certos descarregamentos de fluidos, o projeto usa um simulador CFD que permite mostrar tais descarregamentos, gerando grades planares e uniformes 2D ou 3D em qualquer instante de tempo durante a simulação.
Resumo:
Alinhamento Estratégico entre Negócio e Tecnologia de Informação (TI) é um fenômeno complexo, estudado intensivamente há muitos anos. As diversas pesquisas desenvolvidas têm contribuído em grande medida para a evolução do conhecimento sobre o tema. Porém, estudos sinalizam que ainda existem aspectos a explorar e apontam a Teoria Ator-Rede como uma alternativa para abordar o tema Alinhamento. Esta dissertação apresenta a perspectiva teórica da Teoria Ator-Rede; e do ponto de vista empírico, à luz desta perspectiva, estuda o processo pelo qual a utilização da Internet tornou-se uma realidade para um banco brasileiro e evoluiu de 1995 a 2005, neste banco. Também discute os benefícios e contribuições da adoção desta perspectiva teórica no contexto do tema Alinhamento Estratégico entre Negócio e TI. O estudo (1) sinaliza que diversos atores estiveram envolvidos com a incorporação da Internet pelo banco e estão envolvidos com a sua manutenção como uma tecnologia importante para a instituição; várias estratégias foram, e são, adotadas para sustentar esta situação; e (2) sugere que a Teoria Ator-Rede oferece uma visão diferente de ¿alinhamento¿, daquela atribuída ao pensamento tradicional de gestão, e sua perspectiva de análise de fatos representa uma ferramenta para os gestores que buscam o Alinhamento.
Resumo:
Este trabalho apresenta um protótipo de uma máquina de workflow, de uso geral, implementado em plataforma de software livre. O protótipo utiliza um servidor web com PHP, em sistema operacional Linux, alguns programas desenvolvidos em C e o banco de dados MySql. O projeto CEMT demanda o uso da tecnologia de workflow, com o objetivo de controlar a execução de cursos a distância. Antes de ser iniciado o desenvolvimento do protótipo, foi feito um estudo sobre algumas máquinas de workflow existentes, com o objetivo de encontrar alguma que tivesse licença livre e pudesse ser utilizada no projeto CEMT, ou colher subsídios para o desenvolvimento de uma máquina de workflow própria. Foram testadas duas máquinas de workflow de licença livre (Openflow e OFBIZ), uma máquina com cópia de demonstração (Reactor) e foram consultadas as documentações fornecidas pelos fabricantes. Além disso foi consultada também a documentação do Domino Workflow, que não disponibilizou cópia de avaliação e cuja licença não é livre. Um dos requisitos do protótipo é a compatibilidade com os padrões de interface recomendados pela WfMC. Esses padrões permitem a interoperabilidade entre softwares de workflow. O primeiro benefício da adoção desses padrões é a interação com o editor gráfico de workflow AW (Amaya Workflow), desenvolvido no Instituto de Informática da UFRGS. Este editor gera definições de processos de workflow no formato da linguagem XPDL (XML Process Definition Language), que alimentam a máquina de workflow. O esquema XPDL foi traduzido para um esquema de banco de dados relacional e foi desenvolvido um compilador que lê um arquivo no formato XPDL e gera comandos SQL de inserção das informações desse arquivo no banco de dados. Foi desenvolvida uma interface web para demonstrar o funcionamento do protótipo. A API definida na Interface 2 da WfMC foi implementada parcialmente. Essa API permite o desenvolvimento independente de outras interfaces de usuário. Foram propostas algumas extensões à Interface 1 e modificações na definição de estados recomendada pela Interface 2 da WfMC. Com isso foi possível aumentar o controle sobre a execução das instâncias de workflow. Foram incluídas as restrições de data e possibilidade de bloqueio na execução de instâncias de atividades. Outras extensões possibilitam um serviço de notificações e atividades em grupo e oferecem novas possibilidades de alocação de atividades. O funcionamento básico do protótipo é descrito e inclui as funcionalidades de carga da definição de processo, instanciação de processo, visualização da lista de trabalho e execução das atividades, entre outras.
Resumo:
Estudos demonstraram a associação entre as empresas classe mundiais, ganhadoras dos Prêmios Nacionais de Qualidade em seus países, e o sucesso financeiro dessas organizações. Falta na literatura acadêmica, um elo demonstrado empiricamente a associação entre os modelos de Excelência e os critérios de performance socioambientais. Nosso estudo buscou entender o alinhamento entre os conceitos de Qualidade e Excelência com os conceitos de Responsabilidade Social e Sustentabilidade, determinando os elementos de interface e buscando inter-relações. A partir da aplicação de um modelo consagrado de mensuração do desempenho Sustentável no país, os Indicadores Ethos, em quatro empresas vencedoras do PNQ - Prêmio Nacional da Qualidade no Brasil. Comparando os resultados obtidos com o banco de dados do Instituto Ethos e suas melhores práticas, o nosso estudo buscou responder a pergunta se existe uma associação entre a busca da Qualidade Total e o desempenho Sustentável, ou seja, aquele distribuído com justeza entre o social, o ambiental e o econômico. Para isso, utilizamos uma ampla revisão bibliográfica e uma pesquisa de campo com quatro empresas ganhadoras do PNQ, com portes, localização e atividades representativas das organizações vencedoras. Os resultados foram comparados utilizando-se elementos da estatística não-paramétrica e apontam para um desempenho superior das empresas classe mundial em relação ao banco de dados do Instituto Ethos e equivalente às melhores práticas registradas no Instituto. Ademais, percebeu-se um alinhamento entre a evolução dos Critérios de Excelência da Fundação Nacional da Qualidade com os modelos mais atuais de Responsabilidade Social
Resumo:
O objetivo desta dissertação é analisar a política de juros do Banco Central durante o período entre os anos de 1995 a 2002, procurando verificar se houve mudança nesta política, isto é se houve mudanças de regimes na condução da política monetária, principalmente com a mudança do regime cambial. Para tanto o modelo estimado mais adequado para a análise foi um switching regression model que determina endogenamente se há mudança de regimes.
Resumo:
O objetivo deste trabalho é verificar se o ajustamento das condições de paridade de juros por expectativa do mercado (paridade descoberta) e por prêmios de risco (paridades coberta e descoberta) leva à validação da relação de não-arbitragem subjacente, ou pelo menos a resultados econométricos mais próximos de sua validação. Para isso, combinamos taxas de retornos de instrumentos de renda fixa domésticos e norte-americanos e aplicamos o arcabouço econométrico de séries de tempo. Como primeiro passo de investigação, aplicamos a paridade de juros (descoberta e coberta) na sua forma tradicional. No passo seguinte aplicamos os testes econométricos às condições de paridade ajustadas por um prêmio de risco. No caso da PDJ, não obtivemos resultados satisfatórios, mesmo ajustando pelos prêmios de risco. Esse ajuste propiciou uma mudança nos sinais dos coeficientes na direção correta, mas a magnitude do coeficiente da desvalorização cambial efetiva passou a destoar bastante da magnitude das outras séries. Apesar de termos obtido a validade da PCJ na forma tradicional, não esperaríamos este resultado, pois isso implicaria que o prêmio de risco país seria nulo para este período. Ajustando a PCJ pelo prêmio de risco de não-pagamento passa-se a não obter co integração entre as séries, ou seja, o prêmio de risco de não-pagamento teria um comportamento independente do prêmio futuro e do diferencial de juros. As possíveis causas para a não obtenção dos resultados esperados são: intervalo amostraI menor que 3 anos, erro de medida dos dados de survey ou tentativa do Banco Central de controlar a taxa de câmbio nominal e as taxas de juros domésticas simultaneamente.
Resumo:
Esta dissertação é um estudo de caso exploratório sobre a estratégia de sustentabilidade adotada pelo Banco Real ABN AMRO no Brasil, a partir de 2002. Conceitua e contextualiza o desenvolvimento sustentável e apresenta os seus princípios e considerações de diferentes autores sobre o assunto. Foi realizada uma pesquisa com funcionários e clientes do Banco Real ABN AMRO. Buscaram-se também dados secundários, obtidos em materiais do próprio banco durante o período estudado. Finalmente, através da análise dos depoimentos e dos resultados encontrados, concluiu-se que o Banco Real adotou a estratégia de sustentabilidade a partir de 2002, e que há indícios de que esta estratégia gera valor para a empresa.
Resumo:
A presente pesquisa situa-se no campo da gestão de recursos humanos e comportamento organizacional. Seu objetivo é avaliar o sistema de gestão de desempenho de uma empresa brasileira sob a ótica da percepção das pessoas que trabalham nesta organização. Mais especificamente, o estudo visa compreender a percepção do impacto da gestão de desempenho para o sucesso da organização e para o desenvolvimento profissional das pessoas. A partir de uma abordagem qualitativa foram realizadas doze entrevistas com colaboradores de diferentes níveis hierárquicos do Banco Itaú. Para a interpretação dos resultados foi utilizada uma das técnicas da análise de conteúdo: a análise categorial temática. Os principais resultados encontrados no estudo foram: (i) as categorias que formam a gestão de desempenho aplicada na empresa em estudo são: orientação para resultados, avaliação de desempenho, orientação para pessoas, a “ferramenta” e o desenvolvimento profissional, sendo que outras categorias influenciam a gestão de desempenho: o papel do gestor, a postura de expectador do funcionário, a heterogeneidade operacional e a cultura; (ii) pela perspectiva dos funcionários, a gestão de desempenho praticada pela empresa não favorece o desenvolvimento profissional e consequentemente não se observa efetividade para a empresa; (iii) o papel do gestor é fundamental na formação da percepção dos colaboradores sobre a gestão de desempenho.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
As intervenções efetuadas pelo Banco Central do Brasil têm sido freqüentes no mercado de câmbio à vista nestes últimos anos. Essas intervenções geram incremento das reservas internacionais do país, mas podem gerar também, entre outros, efeitos sobre o ritmo da apreciação da moeda nacional e também sobre a volatilidade do mercado. O presente trabalho buscou identificar se tais intervenções resultaram em alterações da volatilidade do mercado, concluindo que houve efeito de redução desta volatilidade em apenas uma faixa dentro do universo do volume de compras realizadas pelo Banco Central. Secundariamente buscou-se observar qual foi a demanda dos agentes de mercado na contratação de instrumentos de proteção (hedge) cambial em resposta dessas alterações da volatilidade. Não foi verificado qualquer efeito acerca da busca de proteção. A análise foi baseada no período compreendido entre janeiro de 2001 e maio de 2007, sendo que a identificação do efeito das intervenções sobre a volatilidade do mercado utilizou o modelo GARCH, e a análise subseqüente, de influência sobre a busca de proteção, foi baseada no modelo SARIMA.
Resumo:
Esta tese de doutorado estuda a produção de unidades habitacionais para famílias de baixa renda coordenada com o programa de revitalização da região central do município de São Paulo. O estudo recupera o discurso da teoria microeconômica tradicional aplicada a estudos urbanos e o contrapõe a um discurso alternativo. Foi criada uma base de dados original na forma de um levantamento dos imóveis subutilizados nos distritos Sé e República a partir de visitas a campo, com observações diretas dos imóveis e utilizando técnicas de identificação por imagens de satélite e sistemas de geoprocessamento para avaliar a extensão e os padrões da degradação imobiliária. Os resultados da análise do banco de dados demonstram a plausibilidade do discurso alternativo e apontam para alguns fatores significativos que contribuem para o atual estado de degradação. Retoma-se então a análise da política de repovoamento da região central por meio de um programa de moradias para famílias de baixa renda e mostra-se como as técnicas empregadas permitem avaliar as razões para o baixo desempenho dessa agenda política no contexto de um amplo programa de revitalização urbana.
Resumo:
O objetivo da tese é analisar questões relativas à coordenação entre as políticas monetária e fiscal no Brasil após a adoção do regime de metas de inflação. Utiliza-se de um modelo de metas de inflação para uma economia pequena e aberta para a incorporação um bloco de equações que descrevem a dinâmica das variáveis fiscais. Tendo por base os conceitos de Leeper (1991), ambas as entidades, Banco Central e Tesouro Nacional, podem agir de forma ativa ou passiva, e será este comportamento estratégico que determinará a eficiência da política monetária. Foram estimados os parâmetros que calibram o modelo e feitas as simulações para alguns dos choques que abalaram a economia brasileira nos últimos anos. Os resultados mostraram que nos arranjos em que a autoridade fiscal reage a aumentos de dívida pública com alterações no superávit primário, a trajetória de ajuste das variáveis frente a choques tende a ser, na maioria dos casos, menos volátil propiciando uma atuação mais eficiente do Banco Central. Nestes arranjos, o Banco Central não precisa tomar para si funções que são inerentes ao Tesouro. Também são analisadas as variações no comportamento do Banco Central e do Tesouro Nacional em função de diferentes composições da dívida pública. Os resultados mostram que a estrutura do endividamento público será benéfica, ou não, à condução das políticas monetária e fiscal, dependendo do tipo de choque enfrentado. O primeiro capítulo, introdutório, procura contextualizar o regime de metas de inflação brasileiro e descrever, sucintamente, a evolução da economia brasileira desde sua implantação. No segundo capítulo são analisados os fundamentos teóricos do regime de metas de inflação, sua origem e principais componentes; em seguida, são apresentados, as regras de política fiscal necessárias à estabilidade de preços e o problema da dominância fiscal no âmbito da economia brasileira. O terceiro capítulo apresenta a incorporação do bloco de equações fiscais no modelo de metas de inflação para economia aberta proposto por Svensson (2000), e as estimações e calibrações dos seus parâmetros para a economia brasileira. O quarto capítulo discute as diferentes formas de coordenação entre as autoridades monetária e fiscal e a atuação ótima do Banco Central. O quinto capítulo tem como base a mais eficiente forma de coordenação obtida no capítulo anterior para analisar as mudanças no comportamento da autoridade monetária e fiscal frente a diferentes estruturas de prazos e indexadores da dívida pública que afetam suas elasticidades, juros, inflação e câmbio.
Resumo:
Este estudo parte de um painel de 52 países entre 1990 e 2007 para verificar se o desalinhamento da taxa de câmbio real contribui para explicar a redução da inflação mundial quando comparada à decisão de adoção do Regime de Metas de Inflação por 25 países desta amostra. O modelo Ball-Sheridan (2005) é re-estimado com novos dados e estendido para considerar os fundamentos da taxa de câmbio e o desalinhamento cambial. Verifica-se que a adoção do regime de metas de inflação é relevante para explicar a redução das taxas de inflação, em particular nos países emergentes onde confere credibilidade à política monetária. Não se verifica que o desalinhamento cambial tenha efeito significativo na convergência da inflação mundial.