957 resultados para banco corneal
Resumo:
Trata de um experimento em situação real de mercado, visando a identificar a elasticidade preço da demanda dos clientes de um banco de varejo no mercado brasileiro.
Resumo:
Alinhamento Estratégico entre Negócio e Tecnologia de Informação (TI) é um fenômeno complexo, estudado intensivamente há muitos anos. As diversas pesquisas desenvolvidas têm contribuído em grande medida para a evolução do conhecimento sobre o tema. Porém, estudos sinalizam que ainda existem aspectos a explorar e apontam a Teoria Ator-Rede como uma alternativa para abordar o tema Alinhamento. Esta dissertação apresenta a perspectiva teórica da Teoria Ator-Rede; e do ponto de vista empírico, à luz desta perspectiva, estuda o processo pelo qual a utilização da Internet tornou-se uma realidade para um banco brasileiro e evoluiu de 1995 a 2005, neste banco. Também discute os benefícios e contribuições da adoção desta perspectiva teórica no contexto do tema Alinhamento Estratégico entre Negócio e TI. O estudo (1) sinaliza que diversos atores estiveram envolvidos com a incorporação da Internet pelo banco e estão envolvidos com a sua manutenção como uma tecnologia importante para a instituição; várias estratégias foram, e são, adotadas para sustentar esta situação; e (2) sugere que a Teoria Ator-Rede oferece uma visão diferente de ¿alinhamento¿, daquela atribuída ao pensamento tradicional de gestão, e sua perspectiva de análise de fatos representa uma ferramenta para os gestores que buscam o Alinhamento.
Resumo:
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.
Resumo:
O objetivo desta dissertação é analisar a política de juros do Banco Central durante o período entre os anos de 1995 a 2002, procurando verificar se houve mudança nesta política, isto é se houve mudanças de regimes na condução da política monetária, principalmente com a mudança do regime cambial. Para tanto o modelo estimado mais adequado para a análise foi um switching regression model que determina endogenamente se há mudança de regimes.
Resumo:
A presente pesquisa situa-se no campo da gestão de recursos humanos e comportamento organizacional. Seu objetivo é avaliar o sistema de gestão de desempenho de uma empresa brasileira sob a ótica da percepção das pessoas que trabalham nesta organização. Mais especificamente, o estudo visa compreender a percepção do impacto da gestão de desempenho para o sucesso da organização e para o desenvolvimento profissional das pessoas. A partir de uma abordagem qualitativa foram realizadas doze entrevistas com colaboradores de diferentes níveis hierárquicos do Banco Itaú. Para a interpretação dos resultados foi utilizada uma das técnicas da análise de conteúdo: a análise categorial temática. Os principais resultados encontrados no estudo foram: (i) as categorias que formam a gestão de desempenho aplicada na empresa em estudo são: orientação para resultados, avaliação de desempenho, orientação para pessoas, a “ferramenta” e o desenvolvimento profissional, sendo que outras categorias influenciam a gestão de desempenho: o papel do gestor, a postura de expectador do funcionário, a heterogeneidade operacional e a cultura; (ii) pela perspectiva dos funcionários, a gestão de desempenho praticada pela empresa não favorece o desenvolvimento profissional e consequentemente não se observa efetividade para a empresa; (iii) o papel do gestor é fundamental na formação da percepção dos colaboradores sobre a gestão de desempenho.
Resumo:
As intervenções efetuadas pelo Banco Central do Brasil têm sido freqüentes no mercado de câmbio à vista nestes últimos anos. Essas intervenções geram incremento das reservas internacionais do país, mas podem gerar também, entre outros, efeitos sobre o ritmo da apreciação da moeda nacional e também sobre a volatilidade do mercado. O presente trabalho buscou identificar se tais intervenções resultaram em alterações da volatilidade do mercado, concluindo que houve efeito de redução desta volatilidade em apenas uma faixa dentro do universo do volume de compras realizadas pelo Banco Central. Secundariamente buscou-se observar qual foi a demanda dos agentes de mercado na contratação de instrumentos de proteção (hedge) cambial em resposta dessas alterações da volatilidade. Não foi verificado qualquer efeito acerca da busca de proteção. A análise foi baseada no período compreendido entre janeiro de 2001 e maio de 2007, sendo que a identificação do efeito das intervenções sobre a volatilidade do mercado utilizou o modelo GARCH, e a análise subseqüente, de influência sobre a busca de proteção, foi baseada no modelo SARIMA.
Resumo:
O objetivo da tese é analisar questões relativas à coordenação entre as políticas monetária e fiscal no Brasil após a adoção do regime de metas de inflação. Utiliza-se de um modelo de metas de inflação para uma economia pequena e aberta para a incorporação um bloco de equações que descrevem a dinâmica das variáveis fiscais. Tendo por base os conceitos de Leeper (1991), ambas as entidades, Banco Central e Tesouro Nacional, podem agir de forma ativa ou passiva, e será este comportamento estratégico que determinará a eficiência da política monetária. Foram estimados os parâmetros que calibram o modelo e feitas as simulações para alguns dos choques que abalaram a economia brasileira nos últimos anos. Os resultados mostraram que nos arranjos em que a autoridade fiscal reage a aumentos de dívida pública com alterações no superávit primário, a trajetória de ajuste das variáveis frente a choques tende a ser, na maioria dos casos, menos volátil propiciando uma atuação mais eficiente do Banco Central. Nestes arranjos, o Banco Central não precisa tomar para si funções que são inerentes ao Tesouro. Também são analisadas as variações no comportamento do Banco Central e do Tesouro Nacional em função de diferentes composições da dívida pública. Os resultados mostram que a estrutura do endividamento público será benéfica, ou não, à condução das políticas monetária e fiscal, dependendo do tipo de choque enfrentado. O primeiro capítulo, introdutório, procura contextualizar o regime de metas de inflação brasileiro e descrever, sucintamente, a evolução da economia brasileira desde sua implantação. No segundo capítulo são analisados os fundamentos teóricos do regime de metas de inflação, sua origem e principais componentes; em seguida, são apresentados, as regras de política fiscal necessárias à estabilidade de preços e o problema da dominância fiscal no âmbito da economia brasileira. O terceiro capítulo apresenta a incorporação do bloco de equações fiscais no modelo de metas de inflação para economia aberta proposto por Svensson (2000), e as estimações e calibrações dos seus parâmetros para a economia brasileira. O quarto capítulo discute as diferentes formas de coordenação entre as autoridades monetária e fiscal e a atuação ótima do Banco Central. O quinto capítulo tem como base a mais eficiente forma de coordenação obtida no capítulo anterior para analisar as mudanças no comportamento da autoridade monetária e fiscal frente a diferentes estruturas de prazos e indexadores da dívida pública que afetam suas elasticidades, juros, inflação e câmbio.
Resumo:
A monografia tem como objetivo analisar e tentar mensurar a Credibilidade do Banco Central do Brasil através da formação das expectativas inflacionárias dos agentes no regime monetário de metas de inflação. A credibilidade da autoridade monetária é um dos pilares do atual regime, diminuindo o custo de desinflação e ajudando a conter a inflação em patamares baixos. A credibilidade só pode ser adquirida gradativamente com um histórico de comprometimento de combate à inflação e autonomia na condução da política monetária. Um dos grandes problemas práticos encontrados atualmente é a mensuração quantitativa da credibilidade da autoridade monetária. O estudo tanta mensurar a credibilidade através do peso da meta central da inflação na formação da expectativa inflacionária, ou seja, quanto mais crível for o Banco Central, maior o peso da meta. O estudo se baseia na hipótese central de que as expectativas da meta de inflação no Brasil ainda apresentam um efeito da indexação da inflação passada que vem diminuindo com o ganho de credibilidade do Banco Central, ao mesmo tempo em que a meta vem ganhando significância. Testes econométricos foram realizados de forma a empiricamente modelar a formação das expectativas 12 meses à frente no regime de metas de inflação contemplando os efeitos históricos, dados de mercado, desvalorização cambial e a meta central do regime. Os resultados empíricos mostram que os fatores presentes na previsão da inflação vêm mudando ao longo do regime, mas os participantes de mercado levam em consideração o IPCA acumulado nos últimos três meses, a desvalorização cambial e a meta de inflação. O estudo mostra que mesmo com as diversas crises sofridas ao longo do regime, a significância da meta vem aumentando e o peso da inércia vem diminuindo ao longo ao tempo, representando um ganho de credibilidade do Banco Central brasileiro no regime de metas de inflação.
Resumo:
Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.
Resumo:
Após a adoção do sistema de metas para a inflação, o Banco Central do Brasil aumentou a sua preocupação em estabelecer uma comunicação mais clara e transparente com o público para ajudar a atingir os seus objetivos. Este trabalho analisa o impacto das divulgações da Ata do Comitê de Política Monetária (COPOM) e do Relatório Trimestral de Inflação sobre a estrutura a termo da taxa de juros brasileira através de um modelo E-GARCH. Os resultados apontam uma redução da volatilidade das taxas de juros após as divulgações, sugerindo que a comunicação do Banco Central do Brasil é eficaz em reduzir as incertezas do mercado.
Resumo:
Apesar das vantagens das funcionalidades de banco de dados temporais, já amplamente demonstradas na literatura, ainda não existe, comercialmente, um SGBD totalmente temporal. Algumas propostas já foram feitas, embora um pouco discretas, dando ênfase em apenas parte das funcionalidades temporais, já sinalizando que em breve será possível existir um SGBD puramente temporal. Uma dessas propostas se constitui na implementação de uma camada de software que simula um banco de dados temporal, chamada Pacote de Tempo de Validade – PTV. Ela foi desenvolvida para demonstrar algumas funções temporais de banco de dados de tempo de validade. Embora o PTV tenha funções para garantir a integridade de dados temporais na inserção de tuplas, além de outros controles, não apresenta funções de consultas temporais. Essas funções foram desenvolvidas neste trabalho com base no TSQL2, aumentando, portanto, as funcionalidades temporais do PTV. Elas foram desenvolvidas para o SGBD Oracle 9i e consistem da principal proposta desse trabalho, permitindo inclusive validar as funções de consultas temporais de outras propostas da literatura. A segunda proposta desse trabalho é prover aos desenvolvedores e pesquisadores dessa área, uma interface visual apropriada para o uso do PTV, permitindo, assim, a exploração máxima dos recursos temporais desse pacote.
Resumo:
Objetivo: Analisar o Banco Central do Paraguai sob o ângulo institucional a partir de sua fundação em 1952 até os dias atuais, enfocando sua criação, evolução e autonomia para explicitar as suas relações com o meio ambiente e as alternativas para aumentar seu grau de institucionalização. Metodologia: Na parte dos antecedentes históricos a metodologia utilizada foi a compilação de informações. A análise institucional do Banco Central do Paraguai foi desenvolvida à luz do modelo de Desenvolvimento Institucional (Institution-Building), e na parte dos fundamentos para um banco central autonomo foi feita uma revisão bibliográfica, desde a teoria clássica até as mais recentes correntes que defendem a nova concepção que é atribuída a um banco central no mundo. Conclusão: Ao longo de seu processo evolutivo, o Banco Central do Paraguai extrapolou suas funções clássicas, perdeu parte de sua autonomia politico-administrativa e vem atuando de modo ineficaz em algumas áreas comprometendo sua imagem junto ao público. Para alcançar outro estágio de institucionalização deve voltar a suas atividades tradicionais e procurar adequar a nova Constituição do Paraguai que limitou o Banco Central à condição de órgão técnico do Estado reduzindo ainda mais sua autonomia. preciso que as instituições paraguaias se fortaleçam ao império da lei.
Resumo:
o processo de centralização vigente no setor saúde desenvolveu-se utilizando-se fortemente o mecanismo de desconcentração. A análise das três propostas de reorganização do setor saúde, no período de 1983 a 1990, aponta para uma mudança de estratégia no mecanismo de desconcentração. Anteriormente, os órgãos centrais dispunham de estruturas desconcentradas atuando nos níveis intermediários e locais. A partir de 1983 observa-se a tendência da atuação dos níveis intermediários e locais como instâncias desconcentradas do nível central. Portanto, a desconcentração é um processo em curso no setor. A desconcentração pode assumir sentidos distintos, isto é, pode ser uma estratégia de fortalecimento e atualização da centralização ou pode ser uma estratégia de fortalecimento dos níveis intermediários e locais, e, portanto, facilitadora e promotora da descentralização. Considerando o contexto delineado para o setor saúde no Brasil, caberia investigar qual o atual sentido da desconcentração. Descentralização