999 resultados para Banco de filtros


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho visa aprofundar os conhecimentos acerca do telemarketing, bem como apresentar estes conhecimentos à diretoria do Banco do Brasil S. A.. O trabalhão está dividido em 6 capítulos, onde se pretende evoluir do aspecto conceitual para a parte prática que envolve o telemarketing. O primeiro capítulo apresenta a evolução da conceituação do telemarketing. O segundo compõe-se de várias experiências de empresas que aplicaram o telemarketing no desenvolvimento de suas atividades. O terceiro capítulo destina-se a destacar os aspectos que ressaltam a efetiva importância do telemarketing nos dias atuais. No quarto capítulo são apresentadas diversas considerações de como se deve proceder a fim de usar corretamente o telefone no telemarketing. No quinto capítulo aborda-se cuidados básicos que se deve observar quanto da formulação de scripts, bem como serão apresentados exemplos práticos destes, voltados para as atividades do Banco do Brasil. No sexto capítulo são desenvolvidas idéias sobre a importância e a aplicabilidade que o telemarketing possui junto à atuação do Banco do Brasil. Através do seis capítulos acima elencados, solidifica-se o conceito do uso do telemarketing, de forma a buscar-se o domínio da metodologia necessária para concretização de negócios e venda de produtos, aproximando o cliente, através do uso dos recursos de telecomunicação disponíveis na atualidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este é um estudo descritivo de caráter exploratório, realizado através da adição da pesquisa quantitativa à qualitativa. Aborda o Programa Agente de Desenvolvimento do Banco do Nordeste, cujo objetivo é promover o desenvolvimento sustentável nos municípios nordestinos, para identificar o grau de intervenção do Agente de Desenvolvimento em nível de comunidade, no estado do Ceará. Essa investigação teve como propósito identificar mudanças ocorridas nesses municípios a partir do Programa, verificando em que medida elas podem ser consideradas estratégias de desenvolvimento sustentável. Paralelamente, o estudo procurou, junto aos Agentes e representantes de associações, caracterizar o grau de intervenção do Agente naquelas mudanças que resultam em transformações econômicas e sociais. A estrutura da análise e, conseqüentemente, os resultados encontrados, seguem três dimensões: o Programa Programa, o A g e n t e e a Mudança. Pelos resultados obtidos, o Programa vem alcançando os objetivos propostos. Os Agentes, de fato, podem ser considerados articuladores estratégicos do desenvolvimento local. Quanto às mudanças, parecem contemplar gradativas melhorias na qualidade de vida da população, na transferência de tecnologia e na redução do impacto ambiental e, embora sutis, com certeza elas apontam na direção da sustentabilidade. Entretanto, para que os resultados elencados pelo Programa e esperados pelos Agentes e pela população possam adquirir maior consistência no longo prazo, é fundamental que os ajustes e as adequações demandadas e/ou sugeridos neste estudo sejam implementados em todas as dimensões.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bancos de Dados Temporais (BDTs) surgiram para tentar suprir a necessidade de se obter um melhor aproveitamento das informações que circulam atualmente. Porém, ao mesmo tempo em que é benéfico o seu uso, uma vez que armazenam o histórico das informações, existe um problema neste tipo de banco de dados, que é o desempenho. Além do grande volume de dados armazenados, este problema se agrava ainda mais devido à complexidade nas operações que governam os BDTs, como por exemplo, inclusão, remoção, alteração e consulta. Portanto, focalizando o problema, existe a necessidade de melhorar o desempenho dos BDTs frente às operações de manipulação de dados. Técnicas de indexação apropriadas para dados temporais podem amenizar este problema de desempenho. Técnicas consagradas de indexação são largamente usadas, amparadas no seu alto grau de desempenho e portabilidade. São exemplos B-Tree, B+-Tree e R-Tree, entre outras. Estas técnicas não suportam indexar os complexos BDTs, mas são fundamentais para que sirvam de base para novas estruturas que suportem esses tipos de dados. As técnicas de indexação para dados temporais existentes não conseguem suprir a semântica temporal na sua totalidade. Existem ainda algumas deficiências do tipo: poucas técnicas que abrangem ao mesmo tempo tempo de validade e tempo de transação; não existe uma técnica que oferece informações do seu desempenho; a maioria não distingue ponto no tempo de intervalo de tempo; entre outras. Entretanto, possuem características relevantes em cada uma delas. Assim, um estudo das características mais importantes se tornou um fator importante para que possa ser desenvolvido um modelo capaz de auxiliar na criação de novas técnicas de indexação para dados temporais, a fim de contemplar melhor estes tipos de dados. O objetivo deste trabalho é, com base nas características das técnicas estudadas, desenvolver um framework conceitual capaz de auxiliar na criação de novas técnicas de indexação para dados temporais. Esta estrutura apresenta as características mais relevantes das técnicas existentes, agregando novas idéias e conceitos para contemplar os dados temporais. O framework conceitual desenvolvido agrega características de diferentes técnicas de indexação, possibilitando de variar a arquitetura de um índice para dados temporais, ajustando-os para um melhor desempenho em diferentes sistemas. Para validar o framework proposto é apresentada uma especificação de índices para o modelo de dados TF-ORM (Temporal Functionality in Objects With Roles Model).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No processo de classificação de uma imagem digital, o atributo textura pode ser uma fonte importante de informações. Embora o processo de caracterização da textura em uma imagem seja mais difícil, se comparado ao processo de caracterização de atributos espectrais, sabe-se que o emprego daquele atributo pode aumentar significativamente a exatidão na classificação da imagem. O objetivo deste trabalho de pesquisa consiste em desenvolver e testar um método de classificação supervisionado em imagens digitais com base em atributos de textura. O método proposto implementa um processo de filtragem baseado nos filtros de Gabor. Inicialmente, é gerado um conjunto de filtros de Gabor adequados às freqüências espaciais associadas às diferentes classes presentes na imagem a ser classificada. Em cada caso, os parâmetros utilizados por cada filtro são estimados a partir das amostras disponíveis, empregando-se a transformada de Fourier. Cada filtro gera, então, uma imagem filtrada que quantifica a freqüência espacial definida no filtro. Este processo resulta em um certo número de imagens filtradas as quais são denominadas de "bandas texturais". Desta forma, o problema que era originalmente unidimensional passa a ser multi-dimensional, em que cada pixel passa a ser definido por um vetor cuja dimensionalidade é idêntica ao número de filtros utilizados. A imagem em várias "bandas texturais" pode ser classificada utilizando-se um método de classificação supervisionada. No presente trabalho foi utilizada a Máxima Verossimilhança Gaussiana. A metodologia proposta é então testada, utilizandose imagens sintéticas e real. Os resultados obtidos são apresentados e analisados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho utilizou tecnologias tais como XML (eXtensible Markup Language) e esquemas XML, com objetivo de aprimorar a ovinocultura tornando o setor primário mais competitivo. Foram elaborados arquivos XML com a mesma estrutura (equivalentes) dos arquivos primitivos da Associação Brasileira de Criadores de Ovinos ( A.R.C.O. ), para que os mesmos possam ser disponibilizados na Internet. Para obter a integridade destes dados na Internet criou-se os esquemas XML, que são arquivos contendo as regras de formação dos dados. Os arquivos XML ficarão protegidos contra dados indesejáveis e disponíveis ao produtor rural via Internet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O plano de ajuste econômico brasileiro implementado em julho de 1994, conhecido como Plano Real, provocou profundas mudanças na economia do país, em especial no Sistema Financeiro Nacional - SFN. Com o acentuado declínio da inflação, as instituições bancárias foram obrigadas a rever suas estratégias de atuação em busca de novas receitas que substituíssem os ganhos inflacionários. Os bancos mais estruturados e organizados conseguiram reagir com rapidez e se adaptar à nova realidade. Muitos, no entanto, não tiveram capacidade e condições de sobreviver num ambiente tão competitivo e, por diversas razões, desapareceram. O Banco do Brasil – BB - faz parte do Sistema Financeiro Nacional e nele sempre desempenhou papel destacado. É o banco oficial da União; possui mais de 7.500 pontos de atendimento em todo o território nacional e no exterior e aproximadamente 91.000 colaboradores, entre funcionários e estagiários. As medidas econômicas resultantes do Plano Real também o atingiram, obrigando-o a passar por profunda reestruturação nas mais diversas áreas e setores. Este trabalho tem por objetivo mostrar as principais alterações ocorridas na instituição após o Plano Real. Partindo de um histórico, o texto apresenta a nova estrutura do SFN e relata o conjunto de ações adotadas pela diretoria do BB a partir de 1994. O objetivo é demonstrar que a eficiência na condução dessas ações, bem como a eficácia das estratégias permitiu à empresa dar uma resposta à altura às demandas do mercado, bem como manter a posição de maior banco do Brasil e da América Latina.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Sistema Financeiro Brasileiro tem sofrido enormes mudanças, oriundas, principalmente, do fim da “ciranda financeira”, da globalização, da estabilização da economia e do aumento das exigências de um consumidor melhor informado. Em decorrência de tal realidade, as instituições financeiras têm buscado novos conceitos de gestão, a fim de garantir a sua sobrevivência. O presente trabalho tenta demonstrar as modificações que ocorreram no Banco do Brasil em virtude da utilização dos conceitos de Gestão Econômica. Para tal, é apresentado o modelo de apuração de resultados no que tange à captação de um CDB, antes e depois da introdução do GECON. No final, são apresentadas as conseqüências práticas advindas do uso dos referidos conceitos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata-se de uma pesquisa exploratório-descritiva, que busca analisar, a partir de pressupostos de Dejours (1993, 1994, 1997, 1999) a influência de fatores de prazer e sofrimento na construção do significado do trabalho presentes em indivíduos que optaram por aderir a um Programa de Demissão Voluntária - PDV. Os dados foram coletados junto a ex-funcionários do Banco do Brasil, através de entrevistas semiestruturadas. Para análise dos dados foi utilizada a metodologia da análise de conteúdo, na modalidade de análise temática. Os resultados são apresentados em dezoito categorias iniciais, seis categorias intermediárias e duas categorias finais: o desmonte do setor público e a mudança no significado do trabalho. A problemática parte do pressuposto de que, com os PDV, a situação de se deixar a organização da qual se fazia parte pode repercutir em oportunidades em outras áreas, seja como empregado, seja como empregador. Por outro lado, pode se refletir em ausência de perspectivas quanto ao futuro. Os resultados obtidos mostram que o PDV é um fator desencadeante de sofrimento, considerando que, após a adesão ao Programa, permanece para os exfuncionários uma condição de frustração e de conflitos pessoais em decorrência da forma como foi conduzida a implementação do Programa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Existe uma certa gama de aplicações que não pode ser implementada através do modelo convencional de transações, são aplicações que tem um tempo de duração mais longo do que aquelas convencionalmente modeladas. Em uma transação Atômica, ou todo o trabalho é realizado por completo ou nada é feito, mas, quando se trata de atividades de longa duração, isto pode significar a perda de trabalho executado durante horas ou, até mesmo, dias. Pelo mesmo motivo, transações longas não devem executar isoladamente, porque isto impede que outras transações tenham acesso aos dados sendo manipulados. No âmbito do projeto TRANSCOOP, vêm sendo realizados vários estudos sobre modelos de transações não convencionais. Dentre eles, encontra-se o Modelo de Contratos, que prevê um mecanismo de controle seguro para gerenciar aplicações distribuídas que apresentam atividades de longa duração. Para experimentar e avaliar as idéias inseridas neste modelo está sendo desenvolvido um protótipo. Este sistema é provido de uma interface gráfica interativa, baseada em Manipulação Direta, e suporta a definição de transações longas de banco de dados de acordo com o Modelo de Contratos. O objetivo deste trabalho é descrever a arquitetura de um protótipo para o Modelo de Contratos, definindo a função de cada um de seus módulos, mais especificamente o módulo Interface, e a comunicação entre eles. Para a definição de uma interface adequada foram considerados aspectos de outras áreas da ciência, pois a área de interfaces homemmáquina é multidisciplinar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Antigamente as informações que as organizações utilizavam durante a sua gestão eram suficientemente armazenadas em arquivos. A própria aplicação era responsável pela manipulação dos dados e pela função de guardá-los de maneira segura. No entanto, a sociedade evoluiu com tamanha rapidez que as organizações começaram a gerar uma quantidade cada vez maior de informação e, também, a rapidez de acesso às informações armazenadas tornou-se cada vez mais importante. Os antigos sistemas de arquivos tornaram-se complexos sistemas de armazenamento de informações responsáveis por gerir grandes volumes de dados, chamados Sistemas Gerenciadores de Banco de Dados - SGBD’s. Devido à complexidade dos bancos de dados e à necessidade de sua operação ininterrupta surge a tarefa do Administrador, cuja função é assegurar que os bancos de dados permaneçam operantes, íntegros e rápidos. Para realizar suas tarefas o Administrador precisa contar com boas ferramentas de modo a tornar as intervenções no banco de dados rápidas e seguras. Existem no mercado, boas ferramentas para administração de banco de dados. No entanto, são todas proprietárias, possuem custo elevado e apresentam deficiências quando o DBA e o BD estão localizados logicamente em redes de dados distintas. Para tentar resolver este problema, este trabalho se propõe a desenvolver uma ferramenta de administração de banco de dados que o DBA possa utilizar para gerenciar os bancos de dados, utilizando a Web como instrumento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho inicia-se explicitando o canal pelo qual a elevada liquidez e movimentação dos Depósitos do Tesouro no Banco Central implica num aumento das dificuldades operacionais do Banco Central no balizamento das variações de curto prazo das taxas de juros. Em seguida, discutem-se as alternativas ao problema, levantando-se algumas questões a serem objeto de outros estudos, relativas à transferência total ou parcial) da função de caixa de Tesouro do Banco Central para os bancos comerciais. Por ultimo algumas particularidades do caso brasileiro, que dificultam a aplicação dos mecanismos c1assicos de condução de política monetária, são discutidos na ultima seção. Em particular, destaca-se, na breve formalização efetuada, a importância da sensibilidade juros das reservas totais dos bancos comerciais na determinação das oscilações de curto prazo da taxa de juros. Quanto maior este coeficiente, menores as oscilações dos juros decorrentes das variações da oferta de liquidez primária.