999 resultados para Sistema de gerenciamento de base de dados


Relevância:

100.00% 100.00%

Publicador:

Resumo:

A dissertação objetivou identificar os principais determinantes que exercem influência no número de gestoras independentes de recursos de terceiros (Assets) em funcionamento no Brasil, um segmento que apresentou franco crescimento na última década. O método de análise empregado foi quantitativo, utilizando o modelo de regressão linear múltipla, e teve, como base de dados analisados, dados históricos de 15 variáveis macroeconômicas da economia brasileira. O período analisado contempla 14 anos (de 1994 a 2008). Dado o enfoque deste trabalho, considerou-se necessária uma revisão das principais mudanças ocorridas na economia e no setor financeiro do país, bem como seus reflexos nas taxas de juros, níveis de poupança, endividamento interno e externo e no setor bancário. Através da análise realizada foi possível perceber, através do emprego da análise de correlação, que as variáveis macroeconômicas são altamente relacionadas entre si, bem como identificar que as principais variáveis que têm impacto no mercado de Assets em funcionamento são: bancos em funcionamento no país; volume de recursos depositados em poupança e expectativa de inflação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A área de fundos de investimento tem crescido no Brasil nos últimos 7 anos. Movimento semelhante tem sido observado no percentual destinado a fundos de ações. Parte deste movimento pode ser creditado à entrada de atores sem familiaridade com o universo financeiro, mas que vislumbram neste segmento uma oportunidade para investir seu dinheiro. O desconhecimento do funcionamento do universo financeiro leva o novo investidor a eleger critérios para seleção de onde alocar os seus recursos, já que se espera que um gestor profissional faça as melhores escolhas. Segundo Chevalier & Ellison (1999), a imprensa financeira produz um grande volume e variedade de informação sobre as pessoas que gerenciam esses fundos, mas pouco se fala de seus antecedentes educacionais. Este trabalho tem como objetivo analisar se o desempenho dos fundos de ações esta relacionado com as características dos gestores desses fundos. Em particular, se estudou a relação entre o desempenho dos fundos e a formação dos gestores, a qualidade das escolas em que cursaram, bem como o fato de possuírem pós-graduação Lato Sensu ou Stricto Sensu, além da idade e seu “tempo de experiência” no mercado financeiro. Utilizamos como base os dados coletados pelo sistema QUANTUN AXIS (Quantun Avaliação de Fundos de Investimento), tendo como referência o período de setembro/2007 a 2008. Consultamos currículos dos 81 gestores da amostra por meio de buscas aos sites das empresas administradoras, consulta por telefone aos gestores, e currículos via difusores de informação como o Bloomberg. Foram então realizadas as análises Cross-Section. Para tal, foi utilizada uma corrente de investigação que analisou o impacto dos antecedentes educacionais dos gestores de fundos sobre os resultados dos mesmos nos EUA, destacando os trabalhos de Golec (1996), Chevalier & Ellison (1999) e Gottesman & Morey (2006). O resultado deste trabalho sugere que existe diferença na análise cross-sectional entre o desempenho dos fundos de ações no Brasil e a qualidade do curso de graduação do gestor. Futuras pesquisas poderiam, utilizando a mesma amostra de gestores, acompanhar a evolução dos dados do currículo em comparação ao desempenho dos fundos administrados em uma perspectiva temporal utilizando dados de painel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A globalização, a desregulamentação, o desenvolvimento teconlógico e outras mudanças recentes no mundo alteraram de forma definitiva a maneira como valor é criado e gerenciado nas empresas. Nessa nova era, chamada de nova economia ou economia do conhecimento, é muito mais importante concentrar esforços nos ativos intangíveis, fatores que mais contribuem para a criação de valor; entre estes a ênfase recai sobre o conhecimento. No contexto deste trabalho, o conhecimento é a capacidade de usar e aumentar a inteligência humana com o intuito de gerar produtos e empresas mais inteligentes e mais competitivas. Dentre as inúmeras ferramentas de medida de performance e gerenciamento, que prometiam ajudar a gerenciar melhor os ativos intangíveis e criar maior valor para os acionistas, destacam-se o Balanced Scorecard; Navigator Skandia; Intangible Assets Monitor. Todos esses modelos reconhecem que para a criação de valor na nova economia, é preciso recorrer ao uso de medidas não financeiras, em adição às financeiras. As medidas financeiras tradicionais são medidas de resultado, isto é, mostram aquilo que foi feito. Apesar de os modelos desenvolvidos serem de grande valia, eles não estão totalmente concluídos. Trabalho adicional precisa ser feito para corrigir alguns de seus defeitos . O modelo proposto no presente trabalho procurará resolver estes problemas. O modelo concentra atenção nos impulsionadores de performance e tem como objetivo principal facilitar as ações de executivos na implementação de uma estratégia que vise à maximização do valor do negócio. As principais premissas usadas na construção do modelo são: a estratégia de cada empresa e o modelo de gerenciamento devem ser únicos; o ponto inicial de cada sistema de gerenciamento é o intento estratégico da empresa, não as perspectivas-padrão de modelos de gerenciamento; uma vez definida a estratégia, definiem-se quais as condições para se alcançá-Ia; para criar essas condições, será necessário a execução de uma série de ações, impulsionadoras de performance, e sua identificação faz a gestão da empresa ser mais eficaz; uma vez que os ativos intangíveis são os grandes fatores responsáveis pela criação de valor, acredita-se que a maior parte destas ações deva estar relacionada a eles; as ações devem ser priorizadas de acordo com a importância para a consecução do que foi definido na estratégia; não deve haver ações ou áreas de foco pré-definidas; tudo vai depender da estratégia escolhida. Escolheu-se o estudo de caso como metodologia de pesquisa mais apropriada para este trabalho; pela análise da aplicação de modelos de gerenciamento em duas empresas, procurou-se validar o modelo proposto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Apresenta um sistema de gerenciamento de custos para o novo ambiente de fabricação, que caracteriza-se pela concorrência acirrada, utilização de medernas tecnologias e filosofias de fabricação e conceitos avançados de gerenciamento. Este sistema tem três dimensões, um modelo contábil, medidas de desempenho e gerenciamento de investimento, integrando estes aspectos. Ilustra estas inovações contábeis e tecnológicas com o enfoque do gerenciamento de custos japoneses

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O trabalho é composto de cinco capítulos além da introdução. O capítulo 2 concentra os aspectos teóricos e metodológicos do trabalho. Nele são definidos os conceitos e a técnica a serem utilizados para medir a eficiência e a produtividade dos bancos no Brasil. O capítulo 3 analisa a reestruturação do sistema financeiro brasileiro entre o segundo semestre de 1994 e o final de 1999, destacando as mudanças institucionais, regulatórias e de estrutura de mercado que possam ter influenciado a eficiência e a produtividade dos bancos nesse período. O objetivo desse capítulo étraçar o pano de fundo para a análise das medidas de eficiência e de produtividade. No capítulo 4 são definidas as variáveis, insumos e produtos, utilizadas no estudo. Houve a I preocupação de captar da melhor forma possível as especificidades da indústria bancária brasileira. Além disso, é definida a amostra de bancos e realizada análise exploratória dos dados, a partir das estatísticas descritivas das variáveis. No capítulo 5 são analisados os resultados obtidos a partir da utilização da técnica Análise de Envoltória de Dados (Data Envelopment Analysis - DEA) para estimar. a fronteira eficiente e seu deslocamento, com base nos dados da amostra de bancos privados brasileiros definida no capítulo 3. Finalmente, no capítulo 6 são apresentadas as conclusões e destacados os principais resultados obtidos neste estudo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As teorias sobre risco sistemático iniciadas em 1932 com Knight sempre buscaram determinar variáveis que pudessem explicar e determinar o nível de risco sistemático de um sistema financeiro. Neste sentido, este estudo propôs-se a investigar as variáveis que possam determinar o nível de risco sistemático de um país, utilizando um modelo de mercado para estimação de betas e regressões com dados em painel sobre uma base de dados de janeiro de 1997 a setembro de 2008 para 40 países. Utilizou-se como variáveis, o PIB, inflação, câmbio, taxa real de juros e concentração de mercado. Verificou-se que o modelo apresenta indícios que as variáveis utilizadas podem ser consideradas como determinantes do risco sistemático e ainda, que o nível de concentração de um mercado acionário pode determinar o nível de risco sistemático de um país.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisa as condições acadêmicas e de mercado que levaram ao surgimento do conceito de Gerenciamento por Categorias, considerando o pensamento atual sobre o relacionamento entre fornecedores e varejistas. Traz também um estudo exploratório sobre o grau de adesão das redes de drogarias paulistas ao sistema de Gerenciamento por Categorias, apontando oportunidades para futuras pesquisas vinculadas ao tema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta pesquisa teve como objetivo principal explorar o uso e o impacto das práticas operacionais de Qualidade, Just in Time (JIT), Certificações ISO e Terceirização de Serviços nas empresas de manufatura do Estado de São Paulo, em diversos segmentos da indústria. Faz parte deste objetivo testar as relações entre o uso destas práticas e a performance das empresas e, por fim, verificar se estas práticas podem trazer vantagem competitiva para as organizações. Como medidas de performance foram utilizadas Produtividade, Lucratividade, Valor Adicionado, Taxa de Crescimento de Receita, Taxa de Crescimento do Valor Adicionado e Taxa de Crescimento do Número de Funcionários. Esta pesquisa foi realizada com a utilização da base de dados da Pesquisa da Atividade Econômica Paulista (PAEP) elaborada pela Fundação Sistema Estadual de Análise de Dados (SEADE). Foi selecionada uma amostra com 1200 empresas manufatureiras paulistas, acima de 30 funcionários, de 14 setores industriais diferentes. Como ferramental, utilizou-se a técnica estatística de regressão múltipla Este estudo mostrou, de forma geral, que o tamanho da empresa está diretamente relacionado com o uso das práticas operacionais, ou seja, empresas maiores normalmente adotam mais as práticas operacionais aqui estudadas. Não foram encontradas relações fortes entre as práticas operacionais e o desempenho das empresas na amostra analisada. Isto significa dizer que não se encontrou evidências concretas de que estas práticas sejam direcionadoras de performance superiores, nem mesmo que elas gerem competências alavancadoras de vantagem competitiva para as organizações. A única prática que apresentou uma relação consistente foi o Nível de Terceirização de Serviços, que apresentou uma relação negativa com a performance das empresas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A utilização de versões tem sido essencial em diversas aplicações de banco dados, por permitir o armazenamento e a manipulação de diferentes estados da base de dados. Durante a evolução de um esquema, o versionamento preserva todas as versões de esquemas e de seus dados associados. Por outro lado, os conceitos de bancos de dados bitemporais, que incorporam tanto tempo de transação quanto tempo de validade, provêm flexibilidade ao mecanismo de evolução de esquemas, não somente por permitir acesso a informações presentes, passadas e futuras, mas também por permitir atualizações e consultas entre as diversas versões de esquemas existentes. O objetivo principal desta tese é definir um modelo que utilize os conceitos de tempo e de versão para permitir o gerenciamento da evolução dinâmica de esquemas em bancos de dados orientados a objetos. O resultado, o Modelo Temporal de Versionamento com suporte à Evolução de Esquemas (TVSE - Temporal and Versioning Model to Schema Evolution), é capaz de gerenciar o processo de evolução de esquemas em todos os seus aspectos: versionamento e modificação de esquemas, propagação de mudanças e manipulação de dados. Esse modelo difere de outros modelos de evolução de esquemas por permitir o gerenciamento homogêneo e simultâneo do histórico da evolução do banco de dados intencional e extensional. Com o objetivo de complementar a definição deste modelo é apresentado um ambiente para gerenciar o versionamento temporal da evolução de esquemas. Desse ambiente foi implementado um protótipo da ferramenta de apoio ao gerenciamento de evolução de esquemas. Por fim, enriquecendo o universo da tese e com o intuito de prover uma maior fundamentação teórica e matemática para descrever as políticas de evolução de esquemas, é especificada uma semântica operacional para um subconjunto do modelo proposto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A estratégia do Programa de Saúde da Família (PSF) vem sendo utilizada, no Brasil, na consolidação da atenção primária à saúde. Segundo a OMS, um dos elementos fundamentais no fortalecimento da atenção básica é o acesso a medicamentos essenciais. Neste contexto, o presente trabalho consiste em uma análise da disponibilidade de medicamentos essenciais junto às equipes do PSF. Para o desenvolvimento do trabalho foi utilizada a base de dados da “Avaliação Normativa do PSF”, realizada pelo Ministério da Saúde nos anos de 2001 e 2002. Também foram analisados os elencos pactuados pelas Unidades da Federação para o Incentivo à Assistência Farmacêutica Básica, o Kit do PSF, a Relação Nacional de Medicamentos Essenciais e o Elenco Mínimo e Obrigatório, no contexto da Política Nacional de Medicamentos (PNM). Assim, os dados disponíveis permitiram analisar, a partir da presença de 13 medicamentos essenciais nas equipes do PSF, o desempenho das mesmas quanto à disponibilidade dos medicamentos estudados, resultando em categorias de desempenho no país e nas respectivas regiões geográficas. As categorias estabelecidas neste estudo em relação à disponibilidade de medicamentos essenciais foram C e D para um pior desempenho e, A e B para um melhor desempenho. Desta forma, 3,8% das equipes do PSF foram classificadas na categoria D, 19,50% das equipes na categoria C, 47,6% categoria B e 29% das equipes na categoria A. Os resultados da análise dos elencos pactuados para o Incentivo à Assistência Farmacêutica Básica sugerem uma revisão ampla nestes elencos, que propiciem uma qualificação no atendimento às necessidades terapêuticas dos usuários do Sistema Único de Saúde (SUS). Finalmente, conclui-se que a qualidade dos elencos pactuados e a disponibilidade de medicamentos essenciais encontradas na avaliação das equipes do PSF, enquanto um dos indicadores da atenção básica, possibilita uma revisão nas competências estabelecidas para os gestores na PNM, na hierarquização do SUS e na organização da Assistência Farmacêutica Básica levando a uma necessidade de ações que garantam uma reorientação efetiva do modelo assistencial.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo desse trabalho é analisar e precificar o prêmio de liquidez exigido pelos investidores nas negociações de debêntures do mercado secundário brasileiro, com base no yield to maturity diário desses papéis. Os testes econométricos foram realizados com base no modelo apresentado por Houweling, Mentink e Vorst (2005) e aplicado ao mercado de eurobonds nos períodos de 1999 a 2001. Foi implementado um modelo de 5 variáveis para controlar, através de betas e características, os outros tipos de risco determinantes do spread das debêntures que não a liquidez. O conhecido modelo de títulos de renda fixa de dois fatores Fama-French (1993) foi utilizado para controlar os riscos de crédito e de taxas de juros, foram incorporados efeitos marginais, através das características individuais (rating e duration) das debêntures e uma adaptação para as particularidades do mercado brasileiro foi realizada, com a inclusão de um fator baseado na taxa PréxDI da duration dos portfólios. Para esse estudo, foram consideradas 4 proxies de liquidez largamente utilizadas na literatura: Volume de Emissão, Idade da Emissão, Número de Transações no dia e Spread de Compra e Venda, sendo o modelo estimado uma vez para cada proxy analisada. Para realizar os testes de regressão e precificar o prêmio de liquidez no mercado secundário de debêntures do Brasil, todas as variáveis do modelo foram calculadas para cada uma das amostras de dados. Posteriormente, para cada proxy de liquidez foram construídos diariamente portfólios mutuamente excludentes, com as debêntures segregadas em portfólios de acordo com a proxy de liquidez em questão, conforme a metodologia proposta por Brennan e Subrahmanyam (1996). A base de dados, que somou 16.083 amostras, se fundamentou nas cotações de mercado fornecidas diariamente pelo Sistema Nacional de Debêntures no período de Maio de 2004 a Novembro de 2006. A hipótese nula de que não existe prêmio de liquidez embutido nos spreads das debêntures negociadas no mercado secundário brasileiro é rejeitada para todas as proxies analisadas. De acordo com a proxy de liquidez utilizada, o prêmio de liquidez no mercado secundário de debêntures varia de 8 a 30 basis points.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Técnicas atuais de Gerenciamento da Drenagem Urbana preconizam que a drenagem da água da precipitação seja realizada com o uso de dispositivos de controle que agem na fonte do escoamento superficial. Tais dispositivos têm o objetivo de recuperar a capacidade natural de armazenamento do solo, reduzida devido aos impactos da urbanização. Com o desvio do escoamento das áreas impermeáveis para esses dispositivos, o solo recupera as condições de escoamento anteriores à urbanização. A presente dissertação descreve um experimento inédito no Brasil, onde foi aplicada a técnica do Pavimento Permeável. Foi montado um aparato experimental que possibilita o monitoramento do desempenho do dispositivo, com o objetivo principal de analisar a viabilidade técnica da utilização de um pavimento permeável de baixo custo e tecnologia simples, no controle da geração de escoamento superficial na fonte. Com o trabalho, permitiuse uma maior difusão do conhecimento e propagação da técnica, ainda pouco dominada pelos engenheiros e contratantes. A obra consta de um lote de estacionamento de aproximadamente 264m2, que foi dividido em duas partes iguais, onde foram utilizados os seguintes revestimentos: asfalto poroso, de granulometria aberta; blocos vazados intertravados de concreto. O experimento foi projetado para permitir o monitoramento quali-quantitativo dos escoamentos nos dois tipos de pavimento, com relação à redução no escoamento superficial, quando sujeitos às condições de tráfego encontradas na prática, no lote de estacionamento situado próximo ao bloco de ensino do IPH/UFRGS. São discutidos aspectos relacionados às condições de funcionamento, adequação dos materiais empregados, eficiência do dispositivo e custos envolvidos. A avaliação da eficiência hidráulica-hidrológica do dispositivo foi feita através do monitoramento e análise de dados de precipitação, armazenamento no reservatório, escoamento superficial e umidade no solo subjacente. O pavimento permeável se mostrou uma técnica eficiente de controle na fonte do escoamento superficial. Foram obtidas taxas médias de 5% de escoamento superficial para a superfície com revestimento asfáltico, e de 2,3% para o revestimento em blocos vazados intertravados. Os dados de armazenamento mostraram que em nenhum evento o volume armazenado superou 25% da capacidade máxima do reservatório. Ainda com base nesses dados, verificou-se que a metodologia de dimensionamento utilizada super-dimensionou a estrutura reservatório. A importância do dimensionamento preciso da estrutura é evidenciada pela estimativa dos custos, onde se verifica que o reservatório de britas contribui para uma significativa parcela dos custos totais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A utilização de versões permite o armazenamento de diferentes alternativas de projeto no desenvolvimento de uma aplicação. Entretanto, nem todo o histórico das alterações aplicadas sobre os dados é registrado. Modificações importantes podem ser realizadas e os valores anteriores são perdidos. O histórico completo somente é acessível através da junção de versões com um modelo temporal. Os conceitos de tempo e de versão aplicados em conjunto possibilitam a modelagem de aplicações complexas. Uma extensão que implemente simultaneamente estes dois conceitos em um banco de dados comercial não está disponível. O Modelo Temporal de Versões (TVM – Temporal Version Model) fornece a base para esta funcionalidade. O objetivo deste trabalho é projetar um extender para oferecer suporte aos conceitos de tempo e versão no sistema DB2, utilizando como base o TVM. A extensão engloba o mapeamento da hierarquia do TVM; a criação de tabelas administrativas; procedimentos para especificação das classes, atributos e relacionamentos; a definição de gatilhos e restrições para a manipulação dos dados diretamente nas tabelas criadas; e a especificação de procedimentos e UDFs para controle de versões e valores temporais e de outras UDFs que permitem consultas envolvendo os dois conceitos. Apesar do SGBD não ser totalmente orientado a objetos, como é definido no modelo utilizado (TVM), oferece mecanismos que permitem o mapeamento para um modelo objetorelacional. Através da utilização desta extensão, a união de tempo e de versões pode ser utilizada em aplicações reais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A mineração de dados é o núcleo do processo de descoberta de conhecimento em base de dados. Durante a mineração podem ser aplicadas diversas técnicas para a extração de conhecimento. Cada técnica disponível visa à realização de um objetivo e é executada de uma forma em particular. O foco desta dissertação é uma destas técnicas conhecida como detecção de desvios. A detecção de desvios é baseada no reconhecimento do padrão existente nos dados avaliados e a capacidade de identificar valores que não suportem o padrão identificado. Este trabalho propõe uma sistemática de avaliação dos dados, com o objetivo de identificar os registros que destoam do padrão encontrado. Para este estudo são aplicadas algumas técnicas de avaliação estatística. Inicialmente é apresentada uma revisão bibliográfica sobre descoberta de conhecimento em base de dados (DCBD) e mineração de dados (MD). Na seqüência, são apresentados os principais conceitos que auxiliam na definição do que é um desvio, quais as técnicas utilizadas para a detecção e a forma de avaliação do mesmo. Dando continuidade ao trabalho, a sistemática CRISP_DM é descrita por ser aplicada aos estudos de casos realizados. A seguir, são descritos os estudos de casos realizados que utilizaram as bases da Secretaria da Saúde do Rio Grande do Sul (SES). Finalmente, são apresentados as conclusões do estudo e possíveis trabalhos futuros.