996 resultados para dados de painel


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A América Latina é a região com mais elevado nível de desigualdade de renda do mundo. Nos anos 90, a discussão acerca da relação entre crescimento econômico e desigualdade de renda é retomada com mais intensidade em virtude do desempenho econômico com equidade apresentado pelos países do Leste Asiático. Parte da literatura encontra que a desigualdade de renda afeta negativamente o desempenho econômico do países. Partindo desse resultado, ela busca os canais pelos quais essa relação de daria. No entanto, no final dos anos 90, outro conjunto de estudos passa a questionar tal resultado, com o uso de dados de melhor qualidade para a distribuição de renda, bem como outras técnicas econométricas. A partir daí, o foco da dissertação será a avaliação da relação entre crescimento econômico e desigualdade de renda para um conjunto menor de países. E avaliamos também, a possibilidade de verificarmos a hipótese da curva de Kuznets para a região. A análise econométrica, seguindo os moldes da literatura mais recente, foi desenvolvida com base em um painel de 13 países latino-americanos no período entre 1970 e 1995, considerando sub-períodos de 5 anos. O exercício empírico revelou que os resultados encontrados na dissertação estão na linha dos trabalhos mais recentes na área e confirmam, para um conjunto menor de países, especificamente da América Latina, a relação positiva que há entre desigualdade e crescimento e a hipótese de Kuznets.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pesquisa o uso de indicadores para avaliação do desempenho de serviços de informação tecnológica, sob a ótica da abordagem centrada no usuário. Tem por objetivo principal propor um conjunto de indicadores de desempenho que sejam aplicáveis à mensuração e à gestão dos serviços brasileiros de informação tecnológica, com foco no cliente-usuário. O referencial teórico engloba aspectos referentes à informação tecnológica, serviços de informação, gestão da qualidade, avaliação de serviços, métrica e indicadores. Faz uma análise de documentos sobre indicadores de desempenho aplicados à Sociedade do Conhecimento, Ciência e Tecnologia, Inovação Tecnológica, Tomada de Decisão e Unidades de Informação. Define a Norma Internacional ISO 11620 e o EQUINOX como os documentos base para a seleção dos indicadores de desempenho propostos à análise de especialistas. Utiliza, para o levantamento dos dados, a técnica Delphi, tendo como instrumento o questionário. O questionário é aplicado em duas ocasiões, em dez (10) especialistas, que avaliam cada questão proposta. As questões, em número de vinte e cinco (25), referem-se aos indicadores de desempenho selecionados pela pesquisadora. Estes indicadores são analisados pelos especialistas sob os aspectos pertinência, relevância e viabilidade, a partir de uma escala de atitude, os quais justificam suas escolhas. A cada rodada, o painel de especialistas recebe, como feedback, os aportes da rodada anterior. Esta interação permite um reposicionamento de cada um dos participantes, reposicionamento este que se reflete nas respostas da rodada seguinte. Como produto final da pesquisa , gera-se uma relação de vinte e dois (22) indicadores considerados pela maioria dos especialistas como os mais pertinentes e relevantes. Conclui com a análise dos aportes dos especialistas e da técnica metodológica utilizada. Recomenda o uso de indicadores de desempenho pelos serviços de informação tecnológica; a promoção de ações que visem sensibilizar órgãos de pesquisa e organismos governamentais quanto à sua utilização; o incentivo à implementação, junto aos cursos de Ciência da Informação, de conteúdos sobre avaliação por indicadores. Completamenta com a relação de outros indicadores propostos pelo painel de especialistas. Sugere novos temas de estudo, relacionados ao desenvolvido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação teve como objetivo analisar de modo abrangente e preciso as relações entre poupança pública e crescimento econômico, motivada pela importância do estudo para o entendimento dos fatores incentivadores do desenvolvimento e pela quase absoluta originalidade do tema. Depois de uma revisão analítica de modelos de crescimento econômico investigativos dos impactos do setor público sobre as taxas de desenvolvimento, análise teórico-descritiva das relações entre poupança pública e crescimento mostrou que a poupança é um indicador de sustentabilidade fiscal mais completo do que o superávit primário e tende a apresentar efeitos mais positivos sobre o comportamento do produto do que o superávit operacional. A subseqüente análise econométrica dos efeitos da poupança pública sobre o crescimento econômico baseou-se em hipóteses retiradas do exame descritivo da evolução de algumas variáveis públicas e da taxa de crescimento per capita para uma série de países, estimando modelos de regressão múltipla para um painel de 38 nações, entre desenvolvidas e em desenvolvimento. As equações estimadas e os testes de robustez dos resultados comprovaram, a elevados níveis de confiança, a hipótese de relação positiva entre as taxas de poupança pública e de crescimento econômico per capita, além de fornecerem resultados interessantes e consistentes sobre a forma de associação do desenvolvimento a outras variáveis. A conclusão central foi que um aumento de uma unidade na taxa de poupança pública deve levar, em média, a uma elevação de 0,17 unidades na taxa de crescimento econômico per capita, reforçando o argumento de que um importante indicador fiscal a ser monitorado pelos governos com o objetivo de atingir taxas mais elevadas de crescimento sem descuidar de suas finanças é a poupança pública.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cláusulas de fidelidade e políticas de fidelização são elementos comuns nos debates sobre como intensificar o comprometimento dos associados com sua cooperativa. A literatura acadêmica já apresentou diversos fatores que podem influenciar o comprometimento/fidelidade dos associados. Entretanto, poucas respostas foram dadas quanto à influência que o desenho institucional da cooperativa pode ter no comprometimento ou na fidelidade dos seus associados. Por meio das informações disponíveis no banco de dados do PDICOOPs – que conta com dados em formato de painel para os anos de 1989, 1992 e 2000 -, esta dissertação avalia empiricamente os determinantes do comprometimento dos associados com a cooperativa, tendo como foco os efeitos dos custos e benefícios da ação coletiva, propósito da organização cooperativa. Adicionalmente, esta dissertação investiga se o nível de comprometimento dos associados tem efeitos sobre o desempenho da cooperativa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A alta gerência do banco de varejo (PRINCIPAL) necessita delegar autoridade a gerentes de níveis inferiores (AGENTES) sob a existência de interesses conflitantes, informações assimétricas e a impossibilidade de monitoração completa. Um sistema de metas e incentivos é adotado de modo a induzir estes agentes na direção dos interesses do principal. O objetivo deste trabalho é avaliar a relação causal existente entre o chamado “contrato de salário variável garantido” e o desempenho dos agentes. Isto é, investigar de que forma a aplicação deste contrato implícito, que promove uma substancial mudança no sistema de incentivos diretos, afeta o desempenho destes agentes. Analisamos econometricamente dados de jan.2007 a jun.2009 obtidos junto a um grande banco de varejo nacional através de um estimador de efeitos fixos para um painel de dados não balanceado. Os resultados indicam que os agentes sujeitos ao contrato de salário variável garantido têm um desempenho inferior aos agentes sujeitos a remuneração variável. Concluímos que não podemos descartar existência do problema de risco moral no comportamento dos agentes sujeitos a este contrato.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta a montagem de uma instalação fotovoltaica de 4,8 kWp conectada à rede elétrica e uma análise experimental do seu comportamento, com o propósito de otimizar o fator de dimensionamento. Para fins de análise comparativa a instalação foi dividida em três subsistemas com arranjos de potências diferentes, os quais possuem fatores de dimensionamentos de 0,65, 0,73 e 0,86 (razão entre a potência nominal do inversor e a potência do gerador fotovoltaico), respectivamente para os subsistemas 1, 2 e 3. Cada subsistema possui um arranjo formado por dois painéis que utilizam módulos de 100 Wp/24 V, com células de silício monocristalino. Estes arranjos alimentam, de forma independente, três inversores senoidais monofásicos comutados pela própria rede e com potência máxima na saída de 1100 W cada um, caracterizando desta forma uma planta modular. O sistema de aquisição de dados monitora sistematicamente a instalação a uma varredura por minuto, a fim de se obter um acompanhamento ao longo do tempo e poder caracterizá-la. São monitoradas as tensões elétricas de cada painel de módulos e as suas correspondentes correntes, as tensões elétricas e as correntes alternadas, as potências elétricas contínuas e alternadas, a irradiância no plano do gerador, as temperaturas do ar ambiente, de um módulo do gerador e dos inversores. A metodologia de análise desta instalação consiste no monitoramento, na caracterização e na quantificação das medidas adquiridas, com a finalidade de determinar correlações que possam predizer a potência injetada na rede bem como a determinação da performance energética para dias típicos ensolarados, parcialmente nublados e encobertos. A divisão da instalação em três subsistemas permitiu caracterizá-los quanto aos seus comportamentos energéticos, além de possibilitar a análise de arranjos superdimensionados, os quais fornecem uma potência superior a máxima na entrada dos inversores, originando desperdício de energia nos momentos de elevada irradiância. O método desenvolvido para determinar a energia perdida na entrada dos inversores possibilitou avaliar o quanto se perde mensalmente nos subsistemas 1 e 2, uma vez que as perdas de captura e de sistema aumentam quando o arranjo está superdimensionado e isto significa uma redução na produtividade. Com as correlações encontradas para cada subsistema e com a equação geral foi possível predizer o quanto de energia pode ser injetada na rede.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo do presente trabalho é analisar as características empíricas de uma série de retornos de dados em alta freqüência para um dos ativos mais negociados na Bolsa de Valores de São Paulo. Estamos interessados em modelar a volatilidade condicional destes retornos, testando em particular a presença de memória longa, entre outros fenômenos que caracterizam este tipo de dados. Nossa investigação revela que além da memória longa, existe forte sazonalidade intradiária, mas não encontramos evidências de um fato estilizado de retornos de ações, o efeito alavancagem. Utilizamos modelos capazes de captar a memória longa na variância condicional dos retornos dessazonalizados, com resultados superiores a modelos tradicionais de memória curta, com implicações importantes para precificação de opções e de risco de mercado

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diante dos problemas vivenciados no ensino da Física cabe ao professor a tarefa de tentar combater as dificuldades de seus alunos, proporcionando-lhes experiências de aprendizagem eficazes, procurando atualizar, tanto quanto possível, os instrumentos pedagógicos que utiliza. Considerando a especificidade experimental da Física, a realização de atividades de laboratório faz-se de grande importância. Porém, uma reflexão a respeito de como utilizar tais atividades é necessária para que possam realmente contribuir para uma aprendizagem significativa. Nesta busca, a utilização da aquisição automática de dados através de dispositivos do tipo CBL (do inglês Calculator Based Laboratory) pode, sem dúvida, trazer grande contribuição. Aliando-se à grande potencialidade do uso destes dispositivos, à inexistência de trabalhos divulgados envolvendo seu uso no ensino de Física no Brasil e, finalmente, ao fato deste ser um equipamento adquirido recentemente pelo Centro Federal de Educação Tecnológica de Pelotas, instituição na qual este trabalho foi desenvolvido, optou-se por propor nesta dissertação a utilização de tais equipamentos em laboratório didático de Física Térmica no ensino médio. Dentre os assuntos abordados cita-se: calor, temperatura e energia interna; resfriamento de um corpo; mudança de estado físico e pressão de vapor; transmissão do calor. Alguns destes assuntos não são normalmente abordados no ensino médio, como a lei de resfriamento e análise da curva de pressão de vapor. Outros tópicos levam a uma maior contextualização da Física, como umidade relativa do ar e formação de geada. Esta proposta é fundamentada pela teoria da aprendizagem significativa de David Ausubel e pela teoria da interação social de Lev Vigotski Através desta experiência de implementação em aulas regulares de ensino médio, espera-se verificar a possibilidade de sua utilização neste nível de ensino. Como produto deste trabalho de dissertação, foi produzido material instrucional que compreende guias experimentais e textos envolvendo os conteúdos abordados, assim como material hipermídia sobre transmissão do calor contendo algumas animações e teste interativo desenvolvidos em Flash MX. Todo este material foi concebido e implementado buscando levar o aluno a uma aprendizagem significativa dos conceitos físicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho estima o efeito das Interações Sociais no desempenho dos estudantes no Brasil, a partir dos dados do SAEB 2005. Os resultados apontam que Peer Effects explicam uma parte importante da proficiência observada no exame de Matemática. Além disto, encontramos evidências de que este efeito é concentrado nos alunos no topo da distribuição de habilidade, o que sugere que políticas de ability tracking podem ser ótimas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um Sistema gerenciador de Bancos de Dados (SGBD) possui como principal característica a capacidade de gerenciar bases de dados que representam parte do mundo real. Para que essa representação seja fiel, os dados presentes em uma base de dados devem obedecer a diversas regras conhecidas como restrições de integridade. Estas podem ser provenientes da realidade modelada, da implementação ou do modelo de dados utilizado. O suporte oferecido por sistemas gerenciadores de bancos de dados tradicionais não é suficientemente adequado a certas aplicações com necessidades que vão além das convencionais. Diversas aplicações necessitam armazenar dados históricos em conjunto com seus períodos de validade. Outras precisam armazenar versões de conjuntos de dados, gerenciando suas agregações e formas de representação. Através do suporte aos conceitos de tempo e de versão, provido por um SGBD, grande parte dessas necessidades é suprida. Este tipo de banco de dados usa o conceito de tempo para armazenar e controlar dados históricos enquanto o conceito de versão permite a gerência de alternativas de projeto. Existem atualmente diversos trabalhos e implementações relacionados à manutenção de restrições de integridade sobre bancos de dados tradicionais. Entretanto, restrições que consideram a gerência de tempo e de versões sobre dados ainda representam uma área de pesquisa praticamente inexplorada. De acordo com essa realidade, o primeiro objetivo do presente trabalho consiste em definir uma classificação de restrições de integridade para bases de dados com suporte a tempo e versões, a fim de prover uma base para o desenvolvimento de pesquisas relacionadas à sua especificação e manutenção. O segundo objetivo consiste em agregar ao Modelo Temporal de Versões (TVM), que suporta os conceitos de tempo e de versão, uma linguagem que permita a especificação de restrições de integridade. Esta linguagem considera características relacionadas à temporalidade e ao versionamento dos dados e das próprias restrições.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar das vantagens das funcionalidades de banco de dados temporais, já amplamente demonstradas na literatura, ainda não existe, comercialmente, um SGBD totalmente temporal. Algumas propostas já foram feitas, embora um pouco discretas, dando ênfase em apenas parte das funcionalidades temporais, já sinalizando que em breve será possível existir um SGBD puramente temporal. Uma dessas propostas se constitui na implementação de uma camada de software que simula um banco de dados temporal, chamada Pacote de Tempo de Validade – PTV. Ela foi desenvolvida para demonstrar algumas funções temporais de banco de dados de tempo de validade. Embora o PTV tenha funções para garantir a integridade de dados temporais na inserção de tuplas, além de outros controles, não apresenta funções de consultas temporais. Essas funções foram desenvolvidas neste trabalho com base no TSQL2, aumentando, portanto, as funcionalidades temporais do PTV. Elas foram desenvolvidas para o SGBD Oracle 9i e consistem da principal proposta desse trabalho, permitindo inclusive validar as funções de consultas temporais de outras propostas da literatura. A segunda proposta desse trabalho é prover aos desenvolvedores e pesquisadores dessa área, uma interface visual apropriada para o uso do PTV, permitindo, assim, a exploração máxima dos recursos temporais desse pacote.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A mineração de dados é o núcleo do processo de descoberta de conhecimento em base de dados. Durante a mineração podem ser aplicadas diversas técnicas para a extração de conhecimento. Cada técnica disponível visa à realização de um objetivo e é executada de uma forma em particular. O foco desta dissertação é uma destas técnicas conhecida como detecção de desvios. A detecção de desvios é baseada no reconhecimento do padrão existente nos dados avaliados e a capacidade de identificar valores que não suportem o padrão identificado. Este trabalho propõe uma sistemática de avaliação dos dados, com o objetivo de identificar os registros que destoam do padrão encontrado. Para este estudo são aplicadas algumas técnicas de avaliação estatística. Inicialmente é apresentada uma revisão bibliográfica sobre descoberta de conhecimento em base de dados (DCBD) e mineração de dados (MD). Na seqüência, são apresentados os principais conceitos que auxiliam na definição do que é um desvio, quais as técnicas utilizadas para a detecção e a forma de avaliação do mesmo. Dando continuidade ao trabalho, a sistemática CRISP_DM é descrita por ser aplicada aos estudos de casos realizados. A seguir, são descritos os estudos de casos realizados que utilizaram as bases da Secretaria da Saúde do Rio Grande do Sul (SES). Finalmente, são apresentados as conclusões do estudo e possíveis trabalhos futuros.