999 resultados para Bases de dados - Gestão
Resumo:
As técnicas que formam o campo da Descoberta de Conhecimento em Bases de Dados (DCBD) surgiram devido à necessidade de se tratar grandes volumes de dados. O processo completo de DCBD envolve um elevado grau de subjetividade e de trabalho não totalmente automatizado. Podemos dizer que a fase mais automatizada é a de Mineração de Dados (MD). Uma importante técnica para extração de conhecimentosa partir de dados é a Programação Lógica Indutiva (PLI), que se aplica a tarefas de classificação, induzindo conhecimento na forma da lógica de primeira ordem. A PLI tem demonstrado as vantagens de seu aparato de aprendizado em relação a outras abordagens, como por exemplo, aquelas baseadas em aprendizado proposicional Os seus algorítmos de aprendizado apresentam alta expressividade, porém sofrem com a grande complexidade de seus processos, principalmente o teste de corbertura das variáveis. Por outro lado, as Redes Neurais Artificiais (RNs) introduzem um ótimo desempenho devido à sua natureza paralela. às RNs é que geralmente são "caixas pretas", o que torna difícil a obtenção de um interpretação razoável da estrutura geral da rede na forma de construções lógicas de fácil compreensão Várias abordagens híbridas simbólico-conexionistas (por exemplo, o MNC MAC 890 , KBANN SHA 94 , TOW 94 e o sistema INSS OSO 98 têm sido apresentadas para lidar com este problema, permitindo o aprendizado de conhecimento simbólico através d euma RN. Entretanto, estas abordagens ainda lidam com representações atributo-valor. Neste trabalho é apresentado um modelo que combina a expressividade obtida pela PLI com o desempenho de uma rede neural: A FOLONET (First Order Neural Network).
Resumo:
Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.
Resumo:
A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.
Resumo:
A grande quantidade de dados eletrônicos disponível atualmente nem sempre pode ser representada com modelos tradicionais, principalmente devido à ausência de esquema no momento da criação destes dados. Neste sentido, modelos semi-estruturados têm sido propostos; uma das abordagens utilizadas é XML, uma linguagem para troca e representação deste tipo de informação. Entretanto, consultar dados semi-estruturados pode demandar processos de extração com alto custo. Uma das alternativas para solucionar este problema é a definição de visões sobre estes dados, e a posterior materialização destas informações. O uso de visões materializadas para dados XML ainda é pouco explorado. Uma das abordagens que podem ser utilizadas é o uso de sistemas de gerenciamento de bancos de dados relacionais para o armazenamento das visões. Desse modo, informação semanticamente relacionada (informação acerca de um mesmo domínio, possivelmente representada em formatos diferentes) pode ser agrupada em uma única unidade lógica, facilitando o acesso a estes dados por parte do usuário, e introduzindo alguma estrutura nos dados semiestruturados. Dessa maneira, o usuário final submete consultas diretamente sobre a visão materializada, evitando extrações contínuas de dados nas fontes XML. A materialização de dados XML exige a definição de um repositório de dados para o armazenamento destas instâncias. Utilizando-se a abordagem relacional, é necessário definir um mecanismo para a geração do esquema lógico do banco de dados. Consultar os dados nas fontes XML exige a integração destas instâncias. Neste contexto, integrá-las significa identificar quais instâncias de dados representam o mesmo objeto do mundo real, bem como resolver ambigüidades de representação deste objeto. O problema de identificação de entidades em XML é mais complexo que em bases de dados estruturadas. Dados XML, como propostos originalmente, não carregam necessariamente a noção de chave primária ou identificador de objeto. Assim, é necessária a adoção de um mecanismo que faça a identificação das instâncias na integração destes dados. Além disso, à medida que as fontes de dados XML sofrem alterações, a visão materializada deve ser atualizada, a fim de manter-se consistente com as fontes de dados. A manutenção deve propagar as alterações feitas nos dados XML para a visão materializada. Reprocessar todo o conteúdo da visão materializada é, na maioria das vezes, muito caro. Assim, é desejável propagar as mudanças incrementalmente, ou seja, processar apenas as alterações necessárias. Neste sentido, o presente trabalho apresenta uma proposta de técnica para armazenamento de dados XML em um banco de dados relacional. A proposta utiliza ontologias para a geração do esquema lógico do banco de dados. O problema de integração de dados é mostrado. O foco principal do trabalho está na proposta de uma técnica de atribuição de identificadores a instâncias XML, baseada no uso de funções Skolem e no padrão XPath, proposto pelo W3C. Também é proposto um mecanismo para manutenção incremental deste banco, à medida que as fontes XML sofrem atualizações.
Resumo:
Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.
Resumo:
Apresenta-se neste estudo o potencial de recuperação de informação em C&T nas bases de dados nacionais e internacionais na grande área das Ciências da Saúde, na área da Medicina e na pesquisa médica em Câncer no Brasil. Esta capacitação científica instalada foi hierarquizada geográfica e institucionalmente usando como parâmetro o conceito de mérito científico fornecido pelo próprio sistema de C&T brasileiro. Os dados foram complementados pela análise da produção científica para identificar o grau de inserção internacional da pesquisa médica em Câncer no Brasil. Para tanto foram incorporadas informações das bases de dados do Institute for Scientific Information. Pode-se concluir que a grande área das Ciências da Saúde é a maior em contingente de pesquisa no Brasil, sendo a Medicina a área numericamente predominante. Na pesquisa médica em Câncer constatou-se que existem apenas dois cursos de pós-graduação diretamente relacionados com a formação de recursos humanos neste tema de pesquisa, 569 grupos de pesquisa (3,8% do total do país), 785 pesquisadores doutores, dos quais somente 153 são pesquisadores com bolsa de produtividade em pesquisa do CNPq (1,7% do total do país) No entanto, a produção científica, apesar de pouco expressiva do ponto de vista quantitativo, apresenta uma inserção internacional qualificada, sendo utilizada por outros pesquisadores com um elevado percentual, 84% de citações dos artigos brasileiros produzidos entre 1998-2002. Conclui-se, portanto, que apesar de não esgotar completamente as muitas especificidades do tema investigado, as informações disponíveis nas bases de dados nacionais e internacionais podem apontar caminhos para a investigação de tendências significativas da comunidade científica em todas as áreas do conhecimento ou temas de pesquisa, conforme os modos de recuperação apresentados. Através da interpretação criteriosa a partir de estudos continuados nessas bases, como é o caso deste trabalho, é possível utilizar a informação em C&T como subsídio para o planejamento de políticas de CT&I no Brasil.
Resumo:
Um conceito recente, relacionado à tecnologia educacional, baseia-se na idéia de objetos de aprendizagem (OAs), entendidos como pequenos componentes que podem ser usados, reusados ou referenciados durante a aprendizagem suportada pela tecnologia. Paralelo a isto, várias organizações estão envolvidas num trabalho de desenvolvimento de padrões de metadados para estes objetos, a fim de facilitar a catalogação e recuperação dos mesmos. Desta forma, os OAs podem ser localizados mais facilmente e utilizados em diferentes contextos e plataformas e por diferentes pessoas. O que se propõe para atingir esta facilidade de uso dos OAs é que os objetos sejam armazenados em bases de dados que são também conhecidas como repositórios, que fornecem ao usuário vários benefícios em termos de recuperação de informações. Neste contexto, este trabalho apresenta o GROA - Gerenciador de Repositórios de Objetos de Aprendizagem, que disponibiliza recursos de criação de repositórios capazes de armazenamento, gerenciamento, indexação e estruturação de objetos de aprendizagem, e capazes de operar como serviços deWeb, na internet. Este sistema foi implementado no Zope, que utiliza um banco de dados orientado a objetos, integrado a um servidor web. O texto analisa o conceito de OA e o contextualiza em relação a questões como a educação a distância, ambientes de apoio ao ensino e reusabilidade de conteúdos. Também, detalha os padrões de metadados que permitem a inserção dos OAs como componentes da Web Semântica. Em particular, apresenta-se o mecanismo de mapas de tópicos utilizado para estruturar os repositórios de OAs gerenciados pelo GROA. Finalmente, o texto discorre sobre os detalhes da implementação do GROA.
Resumo:
A Segurança Empresarial é um programa preventivo que visa proteger os valores de uma empresa, para preservação das condições operacionais dentro da normalidade. As empresas estão sujeitas a ameaças relacionadas às suas atividades no mercado em que atuam. Muitas dessas ameaças são conhecidas e identificadas e, dentro do possível, é estabelecido um programa de proteção de seus interesses. Entretanto, as ameaças aos demais bens da empresa não são evidentes, nem perceptíveis tão facilmente. As medidas tomadas para prevenir a efetivação dessas ameaças, por meio de um Programa de Segurança Empresarial ou para minorar os problemas decorrentes da concretização dessas ameaças, até a volta às condições habituais de operação das empresas, por meio da execução de um Plano de Contingência, são vistas, não raramente, como despesas e poucas vezes como investimento com retomo. Nem geram resultados operacionais para a empresa. o objetivo final desta dissertação de mestrado foi estabelecer um Programa de Segurança Empresarial para a Fundação Getulio Vargas - FGV, recomendando a revisão das normas e procedimentos de segurança que comporão o Manual de Segurança e sugerir que a FGV o inclua no Plano Estratégico. Para alcançar o objetivo final. foram definidos: Conceitos Básicos de Segurança e Contingência; Critérios de Classificação de Dados; Gestão do Processo de Segurança e Contingência; Função Administração de Segurança. Alguns tipos de pesquisa foram aplicados. Quanto aos meios, caracterizou-se como estudo de caso; para a elaboração das recomendações de revisão das normas e procedimentos de segurança, foram aplicadas pesquisas bibliográfica, documental e de campo. Quanto ao fim, pesquisa aplicada, motivada pela necessidade de resolver problemas concretos, com finalidade prática. Foram efetuadas visitas e entrevistas nas instalações da sede da FGV e no prédio da Bolsa de Valores do Rio de Janeiro - BVRJ. Dada a complexidade e abrangência da Segurança Empresarial, o estudo foi limitado a tratar de segurança física. Foi observada a necessidade da FGV rever as Normas e Procedimentos de Segurança Empresarial, buscando melhorar o nível de segurança geral e adotar instrumentos modernos de prevenção de ocorrência de sinistros que ponham em risco os valores da FGV, a saber: pessoas, instalações físicas, equipamentos, informações, suprimentos e facilidades de comunicação. Está sendo recomendada a adoção da metodologia Sistemática Integrada de Segurança e Contingência - SISC, para minimizarão dos impactos de situações emergências.
Resumo:
O objetivo principal desta pesquisa é avaliar até que ponto a mudança de mecanismos de controle numa organização pública contribui para melhorar o desempenho na sua atividade fim. Trata-se de um estudo de caso da mudança ocorrida no final de 1999 na Diretoria de Fiscalização do Banco Central do Brasil. Ao receber a atribuição de implementar uma estrutura de prevenção e combate à lavagem de dinheiro através do Sistema Financeiro Nacional, esta organização absorve a equipe de monitoramento de câmbio, originalmente ligada à Diretoria de Assuntos Internacionais, e reorienta sua estrutura de controle, com vistas ao alcance da nova missão. O entendimento dos condicionantes e do modo da mudança, das dimensões e formas de controle organizacional e das diferentes abordagens do desempenho forma o embasamento teórico do estudo. Os dados secundários, básicos para a caracterização das variáveis, foram coletados principalmente em bases de dados, publicações e documentos internos do Banco Central do Brasil. Os resultados encontrados apontam uma flexibilização significativa da organização em foco, que não teve contrapartida favorável no desempenho medido pelos indicadores selecionados para esta pesquisa. Estes resultados, em retrospecto com a implementação da mudança, sugerem a influência de um conjunto de fatores não considerados neste processo, tais como a adequação do pessoal e a legitimação da nova forma de trabalho. Recomenda-se que sejam mantidos pela organização os desenvolvimentos alcançados com a nova estrutura de controle, mas que sejam reforçadas as atividades que geram os resultados positivos em termos de desempenho. Alguns temas para futuros trabalhos são apresentados, destacando-se o estudo dos efeitos da implantação do sistema preventivo nas instituições financeiras supervisionadas pelo Banco Central do Brasil.
Resumo:
This study aimed at the public expenses in education and its impact on the level of the student's proficiency. The data passed through a statistical and an econometrical analysis. The multiple regressions did not identify a significant relation between the differential of expenses per pupil in the elementary level and the level of proficiency of the students of municipal schools. It is possible to conclude that a raise of the level of resources isolated cannot contribute to the improvement of the system. The quality of the public expenses must be monitored in order to promote more effective polices.
Resumo:
As árvores de decisão são um meio eficiente para produzir classificadores a partir de bases de dados, sendo largamente utilizadas devido à sua eficiência em relação ao tempo de processamento e por fornecer um meio intuitivo de analisar os resultados obtidos, apresentando uma forma de representação simbólica simples e normalmente compreensível, o que facilita a análise do problema em questão. Este trabalho tem, por finalidade, apresentar um estudo sobre o processo de descoberta de conhecimento em um banco de dados relacionado à área da saúde, contemplando todas as etapas do processo, com destaque à de mineração de dados, dentro da qual são aplicados classificadores baseados em árvores de decisão. Neste estudo, o conhecimento é obtido mediante a construção de árvores de decisão a partir de dados relacionados a um problema real: o controle e a análise das Autorizações de Internações Hospitalares (AIHs) emitidas pelos hospitais da cidade de Pelotas, conveniados ao Sistema Único de Saúde (SUS). Buscou-se encontrar conhecimentos que auxiliassem a Secretaria Municipal da Saúde de Pelotas (SMSP) na análise das AIHs, realizada manualmente, detectando situações que fogem aos padrões permitidos pelo SUS. Finalmente, os conhecimentos obtidos são avaliados e validados, possibilitando verificar a aplicabilidade das árvores no domínio em questão.
Resumo:
Este trabalho situa o Programa de Medicamentos Excepcionais no Brasil diante da judicialização da demanda, contextualizando a relação entre direitos humanos e recursos financeiros do Programa, identificando os argumentos embasadores das ações impetradas contra o gestor. Consiste em estudo de natureza documental, com emprego de dados secundários em bases de dados nacionais e estaduais e análise da totalidade dos mandados impetrados contra o estado do Espírito Santo. Os princípios do SUS são apresentados para contextualizar a aplicação do direito, dando enfoque à eqüidade. Os principais achados foram: as demandas judiciais iniciam-se pelo poder executivo por meio do Ministério Público e o judiciário, com apresentação de antecipação de tutela, mandado judicial ou termo de ajustamento de conduta. O objeto das notificações apresentou variações quanto ao nível de atenção, ocorrendo notificações para fornecimento de medicamento básico, de média e alta complexidade, e até importados sem registro no Brasil. A argumentação utilizada nas notificações, em sua maioria, refere-se ao artigo 196 da Constituição Federal, incluindo também os artigos 5.º, 6.º, 159 e 198, ao Código Civil, à Constituição Estadual, ao Pacto de São José da Costa Rica e à Lei Estadual n.º 4.317/90. Conclui-se neste estudo que a judicialização gera individualização da demanda em detrimento do coletivo e tendenciona a uma maior desorganização dos serviços. Os dados referentes ao Programa no Estado comportam-se de forma semelhante aos do Brasil. Entre os entrevistados e na conclusão da autora, fica evidente a necessidade de discussão ampla e envolvimento dos atores para que haja consenso coerente com a eqüidade e a coletividade, não excluindo o papel de controle social estabelecido pela Constituição ao Ministério Público e ao judiciário.
Resumo:
As relações comerciais observadas no início do século passado se baseavam no atendimento personalizado, em que cada cliente era recebido pessoalmente pelo dono da loja, que por sua vez conhecia a clientela e suas principais necessidades. Com a massificação da produção e o surgimento dos grandes magazines e shopping centers, o foco das empresas se voltou para produtos e serviços, futor que promoveu o distanciamento das relações com os clientes, tornando-os ilustres desconhecidos para as empresas. Quase um século depois, o advento da Internet prOpICIOU um processo de reaproximação entre empresas e clientes, eis que as fronteiras geográficas começaram a desaparecer, as empresas locais começaram a atuar e concorrer mundialmente através da web, o mercado apresentou-se mais competitivo e os clientes conquistaram maior poder de escolha e se tornaram mais voláteis. Neste contexto de grandes massas, surge o CRM contemplando um conjunto de estratégias que permeiam toda a organização, como por exemplo, a revisão dos processos de negócios, a mudança da cultura com o foco no cliente, a automação dos serviços de marketing, vendas e atendimento, a disponibilização de multi-canais de contato com o cliente e a integração das bases de dados com os canais de interação. As estratégias de CRM, com base na revisão dos processos de negócios, na mudança da cultura organizacional e na infra-estrutura tecnológica, objetivam estabelecer relações individualizadas com uma imensa massa de clientes. Neste sentido, esse trabalho de pesquisa intenciona aprofundar os conhecimentos sobre influência do CRM na fidelização do cliente.
Resumo:
O presente trabalho relaciona o comportamento de preço das marcas e sua participação relativa de mercado. As análises ocorreram em categorias de produtos da cesta alimentar e consideram as marcas líderes em relação às principais concorrentes em cada categoria de produto pesquisada. Duas bases de dados distintas foram utilizadas: uma pesquisa primária de preços realizada na Grande São Paulo, onde dados de seiscentos SKUs, correspondendo a trinta e cinco categorias de produtos, foram coletados por vinte e cinco semanas, em dezesseis varejistas de alimentos e; informações do Scantrack® da Nielsen para determinar as posições relativas de mercado das marcas em cada categoria de produto e o tamanho dos mercados. O comportamento de preços foi analisado diferenciando duas situações: preços divulgados diretamente na gôndola sem nenhum vinculo promocional; e os preços divulgados concomitantemente a realização de atividades promocionais no produto, que mudem o posicionamento de preço relativo do mesmo dentro da categoria. As análises realizadas foram baseadas em: dispersão de preços, amplitude da variação de preços, freqüência promocional e investimento em promoções. Os resultados mostram que as marcas lideres têm maior freqüência promocional, maior investimento na redução de preços nas promoções, maior amplitude na variação de preço e maior dispersão de preços quando há uma promoção. Concluiu-se que as marcas líderes exigem altos investimentos promocionais por serem amplamente utilizadas como geradores de tráfego e formadores de imagem de preço das lojas e que os consumidores podem economizar até 93% pesquisando o preço dos produtos antes de adquiri-los. As marcas que não são lideres de mercado possuem maior dispersão de preços quando não há atividades promocionais e a economia da comparação de preços pode ser superior a 40%.
Resumo:
Desde sua criação, pela Constituição de 1988, o Sistema Único de Saúde (SUS) perseguiu a estabilidade e suficiência em seu financiamento. A crise de financiamento que se estabeleceu, já a partir do início dos anos 1990, levou ao surgimento de propostas relativas ao financiamento do SUS. Essas iniciativas culminaram com a aprovação da Emenda Constitucional no 29 (EC 29), em setembro de 2000, estabelecendo a vinculação de recursos para as três esferas de governo. A implantação do novo modelo de financiamento, no entanto, tem sido marcada por controvérsias na interpretação das disposições da EC 29. Este trabalho procurou, utilizando o referencial teórico proporcionado pelos estudos de Federalismo Fiscal, estudar o processo de implantação da vinculação de recursos para a saúde a partir da análise documental desenvolvida a partir, principalmente, do Conselho Nacional de Saúde e dos Tribunais de Contas da União, estados e municípios. Para os dados de receita e despesa das unidades da federação foram utilizadas as bases de dados da Secretaria do Tesouro Nacional e do Sistema de Informações sobre Orçamentos Públicos em Saúde (SIOPS), do Ministério da Saúde. Concluiu-se que a EC 29 constituiu um avanço no financiamento do SUS. Algumas questões, todavia, permaneceram pendentes. O tratamento a ser dado à desigualdades e os mecanismos de redistribuição de recursos, entre as diversas unidades da federação, permaneciam em aberto, sem uma associação mais forte com o estabelecimento de metas de desempenho e divisão de responsabilidades. A previsão de revisão periódica das disposições da EC 29, todavia, oferece uma rara oportunidade de aperfeiçoamento do modelo de financiamento.