956 resultados para Marketing de banco de dados


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Estudo acerca das características do marketing de relacionamento segundo a percepção dos clientes. Será elaborado um estudo de caso de uma empresa do setor de materiais elétrico localizada no Estado de São Paulo com a finalidade de se analisar a qualidade dos produtos e serviços oferecidos pela empresa, mensurar o grau de satisfação da empresa em relação aos produtos e serviços oferecidos, enfatizando a relação empresa x cliente sob o enfoque da atração, manutenção, recuperação e satisfação do cliente. Este estudo utiliza conceitos sobre diversos temas relacionados ao trabalho como o marketing, marketing de relacionamento com clientes, pós-venda, marketing um a um, atração, retenção, recuperação, satisfação e fidelização dos clientes, gerenciamento do banco de dados como ferramenta de marketing, onde será mostrada a necessidade da empresa em formar estratégias competitivas adotando políticas de marketing voltadas para a manutenção e atração do cliente, tomando medidas proativas com a finalidade de desenvolver relacionamentos de longo prazo, maximizando sua satisfação e o desempenho empresarial. Será feita uma caracterização da empresa, em busca de informações como missão, visão, objetivos e composto de marketing da empresa, assim também com uma caracterização do mercado em que a empresa atua. Para a realização da pesquisa de campo elegeram, funcionários (clientes) de empresas do setor elétrico (projetistas, instaladoras e montadoras de painéis elétricos), considerados formadores de opinião na percepção do pesquisador. Realizou-se uma pesquisa de natureza qualitativa transversal do tipo descritiva, com finalidade básica/pura e de campo tanto em relação à coleta de dados como o local de realização, onde foi possível identificar que as empresas na qual realizam negócios com a Terasaki, são empresas projetistas e montadoras de painéis elétricos de origem japonesa ou nacional e os principais fatores que levam a optar por utilizarem Terasaki são: a qualidade dos seus produtos e serviços oferecidos, o preço praticado oferecendo a melhor relação "custo/benefício", e devido a exigência do cliente final em especificar produtos desta empresa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

o ambiente econômico atual tem exigido empenho das empresas em conhecer, interagir, diferenciar e personalizar cada vez mais produtos e serviços para os clientes. Este cenário requer ferramentas e modelos de gestão para gerenciar as relações com os clientes, com o objetivo de permitir que a empresa consiga perceber e responder rapidamente a exigências dos consumidores. Este trabalho revisa conceitos de CRM (Customer Relationschip Management ou Gerenciamento das Relações com os Clientes) e descreve a implementação de ferramenta de gestão de relacionamento com clientes em empresa de consórcio. O desenvolvimento do trabalho reflete uma necessidade apontada no planejamento estratégico da empresa, sendo que ferramentas de tecnologia de informação e software de banco de dados foram usadas como suporte aos propósitos da gestão empresarial. Como resultado do trabalho, a empresa está hoje atuando com um sistema de Data Base Marketing, o qual foi criado para auxiliar os profissionais envolvidos no processo de atendimento e gestão de relacionamento com clientes. O Data Base Marketing esta sendo utilizado para coletar dados de atendimento a clientes, tais como históricos de atendimento, dados cadastrais, perfil demográfico, perfil psicográfico e categoria de valor dos clientes. Durante o processo de interação com clientes, o sistema facilita o trabalho dos especialistas e permite melhorar a qualidade do atendimento aos clientes, contemplando necessidades dos diversos especialistas da empresa em assuntos como vendas, qualidade em serviços, finanças e gestão empresarial.O processo começou pela constituição de um grupo de trabalho interno para discutir estratégias e cronograma de implantação. A primeira decisão do grupo foi pelo desenvolvimento interno do software visando atender plenamente o "core business" da empresa. O processo começou pela constituição de um grupo de trabalho interno para discutir estratégias e cronograma de implantação. A primeira decisão do grupo foi pelo desenvolvimento interno do software visando atender plenamente o "core business" da empresa. O projeto contou com o conhecimento do negócio dos profissionais da empresa e auxilio de especialistas e consultores externos. O detalhamento do projeto, bem como os passos da pesquisa-ação, está descrito no corpo da dissertação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The general objective of this research is to verify which attributes are most relevant to a stock photography agency that represent the purchaser's standards of choice. For this objective to be accomplished, qualitative interviews with the customers of stock photography agencies had been made in order to raise the attributes considered with relevance in the process of choice for the Brazilian stock photography agency market. The levels of each attribute to be tested had arisen through the mapping of the products and services offered by the competition and the relative weight assigned to each one of the attributes related to the research in the choices for a stock photography agency. A transversal study was made with a sample of stock photography agencies customers from Brazil¿s Southeastern region. For the analysis of this data, a survey method was used, that, according to MALHOTRA (2006: 182), involves a structuralized questionnaire to be answered by an interview that elucidates specific information, in which the questions had a predetermined order. This questionnaire was presented through interviews on the Internet. The method adopted for this analysis was a joint analysis. A sampling of 1000 customer stock photography agencies were selected, which were represented by a didactic book editor, advertising agencies, editorial companies, etc., in the states of Rio de Janeiro, São Paulo, Espírito Santo and Minas Gerais. They had been obtained by 16 stimulations, or cards, for the application of the companies. Of the sample of 1000 customers of stock photography agencies, 7,8% responded to the research. The attribute most relevant in accordance with the presented results is the availability of images in high resolution for layout. Its relative importance was 40,78%. At the end of the study, the management implications were propitiated to the stock photography agencies managers inabling them to be more competitive.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisa a indústria de informações comerciais, dando maior ênfase ao segmento de bancos de dados. Baseia-se principalmente em dados dos mercados norte-americano e europeu. Apresenta o correto uso das informações gerenciais como estratégia empresarial duradoura, apoiada na exploração das inovações tecnológicas, conhecidas como tecnologias de informação (TI). Discute ainda a transferência de poder dos ofertantes e distribuidores da informação para os usuários, fazendo com que as necessidades e desejos destes últimos prevaleçam e se imponham

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A desorganização de dados em bancos de dados automatizados implica em ineficiência operacional causada por redundâncias, inconsistências, baixo reuso, riscos informacionais, enfim, menor valor agregado da TI aos objetivos organizacionais. Apoiado por técnicas de gerenciamento de projetos, busca-se em um estudo de caso na Câmara dos Deputados a otimização da organização dos dados em bancos de dados automatizados.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Dados faltantes são um problema comum em estudos epidemiológicos e, dependendo da forma como ocorrem, as estimativas dos parâmetros de interesse podem estar enviesadas. A literatura aponta algumas técnicas para se lidar com a questão, e, a imputação múltipla vem recebendo destaque nos últimos anos. Esta dissertação apresenta os resultados da utilização da imputação múltipla de dados no contexto do Estudo Pró-Saúde, um estudo longitudinal entre funcionários técnico-administrativos de uma universidade no Rio de Janeiro. No primeiro estudo, após simulação da ocorrência de dados faltantes, imputou-se a variável cor/raça das participantes, e aplicou-se um modelo de análise de sobrevivência previamente estabelecido, tendo como desfecho a história auto-relatada de miomas uterinos. Houve replicação do procedimento (100 vezes) para se determinar a distribuição dos coeficientes e erros-padrão das estimativas da variável de interesse. Apesar da natureza transversal dos dados aqui utilizados (informações da linha de base do Estudo Pró-Saúde, coletadas em 1999 e 2001), buscou-se resgatar a história do seguimento das participantes por meio de seus relatos, criando uma situação na qual a utilização do modelo de riscos proporcionais de Cox era possível. Nos cenários avaliados, a imputação demonstrou resultados satisfatórios, inclusive quando da avaliação de performance realizada. A técnica demonstrou um bom desempenho quando o mecanismo de ocorrência dos dados faltantes era do tipo MAR (Missing At Random) e o percentual de não-resposta era de 10%. Ao se imputar os dados e combinar as estimativas obtidas nos 10 bancos (m=10) gerados, o viés das estimativas era de 0,0011 para a categoria preta e 0,0015 para pardas, corroborando a eficiência da imputação neste cenário. Demais configurações também apresentaram resultados semelhantes. No segundo artigo, desenvolve-se um tutorial para aplicação da imputação múltipla em estudos epidemiológicos, que deverá facilitar a utilização da técnica por pesquisadores brasileiros ainda não familiarizados com o procedimento. São apresentados os passos básicos e decisões necessárias para se imputar um banco de dados, e um dos cenários utilizados no primeiro estudo é apresentado como exemplo de aplicação da técnica. Todas as análises foram conduzidas no programa estatístico R, versão 2.15 e os scripts utilizados são apresentados ao final do texto.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Na década de 80, o surgimento de programas de computadores mais amigáveis para usuários e produtores de informação e a evolução tecnológica fizeram com que as instituições, públicas e privadas, se aperfeiçoassem em estudos sobre sistemas de produção cartográfica apoiados por computador, visando a implementação de Sistemas de Informação Geográfica (SIG). A pouca simultaneidade de forças entre órgãos interessados, resultou em uma grande quantidade de arquivos digitais com a necessidade de padronização. Em 2007, a Comissão Nacional de Cartografia (CONCAR) homologou a Estrutura de Dados Geoespaciais Vetoriais (EDGV) a fim de minimizar o problema da falta de padronização de bases cartográficas. A presente dissertação tem como foco elaborar uma metodologia de trabalho para o processo de conversão de bases cartográficas digitais existentes no padrão da Mapoteca Topográfica Digital (MTD), do Instituto Brasileiro de Geografia e Estatística (IBGE), para o padrão da EDGV, bem como suas potencialidades e limitações para integração e padronização de bases cartográficas digitais. Será feita uma aplicação da metodologia utilizando a carta topográfica de Saquarema, na escala de 1:50.000, vetorizada na Coordenação de Cartografia (CCAR) do IBGE e disponível na Internet. Como a EDGV foi elaborada segundo técnicas de modelagem orientada a objetos, foi necessário um mapeamento para banco de dados relacional, já que este ainda é utilizado pela maioria dos usuários e produtores de informação geográfica. Um dos objetivos específicos é elaborar um esquema de banco de dados, ou seja, um banco de dados vazio contendo todas as classes de objetos, atributos e seus respectivos domínios existentes na EDGV para que possa ser utilizado no processo de produção cartográfica do IBGE. Este esquema conterá todas as descrições dos objetos e de seus respectivos atributos, além de já permitir que o usuário selecione o domínio de um determinado atributo em uma lista pré definida, evitando que ocorra erro no preenchimento dados. Esta metodologia de trabalho será de grande importância para o processo de conversão das bases cartográficas existentes no IBGE e, com isso, gerar e disponibilizar bases cartográficas no padrão da EDGV.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Ao se realizar estudo em qualquer área do conhecimento, quanto mais dados se dispuser, maior a dificuldade de se extrair conhecimento útil deste banco de dados. A finalidade deste trabalho é apresentar algumas ferramentas ditas inteligentes, de extração de conhecimento destes grandes repositórios de dados. Apesar de ter várias conotações, neste trabalho, irá se entender extração de conhecimento dos repositórios de dados a ocorrência combinada de alguns dados com freqüência e confiabilidade que se consideram interessantes, ou seja, na medida e que determinado dado ou conjunto de dados aparece no repositório de dados, em freqüência considerada razoável, outro dado ou conjunto de dados irá aparecer. Executada sobre repositórios de dados referentes a informações georreferenciadas dos alunos da UERJ (Universidade do Estado do Rio de Janeiro), irá se analisar os resultados de duas ferramentas de extração de dados, bem como apresentar possibilidades de otimização computacional destas ferramentas.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Estudo de comparação entre dois métodos de coleta de dados, através da aplicação de um software, para avaliação dos fatores de risco e danos no trabalho de enfermagem em hospital. Objetiva analisar o uso do software (eletrônico) em comparação com o uso do instrumento impresso. Trata-se de um estudo estatístico, descritivo com abordagem quantitativa, desenvolvido nas enfermarias dos Serviços de Internações Clínicas e Serviços de Internações Cirúrgicas de um Hospital Universitário, no estado do Rio de Janeiro. A população do estudo foram os trabalhadores de enfermagem das unidades. A amostra foi definida por meio de amostragem não-probabilística e alocação da amostra ocorreu de forma aleatória em dois grupos, denominados grupo impresso e grupo eletrônico, com 52 participantes cada. Previamente a coleta de dados foram implementadas estratégias de pesquisa denominada teaser, através da comunicação digital aos trabalhadores. Posteriormente, foi ofertado aos participantes do formato impresso o questionário impresso, e os participantes do formato eletrônico receberam um link de acesso a home page. Os dados foram analisados através da estatística descritiva simples. Após a aplicação do questionário nos dois formatos, obteve-se resposta de 47 trabalhadores do grupo impresso (90,3%), e 17 trabalhadores do grupo eletrônico (32,7%). A aplicação do questionário impresso revelou algumas vantagens como o número de pessoas atingidas pela pesquisa, maior interação pesquisador e participante, taxa de retorno mais alta, e quanto às desvantagens a demanda maior de tempo, erros de transcrição, formulação de banco de dados, possibilidades de resposta em branco e erros de preenchimento. No formato eletrônico as vantagens incluem a facilidade de tabulação e análise dos dados, impossibilidade de não resposta, metodologia limpa e rápida, e como desvantagens, o acesso à internet no período de coleta de dados, saber usar o computador e menor taxa de resposta. Ambos os grupos observaram que o questionário possui boas instruções e fácil compreensão, além de curto tempo para resposta. Os trabalhadores perceberam a existência dos riscos ocupacionais, principalmente os ergonômicos, biológicos e de acidentes. Os principais danos à saúde provocados ou agravos pelo trabalho percebidos pelos trabalhadores foram os problemas osteomusculares, estresse, transtornos do sono, mudanças de humor e alterações de comportamento e varizes. Pode-se afirmar que não ocorreram diferenças acentuadas de percentual ao comparar a percepção dos trabalhadores do grupo impresso e do grupo eletrônico frente aos riscos e danos à saúde. Conclui-se que os dois processos de coleta de dados tiveram boa aceitação, no entanto, deve ser indicada a aplicação do questionário eletrônico junto com a ferramenta de acesso, no caso o computador, tablet.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Novidades e diferenças da versão 1.2. Requisitos de software. Implantando o armazém de dados da floticultura. Importando o aquivo com o esquema de banco de dados.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Data warehouse / Data Mart. Arquiteturas. O processo ETT (Extração, Transformação e carga de dados).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Infra-estrutura de Software necessária. Implantando o armazém de dados da fruticultura: criando e configurando usuários e atribuição; importando o arquivo exportado com o esquema do Armazém de Dados da Fruticultura; renovando os sumários do Armazém de Dados da Fruticultura.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Instruções de instalação e configuração. Análise de dados do comércio exterior: o tutorial. Iniciando o discoverer e estabelecendo conexão com o servidor. Abrindo um caderno de trabalho. Escolhendo um valor do item de página. Escolhendo outra folha de trabalho de um caderno. Visualizando diferentes níveis de detalhamento. Selecionando parâmetros. Renovando uma folha de trabalho. Alterando o eixo de uma dimensão. Classificando valores. Exportando ou enviando dados de um caderno de trabalho. Fechando um caderno de trabalho. Visualizando gráficos. Ramificando um gráfico. Alterando cores e padrões de um gráfico. Copiando um gráfico para outro documento.