964 resultados para Captura indireta
Resumo:
O Programa Gaúcho da Qualidade e Produtividade – PGQP, criado pelo Governo do Estado do Rio Grande do Sul (1991-1994), reconhece o Curso Gestão da Qualidade Total (GQT) como conteúdo básico para os programas de desenvolvimento de recursos humanos que visem à implantação da qualidade total. Neste contexto, o presente estudo objetiva analisar as contribuições do Curso GQT para a implantação da qualidade total no âmbito da Administração Pública Indireta, mais especificamente, nas empresas integrantes do PROSAC – Programa de Satisfação e Atenção ao Cliente, desenvolvido pela Secretaria de Energia, Minas e Comunicações do Estado do RS, no período de 1993-1994. A metodologia adotada inclui pesquisa documental e de campo. Primeiramente, sob o enfoque qualitativo, analisa-se o conteúdo curricular do Curso GQT frente à realidade organizacional dos participantes. Numa segunda etapa, sessenta funcionários, de empresa integrante do PROSAC, avaliam o processo ensino-aprendizagem no contexto organizacional. A análise dos dados envolveu estatísticas descritivas, análise fatorial, mapeamento conceitual e análise de conteúdo. Os resultados demonstram que os pesquisados reconhecem a utilidade dos métodos e técnicas da qualidade para o controle e melhoria dos processos de trabalho, e a importância das informações apresentadas para o exercício de uma reflexão crítica sobre a sua realidade profissional. Por outro lado, indicam que foi enfatizada a aquisição de conhecimentos técnicos em detrimento do desenvolvimento das habilidades conceituais e da competência interpessoal, o que contraria os princípios da qualidade total que salientam igualmente a importância destes aspectos. Os resultados permitem, ainda, inferir uma ausência de associação conceitual - condição necessária para a aprendizagem significativa - entre o conteúdo curricular do Curso GQT, estruturado a partir da realidade do setor industrial, e as peculiaridades do serviço público.
Resumo:
Resumo não disponível.
Resumo:
Resumo não disponível.
Resumo:
Resumo não disponível.
Resumo:
Numerosas pesquisas estão introduzindo o conceito de grupo em padrões abertos para programação distribuída. Nestas, o suporte a grupo de objetos por meio de middlewares, apresentam diferentes abordagens de interligação com a aplicação. Segundo princípios defendidos na tese de Felber, essas abordagens vão ao encontro do objetivo de facilitar o desenvolvimento e proporcionar confiabilidade e desempenho. Neste contexto, localizou-se três enfoques básicos para a interligação com a aplicação, denominados integração, serviço, e interceptação, que utilizam a captura de mensagens para obtenção de informações ou como meio para adicionar novas funcionalidades às aplicações. A utilização dessas informações pode auxiliar no ajuste de parâmetros funcionais de serviços relacionados, na escolha de mecanismos, influindo em aspectos como, desempenho e segurança. Ao longo do estudo dessas abordagens, sentiu-se a necessidade de estudar detalhes e testar aspectos de implementação, suas premissas de uso e as conseqüências advindas da incorporação de seus mecanismos junto à aplicação. Este trabalho visa apresentar uma análise do comportamento das referidas abordagens por meio da implementação de protótipos, possibilitando assim, investigar problemas relacionados ao emprego da técnica e suas conseqüências quando integradas à aplicação. Os objetivos específicos reúnem a busca de informações qualitativas, tais como: modularidade, transparência, facilidade de uso e portabilidade; e informações quantitativas, fundamentalmente traduzidas pelo grau de interferência no desempenho da aplicação. O desenvolvimento dos protótipos teve como início a busca por um ambiente que ofereceria suporte as condições necessárias para a implementação das diferentes abordagens. Percebeu-se que definir os mecanismos diretamente sobre uma linguagem de programação, como C ou C++, não era viável. As versões padrões dessas linguagens não oferecem mecanismos capazes de suportar algumas características de implementação como, por exemplo, a captura de mensagens na abordagem de interceptação. A possibilidade é introduzida apenas por extensões dessas linguagens. Assim, a investigação de um ambiente de implementação voltou-se para mecanismos disponíveis em sistemas operacionais. A opção pela utilização do Linux visou atender alguns requisitos importantes para o desenvolvimento dos protótipos tais como: facilidade de instalação, boa documentação e código aberto. Este último é um ponto essencial, pois a construção de parte dos protótipos explora a programação em nível do sistema operacional. A linguagem de programação C foi escolhida como base para a implementação, já que as diferentes abordagens exploram tanto o nível do kernel como o nível do usuário, e é compatível com o Linux. A etapa de desenvolvimento dos protótipos possibilitou a coleta de informações sobre aspectos qualitativos. As demais informações que fazem parte do perfil levantado por este trabalho sobre as abordagens, foram obtidas através da utilização dos protótipos em experimentos com duas aplicações distribuídas denominadas de “Ping-Pong” e “Escolha de Líderes”, que têm como característica geral à troca de mensagens, utilizando comunicação através de sockets. A realização de medidas em múltiplas execuções, avaliadas após o tratamento estatístico necessário, permitiu definir um perfil das diferentes abordagens.
Resumo:
Sistemas de recomendação baseados cooperação indireta podem ser implementados em bibliotecas por meio da aplicação de conceitos e procedimentos de análise de redes. Uma medida de distância temática, inicialmente desenvolvida para variáveis dicotômicas, foi generalizada e aplicada a matrizes de co-ocorrências, permitindo o aproveitando de toda a informação disponível sobre o comportamento dos usuários com relação aos itens consultados. Como resultado formaram-se subgrupos especializados altamente coerentes, para os quais listas-base e listas personalizadas foram geradas da maneira usual. Aplicativos programáveis capazes de manipularem matrizes, como o software S-plus, foram utilizados para os cálculos (com vantagens sobre o software especializado UCINET 5.0), sendo suficientes para o processamento de grupos temáticos de até 10.000 usuários.
Resumo:
A necessidade de estimar com precisão o gasto energético dos pacientes gravemente doentes é cada vez mais importante para que se possa planejar uma nutrição adequada. Está bem estabelecido que tanto a desnutrição quanto o excesso alimentar prejudicam a evolução favorável destes doentes, especialmente quando estão sob ventilação mecânica. O objetivo do presente estudo foi comparar o Gasto Energético Total (GET) dos pacientes ventilados mecanicamente nos modos controlado e assistido, através da calorimetria indireta, medidos pelos monitores de gases TEEM-100 e DATEX-OHMEDA, verificando a necessidade de ajuste no aporte calórico em cada modo, correlacionando-os com a equação de Harris-Benedict (H-B). Foram estudados 100 pacientes em que os gases exalados (CO2 e O2) foram medidos durante 20 minutos em cada modo ventilatório (controlado e assistido) e o gasto energético calculado pela fórmula de “Weir”, determinando o GET, em 24 horas e comparado com o GET estimado pela equação de H-B. A média do escore APACHE II foi 21,1± 8,3. A média dos valores estimados pela equação de H-B foi de 1853,87±488,67 Kcal/24 h, considerando os fatores de atividade e estresse. Os valores médios obtidos pela calorimetria indireta (CI) foram de 1712,76 ±491,95 Kcal/24 h para a modalidade controlada e de 1867,33±542,67 Kcal/24 h para a assistida. A média do GET na modalidade assistida foi de 10,71% maior do que na controlada (p<0,001). A comparação das médias do GET, obtidos por CI com a equação de H-B ajustada para fatores de atividade e estresse demonstraram que a equação superestimou em 141,10 Kcal/24 h (8,2%) (p=0,012), quando na modalidade controlada. Retirando-se os fatores de atividade, observou-se uma tendência não significativa a subestimar em 44,28 Kcal/24 h (2,6%) (p=0,399). Quando na modalidade assistida, a comparação com H-B sem o fator de atividade, a medida por CI subestima em 198,84 Kcal/24 h, (10,71%), (p=0,001), enquanto que com o fator de atividade também subestimam, mas em 13,46 Kcal/24 h (0,75%) sem significância estatística (p=0,829). As diferenças observadas com o uso ou não de vasopressor, presença ou não de infecção e sepse como causa de internação na UTI, o tipo de dieta parenteral ou enteral ou sem dieta, e as faixas etárias não tiveram significância estatística, portanto não tiveram influência no gasto energético entre os modos ventilatórios. Os homens quando ventilando no modo controlado gastaram mais energia em relação às mulheres (1838,08 vs. 1577,01; p=0,007). Concluindo-se, os dados sugerem que devemos considerar o fator de atividade de 10%, somente quando em VM assistida, uma vez que este fator de atividade determina hiperalimentação, quando no modo controlado.
Resumo:
Aborda os fatores críticos de sucesso para operações de fusão I aquisição, e as metodologias e estratégias disponíveis para a captura do valor das sinergias, tecendo considerações sobre as principais fatores de sucesso nestas operações, e sobre o papel da cultura das empresas neste contexto.
Resumo:
O objetivo central deste trabalho é investigar a possível relação positiva entre a lealdade e a lucratividade do cliente em um ambiente de negócio pouco competitivo onde a lealdade comportamental poderia não estar associada à lealdade atitudinal, não se configurando portanto, uma situação de lealdade plena. Os dados utilizados para a realização da pesquisa foram cedidos pela empresa adquirente Redecard. Hoje no Brasil ela é a única empresa que realiza a captura das transações de cartões de crédito da bandeira MasterCard. A concorrência se manifesta indireta através de empresas que capturam transações de crédito de outras bandeiras como Visa e American Express, assinalando ser este um mercado de baixa concorrência. A análise foi realizada em dois momentos para cobrir situações de ambiente competitivo distintas: no ano 2000, momento de investimento da Redecard para consolidação do cartão de crédito como meio de pagamento nos estabelecimentos comerciais e no ano 2005, já com o mercado e a cultura de cartões de crédito estabelecido. Além da análise em momentos distintos, o estudo cobriu diferentes sub-ramos de negócios de distintas características. Como resultado do estudo verificou-se que a relação entre lealdade e lucratividade de clientes na relação adquirente e estabelecimento comercial é muito pequena podendo ser praticamente inexistente. Além da pouca intensidade, quando comparadas às demais fontes de variação, esta relação parece ser muito dependente do contexto competitivo, como demonstraram as diferenças encontradas entre os sub-ramos e as diferenças entre os anos 2005 e 2000.
Resumo:
Resumo não disponível.
Resumo:
Este trabalho objetivou identificar as principais tecnologias disponíveis de TI (Tecnologia da Informação) e de AIDC (Identificação e Captura Automática de Dados) para a área de varejo de autosserviço, para preencher a lacuna existente na literatura, sobre os benefícios de se usar novas tecnologias no ponto de venda, com vistas a otimizar sua operação. Para tanto, foram estudados os principais processos operacionais de uma loja de varejo de autosserviço, com vistas a identificar como as Tecnologias da Informação (TI) e de Identificação e Captura Automática de Dados (AIDC), poderiam ajudar a melhorar os resultados operacionais e agregar valor ao negócio. Para analisar suas proposições (de que o uso de TI e de AIDC podem ajudar na: redução dos tempos dos processos de retaguarda; redução do número de operações no ponto de venda; prevenção de perdas; redução dos custos e dos tempos para a realização dos inventários; redução do número de funcionários nas lojas; redução do tempo de fila no caixa; redução de rupturas e no aumento da eficiência operacional da loja), foram pesquisados diversos estudos de casos mundiais de empresas do segmento de varejo, que implementaram as tecnologias de AIDC e TI, principalmente a de RFID, para saber quais foram os impactos do uso destas tecnologias em suas operações e, em seguida, foi desenvolvido um Estudo de Caso abrangente, por meio do qual se objetivou entender os benefícios empresariais reais do uso destas tecnologias para o varejo de autosserviço. Como resultado final, foi possível identificar as mudanças nos processos operacionais do varejo de autosserviço, bem como os benefícios gerados em termos de custo, produtividade, qualidade, flexibilidade e inovação. O trabalho também evidenciou os pontos críticos de sucesso para a implementação da TI e das AIDC no varejo, que são: a revisão dos processos operacionais; a correta definição do hardware; dos insumos; do software; das interferências do ambiente físico; da disponibilização dos dados/informações dos produtos; das pessoas/funcionários e dos parceiros de negócios/fornecedores. De maneira mais específica, este trabalho buscou contribuir para o enriquecimento do campo de estudos no segmento de varejo e para o uso da tecnologia da informação, no Brasil, já que o assunto sobre o uso e o impacto de novas tecnologias no ponto de vendas, ainda permanece pouco explorado academicamente.
Resumo:
Este trabalho tem por objetivo analisar a possibilidade do uso da técnica de análise por ultra-som como uma alternativa aos ensaios de tração para a avaliação das propriedades mecânicas de barras laminadas de aço baixo carbono. O método prevê a aplicação da técnica como uma opção econômica e ágil em programas de qualidade das características dos aços produzidos. Para o desenvolvimento deste estudo foi escolhido como material de análise o aço ASTM A36 na forma de barras redondas laminadas de 1 polegada de diâmetro. Foram adquiridas amostras de 15 corridas de produção deste aço sendo que as amostras de uma destas corridas foram submetidas a diferentes tratamentos térmicos. Foram realizadas medidas de velocidade sônica e avaliação da atenuação sônica por medidas de ganho com a aplicação de ondas longitudinais e com o uso de dois equipamentos diferentes e transdutores de 4, 5 e 15MHz. Esses resultados foram correlacionados com os dados de limite de escoamento, limite de resistência e alongamento na ruptura. Foi realizado um estudo metalográfico de tamanho de grão e do teor de inclusões, além de análise de composição química das amostras e a relação destes fatores com as propriedades acústicas. Foram comparados também os dados de velocidade e atenuação sônica das amostras apenas laminadas com os resultados obtidos com as amostras tratadas termicamente Como resultado, foi demonstrada a possibilidade do uso da técnica apresentada para estimar as propriedades mecânicas do aço estudado, em especial o limite de resistência, determinando a capacidade do uso do ultra-som para o controle das características mecânicas no processo produtivo deste e também de outros tipos de materiais metálicos.
Resumo:
A presente dissertação discute e analisa como se constitui o processo de escolarização das Tecnologias da Informação e Comunicação (TICs) em turmas de séries iniciais no âmbito da escola pública. Na articulação dos estudos de Michel Foucault e dos Estudos Culturais Pós-estruturalistas, procurei investigar práticas escolares e examinar as relações de poder-saber aí implicadas. Além disso, atentei para aqueles movimentos/ações com a finalidade de fuga, ruptura, que entraram em luta com os mecanismos/estratégias ligados à constituição do processo em questão. Com esse objetivo, para compor o corpus de pesquisa, incursionei no espaço escolar e desenvolvi observações no laboratório de Informática em um período de aproximadamente quatro meses. De acordo com essas observações, produzi um diário de campo. Também realizei entrevistas com direção e vice-direção, professora responsável pelo laboratório de Informática, professoras, alunos e alunas de séries iniciais. Participei de uma reunião de professores e reuni alguns materiais sobre as TICs que me foram disponibilizados pela escola. Explorei tais materiais atentando para as práticas de significação que os tornaram possíveis, valendo-me dos pressupostos da análise de discurso foucaultiana, que aponta para a total inseparabilidade de discurso e prática. Utilizei como ferramentas analíticas os conceitos de prática, relações de poder-saber, linguagem, disciplina. A trama das ferramentas com os materiais possibilitou-me argumentar que a constituição do processo de escolarização das TICs está relacionada a um elemento por mim identificado como tendo tornado esse processo possível, qual seja, a necessária associação das TICs à educação escolarizada e pública. Do mesmo modo, analisei a disciplinarização como um dos processos implicados na constituição da escolarização das TICs. Por meio desse processo, foi possível examinar algumas práticas/estratégias disciplinares, tanto no eixo do corpo quanto no eixo dos saberes, comprometidas em adequar/ajustar as TICs a uma determinada estrutura e organização escolarizadas.
Resumo:
Vídeos são dos principais meios de difusão de conhecimento, informação e entretenimento existentes. Todavia, apesar da boa qualidade e da boa aceitação do público, os vídeos atuais ainda restringem o espectador a um único ponto de vista. Atualmente, alguns estudos estão sendo desenvolvidos visando oferecer ao espectador maior liberdade para decidir de onde ele gostaria de assistir a cena. O tipo de vídeo a ser produzido por essas iniciativas tem sido chamado genericamente de vídeo 3D. Esse trabalho propõe uma arquitetura para captura e exibição de vídeos 3D em tempo real utilizando as informações de cor e profundidade da cena, capturadas para cada pixel de cada quadro do vídeo. A informação de profundidade pode ser obtida utilizando-se câmeras 3D, algoritmos de extração de disparidade a partir de estéreo, ou com auxílio de luz estruturada. A partir da informação de profundidade é possível calcular novos pontos de vista da cena utilizando um algoritmo de warping 3D. Devido a não disponibilidade de câmeras 3D durante a realização deste trabalho, a arquitetura proposta foi validada utilizando um ambiente sintético construído usando técnicas de computação gráfica. Este protótipo também foi utilizado para analisar diversos algoritmos de visão computacional que utilizam imagens estereoscópias para a extração da profundidade de cenas em tempo real. O uso de um ambiente controlado permitiu uma análise bastante criteriosa da qualidade dos mapas de profundidade produzidos por estes algoritmos, nos levando a concluir que eles ainda não são apropriados para uso de aplicações que necessitem da captura de vídeo 3D em tempo real.