117 resultados para Armazenamento e Recuperação da Informação
Resumo:
A Tecnologia de Informação (TI) é considerada hoje fator determinante na busca do sucesso empresarial. Entretanto, nem sempre os gestores das organizações têm essa visão como foco estratégico, a fim de, efetivamente, tirarem proveito dos benefícios dessa ferramenta. Supõe-se que especialmente as pequenas empresas, que, por natureza, apresentam fragilidades particulares, apresentam esta característica. Assim, o presente estudo tem como tema central a TI em Pequenas Empresas, objetivando identificar o perfil da TI utilizada em indústrias de pequeno porte da região do Vale do Taquari; verificar com que intensidade um grupo de problemas se manifesta nestas organizações quando adotam novas TI, bem como verificar a ocorrência (ou não) de um conjunto de ações decorrentes, sua intensidade e grau de sucesso. Para tal, utilizou-se o método de pesquisa survey, através de uma pesquisa descritiva de corte transversal. Foram realizadas entrevistas com 36 gestores de TI ou empresários de indústrias de pequeno porte do Vale do Taquari, tendo como base um instrumento originário de uma pesquisa americana (Benamati, Lederer e Singh, 1997), traduzido e adaptado para o contexto brasileiro, testado e validado. Obteve-se como resultado principal o perfil da TI existente nas organizações pesquisadas. Pôde-se concluir que a TI está, de certa forma, ainda incipiente nestas pequenas indústrias, cumprindo, muitas vezes, papel secundário como ferramenta de auxílio na automação de processos internos. Também se verificou que a incidência de problemas decorrentes da adoção de novas TI é pouco percebida nas organizações, sendo manifestado apenas um pequeno número de problemas como relevante, ao passo que diversas ações são tomadas para a resolução dos problemas, normalmente, bem sucedidas.
Resumo:
Este trabalho investiga o impacto da adoção e da implementação de um Sistema Integrado de Gestão em uma empresa do setor elétrico brasileiro, Companhia Estadual de Energia Elétrica – CEEE. Os Sistemas Integrados de Gestão – SIG´s – compõem um novo conceito para a gestão de informação nas organizações. Esses sistemas prometem a integração de todos os fluxos de informações internos e externos a uma organização. A busca da efetiva integração dos negócios levou inúmeras empresas a implementarem os SIG´s. Como a expectativa de resultados é significativa e os investimentos envolvidos são elevados, a avaliação é uma importante etapa da implementação deste tipo de sistema nas empresas. O objetivo do trabalho é avaliar se a implementação do sistema empresarial Synergia trouxe alteração na eficiência operacional da CEEE. O método de avaliação baseou-se em duas dimensões: utilidade e satisfação pelo usuário. Para avaliação da utilidade do sistema, outras três subdimensões foram estabelecidas: a) impacto nos fatores críticos de sucesso da empresa; b) impacto nos processos; c) impacto nos indicadores de desempenho. Com base em um referencial teórico centrado nas características destes sistemas e nos métodos de avaliação que enfatizam as questões mais significativas a serem consideradas na implementação desses projetos, a pesquisa revelou aspectos da implementação e deficiências do software que conduziram ao insucesso do projeto.
Resumo:
Resumo não disponível.
Resumo:
O processo de programação de recursos é parte do planejamento e controle da produção e possui grande importância para o desempenho de empreendimentos de construção. Constitui-se numa atividade multifuncional, envolvendo a direção da empresa e seus departamentos de marketing, finanças, recursos humanos e suprimentos. Sua ineficácia tem sido identificada como responsável por muitos dos problemas relacionados à dilatação do prazo de execução do empreendimento, ao desperdício de recursos e à baixa produtividade da mão-de-obra. Considerando que o desempenho da programação de recursos está fortemente relacionado à quantidade e qualidade das informações que a suportam, o presente trabalho tem como objetivo a proposição de um método de intervenção direcionado ao sistema de informação deste processo. O método proposto divide-se em duas etapas: o diagnóstico inicial do sistema de informações e, posteriormente, o planejamento e implantação de ações de melhoria. O método foi aplicado em estudos de caso realizados em empresas de pequeno porte, nas quais foi implementada a programação formal de recursos, sendo constatada a mudança de atitude dos funcionários frente aos processos de planejamento da produção e programação de recursos.
Resumo:
Apresentar um modelo para simular um sistema de armazenamento de calor no solo em estufas para plasticultura é o objetivo do presente trabalho. O sistema consiste num feixe de tubos enterrados no solo. A convecção forçada de ar no seu interior realiza a troca térmica necessária para manter as estufas sob faixas desejadas de temperatura. O objetivo do modelo é investigar os efeitos no calor armazenado e a influência das variáveis, tais como diâmetro, comprimento, espaçamento entre os tubos e a velocidade de ar no canal provocam no sistema. O solo é tratado como um meio difusivo e avalia-se a contribuição do termo de condensação e evaporação da água contida no ar em escoamento nos tubos. A equação da energia é resolvida para o solo e para o ar. Os tubos de seção transversal circular são modelados como tubos de seção transversal quadrada com o objetivo de que as simulações possam ser processadas em coordenadas cartesianas. O programa resolve situações tridimensionais, transientes e emprega o Método dos Volumes Finitos para integrar as equações diferenciais governantes. O modelo original é baseado no modelo de Gauthier et al., 1997, tendo sido os resultados do mesmo foram usados para a validação do presente estudo. Um circuito de água quente é também projetado e apresentado para o aquecimento das estufas. A água circula através de mangueiras sobre o solo e é aquecida por um sistema de queimadores a gás liqüefeito de petróleo ou óleo combustível, transferindo assim calor para o interior da mesma. O projeto de aquecimento foi realizado através de um programa de parceria entre a Ufrgs, Sebrae, Fapergs e a Agropecuária Clarice.
Resumo:
o ambiente econômico atual tem imposto desafios em atividades como atendimento de pedidos de produção, com lotes e prazos de entrega cada vez menores e garantia de inexistência de erros de qualidade e entrega. Portanto, se faz imperativo um tratamento diferenciado da manutenção dos equipamentos, exigindo o uso de tecnologias que permitam, através da minimização dos tempos envolvidos em reparos, avanços contínuos na direção de "zero-quebra" e "zero-defeito". Embora a busca sempre deva ser de eliminar paradas por quebra, atacando suas causas na raiz, através de ações de melhoramento contínuo das condições das máquinas e instalações, estas ainda persistem. Seja por falta de recursos para a implantação das ações técnicas necessárias ou pela inviabilidade econômica desta implantação, as intervenções corretivas, que em quase sua totalidade estão estruturadas com base na experiência individual dos profissionais da área, continuam sendo requeridas. A empresa fica então na dependência da correta avaliação de profissionais especialistas, os quais são também suscetíveis a erros de diagnóstico, o que coloca em risco a continuidade das operações fabris. Este trabalho revisa o conceito de TPM (Total Productive Management ou Gestão Produtiva Total) aplicado a organizações, processos produtivos e resultados potenciais tangíveis e intangíveis de sua aplicação. A manutenção planejada, um dos pilares do TPM onde são focalizadas as intervenções por quebra-máquina, descreve as divisões de atividades em uma intervenção de conserto. Neste ponto são localizadas as etapas onde o CBR (Case-Based Reasoning) ou Raciocínio Baseado em Casos, pode ser utilizado a fim de minimizar o tempo total da intervenção. Um protótipo de CBR é criado para auxiliar especialistas de manutenção durante o processo de diagnóstico de causas de quebras de máquinas. Este protótipo utiliza CBR como método para armazenamento de casos pregressos de quebras de máquina. A base de casos do CBR fornece ferramentas para recuperação e reutilização destas experiências quando da recorrência da quebra de máquina, auxiliando profissionais da manutenção a executar seu trabalho O pacote de ferramentas CBR Content Navigator, Versão 3.2 desenvolvido pela Inference CorporationTM foi utilizado como: (i) repositório para modelagem e armazenamento do banco de casos, (ii) mecanismo de recuperação (ou busca) de casos na base do sistema e, (iii) ferramentas para apresentar a solução dos problemas de quebra de máquina.
Resumo:
Este estudo tem como tema o impacto da adoção de novas Tecnologias de Informação (TI) nas organizações. O objetivo foi verificar com que intensidade um conjunto de problemas se manifesta quando as organizações adotam novas TI, bem como a intensidade e o sucesso de um conjunto de ações para enfrentar estes problemas. Além disso, buscou-se levantar a situação das organizações em relação à utilização de TI. O método utilizado para se alcançarem os objetivos foi uma pesquisa do tipo survey, realizada de setembro a dezembro de 2000 com grandes empresas da região metropolitana de Porto Alegre. Os dados foram coletados através de entrevistas pessoais com gerentes de TI. Ao final, chegou-se a uma amostra de 91 empresas, de um total de 164 originalmente contatadas, ou seja, atingiu-se 55,5% da população. A partir da análise de dados, obteve-se um diagnóstico da TI utilizada no período pelas grandes empresas da região metropolitana de Porto Alegre. Este diagnóstico foi comparado com os diferentes ramos de atividade das organizações e com as diferentes faixas de orçamento anual de Sistemas de Informação. Em relação aos problemas, fez-se um levantamento dos que ocorreram com maior intensidade, considerando-se as maiores médias. Para as ações (ocorrência e sucesso) fez-se uma análise considerando-se também as maiores médias de intensidade de ocorrência e maiores médias de intensidade de sucesso.
Resumo:
As tecnologias que criaram as ferrovias, a concentração de mercados urbanos, o surgimento da produção em massa, a eletrificação e a introdução do motor de combustão interna compuseram uma longa cadeia de forças responsáveis pelo impacto na reestruturação dos negócios, na economia política como um todo e, naturalmente, na relação do homem com o seu trabalho. A tecnologia da informação (TI) pode ser considerada a mais recente e influente das tecnologias inseridas na sociedade, trazendo consigo uma série de impactos bem como a necessidade de pesquisas para o melhor entendimento desse novo fenômeno. O presente estudo teve como objetivo avaliar a percepção de bancários em relação ao impacto da TI sobre seu trabalho. Para tanto, foi adaptado e validado para o contexto brasileiro um instrumento de pesquisa criado por Torkzadeh e Doll capaz de medir a percepção do usuário em relação ao impacto da TI sobre seu trabalho individual e, para ampliar os estudos sobre o impacto da TI, foi elaborada e validado um instrumento de avaliação do impacto da TI sobre o processo decisório individual. A pesquisa classifica-se como um estudo exploratório descritivo, utilizando o método estatístico no que se refere à obtenção, ao processamento e à validação dos dados. A coleta de dados obedeceu à concepção dos estudos transversais, ao passo que a estratégia para a obtenção dos mesmos baseou-se na realização de 411 entrevistas com funcionários do banco que se encontravam trabalhando, durante o período da pesquisa (dezembro de 2002), na rede de agências ou na sede administrativa de dez capitais brasileiras, selecionadas para esta survey. A presente pesquisa obteve como resultado do instrumento adaptado de Torkzadeh e Doll (1999) uma significante diferença estatística entre as médias das variáveis de análise e confirmou a percepção de que a TI causa impacto em primeiro lugar na produtividade; em segundo, na satisfação dos clientes; em terceiro, no controle gerencial; e, por último, na inovação. O instrumento sobre processo decisório demonstrou uma diferente e maior percepção de impacto da TI sobre a fase denominada concepção e uma semelhante e menor percepção de impacto sobre as demais fases do processo (implementação, inteligência e escolha).
Resumo:
O uso da recuperação de processos para obter sistemas computacionais tolerantes a falhas não é um assunto novo. Entretanto, a discussão de algoritmos para a recuperação em sistemas distribuídos, notadamente aqueles que se enquadram na categoria assíncrona, ainda encontra pontos em aberto. Este é o contexto do presente trabalho. Este trabalho apresenta um novo algoritmo de recuperação por retorno, em sistemas distribuídos. O algoritmo proposto é do tipo coordenado, e seus mecanismos componentes determinam que seja classificado como um algoritmo baseado em índices (index-based coordinated). Desta forma, a tolerância a falhas é obtida através do estabelecimento de linhas de recuperação, o que possibilita um retorno consideravelmente rápido, em caso de falha. Seu desenvolvimento foi feito com o objetivo de minimizar o impacto ao desempenho do sistema, tanto quando este estiver operando livre de falhas como quando ocorrerem as falhas. Além disso, os mecanismos componentes do algoritmo foram escolhidos visando facilitar a futura tarefa de implementação. A satisfação dos objetivos decorre principalmente de uma importante característica assegurada pelos mecanismos propostos no algoritmo: o não bloqueio da aplicação, enquanto é estabelecida uma nova linha de recuperação. Esta característica, associada ao rápido retorno, oferece uma solução promissora, em termos de eficiência, para a recuperação, um vez que o impacto no desempenho tende a ser reduzido, quando o sistema encontra-se operando em ambas condições: livre de erros ou sob falha. Diferentemente da maioria dos algoritmos coordenados encontrados na literatura, o algoritmo proposto neste trabalho trata as mensagens perdidas. A partir da análise das características das aplicações, bem como dos canais de comunicação, quando estes interagem com o algoritmo de recuperação, concluiu-se que os procedimentos usados para recuperação de processos devem prever o tratamento desta categoria de mensagens. Assim, o algoritmo proposto foi incrementado com um mecanismo para tratamento das mensagens que têm o potencial de tornarem-se perdidas, em caso de retorno, ou seja, evita a existência de mensagens perdidas. Uma das decisões tomadas durante o desenvolvimento do algoritmo foi a de permitir um processamento não determinístico. Na realidade, esta escolha visou o aumento do espectro das falhas que poderiam ser tratadas pela recuperação. Tradicionalmente, a recuperação por retorno é empregada para tolerar falhas temporárias. Entretanto, a diversidade de ambiente, freqüente nos SDs, também pode ser usada para tolerar algumas falhas permanentes. Para verificar a correção do algoritmo, decidiu-se empregar um formalismo existente. Assim, a lógica temporal de Lamport (TLA) foi usada na especificação dos mecanismos do algoritmo bem como em sua demonstração de correção. O tratamento referente às mensagens perdidas, atrav´es do uso de mensagens de resposta, associado com o uso de uma lógica temporal, levou à necessidade de rever os critérios de consistência. Esta revisão gerou um conjunto de fórmulas de consistência ajustadas à existência de mensagens de diferentes classes: mensagens da aplicação e mensagens de resposta.
Resumo:
A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.
Resumo:
Sistemas de gerência de workflow estão sendo amplamente utilizados para a modelagem e a execução dos processos de negócios das organizações. Tipicamente, esses sistemas interpretam um workflow e atribuem atividades a participantes, os quais podem utilizar ferramentas e aplicativos para sua realização. Recentemente, XML começou a ser utilizada como linguagem para representação dos processos bem como para a interoperação entre várias máquinas de workflow. Os processos de negócio são, na grande maioria, dinâmicos, podendo ser modi- ficados devido a inúmeros fatores, que vão desde a correção de erros até a adaptação a novas leis externas à organização. Conseqüentemente, os workflows correspondentes devem também evoluir, para se adequar às novas especificações do processo. Algumas propostas para o tratamento deste problema já foram definidas, enfocando principalmente as alterações sobre o fluxo de controle. Entretanto, para workflows representados em XML, ainda não foram definidos mecanismos apropriados para que a evolução possa ser realizada. Este trabalho apresenta uma estratégia para a evolução de esquemas de workflow representados em XML. Esta estratégia é construída a partir do conceito de versionamento, que permite o armazenamento de diversas versões de esquemas e a consulta ao hist´orico de versões e instâncias. As versões são representadas de acordo com uma linguagem que considera os aspectos de evolução. As instâncias, responsáveis pelas execuções particulares das versões, também são adequadamente modeladas. Além disso, é definido um método para a migração de instâncias entre versões de esquema, no caso de uma evolução. A aplicabilidade da estratégia proposta é verificada por meio de um estudo de caso.
Resumo:
A grande quantidade de dados eletrônicos disponível atualmente nem sempre pode ser representada com modelos tradicionais, principalmente devido à ausência de esquema no momento da criação destes dados. Neste sentido, modelos semi-estruturados têm sido propostos; uma das abordagens utilizadas é XML, uma linguagem para troca e representação deste tipo de informação. Entretanto, consultar dados semi-estruturados pode demandar processos de extração com alto custo. Uma das alternativas para solucionar este problema é a definição de visões sobre estes dados, e a posterior materialização destas informações. O uso de visões materializadas para dados XML ainda é pouco explorado. Uma das abordagens que podem ser utilizadas é o uso de sistemas de gerenciamento de bancos de dados relacionais para o armazenamento das visões. Desse modo, informação semanticamente relacionada (informação acerca de um mesmo domínio, possivelmente representada em formatos diferentes) pode ser agrupada em uma única unidade lógica, facilitando o acesso a estes dados por parte do usuário, e introduzindo alguma estrutura nos dados semiestruturados. Dessa maneira, o usuário final submete consultas diretamente sobre a visão materializada, evitando extrações contínuas de dados nas fontes XML. A materialização de dados XML exige a definição de um repositório de dados para o armazenamento destas instâncias. Utilizando-se a abordagem relacional, é necessário definir um mecanismo para a geração do esquema lógico do banco de dados. Consultar os dados nas fontes XML exige a integração destas instâncias. Neste contexto, integrá-las significa identificar quais instâncias de dados representam o mesmo objeto do mundo real, bem como resolver ambigüidades de representação deste objeto. O problema de identificação de entidades em XML é mais complexo que em bases de dados estruturadas. Dados XML, como propostos originalmente, não carregam necessariamente a noção de chave primária ou identificador de objeto. Assim, é necessária a adoção de um mecanismo que faça a identificação das instâncias na integração destes dados. Além disso, à medida que as fontes de dados XML sofrem alterações, a visão materializada deve ser atualizada, a fim de manter-se consistente com as fontes de dados. A manutenção deve propagar as alterações feitas nos dados XML para a visão materializada. Reprocessar todo o conteúdo da visão materializada é, na maioria das vezes, muito caro. Assim, é desejável propagar as mudanças incrementalmente, ou seja, processar apenas as alterações necessárias. Neste sentido, o presente trabalho apresenta uma proposta de técnica para armazenamento de dados XML em um banco de dados relacional. A proposta utiliza ontologias para a geração do esquema lógico do banco de dados. O problema de integração de dados é mostrado. O foco principal do trabalho está na proposta de uma técnica de atribuição de identificadores a instâncias XML, baseada no uso de funções Skolem e no padrão XPath, proposto pelo W3C. Também é proposto um mecanismo para manutenção incremental deste banco, à medida que as fontes XML sofrem atualizações.
Resumo:
A informação é hoje um dos principais recursos nos ambientes de trabalho. A informação compreendida habilita as pessoas e as organizações a atingir seus objetivos e a adquirir conhecimento. Entretanto, pouco se sabe sobre como a informação é utilizada e como os trabalhadores de conhecimento aprendem durante a realização de suas atividades. Entender a natureza do trabalho de conhecimento e torná-lo produtivo é um desafio. Esta pesquisa analisa os modelos conceituais de processo de trabalho de conhecimento encontrados na literatura, que identificam formas de aumentar a produtividade do trabalhador mapeando os estímulos do ambiente externo e observando as atividades realizadas e os resultados produzidos. Entretanto, os modelos dão pouca atenção ao processo cognitivo utilizado pelo trabalhador de conhecimento. Nesta pesquisa, propõe-se a ampliação dos modelos existentes, contemplando a atividade cognitiva no processo e o conhecimento no resultado. A abordagem é baseada na utilização da informação como recurso e como produto. Os objetivos deste trabalho são compreender melhor a forma como é utilizada a informação por trabalhadores de conhecimento e verificar como diferentes níveis de complexidade de informação influenciam o processo de trabalho e os resultados produzidos. Para testar os componentes do modelo proposto, bem como as suas relações, foi realizado um experimento com analistas de investimento que, a partir de um cenário, avaliam uma empresa. Os resultados obtidos revelaram a aderência do modelo conceitual proposto à realidade. Tanto no modelo como na atividade investigada, o processo de trabalho mostrou-se complexo e dinâmico, onde o uso e a produção de informações foi constante. O mapeamento do processo de análise de investimentos identificou o foco do trabalho na capacidade do analista gerenciar as informações e produzir conhecimento. A complexidade das informações foi identificada como um fator de influência sobre o seu uso e sobre o desempenho do analista, mas condicionadas a que essas informações fossem antes interpretadas e percebidas como relevantes.
Resumo:
Analisa os impactos ocorridos pela implantação da intranet em quatro unidades de informação de instituições de ensino superior da Grande Porto Alegre, especificamente a Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS), as Faculdades Integradas Ritter dos Reis, a Universidade Luterana do Brasil (ULBRA) e a Universidade do Vale do Rio dos Sinos (UNISINOS). O referencial teórico engloba aspectos referentes às tecnologias da informação e do conhecimento, à globalização da informação através das redes, especialmente Internet e intranet, e à função das universidades e de suas bibliotecas na nova Sociedade da Informação e do Conhecimento. Utiliza, para o levantamento dos dados, a técnica do estudo de casos múltiplos. A coleta de dados foi feita através de instrumento de pesquisa, dividido em dois módulos e especialmente criado para tal fim. O primeiro instrumento é um questionário respondido pelos quatro bibliotecários responsáveis pelas unidades de informação investigadas, abordando dados técnicos sobre o uso de redes. O segundo é um questionário, complementado por uma entrevista semi-estruturada, aplicados a 40 bibliotecários que trabalham nestas bibliotecas, abordando dados organizacionais e humanos sobre o uso de intranet. Os dados permitem traçar o estado-de-arte do uso da Intranet nas bibliotecas pesquisadas, o perfil bibliotecário, os produtos e serviços disponíveis em rede, o comportamento dos usuários remoto e local. Levanta, também, a percepção dos profissionais quanto a aspectos como o uso de redes e as novas formas de comunicação. Conclui com a explicitação dos impactos causados pela implantação das redes informáticas e das mudanças que se estão produzindo no perfil do profissional bibliotecário. Recomenda o incremento da comunicação on line, o intercâmbio constante com usuários para detectar suas necessidades de informação e de novos produtos e serviços, o estabelecimento de políticas de gestão da informação on line, a edição e publicação de documentos multimídia e a atualização profissional dos bibliotecários pela aprendizagem contínua através de cursos de formação à distância.