44 resultados para Ferramentas virtuais
Resumo:
O objeto de estudo desta dissertação é a aplicação de ferramentas para o controle da qualidade e melhoria do processo de produção de uma etapa construtiva de edificações residenciais. As ferramentas aplicadas são: i) controle estatístico do processo – CEP, e; ii) dispositivos Poka-Yoke. A etapa construtiva mencionada é a elevação da estrutura de concreto armado. O estudo foi motivado pela necessidade de melhorar o sistema de manufatura de uma empresa construtora de Porto Alegre – RS, com vistas a reduzir o tempo de construção de suas edificações (lead-time de produção). Para tanto, a partir de conceitos teóricos do Sistema Toyota de Produção – STP, analisou-se o processo produtivo atual para a referida etapa construtiva, identificaram-se perdas existentes no processo e foram propostas melhorias. As ferramentas de qualidade CEP e Poka-Yoke enquadram-se dentro dessa perspectiva de melhoria. Através da sua aplicação, pretende-se eliminar algumas das perdas existentes no processo de construção melhorando sua produtividade e a qualidade do produto final. A aplicação do CEP tem como objetivo avaliar a capacidade do fornecedor de concreto de atender às exigências dos consumidores, de acordo com o que é estipulado pelas normas brasileiras de fabricação e aceitação de concreto, sem impor-lhes ônus desnecessário. A avaliação é efetuada através do monitoramento da variabilidade da propriedade que melhor caracteriza a qualidade do concreto, qual seja, a sua resistência à compressão axial. Os dispositivos Poka-Yoke, por sua vez, são aplicados com funções de controle da qualidade e prevenção de defeitos e, como ferramentas auxiliares na melhoria de atividades produtivas.
Resumo:
O presente trabalho aborda a questão da criação do conhecimento em equipes virtuais, através de um estudo de caso de caráter descritivo-exploratório realizado em uma empresa do setor de alta tecnologia. Os dados foram coletados por meio de entrevistas presenciais e por e-mail, de mensagens trocadas por e-mail entre os participantes e de observação direta. A análise dos dados remete a duas etapas. A primeira compara a teoria acessada a respeito de equipes virtuais com a prática observada na empresa pesquisada. Além disso, analisa a percepção dos funcionários dessa equipe em relação ao compartilhamento de conhecimento entre eles. A segunda verifica as relações que se estabelecem entre o processo de criação de conhecimento na equipe virtual e o modelo teórico de Nonaka e Takeuchi (1997) adotado neste trabalho. Os resultados apontam para um processo de criação de conhecimento que se dá através de características semelhantes às verificadas em equipes tradicionais de trabalho, porém diversas das do modelo teórico de Nonaka e Takeuchi (1997). Orientam também para uma adequação entre a teoria e a prática quanto à questão de equipes virtuais e para o compartilhamento do conhecimento entre os participantes da equipe.
Resumo:
Neste trabalho procuramos observar uma comunidade virtual no IRC (Internet Relay Chat), o canal #Pelotas. A partir de seu estudo, sob o viés da Grounded Theory, procuramos construir categorias básicas sobre diversos aspectos encontrados na comunidade, tais como questões de identidade, gênero e as próprias relações e convenções sociais. Ao mesmo tempo, procuramos construir um conceito de comunidade virtual que abarque nosso entendimento e os resultados da pesquisa empírica. Deste modo, sob vários aspectos, é possível analisar uma comunidade virtual, e principalmente, o modo sobre o qual ela se estrutura através da Comunicação Mediada por Computador.
Resumo:
Esta dissertação trata de uma investigação, no âmbito da Informática na Educação Especial no que se refere à acessibilidade às tecnologias de informação e comunicação (TIC) utilizadas como apoio educacional por pessoas com necessidades educacionais especiais (PNEEs). Portanto, tem como objetivo estudar o campo da acessibilidade homem-computador e especificamente uma análise de recursos de acessibilidade técnico-pedagógicos para PNEEs e procura responder a seguinte questão desta pesquisa: “Que recursos tecnológicos e pedagógicos necessitam PNEEs para apropriação de ferramentas computacionais, na interação com ambientes digitais/virtuais?” Neste sentido, realizamos uma revisão de literatura da acessibilidade digital, para contextualizar o tema e obter sinalizadores na forma de premissas que fundamentam os pressupostos de acessibilidade tecnológicos e, a partir deste contexto, apresentamos recomendações de acessibilidade à Web, dispositivos de hardware e software que possibilitam o acesso ao computador e ao software convencional. Como aporte pedagógico, utilizamos a teoria sócio-histórica que considera importante para o desenvolvimento humano, a apropriação das experiências presentes na cultura pelos indivíduos, no nosso caso, as TIC. Foi adotada a metodologia qualitativa e para a coleta e análise de dados, optamos pelo estudo de caso através da observação direta, que incluíram como sujeitos de pesquisa pessoas com necessidades especiais distintas.
Resumo:
O presente estudo fornece aos usuários de puncionadeiras, uma metodologia para quantificar o desgaste crítico das ferramentas e proporcionar a determinação do adequado procedimento de afiação, aplicado às particularidades e necessidades de cada condição de uso deste equipamento. A quantificação dos parâmetros de controle da afiação das ferramentas está vinculada ao controle do incremento do arredondamento da aresta de corte, em relação à quantidade de puncionamentos executados. É apresentada uma coletânea de informações publicadas acerca do assunto, com recomendações e resultados de estudos específicos que orientam os usuários destas ferramentas em seus planos particulares de manutenção. Um experimento prático, que pode ser repetido e atualizado facilmente dentro da indústria metalúrgica, auxilia na quantificação e estabelecimento do correto momento da afiação, considerando as condições específicas desta. A metodologia apresentada também pode ser utilizada na avaliação do processo usado, através da análise de ferramentas de fornecedores diferentes ou do uso de materiais e revestimentos diferentes aplicados às ferramentas. A análise econômica, considerando os custos envolvidos no processo de afiação e os custos operacionais envoltos com ferramenta e a troca desta na máquina, é confrontada com os resultados experimentais e com as recomendações publicadas, fornecendo um resultado seguro e confiável para a determinação correta da freqüência de manutenção das ferramentas.
Resumo:
Navegação, seleção e manipulação de objetos em ambientes virtuais são baseadas em métodos (técnicas de interação) associados a dispositivos convencionais ou especiais. Existem várias técnicas e dispositivos à disposição dos que desenvolvem aplicações com tais ambientes, sendo a escolha da técnica mais adequada uma tarefa difícil. Neste trabalho, são apresentadas diversas técnicas de interação existentes, suas metáforas e taxonomias, para realizar tarefas de seleção e manipulação de objetos e navegação do usuário pelo AV. A metodologia adotada nos experimentos realizados, visando a avaliar técnicas de interação em AVs imersivos foi composta por critérios de avaliação de interfaces de IHC (interface humano-computador), com critérios utilizados por Bowman, Mine e Poupyrev em seus experimentos com interfaces 3D. Também são apresentados alguns experimentos realizados, tendo vista avaliarem-se técnicas de interação na realização de tarefas de navegação, seleção e manipulação de objetos em ambientes virtuais imersivos. O objetivo deste trabalho foi a realização de experimentos para avaliar técnicas de interação para operações de seleção, manipulação e navegação em ambientes virtuais. Foram realizadas duas experiências: a primeira é uma avaliação de técnicas de seleção e manipulação em um ambiente semi-imersivo similar a um jogo de xadrez. As técnicas avaliadas são a mão virtual, associada a um mouse comum e a uma luva; e a ray-casting, associada à luva. Observou-se que o desempenho dos sujeitos é superior, quando a técnica utilizada é a mão virtual associada ao mouse comum. A segunda experiência apresenta uma avaliação experimental de dispositivos de RV em tarefas de navegação. Foi criado um ambiente, contendo um edifício com um elevador panorâmico e corredores de entrada e saída. Os testes foram realizados num ambiente imersivo, com capacete e luva, e, também em um ambiente semi-imersivo, com mouse comum e óculos com lentes de cristal líquido. Nesse segundo experimento, a preferência dos usuários pelos equipamentos utilizados foram o capacete e a luva. Observou-se que a existência ou não de objetos familiares no trajeto percorrido pelo usuário, não afeta a quantidade de colisões do sujeito com as mesmas.
Resumo:
Este trabalho trata do suporte à interação simultânea de mais de um usuário, sobre um mesmo objeto, em Ambientes Virtuais Colaborativos. Este suporte é obtido através do conceito de Metáfora Colaborativa e da arquitetura que materializa este conceito. Primeiramente, abordam-se os aspectos referentes às formas de interação usadas em ambientes virtuais imersivos monousuários. São apresentadas algumas técnicas interativas consideradas relevantes ao desenvolvimento do trabalho. No que diz respeito aos Ambientes Virtuais Colaborativos propriamente ditos apresentam-se suas principais características incluindo as semelhanças com os ambientes tradicionais de suporte computadorizado ao trabalho cooperativo. São abordados tanto aspectos referentes às facilidades providas por estes ambientes, quanto ao seu projeto e arquitetura. As principais abordagens existentes para suportar a interação entre usuários em ambientes virtuais colaborativos são apresentadas e é feita uma análise da execução de tarefas colaborativas em ambientes imersivos apontando-se as principais dificuldades existentes nos sistemas atuais. A partir deste embasamento, faz-se o desenvolvimento da chamada Metáfora Colaborativa, que se constitui em um conjunto de regras que permitem combinar técnicas interativas comumente usadas na interação individual em ambientes virtuais imersivos. Esta combinação é baseada na definição de quais graus de liberdade cada usuário irá controlar durante a manipulação simultânea de um objeto. Para possibilitar a combinação das técnicas individuais na implementação de ambientes virtuais colaborativos, foi definida uma arquitetura que prevê sistemas de controle local sobre cada ambiente e a combinação dos comandos aplicados sobre os objetos. Com o objetivo de avaliar a Metáfora Colaborativa, foram modeladas e implementadas diversas técnicas de interação colaborativa e sua eficiência foi aferida através de tarefas. Foi definido um protocolo de testes aplicado a trinta duplas de usuários, comparando seu desempenho individual e colaborativo na execução das tarefas.
Resumo:
Cada vez mais o tempo acaba sendo o diferencial de uma empresa para outra. As empresas, para serem bem sucedidas, precisam da informação certa, no momento certo e para as pessoas certas. Os dados outrora considerados importantes para a sobrevivência das empresas hoje precisam estar em formato de informações para serem utilizados. Essa é a função das ferramentas de “Business Intelligence”, cuja finalidade é modelar os dados para obter informações, de forma que diferencie as ações das empresas e essas consigam ser mais promissoras que as demais. “Business Intelligence” é um processo de coleta, análise e distribuição de dados para melhorar a decisão de negócios, que leva a informação a um número bem maior de usuários dentro da corporação. Existem vários tipos de ferramentas que se propõe a essa finalidade. Esse trabalho tem como objetivo comparar ferramentas através do estudo das técnicas de modelagem dimensional, fundamentais nos projetos de estruturas informacionais, suporte a “Data Warehouses”, “Data Marts”, “Data Mining” e outros, bem como o mercado, suas vantagens e desvantagens e a arquitetura tecnológica utilizada por estes produtos. Assim sendo, foram selecionados os conjuntos de ferramentas de “Business Intelligence” das empresas Microsoft Corporation e Oracle Corporation, visto as suas magnitudes no mundo da informática.
Resumo:
Este trabalho faz avaliação de ferramentas que utilizam técnica de Descoberta de Conhecimento em Texto (agrupamento ou “clustering”). As duas ferramentas são: Eurekha e Umap. O Eurekha é baseado na hipótese de agrupamento, que afirma que documentos similares e relevantes ao mesmo assunto tendem a permanecer em um mesmo grupo. O Umap, por sua vez, é baseado na árvore do conhecimento. A mesma coleção de documentos submetida às ferramentas foi lida por um especialista humano, que agrupou textos similares, a fim de que seus resultados fossem comparados aos das ferramentas. Com isso, pretende-se responder a seguinte questão: a recuperação automática é equivalente à recuperação humana? A coleção de teste é composta por matérias do jornal Folha de São Paulo, cujo tema central é a Amazônia. Com os resultados, pretende-se verificar a validade das ferramentas, os conhecimentos obtidos sobre a região e o tratamento que o jornal dá em relação à mesma.
Resumo:
A crescente necessidade de padronização, eficácia e gerenciamento de processos têm aumentado o interesse das mais diferentes organizações pela tecnologia de workflow. Entretanto, a rápida propagação da tecnologia de workflow, ocorrida na última década, fez com que muitos sistemas desenvolvidos nesta área fossem disponibilizados e difundidos sem uma padronização clara. Analisando-se especificamente a fase de construção do workflow, nota-se que há muitas divergências. Conceitualmente, ainda não há modelos nem metodologias de modelagem amplamente aceitos e consolidados. Quanto às implementações, ainda não existe uma especificação clara e detalhada das ferramentas de definição. A conseqüência deste panorama é a baixa interoperabilidade e a baixa padronização dos conceitos, funcionalidades e interações das ferramentas de definição. Contudo, muitos esforços estão sendo feitos para solucionar o problema da interoperabilidade e padronização. A área de workflow como um todo já começa a apontar fortes tendências de padronização dos conceitos, funcionalidades e interações de seus sistemas. Detectar e avaliar tais tendências são os focos de estudos desta dissertação. Mais precisamente, o objetivo desta dissertação é fornecer informações e métodos que possam ajudar desenvolvedores e usuários de ferramentas de definição a: compreender, descrever e avaliar os conceitos, funcionalidades e interações deste tipo de ferramenta. Para tanto, é mostrado um método de descrição de modelos conceituais de ferramentas de definição. O referido método é resultado de uma pesquisa sobre o modelo conceitual deste tipo de ferramenta. Com base nas informações pesquisadas, foi desenvolvido o modelo conceitual de uma ferramenta de definição chamada de Amaya Workflow (AW). Para mostrar a viabilidade de implementação do modelo conceitual AW e concretizar em um software os estudos desenvolvidos durante esta dissertação, foi implementado o protótipo Amaya Workflow. Por fim, é mostrado um panorama geral das funcionalidades, conceitos e interações das principais ferramentas de definição existentes. Com base neste panorama e nos estudos anteriores, é descrito um método de avaliação de modelos conceituais de ferramentas de definição.
Resumo:
A heparina foi isolada no início do século XX e permanece, até os dias atuais, como um dos mais importantes e eficientes agentes terapêuticos de ação antitrombótica. Sua atividade anticoagulante deve-se à ativação da antitrombina (AT), uma serpina responsável pela inibição fisiológica de serino-proteinases plasmáticas, tais como fIIa e fXa. Os esforços no sentido da elucidação dos aspectos estruturais e dinâmicos associados ao reconhecimento molecular da heparina pela AT, em nível atômico, vêm encontrando diversas dificuldades, principalmente associadas aos compostos sacarídicos. Em decorrência de sua elevada polaridade e flexibilidade, glicosaminoglicanos como a heparina são difíceis de estudar e modelar. Soma-se a isto o fato de que os resíduos de iduronato presentes na heparina (IdoA) apresentam um incomum equilíbrio conformacional entre estados de cadeira (1C4) e bote-torcido (2SO), sendo esta última estrutura postulada como a possível conformação bioativa. Sendo assim, este trabalho apresenta um estudo de modelagem molecular do perfil conformacional da heparina, tanto em solução quanto complexada à AT, utilizando cálculos ab initio e simulações de dinâmica molecular (DM) Em decorrência da ausência de parâmetros capazes de descrever polissacarídeos nos campos de força atualmente disponíveis, cargas atômicas foram geradas, utilizando-se os esquemas de Mulliken, Löwdin e cargas ajustadas ao Potencial Eletrostático, através de cálculos quantum-mecânicos na base 6-31G** e testadas na simulação de DM da heparina. Diversas condições de simulação, tais como modelos de água, concentrações de sais e as conformações 1C4 e 2SO do IdoA, foram avaliadas de forma a identificar as melhores condições para a descrição conformacional da heparina em solução. O protocolo de DM obtido foi então utilizado no estudo do complexo AT-heparina. Os resultados obtidos estão de acordo com os dados experimentais atualmente disponíveis acerca da conformação da heparina e da contribuição energética de cada resíduo de aminoácido da AT para a formação do complexo com a heparina. A partir dos cálculos ab initio realizados, foi proposto um refinamento na estrutura da heparina determinada por RMN, enquanto que as simulações de DM permitiram reinterpretar aspectos da estrutura tridimensional da AT determinada por cristalografia de raios-X. Adicionalmente, os dados obtidos sugerem que não há requerimento conformacional para a interação do IdoA com a AT Globalmente, os dados indicam que simulações de DM podem ser utilizadas para representar adequadamente a conformação da heparina, assim como para caracterizar e quantificar suas interações com a AT. Assim sendo, propomos o uso de simulações de DM do complexo entre a AT e a heparina, ou entre a AT e compostos derivados da heparina, como uma ferramenta útil no processo de desenvolvimento de novos agentes antitrombóticos e anticoagulantes.
Resumo:
Nas indústrias de processo, algumas variáveis como as composições de topo de colunas de destilação são quantificadas através de análises laboratoriais e ou de analisadores em linha. Este tipo de controle apresenta algumas limitações tais como custos de manutenção e o tempo de amostragem (em geral análises laboratoriais ocorrem de 1 a 3 vezes ao dia). Para melhoria destes métodos, as variáveis podem ser continuamente estimadas a partir de sua relação com as variáveis medidas diretamente no processo. Através de um algoritmo matemático, um analisador virtual de propriedades pode ser construído, sendo necessário para o seu desenvolvimento um modelo simplificado do processo. Este trabalho teve como objetivo a construção de dois analisadores virtuais para estimação das composições de topo de duas colunas fracionadoras de tolueno presentes em uma indústria petroquímica. Para tal, estudou-se as metodologias existentes para construção de analisadores voltados para aplicações em colunas de destilação. O desenvolvimento de analisadores virtuais tem como base três etapas: seleção de variáveis secundárias, construção de modelos e correção/adaptação de modelos. Tais etapas, baseadas principalmente em métodos estatísticos, foram estudadas e as técnicas que melhor se adaptaram ao caso em questão foram empregadas com resultados satisfatórios. Realizaram-se também estudos comparativos entre modelos estacionários e dinâmicos e modelos construídos a partir de dados de simulação e de processo. As simulações foram conduzidas nos softwares Aspen PlusÒ e Aspen DynamicsÒ e o software usado para implementação dos analisadores na indústria foi o Aspen IQÒ.
Resumo:
Este trabalho visa avaliar a contribuição do uso de dispositivos visuais no combate às perdas durante o processo de setup, dentro do conceito de troca rápida de ferramentas. O estudo foi realizado em uma metalúrgica, focando o setor de usinagem composto por tornos CNC (Controle Numérico Computadorizado). As melhorias relativas aos dispositivos visuais foram implantadas a fim de organizar o setor de tornos e reduzir o tempo de setup dessas máquinas. O processo de implantação iniciou a partir de um diagnóstico da situação existente quanto à troca de ferramentas, realizado por meio dos seguintes procedimentos: descrição dos processos de produção; levantamento da percepção dos funcionários quanto às melhorias necessárias; percepções da pesquisadora. Com base nesse diagnóstico, foi realizado um estudo para a priorização máquinas onde as melhorias seriam implementadas. Através do registro dos tempos de setup antes e após o período de implantação das melhorias, verificou-se que os tempos aumentaram em três máquinas e reduziram em três. Embora existam diferenças de desempenho entre as máquinas, algumas falhas no processo de implantação ficaram evidentes: falta de aderência aos padrões de setup, visto que os trabalhadores não separavam tempo interno e externo; treinamento insuficiente sobre a TRF e seus benefícios; falta de reuniões periódicas e negligência do estágio estratégico de preparação para a TRF, visto que não foram estabelecidas metas claras de desempenho nem um plano global de implantação.
Resumo:
O crescente grau de exigência dos clientes, o aumento da competição no setor, a mobilização da mão-de-obra em relação a melhores condições de trabalho e as flutuações de mercado têm levado a indústria da construção civil a passar por uma reestruturação em busca de maiores níveis de qualidade e eficiência dos processos. Neste contexto, o presente trabalho têm como objetivo propor diretrizes e ferramentas para o controle das perdas na construção civil, tomando como referencial teórico a chamada Nova Filosofia de Produção. O método de pesquisa dividiu-se em quatro etapas. Inicialmente, foi realizada uma revisão bibliográfica em torno dos temas de gestão de produção e controle das perdas, enfatizando estudos realizados no setor da construção civil. Numa segunda etapa foi realizado um estudo exploratório, inserido no projeto "Alternativas para a Redução do Desperdício de Materiais nos Canteiros de Obras", destacando a análise dos resultados obtidos em dez canteiros de obras na cidade de Porto Alegre. Na terceira etapa, foram realizados estudos de casos em três canteiros de obras, visando o desenvolvimento de ferramentas para o controle de perdas. Na quarta etapa foi realizado um refinamento das referidas ferramentas. Como principal conclusão deste estudo, constatou-se a necessidade de realizar o controle de perdas através de ferramentas que possibilitam transparência ao processo, que sejam de fácil utilização, de baixo custo para a empresa, e que apresentem respostas rápidas para que possam ser implantadas melhorias no processo analisado, no momento em que as mesmas são identificadas.
Resumo:
Neste trabalho é desenvolvida uma metodologia de projeto para identificar as regiões críticas da estrutura de um reboque de linha leve sendo tracionado em pavimentos do tipo rodovia de baixa qualidade e estrada secundária de muito baixa qualidade. Para tanto, são levantados alguns dados experimentais da estrutura, necessários para a aproximação e simulação dinâmica de um modelo simplificado. A excitação da base é realizada por atuadores que simulam as oscilações verticais de um perfil de estrada, a qual é definida de acordo com os estudos realizados por Dodds e Robson (1973). Isto permite a determinação de um histórico de carregamentos das regiões da estrutura do chassi sob a ação das molas da suspensão. Em seguida, é gerado um modelo estrutural simplificado do reboque em elementos finitos, chamado de global, no qual são determinadas as regiões sob ação das maiores tensões. Tendo identificada a região mais crítica da estrutura, é criado um modelo local desta parte, onde se pode observar a distribuição de tensões com mais detalhe, permitindo a identificação dos pontos de concentração de tensões. Desta forma, com a aplicação do método de análise global-local é possível a obtenção de resultados detalhados quanto aos esforços da estrutura com um menor custo computacional.