978 resultados para Processos de Subjetivação
Resumo:
Nesta dissertação, apresenta-se um estudo de caso, focando-se duas áreas distintas em empresa industrial do ramo automobilístico, situada na região metropolitana de Curitiba, no estado do Paraná e localizada na região sul-brasileira. Neste estudo, buscou-se identificar os fatores dificultadores e os facilitadores presentes na implementação e manutenção do modelo de trabalho por processos com Equipes Autogerenciadas (EAGs), a partir da percepção dos seus membros. Para efeito de ambientação deste tema, na fase exploratória da pesquisa também foram envolvidos os coordenadores e gerentes das áreas da empresa objeto do estudo. A investigação é de natureza qualitativa, valendo-se também do auxílio dos recursos de processamento estatístico de dados. Inicialmente se conduziu uma pesquisa exploratória seguida de uma pesquisa descritiva, esta, estruturada a partir dos dados obtidos na fase exploratória e do referencial teórico utilizado. O estudo teve o tema como unidade de registro, o que possibilitou a comparação dos resultados encontrados, à luz de alguns pressupostos teóricos. Os resultados da pesquisa apontam para a predominância de fatores dificultadores presentes nas áreas pesquisadas e referentes ao modelo de trabalho com EAGs, devendo-se estar atento à expectativa de incremento do empoderamento das mesmas, bem como do devido reconhecimento, por parte da empresa, em relação às responsabilidades e habilidades adicionais adquiridas pelos membros das mesmas EAGs. Sugere-se que o treinamento em habilidades comportamentais, bem como a melhoria do atual sistema de divulgação das informações também sejam revisados e desenvolvidos pela Empresa junto às áreas estudadas.
Resumo:
A preservação e o armazenamento de células e tecidos têm sido utilizados largamente em pesquisa científica e aplicações clínicas. No entanto, há uma aparente contradição entre o conceito de preservaão e as conclusões baseadas em resultados experimentais que materiais biológicos criopreservados podem ser danificados pelo próprio processo de preservação. A compreensão do processo de solidificação de soluções salinas é fundamental para a proposição de novos protocolos de criopreservação. No presente estudo, o congelamento de uma solução de cloreto de sódio a 1% em massa é simulado. As equações de conservação de massa, momentum, energia, e espécies químicas foram discretizadas e resolvidas numericamente utilizando-se o método dos volumes de controle para um domínio bidimensional que contém a parede da bolsa plástica e a solução salina. A perda de água da célula foi calculada a partir da história de temperatura e concentração durante o processo de solidificação e verificou-se que, dependendo da posição inicial da célula na bolsa, a célula tem probabilidades diferentes de sobreviver durante o processo.
Resumo:
Este trabalho visa desenvolver um modelo físico e matemático geral para os processos de extração sólido-líquido em fluxos contracorrente cruzados (CCC) que são utilizados na indústria de alimentos. Levam-se em consideração os processos principais (o transporte de massa entre as fases, difusão e convecção) envolvidos por todo o campo de extração, com uma abordagem bidimensional evolutiva, incluindo as zonas de carregamento, drenagem e as bandejas acumuladoras. O modelo matemático é formado por equações diferenciais parciais que determinam a alteração das concentrações nas fases poro e “bulk” em todo o campo de extração e equações diferenciais ordinárias (que refletem as evoluções das concentrações médias nas bandejas). As condições de contorno estabelecem as ligações entre os fluxos CCC da micela e matéria-prima e consideram, também, a influência das zonas de drenagem e carregamento. O algoritmo de resolução utiliza o método de linhas que transforma as equações diferenciais parciais em equações diferenciais ordinárias, que são resolvidas pelo método de Runge-Kutta. Na etapa de validação do modelo foram estabelecidos os parâmetros da malha e o passo de integração, a verificação do código com a lei de conservação da espécie e um único estado estacionário. Também foram realizadas a comparação com os dados experimentais coletados no extrator real e com o método de estágios ideais, a análise da influência de propriedades da matéria-prima nas características principais do modelo, e estabelecidos os dados iniciais do regime básico (regime de operação) Foram realizadas pesquisas numéricas para determinar: os regimes estacionário e transiente, a variação da constante de equilíbrio entre as fases, a variação do número de seções, a alteração da vazão de matéria-prima nas características de um extrator industrial e, também foram realizadas as simulações comparativas para diferentes tipos de matéria-prima (flocos laminados e flocos expandidos) usados amplamente na indústria. Além dessas pesquisas, o modelo também permite simular diferentes tipos de solventes. O estudo da capacidade de produção do extrator revelou que é necessário ter cuidado com o aumento da vazão da matéria-prima, pois um pequeno aumento desta pode causar grandes perdas de óleo tornando alto o custo da produção. Mesmo que ainda seja necessário abastecer o modelo com mais dados experimentais, principalmente da matéria-prima, os resultados obtidos estão em concordância com os fenômenos físico-químicos envolvidos no processo, com a lei de conservação de espécies químicas e com os resultados experimentais.
Resumo:
Esta dissertação apresenta uma abordagem sistemática para garantir a estabilidade dos resultados dos processos e, assim, o alcance das metas de produção e qualidade. Essa abordagem contempla oito etapas principais: (I) identificação do processo crítico, (iI) tratamento do processo crítico, (iil) padronização operacional, (iv) treinamento operacional, (v) operação conforme o padrão, (VI) tratamento de anomalias, (vil) auditoria de padrão e (viiI) controle estatístico de processo. A metodologia proposta, chamada de "Estabilização de Processo", se propõe a garantir a previsibilidade dos resultados dos processos operacionais de maneira focada, através da identificação dos processos críticos, de seus indicadores, de suas metas-padrão e da manutenção do seu resultado numa faixa de domínio que atenda às necessidades dos clientes. As principais vantagens do método são: (I) um método simples e organizado de atividades corretivas e preventivas, (if) a abordagem estatística, que fornece uma base sólida para a tomada de decisões e (iil) o gerenciamento do processo da rotina com foco no par operador-tarefa. Por fim, é apresentado e discutido um estudo de caso em uma indústria siderúrgica, que contribui para a validação do método proposto.
Resumo:
As cartas de controle estatístico têm sido utilizadas com sucesso no monitoramento do desempenho de processos industriais. Diversas modificações nas cartas tradicionais de Shewhart vêm sendo propostas na literatura. Tais modificações visam adaptar as cartas de controle ao monitoramento de processos com características especiais; entre elas, destacam-se as cartas de controle adaptativas. As cartas são ditas adaptativas quando pelo menos um de seus parâmetros (tamanho de amostra, intervalo de amostragem e coeficiente dos limites de controle) pode variar durante o monitoramento do processo. A determinação dos valores dos parâmetros das cartas de controle pode considerar aspectos estatísticos, econômicos ou uma combinação de ambos. Os modelos estatístico-econômicos consideram, além de indicadores de desempenho estatístico, os custos associados ao controle. A implementação de cartas adaptativas baseadas neste tipo de modelo, devido a sua complexidade, é melhor conduzida por meio de uma metodologia de planejamento. Neste trabalho, após uma revisão da literatura sobre cartas tradicionais e adaptativas, incluindo o projeto econômico das mesmas, propõe-se uma metodologia para o planejamento da implementação de cartas adaptativas de controle para monitorar processos onde cartas de controle tradicionais estão sendo utilizadas A metodologia é composta de cinco passos gerais, detalhados na dissertação, e foi elaborada a partir de um estudo de caso em uma indústria do setor automotivo, no qual se utilizou um modelo estatístico-econômico. No estudo de caso, o significado e a forma de determinação dos parâmetros do modelo econômico são detalhados. Os resultados do estudo de caso são comparados quanto aos custos operacionais para as cartas adaptativas e tradicionais de controle de processo. Os resultados obtidos indicaram ser preferível o uso de cartas adaptativas ao uso de cartas tradicionais para monitorar o processo estudado, principalmente no caso de pequenas variações na média da característica de qualidade monitorada. Embora de natureza genérica, a metodologia proposta pode ser facilmente adaptada para contemplar diferentes aplicações industriais.
Resumo:
Esta dissertação de mestrado trata do tema Total Productive Maintenance (TPM) ou Manutenção Produtiva Total (MPT). O principal objetivo é avaliar sua contribuição no gerenciamento das atividades de manutenção industrial e como uma ferramenta da engenharia de processos para otimização dos processos de manufatura. A avaliação foi realizada com base em estudo de caso onde o TPM foi implementado em uma empresa do ramo eletro - eletrônico localizada na cidade de Caxias do Sul - RS. O plano de implementação foi elaborado baseado em revisão bibliográfica, a qual considerou o pensamento de autores nacionais e internacionais bem como a adequação do TPM levando em consideração a cultura e a realidade do sistema produtivo da empresa. A parte prática do programa envolveu a aplicação dos conceitos e filosofias fundamentais do TPM no sistema produtivo da empresa. Os principais resultados mensuráveis obtidos com a implementação, foram: (1) a elevação do Índice de Rendimento Operacional Global (IROG) de 0,552 para 0,634, observado nas máquinas consideradas restrição do sistema produtivo do setor (gargalos), (2) a redução nas quebras de máquinas em aproximadamente 45 %, (3) a criação de um ambiente que incentiva a participação dos funcionários com sugestões de melhorias, atingindo 3,2 sugestões de melhorias por funcionário por ano e, (4) reduções de 12,6 % de energia elétrica, 40 % no consumo de água e 797 litros de óleo lubrificante por ano. Entre os beneficios não mensuráveis destacam-se a criação de um ambiente de trabalho limpo, organizado e seguro, a formação de operadores multifuncionais e a eliminação de atmosfera de confronto que existia entre a operação e a manutenção. O estudo de caso também mostrou que o comprometimento da alta direção é fator fundamental para o sucesso do TPM.
Resumo:
Construção de software com qualidade tem motivado diversas pesquisas na área de Engenharia de Software. Problemas como a grande complexidade requerida pelas aplicações atuais e a necessidade de gerenciamento de um número cada vez maior de pessoas envolvidas em projetos são obstáculos para serem transpostos. Trabalhos relacionados a tecnologia de processos de software aparecem como uma proposta para se obter maior controle das atividades realizadas com o intuito de se obter maior qualidade. A simulação de processos de software, através da representação dos passos definidos em um modelo, tem sido utilizada no auxílio a gerentes de projetos de sistemas para fornecer-lhes informações preciosas sobre o desenvolvimento de um sistema especificado. A representação de conhecimento a respeito das características relacionadas a um ambiente de desenvolvimento ajuda na obtenção de simulações mais realísticas. A partir do modelo, o simulador obtém uma descrição do ambiente em que deve atuar, baseado no conhecimento que se tem a respeito do ambiente. Esse trabalho apresenta um modelo de simulação de processos de software baseado em conhecimento para ser inserido em um ambiente de engenharia de processos de software. A função do modelo é simular um processo de software instanciado, procurando detectar inconsistências no mesmo que possam gerar problemas durante a sua execução, como aumento de custos e comprometimento da qualidade do(s) produto(s) obtido(s). Após a simulação o projetista pode constatar a necessidade de se refazer o modelo, ajustar parâmetros ou executar o processo de software. O objetivo da simulação, nesse trabalho, é auxiliar as pessoas responsáveis por um ambiente de desenvolvimento a obter modelos de processos validados. O modelo de simulação foi definido para ser utilizado no ambiente PROSOFT, que é um ambiente de desenvolvimento que permite a integração de novas ferramentas para desenvolvimento de software. O ambiente PROSOFT vem recebendo propostas de extensão que tem contribuído para o seu aprimoramento, fornecendo para seus usuários uma quantidade cada vez maior de ferramentas de auxílio a construção de artefatos de software. As propostas mais recentes foram um modelo para construção de sistemas especialistas, a definição de um ambiente cooperativo e um gerenciador de processos de software. ATOs algébricos (construções do PROSOFT) são utilizados para especificar formalmente o modelo de simulação definido neste trabalho. A validação é realizada através de um modelo em UML (Unified Method Language) que foi utilizado como base para a construção de um programa implementado usando a linguagem Java. Isso ocorre porque a ferramenta do PROSOFT (implementada em Java) que seria utilizada para validar as especificações algébricas ainda não está finalizada.
Resumo:
Para competir em nível internacional, as empresas brasileiras precisam atingir padrões de excelência em qualidade. Uma forma de atingir esses padrões é utilizando ferramentas de controle de qualidade que asseguremprocessos estáveis e capazes. A presente dissertação tem como objetivo principal o desenvolvimento de uma metodologia de estabilização de processos voltada às empresas de manufatura utilizando ferramentas de controle de qualidade. Sua importância está em apresentar uma metodologia que auxilie as empresas na obtenção de melhorias significativas em qualidade e produtividade. O método de trabalho utilizado envolveu as etapas de revisão da literatura, acompanhamento e análise da implantação de uma metodologia de estabilização de processos em uma empresa siderúrgica e, finalmente, proposta e discussão de uma nova metodologia de estabilização de processos.
Resumo:
Neste trabalho analisamos processos estocásticos com decaimento polinomial (também chamado hiperbólico) da função de autocorrelação. Nosso estudo tem enfoque nas classes dos Processos ARFIMA e dos Processos obtidos à partir de iterações da transformação de Manneville-Pomeau. Os objetivos principais são comparar diversos métodos de estimação para o parâmetro fracionário do processo ARFIMA, nas situações de estacionariedade e não estacionariedade e, além disso, obter resultados similares para o parâmetro do processo de Manneville-Pomeau. Entre os diversos métodos de estimação para os parâmetros destes dois processos destacamos aquele baseado na teoria de wavelets por ser aquele que teve o melhor desempenho.
Resumo:
Esta dissertação versa sobre índices de avaliação de processo nas suas abordagens univariada e multivariada. Analisa-se a utilização da Análise de Componentes Principais (ACP) como ferramenta no desenvolvimento de índices capazes de avaliar processos multivariados. O trabalho apresenta uma revisão teórica sobre os índices univariados de aplicação mais comum na indústria (CP/PP , CPK/PPK , CPM/PPM e CPMK/PPMK), o índice multivariado MCpm e sobre os índices MCP , MCPK , MCPM e MCPMK , associados a ACP. Os índices de avaliação de processo são analisados quanto à sua adequação ao uso, através de um estudo de caso na indústria de componentes automotivos. Para tanto, examina-se o processo de fabricação de um componente do freio de veículos médios e pesados, denominado spider, em que doze variáveis de processo são controladas por meio de controle estatístico de processo. Através do estudo de caso, faz-se uma comparação entre os resultados dos índices univariados e multivariados; pressupõe-se que através da Análise de Componentes Principais poder-se-á concluir sobre a capacidade e o desempenho de processos multivariados. Por fim, a partir da análise univariada dos componentes principais, apresenta-se uma técnica complementar para quantificar a contribuição das variáveis controladas à variabilidade de processos multivariados.
Resumo:
Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.
Resumo:
A produção de soja é uma das principais atividades econômicas na Região Noroeste do Estado do Rio Grande do Sul. As perdas de produto em condições de comercialização ocasionadas nas atividades de secagem e armazenamento são significativas, justificando a pesquisa e aprimoramento destes processos. Nesta tese foram pesquisados dois problemas: 1. Modelamento matemático dos processos de secagem, utilizando parâmetros conhecidos de soja e 2. Modelamento matemático do problema de aeração para o cálculo da distribuição da pressão e da velocidade do ar na massa de grãos em unidades de armazenamento de soja. No problema de secagem foi desenvolvido um sistema composto de quatro equações diferenciais parciais hiperbólicas acopladas não-lineares, que descreve o comportamento da temperatura e do teor de umidade do ar e dos grãos em função do tempo. Para resolver o sistema foram utilizados os métodos das diferenças finitas (p. ex., métodos de MacCormack e Crank- Nicolson.) e o método dos volumes finitos. A análise dos resultados permitiu recomendar o método mais adequado para cada tipo do problema. Para determinação da intensidade do fluxo de massa e de calor foram utilizados os dados experimentais de camada fina obtidos da literatura e complementados com dados experimentais desta tese. Foi desenvolvido um equipamento para obtenção das curvas de secagem de grãos em secador de leito fixo, a fim de identificar o modelo para secagem em camada espessa. A comparação entre os resultados experimentais e das simulações numéricas mostrou que o modelo descreve razoavelmente a dinâmica de secagem No problema de aeração foi desenvolvido um modelo matemático que descreve o escoamento do ar em sistemas de armazenamento de grãos, baseado em relações experimentais entre velocidade e gradiente de pressão. Para resolver o problema de aeração foi utilizado o método dos elementos finitos e desenvolvido um programa computacional. Um teste realizado com o programa mostrou que os resultados da solução numérica convergem para uma solução analítica conhecida. As simulações realizadas mostraram que o programa computacional pode ser usado como instrumento auxiliar para o projeto de silos, possibilitando o cálculo e a visualização gráfica da distribuição das pressões e das linhas de corrente em diferentes seções do armazém.
Resumo:
Este trabalho investiga os processos composicionais utilizados na composição das peças Polyakanthos, para flauta/flauta piccolo, clarinete/clarinete baixo, percussão, piano, violino e violoncelo; A grande ilusão do carnaval, para cinco vozes, fagote, dois teclados eletrônicos e contrabaixo elétrico; K'uei, peça eletroacústica; e Pampa Guarany, para fagote e orquestra de cordas. A estética das peças é baseada em dualismo complementar, fazendo com que posições contrárias coexistam numa associação interdependente, nas diversas etapas do processo composicional. Os processos composicionais enfocados são o ímpeto de criação, que no contexto deste trabalho é a primeira concretização da idéia composicional; a utilização de materiais preexistentes, definidos como configurações de sons e silêncios extraídos de obras de outros compositores; o projeto da estrutura formal, contendo as intenções expressivas em comparação com o resultado final de cada peça, verificando causas e conseqüências dos ajustes feitos durante o processo composicional; definição dos materiais de alturas e ritmos, derivados dos materiais preexistentes ou criados, nos quais foram aplicadas as técnicas de transformações de Arnold Schoenberg, León Biriotti e Charles Wuorinen; e o uso de peças-solo como cantus firmus para a criação de estruturas polifônicas nos movimentos de Polyakanthos.
Resumo:
Um dos problemas teóricos mais importantes da Física de Partículas de Altas Energias é a investigação de efeitos de alta densidade na Cromodinâmica Quântica (QCD), que é a teoria que descreve as interações fortes. Tais efeitos são importantes pois determinam os observáveis em colisõesde altas energias. Em processos hadrônicos de energia suficientemente alta, espera-se a formação de sistemas densos o suficiente para que efeitos não lineares de QCD passem a ser significativos na descrição e na unitarização da seção de choque. Na descrição de processos de espalhamento de altas energias, evidências experimentais indicam que os hádrons são constituídos por partículas puntuais, as quais chamamos de pártons. Os pártons carregam uma fração x do momentum total do hádron, e são de dois tipos, quarks e glúons. Na interação entre as partículas ocorre a troca de momentum, definida como Q2. A descrição perturbativa padrão para a evolução dinâmica das distribuições de quarks q(x, Q2) e glúons g(x, Q2), pode ser dada pelas equações de evolução DGLAP, e tem obtido sucesso na descrição dos resultados experimentais para as presentes energias. Na evolução DGLAP, são considerados apenas processos de emissão, como a emissão de um glúon por um quark, o decaimento de um glúon em um par de quarks ou em um par de glúons Estes processos de emissão tendem a aumentar a densidade de pártons na região de pequeno momentum, levando a um crescimento ilimitado das distribuições partônicas para x -+ O. Assim, é esperado que o crescimento da densidade de pártons leve a interação e recombinação destas partículas, dando origem a termos não lineares nas equações de evolução. O resultado seria um processo de saturação das distribuições de pártons na região de alta energia e pequena fração de momentum. Os efeitos que dão origem à redução do crescimento das distribuições de quarks e glúons em relação a evolução linear são chamados genericamente de efeitos de sombreamento. Um dos aspectos fenomenológicosinteressantes a ser investigado no regime cinemático abordado acima é o processo Drell-Yan de alta energia, o qual consiste em processos de espalhamento pp, pA e AA com a produção de pares de léptons. Com o advento dos novos aceleradores, novos resultados experimentais estarão disponíveis na literatura relacionados com este processo. Em nosso trabalho investigamos os efeitos das correções de unitariedade em processos pp, bem como os efeitos devido a presença do meio nuclear em colisõespA e AA, nas distribuições de quarks e glúons, para a descrição da seção de choque diferencial para o processo Drell-Yan em colisõespp, pA e AA, para energias existentes nos novos aceleradores RHIC (Relativistic Heavy Ion Collider) e LHC (Large Ion Collider). Os efeitos de alta densidade são baseados no formalismo de Glauber-Mueller. Os resultados aqui apresentados mostram que os efeitos de alta densidade nas distribuições partônicas são importantes para altas energias, pois a descrição da seção de choque para o processo Drell-Yan, quando os efeitos de alta densidade são considerados, apresenta significativas diferenças da descrição onde não considera-se tais efeitos.
Resumo:
Esta dissertação aborda os processos de significação em estados ampliados de consciência desde de uma perspectiva transdisciplinar holística em um estudo de caso com crianças de uma escola pública de Porto Alegre, no Rio Grande do Sul. O trabalho tem como referência teórica principal a psicologia transpessoal e as experiências em estados ampliados de consciência que possibilitam a vivência transpessoal. Considera o ser humano como multidimensional cuja consciência se expressa através de quatro funções: pensamento, sentimento, sensação e intuição. Para a ampliação da consciência foram utilizados métodos reconhecidos pela psicologia transpessoal, no caso, a meditação, o relaxamento, a visualização dirigida e o desenho de mandalas. As mandalas foram a linguagem escolhida para a expressão das significações produzidas durante os estados ampliados de consciência. O método fenomenológico utilizado permitiu revelar que símbolos do inconsciente coletivo emergem para a consciência durante vivências em estados ampliados de consciência. A partir da interpretação reiteramos o entendimento de que existe dentro de cada ser humano uma fonte de sabedoria que está para além dos limites da personalidade, o que corresponde às pesquisas de outros exploradores da consciência humana (Wilber, Grof, Weil). Concluímos o trabalho apresentando o Projeto da Educação da Consciência, o qual se constitui numa proposta de educação da consciência humana em sua multidimensionalidade para a plena manifestação do ser.