979 resultados para Processos de Subjetivação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho tem por objetivo o estudo dos tratamentos termoquímicos comuns na indústria metalúrgica denominados: nitretação, nitrocarburação e carbonitretação com o auxílio da ferramenta conhecida como ‘termodinâmica computacional’. Com o uso de um aplicativo computacional e de um banco de dados compacto procurou-se primeiramente o perfeito entendimento dos processos, por exemplo, através da análise do efeito de variáveis como temperatura, pressão e composição das fases gasosa e condensada. A partir deste entendimento procurouse simular os tratamentos termoquímicos dentro de parâmetros conhecidos da prática industrial e, finalmente, procurou-se sugerir algumas outras atmosferas possíveis de serem aplicadas, que se mostraram apropriadas aos objetivos de tais tratamentos. Durante a simulação, constatou-se que alguns resultados mostraram-se algo diferente dos existentes na literatura, provavelmente por diferenças nos dados termodinâmicos utilizados. Este fato, contudo, não invalida as simulações. Sugere-se apenas, para o futuro, a utilização de bancos de dados ainda mais compatíveis com os resultados obtidos na prática industrial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo dessa pesquisa é o estudo dos processos de formação e desenvolvimento da identidade social no trabalho e a análise crítica da mudança organizacional vivida pelo Bull França, empresa de informática em crise. Tentando reduzir a diversidade cultural através da implantação de um novo sistema de recursos humanos, esta emrpesa enfrentou uma forte resistência organizacional. Tentaremos retirar lições dessa experiência

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Atualmente, a logística é o principal foco das empresas para a redução de custos e aumento do nível dos serviços prestados. Com este intuito o presente trabalho apresenta uma sistemática de análise e identificação de perdas operacionais em processos logísticos. Para isso fez-se necessário identificar técnicas de análise e identificação de perdas, mapeamento e análise de processos logísticos, caracterização das principais atividades dos processos logísticos e análise de perdas apresentadas com os processos logísticos. A sistemática apresentada é composta por seis etapas: levantamento do processo logístico atual, identificação do fluxo de informação, identificação das atividades logísticas críticas, análise das atividades logísticas, proposição de melhorias e avaliação dos resultados. O trabalho aconclui com a aplicação parcial da sistemática de análise e identificação de perdas operacionais em processos logísticos em uma empresa do ramo jornalístico, identificando-se potenciais melhorias a serem implementadas, das quais destaque-se a aproximação do estoque ao ponto de separação e a conferência dos pedidos antes da etapa de embalamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A supressão da produção do méson J/Ψ em colisões de íons pesados tem sido apontada como um sinal da formação de um estado desconfinado da matéria - o Plasma de Quarks e Glúons. Este sinal, por em, não e inequívoco e muitos modelos, que não assumem a formação do plasma, podem descrever igualmente bem os resultados da colaboração NA50, no CERN, que apontou uma supressão anômala, não explicada pela absorção nuclear, nas colisões mais centrais entre íons de chumbo. De modo geral, estes modelos, considerando ou não a formação do plasma, procuram explicar os resultados experimentais através de mecanismos que causam a supressão no estado final da colisão, isto e, mecanismos que agem sobre as partículas produzidas na colisão. Por outro lado, para núcleos pesados e em processos envolvendo altas energias, as distribuições partônicas nucleares são alteradas em relação as distribuições para nucleons livres. Estas alterações ocorrem devido ao fato das dimensões do nucleon serem um limite geométrico para o crescimento das distribuições - seu vínculo de unitariedade - pois o meio nuclear, em altas energias, apresenta uma alta densidade partônica. A existência deste vínculo de unitariedade requer modificações das distribuições partônicas, o que deve ser considerado nos cálculos das seções de choque nucleares. Tais modificações afetam a produção de hádrons no estado final, diminuindo sua taxa de produção. Nesse trabalho, investigamos a inclusão dos efeitos de alta densidade nas distribuições partônicas para o tratamento da supressão de J/Ψ em colisões envolvendo alvos nucleares. Estes efeitos são decorrentes do aumento da distribuição de glúions na região de pequeno x (altas energias). A evolução DGLAP, que considera apenas a emissão de pártons, prevê um crescimento ilimitado da distribuição de glúons nesta região, quebrando assim o vínculo da unitariedade. Por isso, o mecanismo de recombinação partônica passa a contribuir para restaurar a unitariedade. Estes efeitos de recombinação, basicamente, são tratados como os efeitos de alta densidade referidos nesse trabalho, alterando as distribuições partônicas nucleares. Utilizamos processos próton-núcleo para estimar a magnitude destes efeitos, uma vez que estes processos não apresentam um meio nuclear tão denso quanto o proporcionado por colisões núcleo-núcleo. Esta premissa torna os processos próton-núcleo testes mais confiaveis para a investigação dos efeitos de alta densidade. Analisamos em especial a razão entre as taxas de produção do méson J/Ψ e do par de léptons, via processo Drell- Yan, uma vez que este observável e utilizado para apontar a supressão na produção de J/Ψ . Estendemos esta análise para processos núcleo-núcleo, onde novos mecanismos de supressão, entre eles a formação do Plasma de Quarks e Glúons são esperados. Os resultados aqui apresentados mostram que a inclusão dos efeitos de alta densidade introduz uma supressão adicional na produção de J/Ψ , que se torna mais significativa com o aumento da energia do processo. Nossa conclusão e, portanto, que estes efeitos devem ser incorporados na análise deste sinal em experimentos realizados em RHIC e LHC.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O setor do couro é de grande interesse para a economia do País, pois a produção mundial de couros é de 329,75 milhões e a do Brasil é de 35,50 milhões, com uma participação mundial de 10,77%, da qual grande parte é para exportação. O processamento de peles em couro consiste em diversas etapas, com adições seqüenciais de produtos químicos em meio aquoso, intercaladas por lavagens e processos mecânicos. Sabe-se que os mais diversos impactos ambientais são gerados nesta indústria, tornando o presente trabalho importante por analisar quantidades adicionadas de água, pele e insumos químicos, também por avaliar a produção, e respectivas quantidades geradas de couro, de resíduos sólidos, de efluentes líquidos, assim como de suas concentrações. Este trabalho teve por objetivo a caracterização das peles e dos banhos residuais, de ribeira e curtimento, através de análises químicas, para efetuar o balanço de massa destas operações. Para a realização desse balanço, foram definidos critérios para o monitoramento dos processos e foram estabelecidos e/ou adaptados os métodos analíticos adequados para quantificar as correntes de entrada e as concentrações das correntes de saída, através de amostragens de águas residuais e de peles, em cada etapa dos processos de ribeira e de curtimento. Foi feito o balanço global e por componentes em escalas piloto e industrial. Através da caracterização das peles por meio das análises químicas, foi mostrado que o processo piloto é representativo para o processo industrial A pesquisa demonstrou a importância do balanço de massa, pois somente através da análise do aproveitamento e das perdas nas diferentes etapas de transformação da matéria-prima pele em wet-blue, é possível otimizar a relação entre os materiais empregados no processo. Os dados obtidos podem ser utilizados como ferramenta para a implementação da gestão e gerenciamento de melhorias no processo produtivo em curtumes, onde se busca manter a qualidade do produto final e diminuir o impacto ambiental e econômico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Verificação da aplicabilidade de dois dos sete critérios de excelência do PNQ, os critérios Planejamento Estratégico e Resultados, a empresas com processos de gestão desestruturados. Verificação também da correlação entre as avaliações destas empresas baseada nos dois critérios

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata-se da Reengenharia de Processos de Negócios, abordando seu conceito, definição, metodologia de implementação e resultados esperados com tal abordagem. A partir de um caso real em uma divisão da GM nos EUA, identifica-se os pontos críticos que devem ser considerados para se aumentar as chances de sucesso de um projeto de Reengenharia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nó primeiro capítulo, faço com um relato da evolução do controle de qualidade nos últimos 60 anos. Descrevo as diversas escolas de controle de qualidade, suas tendências, bem como a evolução da tecnologia empregada. A partir desta visão panorâmica inicial, descrevo, nos capítulos seguintes, as técnicas modernas de controle de qualidade, com ênfase nas técnicas de engenharia da qualidade e de delineamento de experimentos, muito usadas por Genichi Taguchi. Abordo também as características e necessidades dá qualidade nas indústrias de processos. Mostro as razões pela qual os métodos tradicionais de controle de qualidade nem sempre foram bem sucedidos, quando implementados nas indústrias químicas de modo geral.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Descreve o sistema ABC de custos, tendo como pano de fundo a nova realidade empresarial, e salienta como este sistema de custeio vem ao encontro das atuais necessidades das empresas. Enfatiza a análise das atividades realizada pelo ABC e sua possibilidade de gerar melhoras operacionais. Expõe a seguir algumas das novas ferramentas de reorganização, especificamente a reengenharia e a organização horizontal, que visam realizar modificações a nível de processos, de maneira a contribuir para o alcance de melhores índices de performance. Realiza uma análise de complementaridade entre o ABC e estas metodologias de reorganização, com base em seu enfoque comum em processos. Como conclusão, uma pesquisa exploratória tenta verificar, se na prática, existe relacionamento entre o sistema de custos ABC e as reorganizações com base em processos, em companhias que implantaram este sistema de custeio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo principal o desenvolvimento de uma metodologia de estabilização de processos voltada às empresas de manufatura, utilizando ferramentas de controle da qualidade. A metodologia proposta, chamada de “Estabilização de Processos”, propõe-se a garantir a previsibilidade dos resultados dos processos operacionais através da identificação dos processos críticos, de seus indicadores, de suas metas-padrão e da manutenção do seu resultado numa faixa de domínio que atenda às necessidades dos clientes. O método de trabalho utilizado envolveu as etapas de revisão da literatura existente sobre o assunto, apresenta as etapas do modelo conceitual proposto e as ferramentas de engenharia da qualidade eficientes no cumprimento destas etapas. Por fim, é apresentado e discutido um estudo de caso em uma indústria de pisos e blocos de concreto, que contribuiu para a validação do método proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese analisa os efeitos na aprendizagem, a partir de uma proposta pedagógica que integra uma metodologia de intervenção apoiada por recursos tecnológicos. A proposta pedagógica é implementada em ambiente virtual de aprendizagem e se destina à realização de estudos complementares, para alunos reprovados em disciplinas iniciais de matemática em cursos de graduação. A metodologia de intervenção é inspirada no método clínico de Jean Piaget e visa identificar noções já construídas, propor desafios, possibilitar a exploração dos significados e incentivar a argumentação lógica dos estudantes. O ambiente de interação é constituído por ferramentas tecnológicas capazes de sustentar interações escritas, numéricas, algébricas e geométricas. A Teoria da Equilibração de Piaget possibilita a análise de ações e reflexões dos estudantes diante dos desafios propostos. São identificados desequilíbrios cognitivos e processos de reequilibração advindos das interações com os objetos matemáticos. A transformação de um saber-fazer para um saber-explicar é considerada indicativo de aprendizagem das noções pesquisadas e decorre de um desenvolvimento das estruturas de pensamento. Além da análise de processos de reequilibração cognitiva, analisou-se o aproveitamento dos estudantes, considerando os graus de aprendizagem definidos nos critérios de certificação dos desempenhos. Os resultados indicam que as interações promovidas com a estratégia pedagógica proposta colaboraram para a aprendizagem de noções e conceitos matemáticos envolvidos nas atividades de estudo. A análise do processo de equilibração permite identificar a aprendizagem como decorrência do desenvolvimento de estruturas cognitivas. O movimento das aprendizagens revelou processos progressivos de aquisição de sentido dos objetos matemáticos, com graus que expressaram condutas de regulação. Estas permitiram ultrapassar um fazer instrumental, por aplicação de fórmulas ou regras, e avançar por um fazer reflexivo sobre os significados dos conceitos envolvidos. A pesquisa sugere a implementação da proposta como estratégia pedagógica na proposição de ambientes de aprendizagem para a educação matemática a distância e como apoio ao ambiente presencial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O varejo de livros no Brasil já é marcado pela presença do Comércio Eletrônico, que tem causado grande impacto nos processos de atendimento ao consumidor. Partindo desta idéia, o autor, ao longo do trabalho, analisa as pnncipais características, aspectos e contribuições do CE para estes processos. Para realizar esta análise, o autor fez um estudo de caso em uma empresa atuante no ambiente tradicional, mas também com grande experiência no ambiente virtual. A atuação desta empresa nos dois ambientes e a sua grande experiência no mercado em estudo permitiu uma análise efetiva do impacto do CE nos processos de atendimento ao consumidor. A partir do estudo de caso, e à luz do referencial teórico disponível, o autor alisa a situação do CE no varejo de livros no Brasil, elaborando algumas reflexões sobre a contribuição deste' ambiente para os processos de atendimento ao consumidor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo foi elaborado a partir de um resgate da historiografia sócio-política brasileira; de fatos e questões presentes no imaginário social desta sociedade; sobre raízes culturais e ideológicas pertinentes ao segmento empresarial e à área de Administração como um todo. Isto permite uma melhor compreensão das raízes do processo de industrialização brasileira

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação examina soluções para o controle estatístico em sistemas de produção que utilizam meios contínuos, onde freqüentemente os dados de análise apresentam o fenômeno da autocorrelação. A princípio são abordadas as técnicas de CEP tradicional (gráficos de Shewhart) para meios discretos, mostrando-se que estas técnicas não dão o resultado esperado quando utilizadas em processos contínuos, tanto em relação à amostragem como ao problema da autocorrelação. Em seguida são apresentadas outras soluções baseadas em técnicas mais recentes como EWMA e modelos autorregressivos, que tem uma melhor performance em meios contínuos. Damos os aspectos teóricos e exemplos de aplicação de cada solução obtida por consulta bibliográfica. Finalmente, é feita uma simulação comparativa das soluções citadas, baseandose em programação de macros e uso de software, para verificar o escopo e desempenho das soluções, sendo dadas recomendações sobre o seu uso, bem como sugestões para futuras pesquisas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação teve como objetivo identificar empiricamente a adequação do discurso gerencialista, que prega que as inovações tecnológicas são uma peça chave para a evolução das estruturais organizacionais na direção de uma maior organicidade. A pesquisa foi feita com base na análise comparativa em profundidade de quatro centrais de atendimento, estudando mudanças na estrutura organizacional a partir da introdução de novas tecnologias, e fazendo uso de uma metodologia mista de pesquisa; com uma estratégia de triangulação concorrente (Creswell, 2003). Os resultados do trabalho mostraram que, em geral; a implantação de novas tecnologias em centrais de atendimento tem propiciado um funcionamento mais mecanicista e não mais organicista destas organizações. No entanto, este não foi o único modelo encontrado: em uma das centrais; a nova tecnologia foi utilizada na transformação do trabalho na direção de uma estrutura mais orgânica, mostrando que, não apenas o componente tecnológico, mas também a proposta gerencial no desenho do trabalho e na forma como o aparato tecnológico é utilizado, são importantes para determinar a "evolução" ou "involução" da estrutura organizacional. Pelos resultados encontrados, o discurso evolucionista dominante mostrou-se limitado: a pesquisa apontou para a existência de uma realidade mais complexa, com algumas organizações caminhando no sentido contrário da "evolução" preconizada nesse discurso triunfalista e ufanista, com a permanência e até aprimoramento de modelos organizacionais mecanicistas