89 resultados para análise de processos
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Atualmente, a logística é o principal foco das empresas para a redução de custos e aumento do nível dos serviços prestados. Com este intuito o presente trabalho apresenta uma sistemática de análise e identificação de perdas operacionais em processos logísticos. Para isso fez-se necessário identificar técnicas de análise e identificação de perdas, mapeamento e análise de processos logísticos, caracterização das principais atividades dos processos logísticos e análise de perdas apresentadas com os processos logísticos. A sistemática apresentada é composta por seis etapas: levantamento do processo logístico atual, identificação do fluxo de informação, identificação das atividades logísticas críticas, análise das atividades logísticas, proposição de melhorias e avaliação dos resultados. O trabalho aconclui com a aplicação parcial da sistemática de análise e identificação de perdas operacionais em processos logísticos em uma empresa do ramo jornalístico, identificando-se potenciais melhorias a serem implementadas, das quais destaque-se a aproximação do estoque ao ponto de separação e a conferência dos pedidos antes da etapa de embalamento.
Resumo:
Este trabalho oferece um estudo dos padrões estilísticos definidos através da análise dos processos contrapontísticos encontrados no terceiro movimento da Sonata nº I, Fuga e Toccata e do movimento final de Duas peças Sérias da obra para piano de Bruno Kiefer. A fuga, uma das técnicas de composição linear mais estabelecidas na escrita musical, reflete as transformações estilísticas na música ocidental. Considerando a diversidade de possibilidades estéticas na música do século XX, faz-se mister investigar como Kiefer tratou uma técnica composicional consagrada, preservando de modo singular e consistente o estilo inovador atribuído às suas obras. O referencial teórico adotado para este estudo é Twentieth Century Fugue – A Handbook (1962) de William Graves, Jr.. A partir da análise dos padrões recorrentes nas fugas de Bruno Kiefer, verificou-se o distanciamento entre os parâmetros da fuga tradicional e o estilo da escrita contrapontística do compositor.
Supressão de J/[psi] em processos próton-núcleo e núcleo-núcleo devido aos efeitos de alta densidade
Resumo:
A supressão da produção do méson J/Ψ em colisões de íons pesados tem sido apontada como um sinal da formação de um estado desconfinado da matéria - o Plasma de Quarks e Glúons. Este sinal, por em, não e inequívoco e muitos modelos, que não assumem a formação do plasma, podem descrever igualmente bem os resultados da colaboração NA50, no CERN, que apontou uma supressão anômala, não explicada pela absorção nuclear, nas colisões mais centrais entre íons de chumbo. De modo geral, estes modelos, considerando ou não a formação do plasma, procuram explicar os resultados experimentais através de mecanismos que causam a supressão no estado final da colisão, isto e, mecanismos que agem sobre as partículas produzidas na colisão. Por outro lado, para núcleos pesados e em processos envolvendo altas energias, as distribuições partônicas nucleares são alteradas em relação as distribuições para nucleons livres. Estas alterações ocorrem devido ao fato das dimensões do nucleon serem um limite geométrico para o crescimento das distribuições - seu vínculo de unitariedade - pois o meio nuclear, em altas energias, apresenta uma alta densidade partônica. A existência deste vínculo de unitariedade requer modificações das distribuições partônicas, o que deve ser considerado nos cálculos das seções de choque nucleares. Tais modificações afetam a produção de hádrons no estado final, diminuindo sua taxa de produção. Nesse trabalho, investigamos a inclusão dos efeitos de alta densidade nas distribuições partônicas para o tratamento da supressão de J/Ψ em colisões envolvendo alvos nucleares. Estes efeitos são decorrentes do aumento da distribuição de glúions na região de pequeno x (altas energias). A evolução DGLAP, que considera apenas a emissão de pártons, prevê um crescimento ilimitado da distribuição de glúons nesta região, quebrando assim o vínculo da unitariedade. Por isso, o mecanismo de recombinação partônica passa a contribuir para restaurar a unitariedade. Estes efeitos de recombinação, basicamente, são tratados como os efeitos de alta densidade referidos nesse trabalho, alterando as distribuições partônicas nucleares. Utilizamos processos próton-núcleo para estimar a magnitude destes efeitos, uma vez que estes processos não apresentam um meio nuclear tão denso quanto o proporcionado por colisões núcleo-núcleo. Esta premissa torna os processos próton-núcleo testes mais confiaveis para a investigação dos efeitos de alta densidade. Analisamos em especial a razão entre as taxas de produção do méson J/Ψ e do par de léptons, via processo Drell- Yan, uma vez que este observável e utilizado para apontar a supressão na produção de J/Ψ . Estendemos esta análise para processos núcleo-núcleo, onde novos mecanismos de supressão, entre eles a formação do Plasma de Quarks e Glúons são esperados. Os resultados aqui apresentados mostram que a inclusão dos efeitos de alta densidade introduz uma supressão adicional na produção de J/Ψ , que se torna mais significativa com o aumento da energia do processo. Nossa conclusão e, portanto, que estes efeitos devem ser incorporados na análise deste sinal em experimentos realizados em RHIC e LHC.
Resumo:
Esta tese analisa os efeitos na aprendizagem, a partir de uma proposta pedagógica que integra uma metodologia de intervenção apoiada por recursos tecnológicos. A proposta pedagógica é implementada em ambiente virtual de aprendizagem e se destina à realização de estudos complementares, para alunos reprovados em disciplinas iniciais de matemática em cursos de graduação. A metodologia de intervenção é inspirada no método clínico de Jean Piaget e visa identificar noções já construídas, propor desafios, possibilitar a exploração dos significados e incentivar a argumentação lógica dos estudantes. O ambiente de interação é constituído por ferramentas tecnológicas capazes de sustentar interações escritas, numéricas, algébricas e geométricas. A Teoria da Equilibração de Piaget possibilita a análise de ações e reflexões dos estudantes diante dos desafios propostos. São identificados desequilíbrios cognitivos e processos de reequilibração advindos das interações com os objetos matemáticos. A transformação de um saber-fazer para um saber-explicar é considerada indicativo de aprendizagem das noções pesquisadas e decorre de um desenvolvimento das estruturas de pensamento. Além da análise de processos de reequilibração cognitiva, analisou-se o aproveitamento dos estudantes, considerando os graus de aprendizagem definidos nos critérios de certificação dos desempenhos. Os resultados indicam que as interações promovidas com a estratégia pedagógica proposta colaboraram para a aprendizagem de noções e conceitos matemáticos envolvidos nas atividades de estudo. A análise do processo de equilibração permite identificar a aprendizagem como decorrência do desenvolvimento de estruturas cognitivas. O movimento das aprendizagens revelou processos progressivos de aquisição de sentido dos objetos matemáticos, com graus que expressaram condutas de regulação. Estas permitiram ultrapassar um fazer instrumental, por aplicação de fórmulas ou regras, e avançar por um fazer reflexivo sobre os significados dos conceitos envolvidos. A pesquisa sugere a implementação da proposta como estratégia pedagógica na proposição de ambientes de aprendizagem para a educação matemática a distância e como apoio ao ambiente presencial.
Resumo:
Este estudo constitui-se em uma análise de processos de recepção teatral que se propõe a mapear e discutir acerca das diversas mediações que interpolaram o espaço de criação e de co-autoria entre a linguagem teatral e um grupo de crianças espectadoras, podendo ser localizado na intersecção entre três campos distintos: os Estudos Culturais, a Educação e o Teatro. O foco central é refletir acerca das experiências infantis com o teatro na contemporaneidade. Logo, traço relações e constituo a investigação a partir de um triângulo composto por três vértices: o teatro infantil (como produção cultural), as crianças (enquanto sujeitos-atores-personagens desta história) e a escola (como cenário e comunidade de apropriação e interpretação do teatro pelas crianças). O referencial teórico, bem como as análises efetuadas a partir dos dados construídos junto a um grupo de 18 crianças espectadoras, parte da teoria das mediações de Jesús Martín-Barbero, da proposta das múltiplas mediações de Guillermo Orozco Gómez e do conceito de experiência desenvolvido por Larrosa, entre tantos outros autores que inspiraram este estudo. Na construção do material empírico analisado, vali-me de uma estratégia multimetodológica, na qual as crianças e eu, através de jogos teatrais, narrativas orais, entrevistas, produção gráfica e observação participante, construímos os dados. A modo de conclusão, posso inferir que a escola é uma das mediações mais recorrentes e ativas que atravessam e compõem a relação das crianças com a linguagem teatral. O contato com a mídia, com as tecnologias digitais, com produtos e artefatos audiovisuais e espetaculares diversos também são mediações de relevância (repertório anterior), bem como as mediações referenciais (gênero, sexualidade, etnia e grupos de idade), a família e muitas outras que puderam ser observadas, como a presença de rupturas com leituras (ditas) preferenciais, a fuga do onírico e a presença do escatológico em algumas narrativas infantis. Todas estas mediações sugerem às crianças determinado (re)conhecimento de algumas características e especificidades do teatro, assim como expectativas em relação ao contato com a linguagem teatral. As análises empreendidas demonstram que as múltiplas mediações atravessam e constituem, portanto, as experiências infantis nos processos de recepção, contribuindo para a formação de suas – híbridas – identidades de crianças espectadoras na contemporaneidade.
Resumo:
Este trabalho descreve os processos de composição das peças: Seis Movimentos para Quinteto de Metais; As Canções do Livro do Tempo, para voz e Violão, com poemas de Carlos Nejar; Cavalo Ferido, em cinco movimentos para órgão solo; e Maja Nua, para orquestra. A estética de cada peça é oriunda de atitudes composicionais especulativas e distintas. No decorrer do texto estabelece-se uma distinção entre procedimentos técnicos que geram resultantes estéticas e a projeção estética que impulsiona as tomadas de decisões composicionais. Os processos de composição enfocados são particulares de cada peça, envolvendo rigidez estrutural e composição intuitiva. A estruturação do ritmo e outros parâmetros utilizando matrizes numéricas foram os fundamentos técnicos que orientaram a composição dos Seis Movimentos para Quinteto de Metais; As Canções do Livro do Tempo e Cavalo Ferido foram compostas por processos mais intuitivos; e, Maja Nua, que considero a composição mais importante deste portfólio, já no planejamento inicial busquei, a justaposição de momentos rigidamente estruturados a momentos compostos intuitivamente.
Resumo:
O elevado grau de competição imposto pelo mercado tem gerado nas empresas uma maciça movimentação em busca de melhorias contínuas e radicais nos processos de produção. Desta forma, a busca e identificação de oportunidades de melhoria constitui-se em importante mecanismo de aumento do desempenho e potencial competitivo. No entanto, a sistematização deste procedimento/abordagem esbarra na complexidade das ferramentas conhecidas e atualmente disponíveis para aplicação rotineira na análise dos processos produtivos. Uma análise ou diagnóstico consistente exige, muitas vezes, a aplicação de diversas ferramentas, tornando o processo de identificação de oportunidades e implementação de melhorias exageradamente complexo e moroso. Este estudo identificou a real necessidade de desenvolvimento de uma abordagem eficaz e ao mesmo tempo mais simples de mapeamento das oportunidades de melhoria, propondo uma metodologia de análise de sistemas de produção baseada na utilização conjugada de duas clássicas ferramentas de diagnóstico: o mapeamento da cadeia de valor e o mecanismo da função produção. O estudo parte de uma revisão bibliográfica onde são abordados os principais conceitos concernentes ao processo de diagnóstico e melhoria de sistemas de produção, base para o desenvolvimento da metodologia proposta. O método é, a seguir, testado em um estudo de caso realizado junto a uma empresa fabricante de cores para pintura automotiva.
Resumo:
Atualmente o mercado tem impelido seus competidores a oferecerem produtos de qualidade mais elevada com preços progressivamente menores. Esta conjuntura esta gerando bens mais semelhantes e fazendo com que as empresas busquem a criação de valor para seus produtos através de serviços ou outros atributos que possam ser agregados a estes sem aumentar seus custos. A logística encontra-se entre os processos mais atingidos por este fenômeno já que, a exigência de maior eficiência em suas operações é constante, porém eventuais aumentos de custos são prontamente recusados. Dentro deste contexto, este trabalho descreve a aplicação do sistema de custeio ABC na área de logística da Empresa “Z”, do setor de couros e peles do estado do Rio Grande do Sul. O principal objetivo deste trabalho é modelar os custos desta empresa utilizando o sistema de custeio ABC e para tanto utiliza os dados de custos existentes, elabora uma análise de processos da área de logística e propõe um modelo de sistema ABC a ser utilizado. Por fim, traça comparações entre os resultados do sistema atual e aqueles alcançados pelo sistema proposto. Pela pertinência das conclusões, o modelo proposto apresenta boa aderência ao processo logístico da empresa “Z”, evidenciando algumas distorções de apropriações de custos constatadas no sistema atual.
Resumo:
O processo produtivo das organizações hospitalares necessita acompanhar as exigências estabelecidas pelos novos paradigmas da sociedade. Frente a esse desafio e considerando a complexidade dessas organizações, torna-se fundamental o uso de sistemas de informações que consigam reduzir o nível de incerteza dos processos decisórios. Este trabalho tem como objetivo aperfeiçoar a função de controle da gestão hospitalar, através da aplicação do método de custeio baseado em atividades, ou ABC (Activity-Based Costing), que busca melhor compreender o processo produtivo, para avaliar e custear, dando subsídios para a melhoria da eficiência econômica. Foram acompanhados pacientes internados com câncer de esôfago da especialidade de Cirurgia Geral de um hospital universitário. O desenvolvimento contou com a análise dos processos, identificação dos recursos envolvidos, direcionadores primários e secundários, que permitiram a apuração do custo por paciente e a análise de valor agregado (AVA). Do processo de internação, o estudo identificou 9 subprocessos (Admissão, Anamnese e Exame Físico, Prescrição pré-cirúrgica, Prescrição pós-cirúrgica, Diagnóstico, Reavaliação médica, Operação Cirúrgica, Prescrição de alta e Suporte ao 18 leito). Para cada subprocesso, avaliaram-se quais recursos da estrutura do hospital foram empregados, de forma a quantificar a participação de cada um nos respectivos subprocessos, através dos direcionadores primários. Definidos os recursos e sua participação, a fase seguinte foi verificar em que medida os recursos foram empregados pelas atividades durante o atendimento ao paciente. A partir da análise de processos, as atividades foram identificadas, sendo estabelecido um indicador que mensurasse o uso da atividade pelo paciente, os direcionadores secundários. Os resultados indicam que o ABC oferece níveis de detalhamento do processo de prestação de serviço hospitalar mais elevados do que nos sistemas tradicionais de custos e consegue perceber melhor o uso dos recursos durante o atendimento, em conseqüência, auferindo o custo de cada paciente com maior precisão. Além disso, permite a análise de valor agregado de todo o processo produtivo, auxiliando a organização a atingir os objetivos e permitindo enfrentar em melhores condições as alterações no ambiente interno e externo. Na medicina é dito que cada paciente é um caso, porque, ainda que a ciência tenha avançado muito nos últimos anos, as características pessoais e as reações a cada ação médica encontram uma variabilidade muito grande. No ABC, cada paciente passa a ser um objeto de custo, que absorverá os recursos necessários à conduta a ser seguida, permitindo melhor avaliar e controlar o desempenho do processo produtivo e auxiliando no processo decisório.
Resumo:
O presente estudo investiga como os gerentes de supermercados no Norte do Estado do Rio Grande do Sul usam as informações de mercado para apoiar suas decisões de marketing. Os dados foram coletados a partir de entrevistas pessoais através de um questionário aplicado em uma amostra de quarenta gerentes correspondendo a 71,4% da população estudada. Este estudo oferece uma estrutura de variáveis que contribuem para a análise dos processos de coleta, utilização e difusão das informações de mercado. Verifica também a percepção do decisor quanto à importância das informações de mercado e ao uso dos instrumentos para sua coleta. Geralmente, os gerentes coletam e utilizam muitas informações com o objetivo de apoiar suas decisões diárias. Os resultados revelam que eles coletam com bastante freqüência informações a partir de fontes externas, tais como comentários informais, conversas informais, jornais, revistas especializadas, telejornais e consumidores. E, ainda, utilizam bancos de dados internos e funcionários como as principais fontes internas de informação. Todavia, muitas fontes relevantes não são utilizadas, caracterizando um processo em que os gerentes coletam poucas informações de mercado e, quando o fazem, tendem a utilizar fontes informais de acesso. A utilização das informações é um dos processos de maior atenção dos gerentes, seja do uso interno ou externo. As informações externas mais utilizadas referem-se aos concorrentes e aos setores econômico, político, tecnológico e sociocultural. Por outro lado, percebe-se a baixa utilização de informações dos consumidores, revelando uma posição despreocupante em relação às tendências de customização de clientes. Por sua vez, as informações internas possuem uma elevada freqüência de uso, uma vez que são de fácil acesso e disponibilidade. Um aspecto evidenciado é que os gerentes utilizam muita informação conceitual e muito pouca informação instrumental, o que revela um elevado uso indireto das mesmas em ações relacionadas à estratégia e, em contrapartida, muito poucas são utilizadas diretamente para decisões de maior escopo. Os gerentes disseminam muito pouco as informações de mercado, tanto interna quanto externamente, embora suas percepções quanto à importância e necessidade dessas informações sejam elevadas. Evidencia-se, portanto, que os gerentes usam informações de maneira empírica, dispersa e assistemática, sem instrumentos formais de coleta, fundamentadas em relações informais, pessoais e impessoais.
Resumo:
O aumento da competitividade negocial gerou o desenvolvimento de novos métodos de gerenciamento de custos. As novas tecnologias de produção e a maior diversidade de produtos e clientes que requerem novos canais de distribuição estão direcionando as empresas a estarem mais envolvidas no aprimoramento dos seus sistema de custeio. O tradicional sistema de contabilidade gerencial está sendo reconhecido como deficiente para tomada de decisões. A alocação convencional dos custos de overhead podem gerar distorções nos custos finais. Por conseqüência, o ABC (Custeio Baseado em Atividades) surgiu como um método de custeio que melhor aloca os custos fixos indiretos, podendo contribuir para a melhoria operacional e a gestão estratégica. O ABC revela a causa dos custos, considerando a integração interfuncional dos processos e a relação causal dos direcionadores de custos com os custos das atividades e recursos. Este trabalho de pesquisa apresenta a aplicação do ABC em uma empresa transportadora rodoviária de cargas; propõe o custeio baseado em atividades como uma alternativa para identificação dos clientes mais rentáveis. O método de pesquisa adotado nesta dissertação foi a pesquisa-ação. Dentre os resultados obtidos, destaca-se a obtenção do custo unitário de coleta e de entrega de cargas, além da análise dos processos.
Resumo:
O problema deste estudo envolve o impasse na busca de alternativas para cidades, que surgem com o crescimento de vilas, em torno de rodovias, aproveitando o fluxo diário destas estradas para a implantação de seus comércios. A vila vira cidade, fica dividida em duas partes, para onde vai crescendo a urbanização. Cria-se, então, a necessidade de expansão do fluxo de veículos e de cuidado com a população, submetida diariamente ao risco de acidentes. Esta dissertação é o estudo de caso do município de Bom Princípio, que têm hoje a RS-122 passando no meio da cidade, ocasionando uma série de transtornos, como acidentes, poluição, divisão sociocultural, entre outros problemas. Neste caso específico, o impasse foi criado pelo surgimento de duas alternativas para permitir o fluxo crescente de veículos: a duplicação do trecho da RS-122 ou a construção de um contorno ao município. A questão central é a discussão dos impactos socioeconômicos ambientais destas duas alternativas. Para iniciar a construção desta dissertação, nos primeiros momentos, busquei uma teoria que abordasse um tema bastante complexo como este. Parti, então, de uma Teoria Geral do Espaço e segui aspectos específicos, não só a partir da Geografia, mas também de outras ciências. Para definir o que é espaço, trabalhei com Milton Santos. Já Roberto Lobato Corrêa foi importante no trabalho de dissecação deste espaço. Este autor mostrou quem são os agentes que constroem o espaço urbano. Com a leitura de Flávio Villaça, obtive informações sobre como determinado espaço adquire o valor. Na verdade, a partir desta base teórica, fui trazendo outros autores para complementar a sustentação. A coleta foi realizada, através de análise dos processos protocolados no DAER; análise do posicionamento dos vereadores, em documentos oficiais; depoimento, por escrito, de técnicos científicos em assuntos rodoviários; reunião com o chefe do executivo; e entrevistas qualitativas com a comunidade. Atualmente, a rodovia em questão interfere na integração da população da cidade, pois atua como um divisor físico, dificultando as relações sociais e comerciais. Após a análise de tudo o que já havíamos pesquisado, e pelas características físicas, socioeconômicas e culturais de Bom Princípio, chegamos à conclusão que o contorno à cidade é a alternativa mais segura para a população.
Resumo:
Este estudo avalia, mediante a análise dos processos da formação da cultura de um espaço social – a cidade de Santa Maria, RS – enquanto centro ferroviário, a importância da abordagem teórica do imaginário social no desenvolvimento de aspectos teóricos e conceituais da produção do espaço. Essa avaliação se desenvolve por meio da busca da inteligibilidade das manifestações das representações culturais que consubstanciam o imaginário social como um conjunto de sistemas simbólicos de idéias e imagens de representação coletiva. Tal procedimento possibilitou, além da identificação de correlações entre políticas de Estado e a produção do espaço social de Santa Maria, relativizar, no campo teórico da produção do espaço urbano, a relevância do imaginário social.
Resumo:
O presente trabalho está inserido num contexto de estudos relativos à caracterização e otimização de esquadrias residenciais em madeira. A contextualização dos estudos considera: o meio ambiente, com suas variáveis climáticas e locais; a constituição física e tecnológica de materiais, sistemas e componentes da esquadria; o perfil de desempenho técnico, funcional e utilitário, propiciado pela esquadria; e os processos técnicos de projeto, produção e instalação. Os instrumentos metodológicos aplicados no presente estudo são: entrevistas, levantamento dimensional, representação gráfica e observações para análise de processos de projeto, produção e instalação. O resultado principal está na análise comparativa e reformulação do projeto das esquadrias de um protótipo de habitação sustentável edificado no Campus da Universidade Federal do Rio Grande do Sul - UFRGS, em Porto Alegre. Como resultados complementares citam-se: o mapeamento das características físicas e mecânicas de madeiras, passíveis de serem empregadas na produção de esquadrias, e um estudo de informações que deveriam constar nas especificações técnicas e representações gráficas dos projetos de esquadrias residenciais em madeira.
Resumo:
A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.