77 resultados para planejamento de experimentos
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Esta dissertação trata do desenvolvimento e avaliação de uma ferramenta computacional multimeios utilizada no auxílio ao aprendizado de projetos de experimentos básicos. A busca da sociedade por novos produtos e processos, cada vez melhores e de forma mais rápida, determina a necessidade da aplicação de técnicas mais objetivas e eficientes para se alcançar estes desafios. O trabalho de execução visando contemplar o mencionado anteriormente, procedeu-se da seguinte forma: (i) revisão e descrição dos conceitos relativos à Engenharia da Qualidade e ao Planejamento, Projeto e Análise de Experimentos (PPAE); (ii) identificação e descrição de métodos ou regras de planejamento experimental; (iii) investigação e identificação dos projetos e análises de experimentos considerados básicos; (iv) desenvolvimento de uma ferramenta multimeios para o auxílio ao aprendizado de PPAE; (v) avaliação da ferramenta desenvolvida, através de um estudo de caso; (vi) conclusões relacionadas ao trabalho desenvolvido. A abordagem adotada para apresentar a técnica experimental, destacou o planejamento, do projeto e análise, detalhando separadamente os mesmos. Este passo almejou, de forma objetiva, identificar aqueles projetos e análises básicos, iniciais ao aprendizado. A elaboração e posterior avaliação da ferramenta multimeios permitiu perceber a potencialidade da mesma, como um meio instrucional para o tema específico de projetos de experimentos, sendo sua aplicação de relativa facilidade. A avaliação mostrou ainda que existe muito a se avançar nos meios físicos de apresentação/execução deste tipo de ferramenta multimeios.
Resumo:
O presente trabalho tem como objetivo o desenvolvimento de um modelo dinâmico genérico para reatores de polimerização em leito fluidizado com capacidade de predizer produção, condições de operação e propriedades do produto, como o índice de fluidez e densidade. Este modelo genérico é então aplicado ao caso específico da polimerização de eteno em reatores do processo UNIPOL, utilizando catalisador de óxido de cromo. De modo a obter um modelo validado, os parâmetros cinéticos são estimados utilizando experimentos realizados em uma planta piloto UNIPOL. Também é apresentado um modelo simplificado em relação ao modelo proposto inicialmente, cujo objetivo é remover as interações dos parâmetros das malhas de controle com os parâmetros cinéticos a serem estimados, aproveitando medidas de planta não utilizadas pelo outro modelo. Junto com a parte de estimação de parâmetros é apresentada a metodologia da análise de sensibilidade para o planejamento de experimentos e estimação de parâmetros.
Resumo:
A modelagem matemática é uma ferramenta que apresenta diversas vantagens no estudo de processos industriais como, por exemplo, entender e desenvolver tecnologias, avaliar o impacto de variáveis nas propriedades do produto, estudos de redução de custos de produção e de impacto ambiental. O objetivo deste trabalho é desenvolver e validar um modelo matemático para um reator de bancada de polimerização em lama de eteno, enfatizando o desenvolvimento do modelo cinético. O modelo do reator contemplou: 1) modelo de troca térmica; 2) modelo termodinâmico; 3) modelo de transferência de massa gás-líquido e 4)modelo cinético. Para uma melhor predição do modelo foi realizada a estimação de alguns dos seus parâmetros conforme uma metodologia que compreendeu a análise de sensibilidade paramétrica e das variáveis de entrada do modelo e os efeitos de um planejamento de experimentos para a geração dos dados experimentais. A metodologia utilizada mostrou-se eficiente na avaliação do modelo quanto as suas características de predição, ajudando na identificação de possíveis falhas e evidenciando as vantagens de uma adequada metodologia experimental. Uma etapa determinante para o processo de estimação dos parâmetros é a escolha dos dados de saída a utilizar para a estimativa de determinado parâmetro. A modelagem do reator experimental mostrou-se satisfatória em todos os aspectos do processo (troca térmica, cinética, termodinâmica e transferência de massa), pois o modelo prediz com precisão as características encontradas nos experimentos. Assim, este pode ser utilizado para avaliar o mecanismo reacional envolvido de forma a aproximar-se das reais características do processo.
Resumo:
Este trabalho de conclusão tem como tema a relação entre as especificações de resinas alquídicas e de tintas preparadas com estas resinas, com foco nas características de teor de sólidos e viscosidade, fazendo uso das técnicas projeto de experimentos, superfície de resposta e análise de regressão. O objetivo principal é o estudo dos limites de especificação ideais para a resina alquídica, de forma que os lotes de tinta apresentem propriedades dentro da especificação já ao final do processamento, reduzindo a incidência de lotes fabris com necessidade de ajuste. Como conseqüência, temos redução de retrabalho e lead time fabril, adequação de custo de produtos, maior qualidade intrínseca e maior confiança na sistemática de desenvolvimento, produção e controle de qualidade. Inicialmente, foi realizada uma revisão bibliográfica sobre a tecnologia de tintas e resinas alquídicas, conceitos de controle de qualidade, planejamento de experimentos, análise por superfície de resposta e análise de regressão. Na seqüência, foi conduzido o estudo de caso, realizado na empresa Killing S.A. Tintas e Adesivos, planta localizada na cidade de Novo Hamburgo. Os resultados experimentais indicaram modelos de regressão polinomial válidos para as propriedades avaliadas. Foram tomadas as propriedades teor de sólidos e viscosidade Copo Ford #2 da mistura A+B como parâmetros para análise dos limites de especificação da resina alquídica, onde se comprovou que a variabilidade atualmente permitida é excessiva. A aplicação dos modelos de regressão indicou novos limites de especificação para a resina alquídica, mais estreitos, viabilizando a obtenção de tintas com propriedades especificadas.
Resumo:
Neste trabalho, desenvolveram-se modelos matemáticos simplificados para o cálculo de duas variáveis importantes no estudo da extrusão de polímeros: vazão mássica (M&) e pressão na saída da extrusora (Psaída), em função das propriedades dos materiais e das condições de operação do equipamento. Podem-se utilizar esses modelos como ferramentas simples para a definição de critérios de ajustes que se devem fazer em uma extrusora de parafuso único para obter-se o desempenho desejado quando se alimenta o equipamento com um novo material. Para desenvolverem-se os modelos simplificados, utilizaram-se dados experimentais da extrusão de poliestireno (PS) e de polipropileno (PP), bem como resultados preditos por um programa computacional de simulação de extrusão disponível comercialmente. Mediram-se os dados experimentais de vazão mássica e de pressão na saída da extrusora em um equipamento de parafuso único de 45 mm de diâmetro. Realizaram-se esses testes, variando-se a velocidade de rotação do parafuso de 70 a 100 rpm para ambos os polímeros. No primeiro conjunto de simulações, utilizou-se o simulador Flow 2000 (Compuplast Inc.) para ajustarem-se os valores preditos de M& e de Psaída aos dados obtidos experimentalmente através da estimação dos fatores de atrito barril-polímero tanto para o PP quanto para o PS. Posteriormente, realizou-se um planejamento de experimentos, do tipo fatorial fracionado , para obter-se um segundo conjunto de simulações, considerando-se as propriedades dos materiais (reológicas e térmicas) e as condições de operação da extrusora (velocidade de rotação do parafuso e perfil de temperatura nas zonas de aquecimento da extrusora) como fatores de investigação. Com as novas simulações no Flow 2000, ajustaram-se os parâmetros dos modelos simplificados aos valores de vazão mássica e de pressão na saída da extrusora preditos no simulador. Elaboraram-se os modelos simplificados levando-se em conta as interações entre os fatores cujos efeitos consideraram-se significativos nas análises de variância (ANOVA). Obteve-se um modelo linear com 37 termos para o cálculo da vazão mássica e um modelo linear com 41 termos para o cálculo da pressão na saída da extrusora. Posteriormente, aplicou-se uma técnica de regressão multivariável para selecionar apenas os termos importantes dessas 1402IV2− XVI equações, conduzindo a um modelo linear com 10 termos para o cálculo da vazão mássica e a um modelo com 6 termos para o cálculo da pressão na saída da extrusora. Conseguiu-se boa concordância entre os dados experimentais e os valores preditos quando se aplicaram os modelos simplificados.
Resumo:
Os Sistemas de Informação Geográfica vêm sendo cada vez mais utilizados em estudos envolvendo o planejamento e gerenciamento de recursos e meio-ambiente. A agricultura é uma das atividades humanas mais intimamente relacionadas com o meio ambiente. Este trabalho investiga o emprego desses sistemas para integrar diferentes informações relacionadas à produção agrícola e obter respostas que subsidiem o planejamento em regiões agrícolas.A área estudada é uma localidade do município de Não-me-Toque, situado no planalto médio do Rio Grande do Sul, entre as coordenadas 28°21' e 28°34'sul e 53°40' e 53°57'oeste. Os resultados evidenciaram as vantagens dos Sistemas de Informação Geográfica sobre os métodos convencionais de análise, especialmente no que se refere à velocidade, precisão e à associação dos dados de interesse à sua localização geográfica.
Resumo:
Introdução. A endotelina-1, o mais potente vasoconstritor endógeno, atua através de dois receptores de afinidades distintas, conhecidos como ETA e ETB. Os receptores ETA estão localizados predominantemente na musculatura lisa vascular e são os principais mediadores do efeito vasoconstritor da endotelina-1. Diversos estudos demonstraram que a endotelina-1 exerce um papel importante na manutenção do tônus arterial basal. Entretanto, a contribuição da endotelina-1 para o tônus coronariano basal em seres humanos, especialmente em coronárias com lesões ateroscleróticas, permanece alvo de interesse. Objetivos. Os objetivos deste estudo foram avaliar a contribuição da endotelina-1 no tônus coronariano epicárdico e na microcirculação em coronárias livres de lesões obstrutivas e em coronárias com lesões ateroscleróticas e comparar o método da contagem TIMI com o Doppler intracoronário na detecção de alterações do fluxo sangüíneo em resposta à adenosina. Métodos. Um total de 16 pacientes, sendo oito destes no grupo com coronárias livres de lesões obstrutivas e oito pacientes com lesões coronarianas obstrutivas, foram incluídos neste estudo. Todos pacientes receberam a infusão seletiva intracoronária de BQ-123, um inibidor específico dos receptores ETA da endotelina-1, durante 60 minutos. Adenosina e nitroglicerina foram administradas em bolus no tronco da coronária esquerda. O efeito do BQ-123 no diâmetro coronário epicárdico foi avaliado por angiografia quantitativa realizada a cada 15 minutos ao longo da infusão da droga. O efeito na microcirculação coronária foi avaliado por variações no fluxo sangüíneo medido por guia-Doppler e pelo método da contagem TIMI. Resultados. A infusão de BQ-123 resultou em aumento de 7% do diâmetro coronário e de 19% no fluxo sangüíneo volumétrico em pacientes com artérias livres de lesões obstrutivas (P < 0,001 para comparação com basal). O aumento do calibre do vaso ocorreu de forma progressiva e uniforme ao longo do vaso. Os pacientes com lesão aterosclerótica apresentaram um aumento de 16% (P < 0,001 para comparação com artérias livres de lesões obstrutivas) no diâmetro coronário e 28% no local da estenose. A velocidade do fluxo sangüíneo em coronárias livres de lesões obstrutivas não se alterou significativamente tanto na medida por Doppler como pelo método de contagem TIMI. Houve uma correlação de 0,67 (P < 0,05) entre o método da contagem TIMI e o Doppler para detecção de alterações na velocidade do fluxo sangüíneo em resposta à adenosina. Conclusões. A infusão seletiva intracoronária do inibidor específico dos receptores ETA da endotelina-1 em seres humanos pode ser feita de maneira segura. A endotelina-1 exerce um papel importante na manutenção do tônus coronariano basal em artérias livres de lesões obstrutivas, sendo responsável pela quase totalidade do tônus constritor aumentado presente em coronárias com lesões ateroscleróticas. O método da contagem TIMI apresenta uma boa correlação com o Doppler para medida do fluxo sangüíneo em condições de hiperêmia.
Resumo:
O presente estudo, uma investigação de natureza qualitativa, do tipo etnográfica, tematiza o planejamento de ensino dos professores de educação física do 2º e 3º ciclos do ensino fundamental da Rede Municipal de Ensino de Porto Alegre/RS. Trata-se de uma pesquisa realizada em quatro escolas dessa Rede de Ensino, onde procurei compreender os significados atribuídos pelos professores sobre o planejamento de ensino e sua prática educativa cotidiana, tendo como referencial a Proposta Político-Pedagógica implantada pela Secretaria Municipal de Educação de Porto Alegre. O trabalho de campo teve duração de um ano de contato com os professores em seu cotidiano nas escolas, o que possibilitou a construção de categorias de análise que emergiram, principalmente, das entrevistas semi-estruturadas realizadas com quinze professores, dos registros e anotações resultantes das observações contidas nos diários de campo e da revisão de literatura acerca dos aspectos que constituem o problema de pesquisa. Os aspectos suscitados pela análise realizada permitiram compreender a singularidade da concepção de planejamento de ensino frente às demandas do cotidiano nas escolas dessa Rede de Ensino. Desse modo, ao atribuírem significados ao planejamento de ensino, enfatizam, também, as limitações e as possibilidades de construção das suas práticas educativas no cotidiano dessas quatro escolas e de seus contextos singulares.
Resumo:
Esta pesquisa propõe um modelo de planejamento e controle da segurança no trabalho (PCS), o qual pode ser integrado a sistemas existentes de planejamento e controle da produção (PCP). Ambos processos (PCP e PCS) devem atender a quatro requisitos mínimos: hierarquização da tomada de decisão, continuidade, visão sistêmica e participação dos diferentes intervenientes no empreendimento. O modelo foi desenvolvido empiricamente, em três etapas. Inicialmente, por meio de um estudo de caso exploratório, as principais funções do modelo foram identificadas e algumas de suas ferramentas operacionais foram testadas. A seguir, foram conduzidos dois estudos empíricos, utilizando pesquisa-ação, em canteiros de obras industriais. Com base nos resultados destes estudos foi proposta a versão [mal do modelo de PCS, assim como foram estabelecidos requisitos que uma empresa deve atender para implementar o mesmo. Ainda foram identificadas oportunidades de aperfeiçoamento do modelo, a partir de um levantamento de boas práticas de PCS adotadas por um conjunto de sete empresas líderes na área, no Brasil e nos Estados Unidos. O modelo propõe que a segurança seja integrada ao PCP em três níveis hierárquicos deste processo. No nível de longo prazo, o planejamento da segurança é configurado pelo desenvolvimentode análises preliminaresde riscos (APR) dos processos construtivos. A atualização e detalhamento da implantação destes planos é então feita por meio de sua integração aos níveis de médio e curto prazo do PCP. Dois elementos do modelo devem ser enfatizados: o indicador PPS (Percentual de Pacotes de Trabalho Seguros), o qual permite um detalhado e sistemático controle do desempenho em segurança; e o ciclo participativo para identificação e controle de riscos, um método para identificar e controlar riscos com base nas percepções dos trabalhadores.
Resumo:
Resumo não disponível.
Resumo:
Normalmente as pesquisas de questionam quais são os atributos mais importantes de um produto ou serviço. No entanto, os consumidores tendem a considerar todos os atributos importantes, atribuindo avaliações de preferência altas para todos os atributos apresentados. Estas pesquisas não avaliam, da maneira como o consumidor realiza na prática, a priorização dos diferentes atributos. Em pesquisas de Análise Conjunta, os respondentes estabelecem relações de compromisso entre atributos ao escolherem um produto ou serviço, real ou hipotético, composto normalmente por vários atributos. O planejamento de uma pesquisa de Análise Conjunta deve utilizar complementarmente os conceitos de Pesquisa de Marketing, Projeto de Experimentos e Análise de Regressão de modo a tomar mais amigável a tarefa do respondente. Esta dissertação apresenta uma revisão da literatura de Pesquisa de Marketing e de Análise Conjunta e propõe um método de planejamento de pesquisas de Análise Conjunta com Estimulação em Duas Etapas. A es1ruturado método foi baseada em cinco macro-etapas de uma Pesquisa de Marketing que foram subdivididas em etapas específicas de forma a acomodar etapas de um planejamento experimental. A Análise Conjunta com Estimulação em Duas Etapas busca incorporar a perspectiva do respondente ao propor uma estimulação em duas etapas para a coleta de dados. A estimulação proposta é flexível o suficiente para acomodar e propiciar o uso dos diferentes modelos de decisão adotados pelos respondentes. Este procedimento aproxima a tarefa dos respondentes à situação real de compra O método é ilustrado através de um estudo de caso sobre o mestrado profissionalizante oferecido pelo Programa de Pós-Graduação em Engenharia de Produção da Universidade Federal do Rio Grande do Sul. O uso do método permitiu determinar a influência dos atributos importantes, suas importâncias relativas, bem como a existência de interações entre eles. Os atributos influenciam significativamente a preferência dos alunos são o Título Obtido, o Enfoque do Curso, a Entidade, a Disciplina/Ênfase e o Horário. Esta aplicação da Análise Conjunta com Estimulação em Duas Etapas permitiu obter um modelo de preferência, que foi validado por uma amostra de controle, o que consolida o método proposto.
Resumo:
Este trabalho propõe um critério estruturado de elaboração, implementação e operacionalização de um Sistema de Gestão Estratégica definido como Planejamento Balanceado, o qual é resultado do uso de conceitos do Planejamento Estratégico, adaptados a partir das obras de autores como Pagnoncelli e Vasconcellos (1992), Lobato (1997), entre outros e, aliando na seqüência deste, o uso do Balanced Scorecard de Kaplan e Norton (1997) para estabelecer as “Relações de Causa-e-efeito” entre as Estratégias e definir um processo sistemático para implementar e obter feedback sobre as mesmas, contribuindo assim para que a organização fique alinhada e focalizada na implementação e operacionalização das estratégias elaboradas.