64 resultados para Modelos estocasticos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, um problema de transferência de calor da dinâmica de gases rarefeitos, causado pela diferença de temperaturas nas superfícies de um canal, é abordado. O problema é formulado através dos modelos cinéticos BGK, S e Gross-Jackson da equação linearizada de Boltzmann e resolvido, de forma unificada, pelo método analítico de ordenadas discretas (método ADO). Resultados numéricos para as perturbações de densidade e temperatura e também para o fluxo de calor são apresentados e comparados, mostrando que não se pode dizer que algum dos três modelos seja uma melhor aproximação da solução aos resultados da equação linearizada de Boltzmann.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O bom dimensionamento de equipes contribui para o aumento do nível dos serviços prestados pelas empresas, com o menor custo possível. Uma alternativa para abordar a questão foi dimensionar as equipes de eletricistas, de uma empresa do setor elétrico, (utilizando técnicas de previsão de demanda, de simulação e de alocação) para atender de forma otimizada, a demanda variável das atividades prestadas - fornecimento de energia. Um equilíbrio entre a demanda por serviços e a capacidade de execução da empresa evitaria longas filas de espera dos clientes e servidores (eletricistas) ociosos. Cinco etapas forma cumpridas: fase exploratória, coleta de dados, previsão de demanda e simulação do processo e alocação do recurso. Na primeira houve um entendimento de como chegava o pedido do serviço na empresa até a finalização da ordem de serviço. Na coleta de dados foram levantados aproximadamente 80 tipos diferentes de atividades desenvolvidas pelos eletricistas e classificadas de acordo com a prioridade de urgência, prazos de atendimento dos serviços e afinidade de execução das tarefas. Nesta etapa ainda foram coletados os volumes de serviços gerados e tempos médios de deslocamento e execução das atividades. Na terceira etapa foi utilizado um software de previsão de demanda chamado Forecast Pro, possibilitando a escolha automática do modelo de previsão mais apropriado para a série histórica em estudo. Na quarta etapa, foi utilizado um software de simulação de processos chamado Arena. Desenvolveu-se um modelo do processo real com os respectivos dados de entrada dos serviços, tempos de deslocamento e execução e número de equipes. Na última etapa, utilizando a ferramenta Solver do Excel otimizou-se o número de equipes. Um dos resultados da ação foi obter vários cenários com a variação do número de equipes e seus respectivos tempos médios de atendimento, sem causar nenhum dano para a empresa, podendo assim ser analisado qual o melhor cenário para ser implementado na companhia, minimizando o problema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho estuda um tema relativamente recente na literatura econômica conhecido por contágio. Utilizando-se de modelos de mudança de regime markoviana multivariados (MS e MSGARCH) faz-se um estudo do comportamento das correlações ao longo do tempo entre alguns mercados de ações. Vale dizer, as correlações entre mercados de ações latino-americanos (Brasil, Argentina e México) e entre mercados asiáticos (Tailândia, Malásia e Coréia do Sul). O período abrangido pela amostra vai de janeiro de 1994 a início de janeiro de 2002, cobrindo, assim, as crises econômico-financeiras vivenciadas a partir de meados da década de noventa (a crise mexicana, em 1994/95, a crise asiática, em 1997, a crise russa, em 1998, e a crise brasileira, em 1999). A análise do comportamento das correlações ao longo do tempo mostrou que, para os mercados latino-americanos não houve evidência de contágio no período considerado, e sim, interdependência entre eles. Por outro lado, para os mercados de ações asiáticos, constatou-se a ocorrência de contágio entre os mercados tailandês e coreano e entre os mercados malaio e coreano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As atividades dos Institutos de Pesquisa são a Pesquisa, o Desenvolvimento e a Inovação (PD&I), onde as tecnologias, produtos e serviços, constituem-se no produto final a ser disponibilizado à sociedade. No setor florestal, isto é bem marcante nos Institutos de Pesquisa Mistos que, ao contrário dos Institutos Públicos de Pesquisa, tem suas atividades de pesquisa e desenvolvimento direcionadas prioritariamente a solução de problemas imediatos dos sistemas de produção de madeira e o aumento da produtividade dos povoamentos florestais, para o atendimento das empresas associadas. Com o objetivo de identificar as possíveis diferenças nos modelos de geração, difusão e transferência de tecnologia dos IPPs e IPMs e qual o modelo atualmente em uso por esses institutos é que o presente estudo foi idealizado e implementado. Com o apoio de uma survey em uma fase inicial, foi construído um estudo de casos envolvendo os institutos de pesquisas florestais mais demandados pelos clientes/usuários dos IPPs e IPMs e realizada uma análise comparativa entre IPPs e IPMs, atuando na região Sul. A survey foi utilizada para viabilizar conhecer os clientes/usuários dos IPPs e IPMs. Em uma segunda fase, a principal da pesquisa, com a utilização da metodologia de estudo de casos, apoiada nos resultados da survey, foram coletados dados junto aos IPPs e IPMs para o conhecimento do processo de geração, difusão e transferência de tecnologia desses institutos e, dessa forma, conhecer os diferentes modelos de transferência de tecnologia, atualmente em uso pelos IPPs e IPMs. Foram considerados no estudo as questões pertinentes, levando em conta as características percebidas com a inovação, a existência ou não de ações colaborativas para a realização de PD&I, a sustentabilidade ambiental das pesquisas e a influência e ação dos stakeholders e do Sistema Nacional de Inovação neste processo. Os resultados alcançados demonstraram a existência de uma postura mais competitiva que colaborativa, tanto entre os usuários das pesquisas como no relacionamento entre os próprios institutos de pesquisa. Outro resultado interessante foi à identificação, na opinião desses usuários de um grau de satisfação maior em relação aos IPPs que aos IPMs, fato que surpreende pela própria característica da relação entre os IPMs e seus associados. A análise conjunta do Sistema Nacional de Inovação permitiu concluir que, instituição importante desse sistema tem atuado mais de uma forma limitadora que facilitadora das ações dos IPPs e IPMs, principalmente nos aspectos regulatórios e fiscalizadores da atividade florestal, em detrimento de ações estimuladoras em prol do desenvolvimento econômico, social e do agronegócio florestal da região Sul, resultados que também levam a concluir a influência do SNI no direcionamento do modelo de pesquisa desses institutos mais para um modelo mercadológico que tecnológico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em cenários de produção baseados na flexibilidade de catálogo, uma grande variedade de modelos de produtos é demandada pelos consumidores. Essa condição exige uma rápida adequação dos meios produtivos às especificações do próximo modelo a ser produzido. Tal situação, contudo, pode acarretar perdas consideráveis em relação aos níveis de produção e qualidade, em decorrência da pouca habilidade dos trabalhadores nos ciclos iniciais de produção de um novo modelo. Assim, a modelagem do processo de aprendizado de trabalhadores atuando sobre cada modelo de produto pode auxiliar a gerência na alocação de modelos de produtos a equipes de trabalhadores, minimizando as perdas verificadas nos primeiros ciclos de produção. Esta dissertação propõe uma metodologia baseada na utilização de curvas de aprendizado como balizadoras da alocação de modelos de produtos a equipes de trabalhadores. Os diversos modelos de produtos são agrupados em famílias de acordo com suas características similares, permitindo uma redução na coleta de dados. A alocação das famílias às equipes é realizada através da análise das curvas de aprendizado. Duas formas de alocação são apresentadas, de acordo com a duração da corrida de produção. A metodologia proposta é ilustrada através de um estudo de caso em uma indústria do setor calçadista.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A crescente necessidade de padronização, eficácia e gerenciamento de processos têm aumentado o interesse das mais diferentes organizações pela tecnologia de workflow. Entretanto, a rápida propagação da tecnologia de workflow, ocorrida na última década, fez com que muitos sistemas desenvolvidos nesta área fossem disponibilizados e difundidos sem uma padronização clara. Analisando-se especificamente a fase de construção do workflow, nota-se que há muitas divergências. Conceitualmente, ainda não há modelos nem metodologias de modelagem amplamente aceitos e consolidados. Quanto às implementações, ainda não existe uma especificação clara e detalhada das ferramentas de definição. A conseqüência deste panorama é a baixa interoperabilidade e a baixa padronização dos conceitos, funcionalidades e interações das ferramentas de definição. Contudo, muitos esforços estão sendo feitos para solucionar o problema da interoperabilidade e padronização. A área de workflow como um todo já começa a apontar fortes tendências de padronização dos conceitos, funcionalidades e interações de seus sistemas. Detectar e avaliar tais tendências são os focos de estudos desta dissertação. Mais precisamente, o objetivo desta dissertação é fornecer informações e métodos que possam ajudar desenvolvedores e usuários de ferramentas de definição a: compreender, descrever e avaliar os conceitos, funcionalidades e interações deste tipo de ferramenta. Para tanto, é mostrado um método de descrição de modelos conceituais de ferramentas de definição. O referido método é resultado de uma pesquisa sobre o modelo conceitual deste tipo de ferramenta. Com base nas informações pesquisadas, foi desenvolvido o modelo conceitual de uma ferramenta de definição chamada de Amaya Workflow (AW). Para mostrar a viabilidade de implementação do modelo conceitual AW e concretizar em um software os estudos desenvolvidos durante esta dissertação, foi implementado o protótipo Amaya Workflow. Por fim, é mostrado um panorama geral das funcionalidades, conceitos e interações das principais ferramentas de definição existentes. Com base neste panorama e nos estudos anteriores, é descrito um método de avaliação de modelos conceituais de ferramentas de definição.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os mecanismos envolvidos nas atividades toxicológicas e/ou farmacológicas dos compostos orgânicos de selênio são pouco conhecidos. Os compostos orgânicos de selênio (disseleneto de difenila e ebselen) e organotelúrio (ditelureto de difenila) foram alvo dos trabalhos realizados“in vitro”, neste estudo. Os compostos organocalcogênios apresentaram efeitos diversos sobre o influxo de 45Ca2+ medido em sinaptossomas de cérebro de rato, dependendo das condições e agentes despolarizantes usados. Ebselen, (PhSe)2 e (PhTe)2 alteram a captação de 45Ca2+ de maneira distinta quando expostos a aminopiridina ou KCl. Enquanto (PhTe)2 inibe a captação de cálcio em todas as condições experimentadas, (PhSe)2, apresenta este efeito apenas quando incubado em condições basais ou sob a ação de aminopiridina. Ebselen, por sua vez, aumenta a captação de cálcio em altas concentrações em condições basais e sob a ação de aminopiridina, porém, apresenta efeito inverso quando os sinaptossomas são despolarizados por KCl. Ebselen evitou a inibição da captação de 45Ca2+ “in vitro” provocada por cloreto de mercúrio(HgCl) em sinaptossomas de cérebro de rato em condições basais do ensaio, no entanto, ebselen não afetou a inibição da captação de glutamato “in vitro” por HgCl, indicando que ebselen pode atuar dependendo das proteínas-alvo consideradas.Os compostos de mercúrio, MeHg e HgCl, inibiram a captação de glutamato em córtex cerebral de ratos de 17 dias e ebselen reverteu somente o efeito do MeHg porém, não, o do HgCl. Disseleneto de difenila não alterou os parâmetros avaliados na exposição de ambos os compostos de mercúrio.Os compostos de mercúrio estudados provocaram a morte celular das fatias de córtex, porém, ebselen protegeu as fatias dos efeitos lesivos provocados por MeHg e não pelo HgCl.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O projeto de sistemas intrachip (SoCs) é uma atividade de alto grau de complexidade, dados a dimensão de SoCs, na ordem do bilhão de transistores, os requisitos de tempo de desenvolvimento e de consumo de energia, entre outros fatores. A forma de dominar a complexidade de projeto de SoCs inclui dividir a funcionalidade do sistema em módulos de menor complexidade, denominados de núcleos de propriedade intelectual (núcleos IP), interligados por uma infra-estrutura de comunicação. Enquanto núcleos IP podem ser reusados de outros projetos ou adquiridos de terceiros, a infra-estrutura de comunicação deve sempre ser desenvolvida de forma personalizada para cada SoC. O presente trabalho volta-se para o projeto de infraestruturas de comunicação eficientes. Questões importantes neste contexto são a eficiência da comunicação, refletida e.g. em medidas de vazão e latência, a redução de área de silício para implementar a comunicação, e a redução da energia consumida na comunicação. Estas questões dependem da escolha da infra-estrutura de comunicação. Barramentos são as infra-estruturas mais usadas nas comunicações intrachip, mas têm sido consideradas como pouco adequadas para servir a necessidade de comunicação de SoCs futuros. Redes intrachip vêm emergindo como um possível melhor candidato. Nesta infra-estrutura de comunicação, um problema a ser resolvido é o posicionamento relativo de núcleos IP dentro da rede, visando otimizar desempenho e reduzir o consumo de energia, no que se denomina aqui problema de mapeamento. Dada a complexidade deste problema, considera-se fundamental dispor de modelos para capturar as características da infra-estrutura de comunicação, bem como da aplicação que a emprega A principal contribuição deste trabalho é propor e avaliar um conjunto de modelos de computação voltados para a solução do problema de mapeamento de núcleos de propriedade intelectual sobre uma infra-estrutura de comunicação. Três modelos são propostos (CDM, CDCM e ECWM) e comparados, entre si e com três outros disponíveis na literatura (CWM, CTM e ACPM). Embora os modelos sejam genéricos, os estudos de caso restringem-se aqui a infra-estruturas de comunicação do tipo rede intrachip. Dada a diversidade de modelos de mapeamento, propõe-se uma segunda contribuição, o metamodelo Quantidade, Ordem, Dependência (QOD), que relaciona modelos de mapeamento usando os critérios expressos na denominação QOD. Considerando o alto grau de abstração dos modelos empregados, julga-se necessário prover uma conexão com níveis inferiores da hierarquia de projeto. Neste sentido, uma terceira contribuição original do presente trabalho é a proposta de modelos de consumo de energia e tempo de comunicação para redes intrachip. Visando demonstrar a validade de todos os modelos propostos, foram desenvolvidos métodos de uso destes na solução do problema de mapeamento, o que constitui uma quarta contribuição. Estes métodos incluem algoritmos de mapeamento, estimativas de tempo de execução, consumo de energia e caminhos críticos em infra-estruturas de comunicação. Como quinta contribuição, propõe-se o framework CAFES, que integra os métodos desenvolvidos e os modelos de mapeamento em algoritmos computacionais. Uma última contribuição do presente trabalho é um método habilitando a estimativa de consumo de energia para infra-estruturas de comunicação e sua implementação como uma ferramenta computacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As bases moleculares da neuroproteção contra a isquemia mediada por estrógeno continuam obscuras, assim como os mecanismos envolvendo a tolerância ao dano isquêmico subseqüente induzida por pré-condicionamento. Neste trabalho foi estudado se as vias de sinalização celular da PI3-K (fosfatidil inositol 3-quinase) e da MEK/ERK 1/2 estariam envolvidas na neuroproteção induzida por estrógeno, bem como alguns parâmetros de estresse oxidativo, especificamente o conteúdo de radicais livres, um índice de dano oxidativo a proteínas e a capacidade antioxidante total. Também foi estudado o possível envolvimento dos transportadores de glutamato (EAAT1 e EAAT2) e dos receptores de estrógeno (ERα e ERβ) nos efeitos neuroprotetores do estrógeno e do pré-condicionamento. Para este fim, foram utilizados os modelos in vitro de culturas organotípicas de fatias hipocampais e fatias hipocampais preparadas a fresco expostas à privação de oxigênio e glicose (POG) e o modelo in vivo de hipóxia-isquemia neonatal. Em culturas tratadas tanto aguda como cronicamente com 17β-estradiol, a morte celular induzida por POG foi diminuída acentuadamente quando comparada com as culturas tratadas apenas com veículo. Este efeito neuroprotetor foi evitado por LY294002 (inibidor de PI3-K), mas não por PD98059 (inibidor de MEK/ERK 1/2). Ambos os protocolos de tratamento com estradiol induziram a fosforilação/ativação da proteína quinase B (PKB/Akt) e a fosforilação/inativação da glicogênio sintase quinase-3β (GSK-3β). Em um estudo similar, o imunoconteúdo do receptor estrogênico ERα diminuiu após POG em culturas tratadas tanto com estradiol quanto veículo, enquanto que o receptor ERβ aumentou apenas nas culturas tratadas com estradiol expostas ou não à POG. Não foram observadas alterações no imunoconteúdo dos transportadores de glutamato (EAATs) em nenhum dos tratamentos in vitro. Em fatias de hipocampo de cérebro de ratas ovariectomizadas que receberam reposição de estradiol, a morte celular foi reduzida em comparação ao grupo de ratas que não recebeu a reposição hormonal. Neste mesmo modelo, observou-se que a POG aumentou a produção de radicais livres nos dois grupos, porém não foram observadas diferenças na capacidade antioxidante total. Por outro lado, a reposição de estradiol evitou a redução nos conteúdos de triptofano e tirosina causada por POG. No modelo in vivo, o cérebro de ratos neonatos foi protegido contra a hipóxia-isquemia pelo précondicionamento hipóxico. Em paralelo, o pré-condicionamento aumentou o imunoconteúdo dos transportadores de glutamato EAAT2 e do receptor estrogênico ERα em córtex e diminuiu os níveis de EAAT2 em estriado, mas não afetou os níveis de EAAT1 e ERβ. Já no modelo in vitro de pré-condicionamento, nas culturas organotípicas de hipocampo pré-condicionadas, 15 min de POG induziu tolerância acentuada a um período subseqüente de 45 min de POG, porém não foram detectadas alterações nos transportadores de glutamato nem nos receptores estrogênicos. Juntos, os resultados sugerem que na isquemia a neuroproteção induzida por estrógeno pode envolver a via de sinalização celular da fostatidil inositol 3-quinase (PI3-K), a prevenção do dano oxidativo a proteínas e a regulação dos receptores estrogênicos ERα e ERβ, enquanto que a tolerância à isquemia cerebral induzida por pré-condicionamento pode envolver a regulação dos transportadores de glutamato EAAT2 e receptores estrogênicos ERα.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A década de 1990 é caracterizada pela liberalização financeira internacional, e pelo aumento da importância do setor bancário na intermediação destes recursos. Com a ocorrência de diversas crises cambiais e bancárias em economias emergentes nesta década, cresce a necessidade de reformulação das teorias tradicionais sobre crises cambiais, para comportar esta nova realidade. Neste sentido, este trabalho pretende contribuir teoricamente ao sugerir, em linhas gerais, um modelo analítico que relacione a expansão do crédito doméstico à fragilidade bancária e ao papel do Banco Central de emprestador em última instância para os bancos. Empiricamente, é formulado um índice de pressão no mercado cambial, incluindo os componentes tradicionais de variação da taxa de câmbio, das reservas e do diferencial entre as taxas de juros doméstica e internacional, acrescido de um componente novo de variação dos depósitos bancários. Além disso, é estimado um modelo em painel para 13 países emergentes, do primeiro trimestre de 1995 ao quarto trimestre de 2000, o qual procura identificar a influência de algumas variáveis econômicas e políticas na pressão no mercado cambial. Os resultados sugerem que o crédito do Banco Central ao setor bancário, o aumento das exigibilidades de curto prazo em relação às reservas, o contágio de da tensão cambial nos outros países emergentes e o risco político são significativos para explicar o aumento da vulnerabilidade dos países à ocorrência de crises cambiais. Em relação ao déficit público, não foram encontradas evidências de que esta variável seja significativa para explicar a tensão no mercado cambial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o objetivo de realizar consultas em diferentes fontes XML,é necessário que se escreva uma consulta específica para cada fonte XML. Uma solução mais adequada é fazer uma única consulta sobre um esquema conceitual e então traduzi-la automaticamente para consultas XML para cada fonte XML específica. CXPath é uma linguagem de consulta que foi proposta para consultar dados em nıvel conceitual. Este trabalho tem como objetivos formalizar a linguagem existente, estendê-la para permitir consultas que utilizem o conceito de herança e estender o mecanismo de tradução de consultas. A formalização da linguagem é feita por meio de um conjunto de regras que definem formalmente um critério para validar uma consulta escrita nessa linguagem sobre um esquema conceitual. Essa formalização permite estender a linguagem para que ela passe a tratar os relacionamentos de herança e especialização. Outra contribuição dessa formalização é que ela apresenta o primeiro passo rumo à verificação formal de que a avaliação da consulta global traz os mesmos resultados obtidos pela avaliação da consulta resultante do processo de mapeamento de consultas proposto. A extensão do mecanismo de tradução de consultas é necessária para traduzir relacionamentos representados no modelo conceitual para junções nas fontes de dados XML. Tal aspecto é fundamental para permitir a construção de modelos conceituais com relacionamentos semânticos e que não dependam de relacionamentos físicos existentes nos documentos fontes, mas apenas de junções tal como é feito em bases de dados relacionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em sistemas produtivos onde a diversificação da produção é vista como estratégia competitiva, a customização torna-se uma ferramenta importante, pois possibilita a produção de itens diferenciados a custos similares aos de produtos padronizados. No entanto, sua implementação requer certa flexibilidade no processo produtivo, sendo esta adquirida através da adoção de linhas de montagem capazes de alternar diferentes modelos de um mesmo produto, denominadas como linhas de montagem multi-modelos. Neste tipo de sistema produtivo, a distribuição das tarefas de montagem entre as estações de trabalho tende a ser mais complexa, devido às características de cada modelo produzido pela linha. Dessa forma, o estudo do problema de balanceamento de linhas de montagem multi-modelos é necessário ao desejar-se obter uma melhor distribuição da carga de trabalho entre as estações e, conseqüentemente, um aumento de produtividade. Esta dissertação propõe uma sistemática para realização de balanceamento em linha de montagem multi-modelos. Para tanto, são classificados quanto às suas características e aplicabilidade procedimentos de balanceamento de linhas multi-modelos desenvolvidos por diversos autores. Um desses procedimentos, inserido na sistemática proposta, tem sua aplicação ilustrada através de um estudo de caso em uma indústria de manufatura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é o desenvolvimento de uma ferramenta de regressão multivariável apropriada para abordar o problema da modelagem de propriedades relacionadas à qualidade final de produtos em processos industriais. No caso geral, dados provenientes de sistemas físicos e químicos típicos do meio industrial são caracterizados pela presença de relação não linear entre as variáveis, podendo, ainda, apresentar outros problemas que dificultam o processo de modelagem empírica, como baixa disponibilidade de observações experimentais, presença de ruído excessivo nas medidas e a presença de colinearidade entre os termos explicativos. Foi feita uma revisão de diferentes métodos de regressão multivariável tais como regressão linear múltipla (MLR), regressão não linear baseada em transformações das variáveis explicativas e métodos de redução de dimensionalidade (PCA, PLS, QPLS e BTPLS). Também foram propostas novas metodologias para a abordagem das questões da seleção de variáveis e estimação das incertezas dos modelos. Posteriormente, utilizando as metodologias revisadas e propostas, foi sugerida uma sistemática para o tratamento da questão da modelagem empírica de dados industriais, que constitui a base para a implementação da ferramenta desejada. A aplicabilidade da ferramenta desenvolvida foi ilustrada através de alguns estudos de caso retirados da literatura, onde modelos para a predição de propriedades relativas à qualidade de produtos produzidos em quatro tipos de processos industriais diferentes são obtidos.