826 resultados para Estoque : Otimização
Resumo:
Neste trabalho, foi realizado um estudo de óleos refrigerantes emulsionados utilizados em máquinas de usinagem da indústria metal-mecânica, com o objetivo de minimizar os gastos com reposição de óleo e o volume de resíduos contaminados pelo mesmo. Foram constatados três problemas principais na utilização do óleo refrigerante emulsionado em estudo: a presença de bactérias degradantes do óleo, a reposição da emulsão de maneira indevida e o arraste de óleo pelos cavacos e limalhas provenientes da própria usinagem. Como solução para estes três problemas principais, foi projetado um equipamento de controle e automação. Este protótipo é composto por três partes essenciais: tratamento bacteriológico prévio da água usada para emulsão do óleo, passagem da água de reposição através dos cavacos e limalhas e controle da concentração do óleo na emulsão. O protótipo foi instalado em um máquina de usinagem da Empresa AGCO do Brasil, sede Canoas e os resultados obtidos foram surpreendentes quanto às grandes possibilidades de minimização dos gastos com óleo refrigerante e do volume de resíduos contaminados por óleos.
Resumo:
Este estudo teve por objetivo estimar, pelo modelo CENTURY, a alteração no estoque de carbono orgânico (CO) de solos do Planalto do Rio Grande do Sul durante o período de expansão da agricultura e o potencial de recuperação do estoque de CO através de diferentes sistemas de manejo. Foram utilizados solos de cinco Unidades de Mapeamento (UM), sob vegetação original de campo e floresta: LATOSSOLO VERMELHO Distófico típico (UM Cruz Alta e Passo Fundo), LATOSSOLO VERMELHO Distroférrico típico (UM Santo Ângelo e Erechim) LATOSSOLO BRUNO Alumínico câmbico e (UM Vacaria). Avaliou-se a expansão da agricultura nas UM, a variação no conteúdo de CO dos solos por decomposição microbiana e erosão e a emissão ou seqüestro de CO2 em cenários de manejo com diferentes adições de C, métodos de preparo do solo e perdas de solo por erosão. Durante o período de expansão da agricultura (1900-1980), o uso de sistemas de cultura com baixa adição de C, pousio, queima de resíduos e preparo convencional do solo, ocasionou reduções estimadas de 31 a 45% no estoque original de CO dos solos. Com a melhoria nos eventos de manejo a partir de 1981, houve a recuperação parcial no estoque de CO. Considerando o balanço de CO e CO2 para a região em estudo (52506 km2), o cenário de manejo 1 (PC trigo/soja com queima) apresentou perda total estimada de 159517,0x103 Mg de CO e emissão de 299562,10x103 Mg de CO2 à atmosfera. Nos demais cenários, foram estimados incrementos de CO em relação ao cenário 1, atingindo, em 2050, valores correspondentes a 68,5% (cenário 2 - PR trigo/soja sem queima), 92,7% (cenário 3 - PD trigo/soja, aveia/soja, aveia/milho) e 98,1% (cenário 4 - PD trigo/soja, aveia/milho) do estoque original de CO. Devido a alta adição anual de C (6,0 Mg ha-1) e uso do plantio direto, o cenário 4 apresentou seqüestro líquido de 52173,32x103 Mg de CO2.
Resumo:
Esta dissertação de mestrado tem por objetivo apresentar uma metodologia para planejamento e análise de experimentos com formulações, em um contexto de múltiplas variáveis de resposta, para aplicação em indústrias alimentícias de pequeno porte que se caracterizam por utilizar métodos empíricos, ou seja, tentativa e erro, no desenvolvimento de seus produtos. A utilização de Projeto de Experimentos com Formulações, como ferramenta estatística de suporte no desenvolvimento de produtos formulados, tem como objetivo otimizar o planejamento, execução e análise dos experimentos, permitindo que a seqüência de ensaios seja estruturada adequadamente, de forma a traduzir os objetivos a serem atingidos. A metodologia proposta neste trabalho apoia-se nessa ferramenta estatística e põe grande ênfase nas fases de identificação do problema e planejamento, fases nas quais a criatividade do investigador tem uma função muito importante. A metodologia proposta é ilustrada através de um estudo de caso. As etapas do estudo de caso envolvem: identificação do problema; planejamento do experimento; execução do experimento; seleção das melhores rodadas experimentais quanto a características de qualidade sensoriais através de uma análise sensorial comparativa com um produto similar líder de mercado (benchmarking); modelagem individual das variáveis de resposta e definição de uma função objetivo e otimização. A aplicação de Projetos de Experimentos fez-se através da utilização de variáveis independentes, tomando o método adaptável a situações onde há algum tipo de restrição. O desenvolvimento do produto, apresentado no estudo de caso, fez-se em um ambiente de Engenharia Simultânea, propiciado pelas características multifuncionais próprias das empresas em questão, reduzindo substancialmente o tempo de desenvolvimento do novo produto, por meio da realização das várias fases do projeto de forma simultânea.
Resumo:
Essa dissertação aborda o tema simulação de serviços. É apresentada abordagem para estudo de empresas prestadoras de serviços a partir da ótica de avaliação e otimização de produtividade, custos operacionais e lead-time. A abordagem proposta foi desenvolvida com base em estudo de caso realizado junto à empresa Scherer Informática, que atua na área de manutenção de computadores. Os cenários gerados e as simulações dos serviços prestados foram realizados com o suporte de software específico para a modelagem de serviços: o Servicemodel. O estudo possibilitou a empresa conhecer: (i) o melhor dimensionamento das equipes de front office e back office, (ii) a melhor distribuição dos funcionários, que conduz a maior produtividade, (iii) a melhor qualificação da equipe, que minimiza custos operacionais, e, (iv) a análise do lead-time, que permitiu identificar as operações críticas e estabelecer um plano de melhorias visando agilizar o atendimento ao cliente. As etapas observadas no estudo de caso constituem uma abordagem para a otimização de serviços, que considera produtividade, custos operacionais e lead-time. Devido à generalidade das etapas propostas, a abordagem pode ser adaptada para o uso em outras empresas, subsidiando decisões relativas à melhoria dos processos de prestação de serviços.
Resumo:
Este trabalho analisa a existência de benefícios, em termos de risco e retorno, na inclusão de mercados emergentes globais e, em especial, dos países latinoamericanos na formação de carteiras internacionais ótimas, segundo o modelo de Markowitz (1952) e considerando o risco cambial. Para isto, o estudo baseia-se na análise das taxas de retornos mensais, desvio-padrão e coeficientes de correlação em termos de moeda local, dólar, iene, marco alemão e euro, dos Índices dos Mercados de Ações (IMAs) de dezenove países, dos Índices de Bolsa de Valores de São Paulo (IBOVESPA), Buenos Aires (MERVAL), México (IPC), Santiago (IPSA), e de Caracas (IBC), para o período compreendido entre janeiro de 1994 e dezembro de 2000. Utilizou-se o aplicativo SOLVER como ferramenta para a seleção de carteiras ótimas encontrando-se uma taxa livre de risco para este período de estudo como elemento para otimizar as diferentes carteiras internacionais, tomando como base o histórico das taxas das letras do tesouro dos EUA. Tem-se, como restrição, que os investidores não podem efetuar vendas a descoberto. Os resultados indicam que ainda existem evidências dos benefícios da diversificação internacional em termos de desempenho para os investidores mas que estes são menores comparados com aqueles encontrados no trabalho de Zanette (1995) ao considerar o fator cambial. Cabe indicar, também, que a inclusão do componente latino-americano nas diferentes carteiras otimizadas, quase não acrescenta benefício algum do desempenho geral destas carteiras, sendo nulo para as carteiras do investidor japonês.
Resumo:
A capacidade de encontrar e aprender as melhores trajetórias que levam a um determinado objetivo proposto num ambiente e uma característica comum a maioria dos organismos que se movimentam. Dentre outras, essa e uma das capacidades que têm sido bastante estudadas nas ultimas décadas. Uma consequência direta deste estudo e a sua aplicação em sistemas artificiais capazes de se movimentar de maneira inteligente nos mais variados tipos de ambientes. Neste trabalho, realizamos uma abordagem múltipla do problema, onde procuramos estabelecer nexos entre modelos fisiológicos, baseados no conhecimento biológico disponível, e modelos de âmbito mais prático, como aqueles existentes na área da ciência da computação, mais especificamente da robótica. Os modelos estudados foram o aprendizado biológico baseado em células de posição e o método das funções potencias para planejamento de trajetórias. O objetivo nosso era unificar as duas idéias num formalismo de redes neurais. O processo de aprendizado de trajetórias pode ser simplificado e equacionado em um modelo matemático que pode ser utilizado no projeto de sistemas de navegação autônomos. Analisando o modelo de Blum e Abbott para navegação com células de posição, mostramos que o problema pode ser formulado como uma problema de aprendizado não-supervisionado onde a estatística de movimentação no meio passa ser o ingrediente principal. Demonstramos também que a probabilidade de ocupação de um determinado ponto no ambiente pode ser visto como um potencial que tem a propriedade de não apresentar mínimos locais, o que o torna equivalente ao potencial usado em técnicas de robótica como a das funções potencias. Formas de otimização do aprendizado no contexto deste modelo foram investigadas. No âmbito do armazenamento de múltiplos mapas de navegação, mostramos que e possível projetar uma rede neural capaz de armazenar e recuperar mapas navegacionais para diferentes ambientes usando o fato que um mapa de navegação pode ser descrito como o gradiente de uma função harmônica. A grande vantagem desta abordagem e que, apesar do baixo número de sinapses, o desempenho da rede e muito bom. Finalmente, estudamos a forma de um potencial que minimiza o tempo necessário para alcançar um objetivo proposto no ambiente. Para isso propomos o problema de navegação de um robô como sendo uma partícula difundindo em uma superfície potencial com um único ponto de mínimo. O nível de erro deste sistema pode ser modelado como uma temperatura. Os resultados mostram que superfície potencial tem uma estrutura ramificada.
Resumo:
A melhoria de produtos e processos industriais pode ser realizada utilizando-se métodos de otimização experimental. Este trabalho apresenta um método estruturado para otimização envolvendo variáveis relacionadas com qualidade, comumente utilizadas, e variáveis que descrevem a confiabilidade do produto. O interesse em particular, está em sistematizar uma forma apropriada de determinar o prazo de garantia de produtos, baseado em testes de degradação acelerados. Para atingir este propósito utiliza-se projeto de experimentos conjuntamente com técnicas de avaliação sensorial, utilizada para medir o grau de degradação das amostras provindas dos testes de confiabilidade acelerados. O método é ilustrado com um estudo de caso realizado num produto fabricado em injeção de plástico. No exemplo do estudo de caso, deseja-se modelar a garantia de um piso plástico utilizado, na maternidade, para criação de suínos. Até o momento da realização da análise ocorriam reclamações de problemas com o produto dentro do prazo e garantia. O principal problema era a delaminação do produto devida a intensa fucção entre os cascos do animal e o piso. Um número elevado de reclamações durante o prazo de garantia levou ao desenvolvimento de uma nova composição do piso; o método proposto aqui é utilizado para determinar um prazo de garantia apropriado para produtos novos.
Resumo:
A matéria orgânica determina os principais atributos que definem a qualidade do solo, sendo diretamente afetada pelas práticas de manejo. Esta pesquisa objetivou ampliar o conhecimento referente às influências do sistema de culturas e da adubação nitrogenada no estoque e na qualidade da matéria orgânica do solo no sistema plantio direto. O estudo foi desenvolvido a partir de um experimento de longa duração (17 anos), constituído por dez sistemas de culturas em plantio direto e estabelecido num Argissolo inicialmente degradado pelo cultivo. Utilizou-se os sistemas aveia/milho, lablab+milho e guandu+milho, com e sem adubação nitrogenada (N). O tratamento solo descoberto, da área experimental, e o campo nativo também foram incluídos no estudo. Dez camadas de solo foram amostradas até a profundidade de 107,5 cm e três destas (0-2,5; 2,5-7,5 e 37,5-47,5 cm) foram fracionadas fisicamente nas frações matéria orgânica particulada (MOP), silte e argila. Os estoques de C e N foram avaliados em cada camada e também nas frações físicas. A qualidade da matéria orgânica foi investigada por espectroscopia de RMN-13C e de RMN- 15N (estado sólido), hidrólise ácida e pirólise analítica O estoque de C da camada de 0-107,5 cm reduziu, durante o período experimental, em média 5,8 Mg C ha-1 nos sistemas solo descoberto e aveia/milho (sem N), permaneceu constante no sistema aveia/milho (com N) e aumentou em média 20,6 Mg C ha-1 nos sistemas lablab+milho e guandu+milho (sem N e com N). O mesmo ocorreu nos estoques de C e N das frações físicas, sendo que as alterações foram relativamente maiores na MOP. A fração argila apresentou uma capacidade finita de estocar C (47,7 g C kg-1 de argila). Os sistemas de culturas afetaram a qualidade da MOP, porém não da matéria orgânica das frações silte e argila. A adubação nitrogenada tendeu a aumentar a proporção de C alquil na fração argila. A principal forma de carbono da matéria orgânica do solo foi C O-alquil. Material carbonizado (carvão) foi encontrado na fração silte da camada de 37,5-47,5 cm. O manejo do solo atua principalmente sobre os estoques e não tanto sobre a qualidade da matéria orgânica do solo.
Resumo:
Este trabalho apresenta uma sistemática para realizar a otimização numérica de pré-formas e de matrizes em problemas de forjamento axissimétricos e em estado plano de deformações. Para este fim, desenvolveu-se um código computacional composto basicamente de três módulos: módulo de pré-processamento, módulo de análise e módulo de otimização. Cada um destes foi elaborado acrescentando rotinas em programas comerciais ou acadêmicos disponíveis no GMAp e no CEMACOM. Um programa gerenciador foi desenvolvido para controlar os módulos citados no processo de otimização. A abordagem proposta apresenta uma nova função objetivo a minimizar, a qual está baseada em uma operação booleana XOR (exclusive or) sobre os dois polígonos planos que representam a geometria desejada para o componente e a obtida na simulação, respectivamente. Esta abordagem visa eliminar possíveis problemas geométricos associados com as funções objetivo comumente utilizadas em pesquisas correlatas. O trabalho emprega análise de sensibilidade numérica, via método das diferenças finitas. As dificuldades associadas a esta técnica são estudadas e dois pontos são identificados como limitadores da abordagem para problemas de conformação mecânica (grandes deformações elastoplásticas com contato friccional): baixa eficiência e contaminação dos gradientes na presença de remalhamentos. Um novo procedimento de diferenças finitas é desenvolvido, o qual elimina as dificuldades citadas, possibilitando a sua aplicação em problemas quaisquer, com características competitivas com as da abordagem analítica Malhas não estruturadas são tratadas mediante suavizações Laplacianas, mantendo as suas topologias. No caso de otimização de pré-formas, o contorno do componente a otimizar é parametrizado por B-Splines cujos pontos de controle são adotados como variáveis de projeto. Por outro lado, no caso de otimização de matrizes, a parametrização é realizada em termos de segmentos de reta e arcos de circunferências. As variáveis de projeto adotadas são, então, as coordenadas das extremidades das retas, os raios e centros dos arcos, etc. A sistemática é fechada pela aplicação dos algoritmos de programação matemática de Krister Svanberg (Método das Assíntotas Móveis Globalmente Convergente) e de Klaus Schittkowski (Programação Quadrática Sequencial – NLPQLP). Resultados numéricos são apresentados mostrando a evolução das implementações adotadas e o ganho de eficiência obtido.
Resumo:
Neste trabalho é resolvido o problema da minimização do volume de estruturas bidimensionais contínuas submetidas a restrições sobre a flexibilidade (trabalho das forças externas) e sobre as tensões, utilizando a técnica chamada otimização topológica, que visa encontrar a melhor distribuição de material dentro de um domínio de projeto pré-estabelecido. As equações de equilíbrio são resolvidas através do método dos elementos finitos, discretizando a geometria e aproximando o campo de deslocamentos. Dessa forma, essas equações diferenciais são transformadas em um sistema de equações lineares, obtendo como resposta os deslocamentos nodais de cada elemento. A distribuição de material é discretizada como uma densidade fictícia constante por elemento finito. Esta densidade define um material isotrópico poroso de uma seqüência pré-estabelecida (SIMP). A otimização é feita através da Programação Linear Seqüencial. Para tal, a função objetivo e as restrições são sucessivamente linearizadas por expansão em Série de Taylor. A análise de sensibilidade para a restrição de flexibilidade é resolvida utilizando o cálculo da sensibilidade analítico adaptado para elementos finitos de elasticidade plana. Quando as restrições consideradas são as tensões, o problema torna-se mais complexo. Diferente da flexibilidade, que é uma restrição global, cada elemento finito deve ter sua tensão controlada. A tensão de Von Mises é o critério de falha considerado, cuja sensibilidade foi calculada de acordo com a metodologia empregada por Duysinx e Bendsøe [Duysinx e Bendsøe, 1998] Problemas como a instabilidade de tabuleiro e dependência da malha sempre aparecem na otimização topológica de estruturas contínuas. A fim de minimizar seus efeitos, um filtro de vizinhança foi implementado, restringindo a variação da densidade entre elementos adjacentes. Restrições sobre as tensões causam um problema adicional, conhecido como singularidade das tensões, fazendo com que os algoritmos não convirjam para o mínimo global. Para contornar essa situação, é empregada uma técnica matemática de perturbação visando modificar o espaço onde se encontra a solução, de forma que o mínimo global possa ser encontrado. Esse método desenvolvido por Cheng e Guo [Cheng e Guo, 1997] é conhecido por relaxação-ε e foi implementado nesse trabalho.
Resumo:
Este trabalho é uma contribuição para o conhecimento de metodologias de projeto de estruturas de material composto, aplicando métodos de otimização estrutural a cascas laminadas e apresentando uma estratégia em dois níveis. No primeiro nível é realizada a minimização da flexibilidade da estrutura, tendo como variável de projeto a orientação de cada lâmina da estrutura. Utiliza-se Programação Linear Seqüencial (SLP) e direção de tensão principal para otimização da orientação. No segundo nível minimiza-se o volume de cada lâmina, usando a flexibilidade total da estrutura como restrição e a densidade relativa como variável de projeto, também através de SLP. Para evitar aparecimento de áreas com densidades intermediárias, utiliza-se um Método de Continuação, dividindo o nível de otimização topológica em duas ou mais etapas. As formulações desenvolvidas permitem a solução de problemas com múltiplos casos de carregamento. Para a solução da equação de equilíbrio de casca laminada, utiliza-se um elemento finito de casca degenerado de oito nós com integração explícita na direção da espessura. A implementação desse elemento é feita de modo a facilitar a obtenção das derivadas da matriz de rigidez, necessárias na linearização das funções objetivo e restrições. Evita-se assim o uso de derivadas numéricas. Resultados para vários tipos de estrutura são apresentados, incluindo comparações entre diferentes carregamentos, condições de contorno, número de lâminas, espessuras, etc. As soluções obtidas, formas de análise e possíveis aplicações são discutidas.
Resumo:
Os autores objetivam, com este trabalho, bem como com aqueles que lhe precederam (capítulos l, 2, 3 e 4) registrar as suas experiências ao longo dos últimos anos ministrando cadeiras de matemática nos cursos de pós-graduação em economia da Fundação Getúlio Vargas, da UFF (Universidade Federal Fluminense) e da PUC-RJ. Reveste-se de constante repetição em tais cursos a discussão sobre que pontos abordar, bem como com qual grau de profundidade e em que ordem. É neste sentido que os autores esperam. com a sequência didática aqui apresentada, trazer alguma contribuição para o assunto.
Resumo:
Os autores objetivam, com este trabalho preliminar, bem como com aqueles que lhe darão continuidade, na sequência de composição de um livro de matemática para economistas, registrar as suas experiências ao longo dos últimos anos ministrando cadeiras de matemática nos cursos de pós-graduação em economia da Fundação Getúlio Vargas, da UFF (Universidade Federal Fluminense) e da PUC-RJ. Reveste-se de constante repetição em tais cursos a discussão sobre que pontos abordar, bem como com qual grau de profundidade, e em que ordem. É neste sentido que os autores esperam, com a sequência didática que aqui se inicia, trazer alguma contribuição para o assunto. A parte teórica relativa à demonstração do Teorema de Kuhn Tucker aqui apresentada transcreve, com a aquiescência do autor, textos selecionados de "Análise Convexa do Rn." de Mario Henrique Simonsen.
Resumo:
Com o objetivo de desenvolver uma fundamentação teórica para o estudo formal de problemas de otimização NP-difíceis, focalizando sobre as propriedades estruturais desses problemas relacionadas à questão da aproximabilidade, este trabalho apresenta uma abordagem semântica para tratar algumas questões originalmente estudadas dentro da Teoria da Complexidade Computacional, especificamente no contexto da Complexidade Estrutural. Procede-se a uma investigação de interesse essencialmente teórico, buscando obter uma formalização para a teoria dos algoritmos aproximativos em dois sentidos. Por um lado, considera-se um algoritmo aproximativo para um problema de otimização genérico como o principal objeto de estudo, estruturando-se matematicamente o conjunto de algoritmos aproximativos para tal problema como uma ordem parcial, no enfoque da Teoria dos Domínios de Scott. Por outro lado, focaliza-se sobre as reduções entre problemas de otimização, consideradas como morfismos numa abordagem dentro da Teoria das Categorias, onde problemas de otimização e problemas aproximáveis são os objetos das novas categorias introduzidas. Dentro de cada abordagem, procura-se identificar aqueles elementos universais, tais como elementos finitos, objetos totais, problemas completos para uma classe, apresentando ainda um sistema que modela a hierarquia de aproximação para um problema de otimização NP-difícil, com base na teoria categorial da forma. Cada uma destas estruturas matemáticas fornecem fundamentação teórica em aspectos que se complementam. A primeira providencia uma estruturação interna para os objetos, caracterizando as classes de problemas em relação às propriedades de aproximabilidade de seus membros, no sentido da Teoria dos Domínios, enquanto que a segunda caracteriza-se por relacionar os objetos entre si, em termos de reduções preservando aproximação entre problemas, num ponto de vista externo, essencialmente categorial.
Resumo:
O traçado de obras com características lineares num espaço geográfico tem, em princípio, um número muito grande de soluções. A seleção de traçados mais convenientes é hoje abordada pela Pesquisa Operacional por meio da Programação Dinâmica tradicional e das técnicas para resolver o problema conhecido como leastcost- path, (caminho de mínimo custo). Por sua vez, o planejamento de espaços geográficos é feito com o auxílio de técnicas de SIG (sistemas de informação geográfica). O estudo algorítmico dos caminhos de mínimo custo não é novidade e até os programas comerciais para SIG mais utilizados têm incorporado comandos que, com certas limitações, resolvem esse problema. Mas, seja qual for a abordagem, sempre é preciso conhecer a priori a funçãoobjetivo (FO), e isto não é tarefa fácil, pois devem ser conjugados objetivos de satisfação de necessidades sociais, políticas, ambientais e econômicas, o que gera um verdadeiro problema de otimização multiobjetivo e multicritério. Este trabalho teve como foco principal elaborar um modelo de decisão para ajudar na formulação da FO, adotando o paradigma multiobjetivo/multicritério, explorando inclusive o relaxamento difuso de pareceres dos decisores. Foram utilizadas apenas ferramentas computacionais (software e hardware) simples, de ampla difusão entre os engenheiros e de baixo custo, como a planilha de cálculo Excel e o programa Idrisi 32, procurando explorar suas aptidões e limitações, sem recorrer à elaboração e/ou utilização de códigos computacionais próprios, sobre os quais muitas pessoas sentem receios até não serem testados suficientemente. Foi obtido um sistema de apoio à decisão eficaz e de fácil utilização e sua possibilidade de aplicação foi testada na definição do traçado ótimo de parte da defesa norte da cidade de Resistencia (Argentina).