999 resultados para Planejamento ótimo de reativos
Resumo:
No planejamento experimental, a parcela experimental é um fator determinante para o sucesso da pesquisa. Portanto, é necessário que o pesquisador defina adequadamente a constituição da parcela ou unidade experimental, no intuito de aumentar a eficiência do experimento e diminuir o erro experimental. Em decorrência da grande variabilidade no tamanho da parcela encontrada nos experimentos com abacaxizeiro, realizou-se uma pesquisa objetivando estimar o tamanho ótimo para parcelas experimentais, considerando diferentes características. Os dados utilizados para este trabalho foram coletados em 100 plantas de abacaxizeiro 'Vitória'. Foram coletados 100 frutos e 100 folhas "D" de plantas cultivadas na mesma área experimental e submetidas às mesmas práticas de cultivo. Foram avaliados nos frutos: o comprimento, o diâmetro e a massa. Na folha "D", foram avaliados o comprimento e a massa, além dos teores de N, P e K. As estimativas do tamanho da parcela foram baseadas nos métodos do modelo linear de resposta a platô e da curvatura máxima. O tamanho ótimo da parcela para a avaliação do abacaxizeiro 'Vitória' é de 15 a 20 unidades experimentais por parcela, para as características dos frutos e das folhas, pelo método do modelo linear de resposta a platô. Para a avaliação dos teores de N, P e K, 10 folhas representam o tamanho ótimo da parcela pelo método do modelo linear de resposta a platô. Por outro lado, o tamanho ótimo da parcela para avaliação dos frutos e das folhas do abacaxi 'Vitória' é de 1,7 a 2,8 unidades experimentais pelo método da curvatura máxima. Enquanto, para os teores de N, P e K, 3 a 5 unidades experimentais representam o tamanho ótimo da parcela pelo método da curvatura máxima.
Resumo:
Este trabalho teve como objetivos desenvolver e testar um algoritmo com base na metaheurística busca tabu (BT), para a solução de problemas de gerenciamento florestal com restrições de inteireza. Os problemas avaliados tinham entre 93 e 423 variáveis de decisão, sujeitos às restrições de singularidade, produção mínima e produção máxima periódicas. Todos os problemas tiveram como objetivo a maximização do valor presente líquido. O algoritmo para implementação da BT foi codificado em ambiente delphi 5.0 e os testes foram efetuados em um microcomputador AMD K6II 500 MHZ, com memória RAM de 64 MB e disco rígido de 15GB. O desempenho da BT foi avaliado de acordo com as medidas de eficácia e eficiência. Os diferentes valores ou categorias dos parâmetros da BT foram testados e comparados quanto aos seus efeitos na eficácia do algoritmo. A seleção da melhor configuração de parâmetros foi feita com o teste L&O, a 1% de probabilidade, e as análises através de estatísticas descritivas. A melhor configuração de parâmetros propiciou à BT eficácia média de 95,97%, valor mínimo igual a 90,39% e valor máximo igual a 98,84%, com um coeficiente de variação de 2,48% do ótimo matemático. Para o problema de maior porte, a eficiência da BT foi duas vezes superior à eficiência do algoritmo exato branch and bound, apresentando-se como uma abordagem muito atrativa para solução de importantes problemas de gerenciamento florestal.
Resumo:
Os objetivos deste trabalho foram desenvolver e testar um algoritmo genético (AG) para a solução de problemas de gerenciamento florestal com restrições de integridade. O AG foi testado em quatro problemas, contendo entre 93 e 423 variáveis de decisão, sujeitos às restrições de singularidade, produção mínima e produção máxima, periodicamente. Todos os problemas tiveram como objetivo a maximização do valor presente líquido. O AG foi codificado em ambiente delphi 5.0 e os testes foram realizados em um microcomputador AMD K6II 500 MHZ, com memória RAM de 64 MB e disco rígido de 15GB. O desempenho do AG foi avaliado de acordo com as medidas de eficácia e eficiência. Os valores ou categorias dos parâmetros do AG foram testados e comparados quanto aos seus efeitos na eficácia do algoritmo. A seleção da melhor configuração de parâmetros foi feita com o teste L&O, a 1% de probabilidade, e as análises foram realizadas através de estatísticas descritivas. A melhor configuração de parâmetros propiciou ao AG eficácia média de 94,28%, valor mínimo de 90,01%, valor máximo de 98,48%, com coeficiente de variação de 2,08% do ótimo matemático, obtido pelo algoritmo exato branch and bound. Para o problema de maior porte, a eficiência do AG foi cinco vezes superior à eficiência do algoritmo exato branch and bound. O AG apresentou-se como uma abordagem bastante atrativa para solução de importantes problemas de gerenciamento florestal.
Resumo:
Os objetivos deste trabalho foram desenvolver e testar a metaheurística SA para solução de problemas de gerenciamento florestal com restrições de integridade. O algoritmo SA desenvolvido foi testado em quatro problemas, contendo entre 93 e 423 variáveis de decisão, sujeitos às restrições de singularidade, produção mínima e produção máxima, periodicamente. Todos os problemas tiveram como objetivo a maximização do valor presente líquido. O algoritmo SA foi codificado em liguagem delphi 5.0 e os testes foram efetuados em um microcomputador AMD K6II 500 MHZ, com memória RAM de 64 MB e disco rígido de 15GB. O desempenho da SA foi avaliado de acordo com as medidas de eficácia e eficiência. Os diferentes valores ou categorias dos parâmetros da SA foram testados e comparados quanto aos seus efeitos na eficácia do algoritmo. A seleção da melhor configuração de parâmetros foi feita com o teste L&O, a 1% de probabilidade, e as análises foram realizadas através de estatísticas descritivas. A melhor configuração de parâmetros propiciou à SA eficácia média de 95,36%, valor mínimo de 83,66%, valor máximo de 100% e coeficiente de variação igual a 3,18% do ótimo matemático obtido pelo algoritmo exato branch and bound. Para o problema de maior porte, a eficiência da SA foi dez vezes superior à eficiência do algoritmo exato branch and bound. O bom desempenho desta heurística reforçou as conclusões, tiradas em outros trabalhos, do seu enorme potencial para resolver importantes problemas de gerenciamento florestal de difícil solução pelos instrumentos computacionais da atualidade.
Resumo:
Devido à necessidade de permanecer competitiva e rentável, a indústriada construção civil tem mudado a forma de conduzir seus negócios e adaptado filosofias gerenciais para a suarealidade, como é o casodo Just-in-Time (JIT)e dos Sistemas da Oualidade (por exemplo: TOM e TOC). Dentro deste contexto, encontra-se a aplicação da Teoria das Restrições (TR) no processo de Planejamento e Controle da Produção (PCP) de obras de edificação. A Teoria das Restrições é uma filosofia gerencial fundamentada no conceito de restrição e em como gerenciar as restrições identificadas, fornecendo: (a) um procedimento para os responsáveis pela produção identificarem onde e como concentrar esforços e (b) um processo de melhoria contínua para o sistema produtivo como um todo, buscando sempre o ótimo globalantes do local. O desconhecimento dos possíveis benefícios e dificuldades decorrentes da adaptação e aplicação desta teoria na indústria da construção civil fez com que a aplicação da Teoria das Restrições fosse simulada, usando a técnica STROBOSCOPE (Stateand Resource Based Simulation of Construction Processes), em um empreendimento para analisar os impactos que prazos e custos podem sofrer durante as aplicações em casos reais. Estas simulações mostraram que a Teoria das Restrições e suas técnicas e ferramentas são aplicáveis ao processo de PCP, reduzindo os atrasos e os custos por atraso que um empreendimento pode sofrer.
Resumo:
O tamanho ótimo de uma empresa exerce papel importante na determinação da estrutura de mercado, nas decisões de planejamento de empresas, e em políticas de regulação e antitruste. Assim, um dos principais objetivos deste trabalho foi estimar o tamanho ótimo (ou EME) das empresas para 106 setores da indústria manufatureira brasileira, num contexto de informação limitada. Outro objetivo foi analisar a mudança do tamanho ótimo das empresas devido ao processo de abertura comercial brasileiro. Para isso foram empregados dois procedimentos em sequência: Máxima Entropia (GOLAN, JUDGE & PERLOFF, 1996) e Survivor Technique (STIGLER, 1958). Primeiramente aplicamos a Máxima Entropia, para estimar as distribuições de market shares em cada setor utilizando somente medidas de concentração. Os dados se referem aos anos de 1978, 1995 e 1997. O próximo procedimento consistiu na aplicação da survivor technique a estas distribuições para encontrarmos o tamanho ótimo da empresa nos períodos pré e pós abertura comercial. Os resultados indicam que o processo de abertura comercial contribuiu para uma elevação do tamanho ótimo das empresas em mais de 60% dos setores. Este aumento ocorreu principalmente em setores capital intensivo e que apresentavam elevadas taxas de participação de empresas estrangeiras. Esses resultados corroboram os argumentos da literatura de organização industrial e comércio internacional que afirmam que o elevado protecionismo estimulou a proliferação de empresas pequenas e ineficientes que operam com escalas reduzidas e pouco competitivas.
Resumo:
The usual programs for load flow calculation were in general developped aiming the simulation of electric energy transmission, subtransmission and distribution systems. However, the mathematical methods and algorithms used by the formulations were based, in majority, just on the characteristics of the transmittion systems, which were the main concern focus of engineers and researchers. Though, the physical characteristics of these systems are quite different from the distribution ones. In the transmission systems, the voltage levels are high and the lines are generally very long. These aspects contribute the capacitive and inductive effects that appear in the system to have a considerable influence in the values of the interest quantities, reason why they should be taken into consideration. Still in the transmission systems, the loads have a macro nature, as for example, cities, neiborhoods, or big industries. These loads are, generally, practically balanced, what reduces the necessity of utilization of three-phase methodology for the load flow calculation. Distribution systems, on the other hand, present different characteristics: the voltage levels are small in comparison to the transmission ones. This almost annul the capacitive effects of the lines. The loads are, in this case, transformers, in whose secondaries are connected small consumers, in a sort of times, mono-phase ones, so that the probability of finding an unbalanced circuit is high. This way, the utilization of three-phase methodologies assumes an important dimension. Besides, equipments like voltage regulators, that use simultaneously the concepts of phase and line voltage in their functioning, need a three-phase methodology, in order to allow the simulation of their real behavior. For the exposed reasons, initially was developped, in the scope of this work, a method for three-phase load flow calculation in order to simulate the steady-state behaviour of distribution systems. Aiming to achieve this goal, the Power Summation Algorithm was used, as a base for developing the three phase method. This algorithm was already widely tested and approved by researchers and engineers in the simulation of radial electric energy distribution systems, mainly for single-phase representation. By our formulation, lines are modeled in three-phase circuits, considering the magnetic coupling between the phases; but the earth effect is considered through the Carson reduction. It s important to point out that, in spite of the loads being normally connected to the transformer s secondaries, was considered the hypothesis of existence of star or delta loads connected to the primary circuit. To perform the simulation of voltage regulators, a new model was utilized, allowing the simulation of various types of configurations, according to their real functioning. Finally, was considered the possibility of representation of switches with current measuring in various points of the feeder. The loads are adjusted during the iteractive process, in order to match the current in each switch, converging to the measured value specified by the input data. In a second stage of the work, sensibility parameters were derived taking as base the described load flow, with the objective of suporting further optimization processes. This parameters are found by calculating of the partial derivatives of a variable in respect to another, in general, voltages, losses and reactive powers. After describing the calculation of the sensibility parameters, the Gradient Method was presented, using these parameters to optimize an objective function, that will be defined for each type of study. The first one refers to the reduction of technical losses in a medium voltage feeder, through the installation of capacitor banks; the second one refers to the problem of correction of voltage profile, through the instalation of capacitor banks or voltage regulators. In case of the losses reduction will be considered, as objective function, the sum of the losses in all the parts of the system. To the correction of the voltage profile, the objective function will be the sum of the square voltage deviations in each node, in respect to the rated voltage. In the end of the work, results of application of the described methods in some feeders are presented, aiming to give insight about their performance and acuity
Planejamento da expansão de sistemas de transmissão considerando a retirada de linhas de transmissão
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Engenharia Elétrica - FEIS
Resumo:
Pós-graduação em Engenharia Elétrica - FEIS
Resumo:
Pós-graduação em Engenharia Elétrica - FEIS
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
Resumo:
The electrochemical properties of methylene blue immobilized on cellulose/TiO2 and mixed oxide SiO2/TiO2 matrices were investigated by means of cyclic voltammetry. The electron mediator property of the methylene blue was optimized using a factorial design, consisting of four factors in two levels. The experimental observations and data analyses on the system indicate that the lowest peak separation occurs for Sil/TiOAM, 1.0 mol L-1 KCl solution and 20 mV s-1 scan rate, while values of current ratio closest to unity were found for Cel/TiOAM independent of electrolyte concentration, 0.2 or 1.0 mol L-1, and scan rate, 20 mV s-1 or 60 mV s-1.
Resumo:
This works describes the use of experimental design and surface response methodology for optimization of saponin extraction from Ampelozizyphus amazonicus. For this purpose, a method employing extraction based on maceration assisted by ultrasound technique was utilized. The following factors were studied: extraction length of time and solvent composition. The total saponin was determined by using a gravimetric method and the results expressed by their relative proportion to total crude extract. For the specific condition, 60% hydro-alcoholic solution and 18 minutes extraction length of time has shown the best results. This method can be useful for extraction of substances with biological importance
Resumo:
Universidade Estadual de Campinas . Faculdade de Educação Física